Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
sluiten

Onderzoek Tweakers

Om beter te begrijpen wat jij waardevol vindt aan Tweakers en andere online content of features, voeren we een onderzoek uit. Wil jij ons helpen door de bijbehorende vragenlijst in te vullen? Het invullen neemt ongeveer 15 minuten in beslag en onder alle deelnemers verloten we drie Tweakers-goodiebags.

Naar het onderzoek

Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 82 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 39.974 views
http://img150.imageshack.us/img150/2029/atitopiclogo2nr0.jpg
 

NOTE: Vragen over de HD3800 serie? That way please ----> Het HD38xx Ervaringen Topic . Wil je direct door naar de reviews over de HD3800 serie? Klik dan HIER!

Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de voormalig Canadese fabrikant ATi, dat nu een divisie is van AMD, kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten. We willen het hier namelijk wel gezellig houden. ;)

De meest gestelde vragen & simpele feitjes kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

CHANGELOG
  • 19 Maart - Pricewatch update + RV7x0 info toegevoegd
  • 25 Februari - FAQ / Feitjes aangevuld. Pricewatch geupdate
  • 1 Februari - Opschonen First Post & FAQ
  • 23 Januari - HD3870X2 Reviews toegevoegd

http://img150.imageshack.us/img150/9367/atitopictopicregelsld3.jpg

Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laatste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic en post je probleem dus niet hier! Dit is namelijk niet het "Grote Radeon Problemen Topic"!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Laten we het vooral gezellig houden. :)

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders. Ook goed verborgen trolls/flames zijn niet welkom!
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Wat voor voeding heb ik nodig?", "Kan ik mijn *vul naam kaart in* modden naar een *vul naam andere kaart in*?", "Klopt mijn 3DMark score wel?", "Werkt CrossFire op een SLi mobo?", "Welke drivers kan ik het beste gebruiken?" etc. Je kent het wel... Gebruik de search-functie. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


http://img360.imageshack.us/img360/702/atitopictopicnavigatiesr2.jpg
http://img390.imageshack.us/img390/4301/atitopictopicgeschiedenav9.jpg

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en/of lees hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
  • R600/RV630/RV610: Deel 51 tm Deel 70


http://img360.imageshack.us/img360/8606/atitopichd3800ji5.jpg


http://img90.imageshack.us/img90/1838/hd3870kk9.jpg


Op 15 November lanceerde AMD de ATI Radeon HD3800 serie. Deze serie is gebaseerd op de RV670 GPU. Met de komst van de ATI Radeon HD3800 serie vaart AMD ook meteen een nieuwe koers wat betreft de naamgeving. De extensies XT, PRO, GT, GTO vervallen volledig. De laatste twee cijfers geven de performance rating binnen een serie (eerste 2 cijfers) aan. Er zijn 3 modellen beschikbaar met de RV670 core:

- ATI Radeon HD3870 (voorheen XT)
- ATI Radeon HD3850 (voorheen Pro)
- ATI Radeon HD3830 (in China gereleased als de HD3690)

Oorspronkelijk zou de HD3830 een 240 streamprocessor variant worden van de RV670 (a la HD2900GT) maar men heeft besloten om de in China gereleasede HD3690 voor de wereldwijde markt om te dopen in de HD3830. Dat betekent dat deze alle 320 streamprocessors behoudt maar gebruik maakt van een 128-bit memory interface.

De ATI Radeon HD3870 en ATI Radeon HD3850 onderscheiden zich van elkaar wat betreft de kloksnelheden van de core en het geheugen. Voor de rest zijn ze identiek.

De ATI Radeon HD3800 Serie heeft als hoofddoel om veel performance + features voor weinig geld met een laag stroomverbruik naar een grote massa te brengen. De meeste mensen zullen de ATI Radeon HD3800 serie vergelijken met de GF8800GT van de concurrentie. Deze G92 chip in die kaart is zo'n 73% groter dan de RV670, verbruikt meer stroom en wordt warmer. AMD ziet de G94 (gebruikt in de GF9600GT) als "natuurlijke" concurrent van de RV670. En zelfs deze GPU is 23% groter dan de RV670..

http://img360.imageshack.us/img360/9117/atitopichd3800namecs3.jpg

De ATI Radeon HD3800 Serie presteert iets beter dan de ATI Radeon HD2900 Serie, ondanks dat het hier gaat om een RVxxx GPU. RVxxx GPUs zijn GPUs die gemaakt zijn voor de lowend en mainstream. De V staat voor Value. De koers die AMD nu vaart met de nieuwe GPUs is die van "beste performance per prijs per watt" oftewel... de beste bang-for-buck.

http://img84.imageshack.us/img84/7973/hd3850xl2.jpg


Hoe kan het dat een Value GPU beter presteert dan een highend GPU in dezelfde serie? Dat komt door interne tweaks en voornamelijk door de hogere snelheid.

Waarom is er dan niet gekozen voor de naam ATI Radeon HD2950, maar wel voor de naam ATI Radeon HD3800? Dit komt omdat alle kaarten uit de ATI Radeon HD2000 serie DirectX10.0 ondersteunen. Alle kaarten van de HD3000 serie ondersteunen DX10.1 en PCI Express 2.0! Om het verschil aan te geven en geen overlappende kaarten met afwijkende technieken binnen dezelfde serie te hebben, heeft AMD eindelijk eens gekozen voor duidelijkheid. De ATI Radeon HD3000 Serie markeert dus het feit dat alle kaarten binnen de serie dezelfde functionaliteit bezitten.

Marketingtechnisch gezien zitten er natuurlijk ook voordelen aan het kiezen van een nieuw beginnummer. Door een nieuw nummer te kiezen, creeert AMD het gevoel dat ze met een schone lei beginnen en het oude achter zich laten. En de consument valt helaas vaak nog voor het "hoger is beter"-principe.

http://img390.imageshack.us/img390/2459/atitopicreviewsit6.jpg


http://www.legitreviews.com/images/reviews/593/amd_crossfirex.jpg
CrossFire X4



Hieronder staan links naar de meeste HD3870 X2 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet. Tevens staat er specifiek bij vermeld wanneer er gebruik wordt gemaakt van de nieuwste reviewdrivers (01.23.08).

PRE-NDA REVIEWS:POST NDA REVIEWS
Niet elke site gebruikt de nieuwste drivers. En sommige sites zijn niet duidelijk over welke versie er gebruikt is. Voor zover bekend wat er gebruikt is, staat het er achter.Hieronder staan links naar de meeste HD38x0 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:Hieronder staan links naar de meeste HD34x0 / HD36x00 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

-

http://img360.imageshack.us/img360/4395/atitopichd3900du1.jpg

http://www.expreview.com/img/news/2008/01/23/4.jpg
Custom Design HD3870 X2


R680 is de nieuwe high-end GPU van AMD die op 28 Januari 2008 gelanceerd wordt. R680 is een voorproefje op de toekomst van AMD GPUs. Het is de eerste Dual GPU high-end oplossing van AMD die officieel ondersteunt wordt sinds 1999 toen de Rage Fury Maxx gelanceerd werd.

De HD3870 X2 is zoals de naam al suggereerd een HD3870 keer 2. Beide GPUs zijn op 1 PCB geplakt en zijn verbonden via een PCIe Switch Chip om een Interne CrossFire connectie tot stand te brengen. De standaard kloksnelheid van de HD3870X2 ligt op 825Mhz core liggen en 1800Mhz mem. Fabrikanten kunnen hier van afwijken, maar de hiervoor genoemde waarden zullen het meeste voor komen.

De performance van de HD3870X2 zal door de hogere snelheid in vergelijking tot een enkele HD3870 iets beter presteren dan een HD3870 in CrossFire. Op dit moment is de HD3870X2 al te krijgen voor €299 en is daarmee de onbetwiste prijs-performance leider! De HD3870X2 brengt CrossFire performance naar een grotere doelgroep, zoals mensen die oudere moederborden hebben met maar 1 enkele 16x PCIe of met te weinig ruimte en dus normaal gesproken geen CrossFire kunnen draaien.

De performance ligt gemiddeld zo'n 15% hoger dan een GeForce 8800Ultra. Soms loopt het verschil op tot 50% op de hoogste resoluties met veel AA en AF. Andere keren is het verschil kleiner. Dit lijkt niet echt veel in vergelijking met een kaart die al 7 maanden uit is, zeker als je bedenkt dat het hier om een dual GPU gaat. Let er echter wel op dat de GF8800Ultra gemiddeld zo'n €650 kost, terwijl de HD3870X2 meer performance brengt voor €250 minder! Ook de GF9800GX2 kost gemiddeld zo'n €200 meer.... Dat is 66% meer prijs voor zo'n 10-20% meer performance (en ook niet eens in alle gevallen).

In eerste instantie komt de 1GB versie uit van de HD3870X2. Verschillende AIBs zullen echter ook komen met een 2GB versie. En eventueel kan er ook een 512MB versie uit komen. Let er wel op dat dit geheugen verdeeld wordt over de 2 GPUs:

- HD3870 X2 2GB: elke GPU gebruikt 1GB
- HD3870 X2 1GB: elke GPU gebruikt 512MB
- HD3870 X2 512MB: elke GPU gebruikt 256MB

Bij het gebruik van veel textures of hoge resoluties zit je dus nog steeds vast aan de limiet van een enkele GPU. Pas in toekomstige GPUs zal het geheugen als 1 grote memory-pool benaderd kunnen worden.

Hoe presteert de HD3870 X2?

http://img523.imageshack.us/img523/6990/benchx2oblivionte9.jpg
Oblivion (DX9): 1600x1200, 1xAA

http://img172.imageshack.us/img172/2626/benchx2oblivion4xaaxb6.jpg
Oblivion (DX9): 1600x1200, 4xAA

http://img441.imageshack.us/img441/7172/benchx2oblivion8xaass1.jpg
Oblivion (DX9): 1600x1200, 8xAA

http://img168.imageshack.us/img168/6185/benchx2r6vri3.jpg
Rainbow Six Vegas (UE3 - DX9), 1600x1200

http://img166.imageshack.us/img166/3286/benchx2ut3hi8.jpg
Unreal Tournament 3 (DX9), 1600x1200

http://img529.imageshack.us/img529/9159/benchx2bioshockxd7.jpg
Bioshock (UE3 - DX10), 1600x1200

http://img513.imageshack.us/img513/9085/benchx2crysishk3.jpg
Crysis (DX10), 1600x1200

http://img142.imageshack.us/img142/2987/benchx2lostplanetcm8.jpg
Lost Planet (DX10), 1280x1024

http://img511.imageshack.us/img511/7999/benchx2lostplanet8xaarw8.jpg
Lost Planet (DX10), 1280x1024, 8xAA

http://img511.imageshack.us/img511/1927/benchx2wicvj2.jpg
World in Conflict (DX10), 1600x1200, 1xAA

http://img511.imageshack.us/img511/9685/benchx2wic4xaahv3.jpg
World in Conflict (DX10), 1600x1200, 4xAA

Bron: www.computerbase.de



http://img360.imageshack.us/img360/245/atitopichd38xxxj1.jpg

http://img187.imageshack.us/img187/4837/gigabytehd3850ld5.jpg
Gigabyte ATI Radeon HD3850 512MB: RX385512H


Zoals gezegd zal de RV670 in eerste instantie in twee varianten op de markt komen, de ATI Radeon HD3850 en de ATI Radeon HD3870. Zoals het er nu naar uit ziet zal de ATI Radeon HD3870 op een kloksnelheid van 775Mhz draaien voor de core en 2400Mhz GDDR4 voor het geheugen. De HD3850 zal het moeten doen met een core snelheid van 667Mhz en een geheugensnelheid van 1800Mhz GDDR3. De feature list ziet er als volgt uit:
  • Aantal transistoren: 666 Miljoen
  • Productieproces: 55nm
  • Bus Interface: PCI Express 2.0 x16
  • Memory Interface: 256-bit GDDR3/GDDR4
  • Memory Controller: 512-bits Ring Bus (fully distributed)
  • DirectX: 10.1
    - Shadermodel 4.1
    - 32-bit floating point texture filtering
    - Indexed Cube Map Arrays
    - Independent Blend modes per Render Target
    - Pixel Coverage Sample Masking
    - Read/write multi-sample surfaces with shaders
    - Gather4
  • Streamprocessors: 320
    - 128-bit floating point precision on all operations
    - Command Processor for reduced CPU overhead
    - Shader instruction and constant caches
    - Up to 80 texture fetchus per clock cycle
    - Up to 128 textures per pixel
    - Fully associative multi-level texture cache design
    - High resolution texture support (up to 8192x8192)
    - Fully associative texture Z/stencil cache designs
    - Early Z test, Re-Z, Z Range optimization and Fast Z Clear
    - Lossless Z & Stencil Compression (up to 128:1)
    - DXTC and 3DC+ texture compression
    - 8 Render Targets (MRTs) with anti-aliasing support
    - Physics Processing Support
  • Dynamic Geometry Acceleration
    - High Performance Vertex Cache
    - Programmable Tesselation Unit
    - Accelerated Geometry Shader Path for Geometry Amplification
    - Memory red/write cache for improved stream output performance
  • Anti-aliasing features
    - Multi Sampling AA (2, 4 of 8 samples per pixel)
    - Up to 24x Custom Filter AA (CFAA) for improved quality
    - Adaptive Super-sampling and Multi-sampling
    - Temporal Anti-aliasing
    - Gamma Correct
    - Super AA (ATI CrossFire configurations only
    - All anti-aliasing features compatible with HDR
  • Texture Filtering Features
    - 2x/4x/8x/16x High Quality Adaptive Anisotropic Filtering Modes (up to 128 taps per pixel)
    - 128-bit Floating point HDR Texture Filtering
    - Bicubic Filtering
    - sRGB filtering (Gamma/degamma)
    - Percentage Closure Filtering (PFC)
    - Depth & Stencil Texture (DST) format Support
    - Shared Exponent HDR (RGBE 9:9:9:5) texture format support
  • OpenGL 2.0 support
  • ATI Avivo HD Video and Display Platform
    - Dedicated Unified Video Decoder (UVD) for H.264/AVC and VC-1 Video formats
    - Hardware MPEG-1, MPEG-2 and DivX video decode acceleration
    - ATI Avivo Video Post Processor
    - Two Independent Display Controllers
    - Two Integrated Dual-Link DVI Display Outputs
    - Two Integrated 400Mhz 30-bit RAMDACs
    - DisplayPort Output Support
    - HDMI Output Support
    - Integrated AMD Xilleon HDTV Decoder
    - MPEG-2, MPEG-4, DivX, WMV9, VC-1 and H.264/AVC Encoding and Transcoding
    - Seamless Integration of Pixel Shaders with Video in Real Time
    - VGA mode support on all display outputs
  • ATI PowerPlay
    - Advanced power management technology for optimal performance and powersavings
    - Performance-on-demand (voltage switching, dynamic clock gating, clock & memory speed throttling, GPU monitoring
    - Central thermal management - on-chip sensors monitors GPU temperature and triggers thermal actions as required
  • ATI CrossFireX Multi-GPU technology
    - Scale up rendering performance and image quality with two, three or four GPUs
    - Integrated compositing engine
    - High performance dual channel bridge interconnect
Hoe presteert de kaart? De HD3870 is op standaardkloksnelheden ongeveer net zo snel en soms iets sneller als een HD2900XT. De iets duurdere GF8800GT presteert vaak zo'n 10-15% sneller op standaardinstellingen. Wanneer AA wordt ingeschakeld zie je dat de HD3870 minder inlevert aan performance. Met 8xAA is de HD3870 in de meeste gevallen zelfs sneller dan een GF8800GT.

In de praktijk zal het er op neer komen dat de ATI Radeon HD3870 zo'n 10% sneller zal zijn dan de ATI Radeon HD2900XT terwijl de ATi Radeon HD3850 zo'n 13% langzamer zal zijn. Bedenk je wel dat dit een midrange kaart is, die sneller en goedkoper is met meer features dan de vorige high-end. Veel bang-for-buck dus! De HD3850 wordt gelanceerd voor dezelfde prijs als de HD2600XT, maar met een performance die vele malen hoger ligt. Ook de GF8600GTS die nu voor zo'n €149 over de toonbank gaat wordt weg gevaagd door de HD3850.

http://img360.imageshack.us/img360/2076/atitopichd3600vr5.jpg


http://img252.imageshack.us/img252/2415/rv635xtrh9.jpg
RV635: HD3650


Er komen 2 kaarten uit in de HD3600 Serie en wel de HD3650 en HD3690.

De HD3650 is de opvolger van de HD2600Pro, daar waar de HD3850 de opvolger is van de HD2600XT.

De HD3650 zal uit twee varianten bestaan, namelijk de GDDR2 versie en de GDDR3 versie. Performance voor de GDDR3 versie (800Mhz) zal rond de 4400 punten in 3DM06 liggen terwijl de GDDR2 (500Mhz) versie rond de 3900 punten scoort in 3DM06. De core zal default op 725Mhz lopen. Dat is dus 75Mhz langzamer dan z'n oudere broertje, de HD2600XT, maar 125Mhz sneller dan de HD2600Pro. Veel fabrikanten zullen echter met OC versies komen die standaard op 800Mhz lopen en dus op gelijke snelheid draaien als de HD2600XT. Ook heeft de HD3600 serie de second generation UVD aan boord voor een nog betere beeldkwaliteit.

http://www.expreview.com/img/news/080124/sapphire3690_02.jpg
Sapphire HD3690


De HD3690 is de vreemde eend in de bijt. Deze kaart was eerst alleen verkrijgbaar in China, maar zal rond Maart/April ook in de rest van de wereld uitgebracht worden. In plaats van op de RV635 gebaseerd te zijn, maakt de HD3690 gebruik van de RV670. Het verschil met een RV670 is echter dat de geheugenbus is versmald naar 128-bits. Hiermee is meteen duidelijk hoe AMD de verschillen aantoont:

HD3800 - 256-bit (of hoger) memory interface
HD3600 - 128-bit memory interface
HD3400 - 64-bit memory interface

De HD3690 heeft alle 320 streamprocessoren actief en zal default op HD3850 snelheid draaien (667Mhz core). Er zullen echter ook HD3690 varianten uit komen die draaien op een coresnelheid van 700Mhz. De HD3690 scoort gemiddeld zo'n 8000 punten in 3DM06.

Note: Er is ook een HD3690 gespot met een 256-bit memory interface wat dus eigenlijk gelijk is aan een HD3850. Ik zal eens navragen of dit klopt.

http://img360.imageshack.us/img360/6810/atitopichd3400tc1.jpg


Er komen 2 kaarten uit in de HD3400 Serie en wel de HD3450 en HD3470.

HD3450
- 600Mhz core
- 500Mhz GDDR2 mem
- 64-bit

HD3470
- 800Mhz core
- 950Mhz GDDR3 mem
- 64-bit

De HD3450 biedt een performance die gelijk is aan de HD2400XT. De HD3470 is 200Mhz sneller geklokt dan de HD2400XT en HD3450, dus zal een leuke boost brengen. Verwacht echter niet dat je Crysis op full detail in DX10 mode kan spelen. Daarvoor is de budget reeks nog steeds te zwak (de highend ook trouwens), maar voor HTPCs is dit een ideaal kaartje.

De HD3400 serie is geschikt voor Hybrid CrossFire in combinatie met de onboard GPU van de RG78/90 chipset. Deze chipset bevat een HD2400 GPU en de performance kan bijna verdubbeld worden wanneer er een HD3400 GPU naast wordt geprikt. UT3 wordt daardoor zelfs goed speelbaar op 1024x768 met eyecandy aan.

http://img390.imageshack.us/img390/7408/atitopictoekomstigegpuspf9.jpg
Op korte termijn staan gepland:
  • RV710
  • RV730
  • RV740
  • RV770
  • R700
De HD3870X2 is een voorbode op wat komen gaat. In de toekomst zal AMD gaan richting multi-core GPU oplossingen voor de highend, net zoals ze dat gedaan hebben hun CPUs (en ook zoals Intel dat doet). Het is goedkoper om twee kleine GPUs bij elkaar te stoppen voor meer performance, dan een enkele grote GPU te ontwikkelen.

De opvolger van de HD3870X2 zal gebaseerd zijn op de RV770. Deze zal echter weer een stap dichter bij de toekomst liggen omdat deze de PCI Express Splitter geintegreerd zal hebben waardoor multi-GPU oplossingen nog eleganter kunnen worden. Latencies worden op deze manier perfect verborgen.

Wanneer komt de RV770 uit? De eerste samples zijn al de deur uit. Nu wordt de GPU flink gedebugged en gefinetuned. De eerste geruchten wijzen er op dat AMD de launch flink naar voren heeft gehaald en de RV770 al in Q2 2008 op de markt wil gooien. Dat duidt op een launch in de april-juni periode.

Wat is de performance van de RV770? Volgens dezelfde geruchten is de AA performance een stuk beter dan bij de R(V)6x0 generatie en zal deze dan op gelijke klok tot wel zo'n 50% sneller zijn dan een HD3870.

De eerste geruchten wijzen er op dat de GPU zo'n 250mm2 groot zal worden. Ter vergelijking: de RV670 was 194mm2. De GPU is dus 28% groter op hetzelfde proces.... er van uitgaande dat dit waarheid is, dan kunnen we er van uit gaan dat de RV770 zo'n 825M transistoren heeft. Wat zou dit dan kunnen bevatten?

- Extra shaderunits/streamprocessoren (bv 128/640 of 160/800)
- Extra texture units (bv 32)
- Hardware AA resolve

De RV670 ondersteunt al DX10.1 dus daar hoeft niks aan te worden verandert daar waar NV bv de texture units compleet moet veranderen om DX10.1 compliant te worden. AMD kan nu de processingpower opvoeren.

http://img360.imageshack.us/img360/1716/atitopicprijsoverzichtcs1.jpg

Vernieuwde prijsoverzicht na lancering HD3600 en HD3400::
  • HD3870 X2: $449 - €399 [retail: €299]
  • HD3870: $189 - €169 [retail: €150]
  • HD3850 512MB: $169 - €159 [retail: €130]
  • HD3850 256MB: $155 - €149 [retail: €118]
  • HD3690: $129 - €109 [retail: €89]
  • HD3650: $99 - €79 [retail: €57]
  • HD3470: $59 - €59 [retail: na]
  • HD3450: $49 - €49 [retail: €33]
  • HD2400(Pro): $29 - €29
Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan tussentijds prijswijzigingen doorvoeren.

http://img145.imageshack.us/img145/6045/atitopicgeruchtenmolengz5.jpg
Gerucht: De RV770 heeft hardware AA resolve aan boord.
Waarheidsfactor: 80%

Gerucht: De RV770 heeft 480 streamprocessors aan boord.
Waarheidsfactor: 50%

Gerucht: De RV770 heeft 32 Texture Units aan boord.
Waarheidsfactor: 50%

Gerucht: De RV770 is gebouwd voor multi GPU opstellingen
Waarheidsfactor: 100%

http://img360.imageshack.us/img360/4926/atitopicoverigenq6.jpg
ATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Veel zaken zijn gebaseerd op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd van harte welkom (via mail dan wel in het topic).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://img150.imageshack.us/img150/2029/atitopiclogo2nr0.jpg
http://img360.imageshack.us/img360/702/atitopictopicnavigatiesr2.jpg
http://img214.imageshack.us/img214/3082/atitopicdirectx101vt6.jpg

Wat biedt DirectX 10.1 boven DX10.0? DirectX 10.1 biedt in het kort gezegd de volgende belangrijke zaken:
  • nieuw shadermodel 4.1
  • verbeterde anti-aliasing ondersteuning
  • flexibelere data toegang
  • striktere specificaties voor betere applicatie compatibileit
Deze features maken het mogelijk dat spannende nieuwe technieken zoals real-time global illumination sneller mogelijk zijn dan met DirectX 10.0. De efficientie ligt dus hoger, maar ook de beeldkwaliteit zal door de strictere regels en verhoogde precisie beter zijn.

Daarnaast brengt DirectX10.1 wat verbeteringen op het gebied van geluid en multi-core CPUs, maar aangezien dit topic over de ATI Radeons gaat, beperk ik me in de uitleg tot de verbeteringen voor GPUs.

De ATI Radeon HD3800 Serie is de allereerste GPU ter wereld die vanaf de grond op voor DirectX 10.1 is gebouwd. Daarnaast bevat de nieuwe serie andere technieken en standaarden zoals PCI Express 2.0, Unified Video Decoder (UVD), hardware accelerated tessellation en een zeer stroom efficient 55nm transistor design (inclusief de mobiele powersavings technlogie Powerplay).
http://img360.imageshack.us/img360/8105/atitopicdxoverzichtmx2.jpg

DirectX 10.1 volgt over het algemeen de structuur en het programmeermodel van DirectX10, maar biedt dus verscheidene verbeteringen. De vertex, geometry en pixelshader instructiesets zijn opgewaardeerd naar Shader Model 4.1. De nieuwe features van DX10.1 kan je het beste onderverdelen in 3 algemene categorieen:

- Nieuwe shading en texturing mogelijkheden
- verbeterde anti-aliasing
- striktere specificaties

Hieronder staat in het kort aangegeven wat de nieuwe features zijn, wat voor functie het heeft en wat de voordelen er van zijn:

http://img145.imageshack.us/img145/79/atitopicdxoverviewpl6.jpg

http://img360.imageshack.us/img360/8581/atitopicdxoverview2hf1.jpg

Omdat sommige termen vrij technisch zijn, staat hieronder in zo simpel mogelijk Nederlands uitgelegd wat er precies bedoeld wordt.

http://img360.imageshack.us/img360/8793/atitopicdxsm41gg4.jpg

DirectX 10.1 waardeert Shader Model 4.0 op naar Shader Model 4.1. De verbeteringen dienen vooral gezocht te worden in optimaliseringen die er voor zorgen dat bepaalde zaken sneller en efficienter uitgevoerd kunnen worden. Je moet hierbij vooral denken aan zaken als lichtval en schaduwberekeningen. In elke game komt dit voor en daar zal de GPU een groot deel van de tijd mee bezig zijn om dit op je scherm te toveren. Een hogere efficientie en snellere methodes om dit voor elkaar te krijgen zijn dan altijd welkom. En dat brengt Shader Model 4.1!

Cube Map Arrays: Ray tracing IQ & Global Illumination
Shader Model 4.1 brengt een IQ die dicht bij de IQ zit die ray-tracing brengt. Op dit moment is ray-tracing te zwaar voor de huidige GPUs, dus brengt DirectX 10.1 alternatieven om de kwaliteit zo veel mogelijk te benaderen. Een daarvan is Cube Map Arrays, wat er ook voor zorgt dat Global Illumination in real time gerenderd kan worden op een efficiente manier.

http://images.tomshardware.com/2007/10/29/amd_hd_3800_to_support_dx_10/gi-demo4-3.jpg


Efficientere Deferred Rendering
Daarnaast wordt er in steeds meer games gebruik gemaakt van "deferred rendering", zoals in alle games die gebruik maken van de Unreal Engine 3 (zoals Unreal Tournament 3). Deferred rendering is een manier van licht renderen die er voor zorgt dat alles er nog realistischer uit ziet. Hier is echter geen AA op mogelijk onder DX9 zonder gebruik te maken van hacks die een grote impact hebben op performance, maar wel onder DX10. En Shader Model 4.1 zorgt er voor dat dit nog efficienter kan gebeuren dan onder Shader Model 4.0 in DX10.

Verbeterde performance voor complexe shaders
Door de vertex shader output te verbeteren van 16 naar 32 128-bit waardes per shader is het mogelijk om complexere shaders nog efficienter uit te voeren. Daarnaast brengt DX10.1 een techniek die Gather4 heet, iets dat AMD al ondersteunt sinds de RV515/RV530/R580. Deze techniek is vooral gericht op het verbeteren van Stream Computing applicaties (general purpose processing).

LOD Instruction
LOD Instruction is een nieuwe shader instruction die er voor zorgt dat er handgemaakte texture filtering technieken gebruikt kunnen worden die gericht zijn op verbeterde performance en beeldkwaliteit.

http://img360.imageshack.us/img360/4021/atitopicdxaa3bb5.jpg

Kartelige flikkerende randen veroorzaakt door aliasing kunnen zeer storend werken. Deze artifacts worden veroorzaakt door onvoldoende rendering en/of schermresolutie. Ze kunnen verminderd worden door middel van filtering technieken, waarbij meerdere samples (multi-samples) genomen worden per pixel en ze samengevoegd worden. Het truukje is om deze samples zo te kiezen dat ze zorgen voor een maximale gladheid zonder te veel wazigheid te veroorzaken, terwijl je tegelijkertijd er ook nog voor moet zorgen dat de performance redelijk blijft.

De meest gebruikte anti-aliasing techniek is multi-sample anti-aliasing (MSAA), maar dit werkt alleen maar met randen van polygonen. Het pakt niet het probleem aan van texture aliasing of shader aliasing. De ATI Radeon HD 2000 serie introduceerde Custom Filter AA (CFAA) die het mogelijk maakte om met verfijnde programmeerbare filters te werken. De laatste Catalyst drivers ondersteunen 4 verschillende soorten filters die toegepast kunnen worden op elke game die gebruik maakt van DX9 of zelfs eerder. De meest geavanceerde van deze filters was het Edge Detect Filter die alle randen (edges) detecteert en er AA op toepast (inclusief textures en shaders!).

http://img70.imageshack.us/img70/4664/atitopicdxaavc3.jpg

DirectX 10.1 maakt het mogelijk om op maat gemaakte anti-aliasing filters toe te passen op pixel shaders. Op maat gemaakte filters bieden een verbeterde beeldkwaliteit aan in de gevallen waar standaard MSAA problemen kan hebben zoals met HDR Lighting en deferred shading technieken. In die gevallen kunnen er vaak artifacts optreden wanneer MSAA geforceerd wordt (als dit al mogelijk is). Alle DX10.1 compatible hardware moet minimaal 4x MSAA ondersteunen. Dit is geen probleem want dit doen ATI Radeons al sinds de R300 (Radeon 9700). De specificaties bevatten nu echter enkele voor gedefinieerde AA sample patronen in tegenstelling tot eerdere versies van DirectX waar de GPU zelf bepaalde hoe de patronen er uit kwamen te zien.

Een nieuwe feature binnen DirectX 10.1 is dat het mogelijk is om alle AA buffers rechstreeks toegankelijk te maken voor de shaders. Voorheen was het alleen maar mogelijk om multi-sampled color buffers aan te spreken. Het was toen onmogelijk om voor elke sample informatie te ontrekken aan een depth buffer. Deze nieuwe feature maakt het voor game ontwikkelaars mogelijk om zelf geavanceerde AA technieken te gebruiken in combinatie met shaders en toegewijde hardware, zoals de ATI Radeon HD GPUs op dit moment doen met Custom Filter AA.

http://img360.imageshack.us/img360/4021/atitopicdxaa3bb5.jpg

De ATI Radeon HD introduceerde ook Adaptive Anti-aliasing die texture AA voor gedeeltelijk transparante textures (zoals struikgewas en hekwerk). DirectX 10.1 breidt deze mogelijkheden uit door de introductie van Sample Coverage Masking, die je de volledige controle geeft over de specifieke sample locaties waar de pixelshaders worden uitgevoerd. Hierdoor is het voor ontwikkelaars mogelijk om AAA techniek te gebruiken om meerdere types van aliasing artifacts aan te pakken. Op maat gemaakte sample patronen kunnen ook hier weer worden toegepast . Veel van deze technieken waren al aanwezig in de vorige ATI Radeon GPUs (zoals de Radeon 9700, X800 serie, X1000 serie en de HD2000 serie), maar DirectX 10.1 maakt het voor het eerst mogelijk dat developers hier rechtstreeks toegang toe hebben.

In het kort gezegd biedt DirectX 10.1 op AA gebied dus meer middelen om allerlei typen van aliasing artifacts op te lossen in real-time games, waardoor de beeldkwaliteit omhoog gaat.

http://img360.imageshack.us/img360/1526/atitopicdxspecsdf3.jpg

In het verleden namen kwam het vaak voor dat nieuwe features zeer traag geaccepteerd werden als nieuwe standaard doordat de ene GPU iets wel kon, maar een andere weer niet. Of doordat GPUs op verschillende manieren tot een bepaald resultaat kwamen waarvan de ene efficienter was dan de andere. Door deze verschillen in GPUs zag je soms onverwachte performancedrops, beeldkwaliteit problemen, foutmeldingen of zelfs crashes. In plaats van om deze problemen heen te werken, hebben vele ontwikkelaars er voor gekozen dat het beter is om te voorkomen dan te genezen en het probleem bij de basis - de GPU feature set - aan te pakken.

DirectX 10 was al een eerste grote stap richting het oplossen van de compatibiliteitsproblemen door strikte regels op te stellen over de vereisten van elke GPU ten opzichte van de functies en instructies, en veel minder features optioneel te maken dan voorheen het geval was. Hierdoor probeerde men te voorkomen dat de ene DX10 GPU een bepaalde feature had die een andere DX10 GPU niet had. Veel van de verbeteringen in DirectX 10.1 zijn geintroduceerd om naar nog meer gelijkheid te streven door nog striktere regels op te stellen. Enkele van deze regels waren in DirectX 10 optioneel aanwezig en zijn nu verplicht gesteld. Daarnaast zijn er ook enkele nieuwe specificaties toegevoegd.

http://img150.imageshack.us/img150/1119/atitopicdxtextureeo7.jpg

Een obstakel dat ontwikkelaars tegen hield om hogere precisie texturen te gebruiken en om gebruik te maken van de verschillende output formaten in recente versies van DirectX, was de beperking van het aantal soorten bewerkingen die elke GPU op ze kon doen. DirectX 10.1 verbeterd dit door verplicht te stellen dat elke DX10.1 compliant GPU texture filtering van 32-bits floating point formats en blending op 16-bit integer formats moet ondersteunen.

http://img150.imageshack.us/img150/1160/atitopicdxmsaacl1.jpg

Multi-sampling anti-aliasing (MSAA) is de meest gangbare techniek die op dit moment gebruikt wordt om de beeldkwaliteit te verbeteren. Door de jaren heen zijn er veel verbeteringen aan deze basistechniek toegebracht, maar vaak durfden developers het niet aan om hier gebruik van te maken omdat dit kon leiden tot verschillen in IQ op de GPUs van de verschillende independent hardware vendors (IHVs zoals AMD, nV). DirectX 10.1 brengt de vereiste dat elke kaart minimaal 4x AA moet ondersteunen, en tegelijkertijd brengt het voorgedefinieerd sample patronen waardoor AA op een GPU van AMD er hetzelfde uit ziet als op die van nVidia. Daarnaast blijft het mogelijk om de eigen verbeteringen zoals temporal AA en adaptive AA te blijven toepassen op de nieuwe vereisten van DirectX 10.1.

http://img360.imageshack.us/img360/5144/atitopicdxprecisionxj4.jpg

Alle soorten data formaten zijn beperkt tot een aantal precisies die ze kunnen ondersteunen. Dit is vooral afhankelijk van het aantal bits dat ter beschikking is. Bewerkingen die op deze formaten gedaan worden, maken echter niet vaak optimaal gebruik van de beschikbare precisie, waardoor er afrondingsfoutjes kunnen optreden wat resulteert in artifacts in games. DirectX 10.1 zorgt er voor dat dit niet meer voor komt en vereist dat standaard math bewerkingen op floatingpoint waardes ook echt gebruik maken van de beschikbare precisie.

Wat is een ROP/RBE?

Vraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc

Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.

Wat zijn Z & Stencil Buffers?

Vraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes
(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.

1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle


Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.

Welke kaarten werken met elkaar in CrossFire?

Vraag: Welke kaarten werken met elkaar in CrossFire opstellingen?

Antwoord:

http://en.expreview.com/img/2008/04/11/CF_combo_chart_Dec07_1.jpg

[Voor 101% gewijzigd door CJ op 11-04-2008 13:44]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

PRICEWATCH

HD3K Series: http://tweakers.net/price...Field=prijs&orderSort=asc
  • Goedkoopste HD3450 256MB DDR2: €30
  • Goedkoopste HD3450 512MB DDR2: €36
  • Goedkoopste HD3470 256MB GDDR3: €48
  • Goedkoopste HD3650 256MB DDR2: €47 <
  • Goedkoopste HD3650 256MB GDDR3: €60
  • Goedkoopste HD3650 512MB DDR2: €49
  • Goedkoopste HD3650 512MB GDDR3: €66
  • Goedkoopste HD3690 256MB: n.a.*
  • Goedkoopste HD3830 256MB: n.a.*
  • Goedkoopste HD3850 256MB: €88 << ** TIP **
  • Goedkoopste HD3850 512MB: €113 >
  • Goedkoopste HD3850 512MB AGP: €135 AGP TIP
  • Goedkoopste HD3870 512MB: €126 ** TIP **
  • Goedkoopste HD3870 X2 1GB: €300 >>
* HD3690 in China = HD3830 wereldwijd

HD2K Series: http://tweakers.net/price...Field=prijs&orderSort=asc
  • Goedkoopste HD2400Pro: €27
  • Goedkoopste HD2400XT: €43
  • Goedkoopste HD2600Pro 256MB: €47
  • Goedkoopste HD2600Pro 512MB: €49
  • Goedkoopste HD2600XT 256MB: €57
  • Goedkoopste HD2600XT 512MB: €73
  • Goedkoopste HD2900GT 256MB: €87
  • Goedkoopste HD2900Pro 512MB: €213
  • Goedkoopste HD2900Pro 1GB: 260
  • Goedkoopste HD2900XT 512MB: €280
  • Goedkoopste HD2900XT 1GB: €455

[Voor 114% gewijzigd door CJ op 15-04-2008 14:04]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Effe het laatste nieuws gekopieerd uit het vorige deel:

AMD verlaagt met ingang van nu de prijs van de HD3870 naar $159 (van $189) en de HD3850 gaat naar $145 (van $155). In Europa is €150 voor de HD3870 dus nog lang niet de bodem. Performance in de mainstreamklasse is nog nooit zo hoog geweest als op dit moment met de G92/G94 en RV670 GPUs.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
CJ schreef op woensdag 19 maart 2008 @ 14:45:
Effe het laatste nieuws gekopieerd uit het vorige deel:

AMD verlaagt met ingang van nu de prijs van de HD3870 naar $159 (van $189) en de HD3850 gaat naar $145 (van $155). In Europa is €150 voor de HD3870 dus nog lang niet de bodem. Performance in de mainstreamklasse is nog nooit zo hoog geweest als op dit moment met de G92/G94 en RV670 GPUs.
CJ dit zijn wel de single slot versies van de 3870. Ik heb gisteren mijn 3870 binnen gekregen, waarmee ik triple CF wilde bouwen, maar er bleek doodleuk een single slot in te zitten terwijl ik een 3870 dubbelslots had besteld. Webshops veranderen hun pagina's niet, maar leveren wel een ander type. Ik hoorde ook iets over dat die dubbelslots (in dit geval de sapphire) niet meer gemaakt worden??? Je moet goed op de SKU code letten, anders heb je dus kans dat je zoiets krijgt wat ik heb.

Voor de duidelijheid:
HD 3870 512MB met code 11122-03-20R is de SINGLE slot
HD 3870 512MB met code 21122-00-20R is de DUBBEL slot

vandaar ook het prijsverschil

[Voor 8% gewijzigd door peakaboo op 19-03-2008 15:00]

Let ook trouwens op de Gigabyte HD3870. Als je er eentje koopt met custom cooling kan het heel erg goed zijn dat je de HD3870 krijgt met GDDR3 in plaats van GDDR4! Het geheugen loopt hier standaard ook een stuk lager dus.

En voorlopig heeft alleen Sapphire de single slot HD3870 voor zover ik weet. Als het een Atomic of Toxic single slot is, dan is dat niet ernstig (want deze koelt beter dan de dual slot), maar de nieuwe single slot cooler die ook gebruikt wordt op de Sapphire HD3850 en HD3690 is een stuk minder efficient.

[Voor 41% gewijzigd door CJ op 19-03-2008 15:00]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • wiene
  • Registratie: maart 2007
  • Laatst online: 21:23
quote:
peakaboo schreef op woensdag 19 maart 2008 @ 14:57:
[...]


CJ dit zijn wel de single slot versies van de 3870. Ik heb gisteren mijn 3870 binnen gekregen, waarmee ik triple CF wilde bouwen, maar er bleek doodleuk een single slot in te zitten terwijl ik een 3870 dubbelslots had besteld. Webshops veranderen hun pagina's niet, maar leveren wel een ander type. Ik hoorde ook iets over dat die dubbelslots (in dit geval de sapphire) niet meer gemaakt worden??? Je moet goed op de SKU code letten, anders heb je dus kans dat je zoiets krijgt wat ik heb.
Dat probleem heb ik dus ook gehad. Ik probleem bij desbetreffende webshop gemeld dat ik hem dus niet wou. Kon hem terugsturen kreeg ik gewoon mijn geld terug. Krijg ik een week later van de RMA afdeling weer eenzelfde kaart teruggestuurd. 8)7 Ben benieuwd wie er op gaat draaien voor de verzendkosten voor het wederom terugsturen.

Had inmiddels al een hd3870 van asus besteld omdat ik haast had, wou dus sowieso geen kaart meer van die shop. De asus heeft ook een ander design koeler maar die is overigens wel stil.

  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
CJ schreef op woensdag 19 maart 2008 @ 14:59:
Let ook trouwens op de Gigabyte HD3870. Als je er eentje koopt met custom cooling kan het heel erg goed zijn dat je de HD3870 krijgt met GDDR3 in plaats van GDDR4! Het geheugen loopt hier standaard ook een stuk lager dus.

En voorlopig heeft alleen Sapphire de single slot HD3870 voor zover ik weet. Als het een Atomic of Toxic single slot is, dan is dat niet ernstig (want deze koelt beter dan de dual slot), maar de nieuwe single slot cooler die ook gebruikt wordt op de Sapphire HD3850 en HD3690 is een stuk minder efficient.
Klopt, ook dat risico loop je. Ik vind het wel verwarrend en webshops zijn hier slordig in.

Het ging in mijn geval niet om zo'n atomic of toxic. Overigens is de atomic sneller dan de toxic toch? Puur gekeken naar de core snelheid die hoger ligt geklokt. Jij zegt dat deze beter koelen dan de dubbelslots??? Explain :)

Edit: http://www.alternate.nl/h...Details.html?artno=JBXYM2
Bedoel jij deze CJ? Hier staat duidelijk bij dat het om GDDR4 geheugen gaat. Is dit weer zo'n fout?

Edit2: Oke als je de specs uitklapt staat er doodleuk GDDR3. Ik vind dit zo slordig en misleidend, hier moeten de webshops beter hun best in doen.

[Voor 14% gewijzigd door peakaboo op 19-03-2008 15:06]

De Atomic loopt standaard op 825Mhz core en het geheugen loopt op 1200Mhz.

De cooling (Vapor-X) maakt gebruik van Vapor Chamber cooling. Dit is een techniek die steeds vaker voor komt en de boel een stuk koeler houdt (en volgens sommigen zelfs stiller is dan de reference dualslot cooling).

http://www.overclockersclub.com/siteimages/articles/sapphire_atomic_hd3780/h3_copy_thumb.jpg

http://www.overclockersclub.com/siteimages/articles/sapphire_atomic_hd3780/h4_copy_thumb.jpg

http://www.overclockersclub.com/siteimages/articles/sapphire_atomic_hd3780/h10_copy_thumb.jpg

Ter vergelijking:

http://www.elitebastards.com/hanners/sapphire/3870atomic/charts/gpu-temp.png

http://www.elitebastards.com/hanners/sapphire/3870atomic/charts/gpu-noise.png

Leuke review:
http://www.elitebastards....ask=view&id=513&Itemid=27
http://www.overclockerscl...s/sapphire_atomic_hd3780/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
CJ schreef op woensdag 19 maart 2008 @ 15:17:
De Atomic loopt standaard op 825Mhz core en het geheugen loopt op 1200Mhz.

De cooling (Vapor-X) maakt gebruik van Vapor Chamber cooling. Dit is een techniek die steeds vaker voor komt en de boel een stuk koeler houdt (en volgens sommigen zelfs stiller is dan de reference dualslot cooling).

[afbeelding]

[afbeelding]

[afbeelding]

Ter vergelijking:

[afbeelding]

[afbeelding]

Leuke review:
http://www.elitebastards....ask=view&id=513&Itemid=27
http://www.overclockerscl...s/sapphire_atomic_hd3780/
Duidelijke uitleg :) Echter zie je dat de meerwaarde niet dusdanig groot is om er +-50eu bovenop te leggen, ondanks dat je een gave koffer krijg en wat extra gadgets. De overklok bied weinig extra performance zoals je kunt lezen in de reviews. Moet wel toegeven dat die koeling methode er indrukwekkend uitziet, maar minder indrukwekkend koelt helaas.

Ik zit zelf te kyken naar een single 3870 die ik als triple CF wil gebruiken, heb de HIS (850mhz-2380mhz) en de MSI (800mhz-2250mhz) op het oog, voor respectievelijk 170eu en 165eu. Mij lijkt de MSI de betere keuze, omdat deze over het algemeen nog wel verder willen overklokken en de HIS er wat minder mooi uitziet. Wat ik me afvraag is hoe deze overkloks samengaan met de 3870X2, omdat deze andere clock speeds heeft? Zet CF x deze 3 gpu's dan samen op 1 lijn, of combineren ze de aparte snelheden?

  • Phyxion
  • Registratie: april 2004
  • Laatst online: 28-03 10:58

Phyxion

_/-\o_

quote:
CJ schreef op woensdag 19 maart 2008 @ 14:45:
Effe het laatste nieuws gekopieerd uit het vorige deel:

AMD verlaagt met ingang van nu de prijs van de HD3870 naar $159 (van $189) en de HD3850 gaat naar $145 (van $155). In Europa is €150 voor de HD3870 dus nog lang niet de bodem. Performance in de mainstreamklasse is nog nooit zo hoog geweest als op dit moment met de G92/G94 en RV670 GPUs.
Jammer dat de prijzen hier in Europa altijd zo verschrikkelijk traag worden aangepast. Zal nog wel een paar week duren voordat we deze prijsverlaging merken hier.

'You like a gay cowboy and you look like a gay terrorist.' - James May


  • Ed_L
  • Registratie: januari 2006
  • Laatst online: 22:01

Ed_L

Edmin

Ik Henk &#039;m!

Dat heeft natuurlijk voor een deel met voorraden te maken. De winkel moet natuurlijk wel zijn marges halen.

  • Wes
  • Registratie: juli 2002
  • Niet online
Ik wacht op de RV770 maar met die nieuwe prijsdalingen wordt een 3870 (X2) wel erg aantrekkelijk, al biedt die natuurlijk wel minder performance dan de RV770. * Wezz6400 wacht het nog maar even af..

  • kalizec
  • Registratie: september 2000
  • Laatst online: 07-03 14:35
En zo kun je wachten tot 2142 of nog langer, want de RV870 zal vast ook weer beter werken dan de RV770 etc.

Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S


  • Woutoud
  • Registratie: februari 2006
  • Laatst online: 22:28

Woutoud

Moderator Foto & Video

P/√P

Ik heb mijn single-slot Sapphire Radeon HD3870, maar voorzien van een Arctic-Cooling Accelero S1 (incl. Turbo-module):

http://spooky.student.utwente.nl/~icec/Kaart1.jpg

http://spooky.student.utwente.nl/~icec/Kast2.jpg

Idle: 35 C
Load: (Core: 885 Mhz): 52 C

En geruisloos :)

@Hieronder: CPU-koeler, Chipset blokje en fans zijn allemaal van Noctua. Goed spul! De fans draaien op 800 RPM en je hoort ze eigenlijk niet :)

[Voor 21% gewijzigd door Woutoud op 19-03-2008 19:06]

Woutoud.com


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
Icec_Old schreef op woensdag 19 maart 2008 @ 18:05:
Ik heb mijn single-slot Sapphire Radeon HD3870, maar voorzien van een Arctic-Cooling Accelero S1 (incl. Turbo-module):

[afbeelding]

[afbeelding]

Idle: 35 C
Load: (Core: 885 Mhz): 52 C

En geruisloos :)
Mooi koelblok, minder mooie fans (persoonlijk :)).

Nog mooiere temps!!!
Interessant stuk om te lezen:

Has nVidia handed the high end to AMD?

Dan iets anders... het zou heel goed kunnen dat de RV7x0 serie op 45nm gemaakt wordt. TSMC gebruikt al vanaf September 2007 het 45nm proces op 'kleinere' projecten. Het zou me niks verbazen als het proces nu rijp genoeg is om ook de grotere projecten aan te pakken. En als dat zo is dan zou RV770 wel eens veel meer transistors hebben dan men tot nu toe aan neemt op basis van het 55nm proces (+/- 860M).

Wat wel duidelijk is dat de RV7x0 serie er gauw aan gaat komen. Apple heeft al ondersteuning in hun OS 10.5.2 gestopt voor de RV770 en voor Linux is er al ondersteuning voor de RV710, RV730, RV740 en RV770. En ondersteuning stop je er niet zo maar in... dan moet de hardware al wel beschikbaar zijn om te testen.

[Voor 68% gewijzigd door CJ op 19-03-2008 20:40]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Ed_L
  • Registratie: januari 2006
  • Laatst online: 22:01

Ed_L

Edmin

Ik Henk &#039;m!

Dat stuk verwoordt exact mijn gedachten. Sinds bekend werd dat de 9800GTX een ge-upgrade G92 zou zijn (wat een prima chip is, overigens) en de GT200 naar eind dit jaar is verschoven, vraag ik me al af wat er precies aan de hand is bij NV. Het argument dat ze niet bang zijn voor wat AMD doet met de RV770 gaat er bij mij niet in. Je moet als bedrijf altijd een stap voor de concurrente uitlopen, anders loop je achter. Mijn idee: de GT200 is een keer gigantisch op zijn bek gegaan en moest wellicht redesigned worden. Als de RV770 de beloftes waarmaakt kan het de terugkeer van de concurrentie op de high-end markt betekenen.

edit: dat zou trouwens ook betekenen dat mijn G92 8800GTS er zsm uit gaat voor een RV770, maar dat is geheel persoonlijk natuurlijk.

[Voor 9% gewijzigd door Ed_L op 19-03-2008 20:42]


  • The Source
  • Registratie: april 2000
  • Laatst online: 23-03 16:06
quote:
CJ schreef op woensdag 19 maart 2008 @ 19:42:
Interessant stuk om te lezen:

Has nVidia handed the high end to AMD?

Dan iets anders... het zou heel goed kunnen dat de RV7x0 serie op 45nm gemaakt wordt. TSMC gebruikt al vanaf September 2007 het 45nm proces op 'kleinere' projecten. Het zou me niks verbazen als het proces nu rijp genoeg is om ook de grotere projecten aan te pakken.
Dan doet AMD richting NV hetzelfde als wat Intel nu naar AMD doet.

  • Xplod
  • Registratie: januari 2004
  • Laatst online: 09-08-2015
ik zou mij misschien een Sapphire HD2400PRO aanschaffen om in een mediacenter PC in te bouwen en dit omwille van zijn HDMI / HD mogelijkheden..

Betreft de volgende kaart.
http://www.sapphiretech.c...erview.php?gpid=185&grp=3

Kan er iemand mij met zekerheid zeggen dat het hier om een passief gekoelde kaart gaat want via google kom ik er alvast niet uit.
Googlen op afbeeldingen maakt me ook niks wijzer .... ik zie ze met en zonder fan,.. 1/2 en full-heigt modellen ..... hoe zit het nu :?

  • kalizec
  • Registratie: september 2000
  • Laatst online: 07-03 14:35
Dat komt omdat het allemaal mogelijk is. HD2400Pro is gewoon niet specifiek genoeg om te weten of het passief of actief is etc. Kortom, zoek het uit bij de winkel waar je het haalt, niet bij Sapphire, want die heeft ze allemaal.

Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S


  • Xplod
  • Registratie: januari 2004
  • Laatst online: 09-08-2015
De XT-versie lijkt dan weer wel passief gekoeld .... informeren in de winkel dus,.. OK ;)

Man man wat vaag allemaal ... tja 8)7

  • ownage maxim
  • Registratie: augustus 2007
  • Laatst online: 22-03-2019
Ik zou zo'n kaatje ergens lokaal zien te halen, dan kun je voor de aankoop kijken of ze een passief gekoelde versie hebben of niet.

  • Apoca
  • Registratie: november 2001
  • Laatst online: 29-03 17:07

Apoca

Array Technology Industry

AMD Receives First Ever DisplayPort™ Certification for PC Graphics

The Video Electronics Standards Association (VESA) has delivered its first full DisplayPort™ certification of PC graphics products to AMD (NYSE: AMD) and its ATI Radeon™ HD 3400, ATI Radeon HD 3600 and ATI Radeon HD 3800 graphics products and the AMD 780G integrated graphics chipset. As the next generation of PC display connection technology, the DisplayPort interface delivers twice the output bandwidth of DVI, moving the industry forward to a new generation of brilliant display capabilities.

http://www.businesswire.c...0080318006649&newsLang=en

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56

Newsflash: Official AMD Ping Pong DX10.1 Demo Out Now

Download Vista SP1 om DirectX naar versie 10.1 te updaten en download daarna de Ping Pong DX10.1 demo van AMD!
quote:
Ping Pong: DirectX® 10.1 demonstration and video
The Ping Pong demo illustrates some of the new graphical techniques made possible by the new features of Microsoft DirectX® 10.1 and the ATI Radeon HD 3000 Series of graphics processors. First shown on the AMD "Codename: Spider" platform, the demo shows off a new lighting technique known as real-time global illumination, together with a scalable physics simulation optimized for multi-core systems. It's also interactive - move around the room and see how many ping pong balls you can maneuver into the goals!


Get it while it's hot:

http://ati.amd.com/developer/demos/rhd3000.html

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Wes
  • Registratie: juli 2002
  • Niet online
quote:
kalizec schreef op woensdag 19 maart 2008 @ 17:15:
En zo kun je wachten tot 2142 of nog langer, want de RV870 zal vast ook weer beter werken dan de RV770 etc.
Op zich helemaal waar, maar het verhaal is iets ingewikkelder. Ik heb een inmiddels vrij oude kaart (Sapphire GTO2 @x850pro speeds), hij kan de meeste games nog wel draaien (alleen pixel shader 3.0 niet) maar medium settings zijn toch echt het hoogste haalbare. Wat mij betreft toch tijd voor wat nieuws. Alleen.. er is op dit moment voor mij niet echt een game waarvan ik zeg, dààrvoor wil ik nou een nieuwe kaart hebben, dat is al een tijdje zo en dat blijft ook nog wel even zo. Aangezien mijn GTO2 nu ook weer niet zo slecht presteert kan ik het me dus veroorloven te wachten.

Maar goed als ik bovenstaande lees over de RV770 dan wacht ik voorlopig nog wel. Die 3870 rent niet weg, en de RV770 lijkt toch wel een gave kaart te worden die het wachten en de extra centen waard zal zijn. Allemaal geruchten natuurlijk, maar ik ben geduldig. 8)

  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:36

Astennu

-= RX 5700 XT 50th =-

quote:
RappieRappie schreef op dinsdag 18 maart 2008 @ 19:16:
Tja, LOL. Ik hoef hem iig ook niet. Ik zie er ook geen enkele meerwaarde in. Zie "mijn PC". ;) Afgezien van het feit dat je hem op een Intel chipset kan draaien en dus niet op een nV chipset hoeft te draaien. Maar dat is ook het enige. Ik vind de X2 ook een mooier design hebben, EN het idee vind ik beter en ik vind het beter uitgevoerd. Alleen is de GX2 simpelweg sneller. En daar betaal je dan ook direkt 200 euro extra voor als je dat ervoor over hebt.

Ik kan me eerlijk gezegd niet voorstellen dat de GX2 een hit wordt. Voor bijna de helft van de prijs heb je een X2. En die is ook best goed.

Edit; ditr vind ik wel opvallend:

[afbeelding]
Dat viel me ook op ja dat die kaart niet veel verbruikt in 3D. Ik vraag me af hoe ze dit testen want ik merk dat mijn power usage in 3Dmark 2001 SE game 4 het hoogste is. In games zit ik makkelijk 40 watt lager. Soms meer in games zoals WoW want die gebruikt volgens mij geen CF daar blijft een core doodleuk op 300 MHz lopen. Soms schakelt de eerste core ook terug naar de low power 3Dmode heb ik gemerkt. Op dat moment kun je even een stotter merken. Ik zal eens gaan testen met een bios waar de MHz in alle profielen op 3D speeds staan.
quote:
elmystic schreef op woensdag 19 maart 2008 @ 09:51:
[...]


inderdaad , ik vin de GX2 meestal toch ruim meer presteren. zeker als we naar crysis enzo kijken.(het begint redelijk speelbaar te worden met hoge instellingen)
Waarom toch altijd Crysis als maatstaaf het is een van de slechtste engines die er is. Ja het is de mooiste maar als je ziet hoeveel power het kost om iets op het beeld te krijgen. U3 en de CoD4 engine zijn veel beter lopen super zijn iets minder mooie maar het loopt gewoon goed.
+ Er komt bij dat Crysis het parade paartje van nVidia is daar hebben ze giga veel geld in gestopt. Wij mogen van de nVidia fans ook nooit COJ er bij halen omdat AMD daar geld in zou hebben zitten. En ik vind dan ook dat die de resultaten van die games met een korreltje zout moet nemen.
quote:
CJ schreef op woensdag 19 maart 2008 @ 19:42:
Interessant stuk om te lezen:

Has nVidia handed the high end to AMD?

Dan iets anders... het zou heel goed kunnen dat de RV7x0 serie op 45nm gemaakt wordt. TSMC gebruikt al vanaf September 2007 het 45nm proces op 'kleinere' projecten. Het zou me niks verbazen als het proces nu rijp genoeg is om ook de grotere projecten aan te pakken. En als dat zo is dan zou RV770 wel eens veel meer transistors hebben dan men tot nu toe aan neemt op basis van het 55nm proces (+/- 860M).

Wat wel duidelijk is dat de RV7x0 serie er gauw aan gaat komen. Apple heeft al ondersteuning in hun OS 10.5.2 gestopt voor de RV770 en voor Linux is er al ondersteuning voor de RV710, RV730, RV740 en RV770. En ondersteuning stop je er niet zo maar in... dan moet de hardware al wel beschikbaar zijn om te testen.
Erg interessant. Het valt me op dat er nu al een hele tijd RV770 drivers hebben. Zouden ze dan net als met de RV670 voorlopen op schema ?
quote:
The Source schreef op woensdag 19 maart 2008 @ 22:09:
[...]

Dan doet AMD richting NV hetzelfde als wat Intel nu naar AMD doet.
Op dit moment wel. Bij de FX serie probeerde nVidia dat te doen maar dat viel niet goed uit. Hun hadden toen 0.13u en ATi zat nog op 0,15.

Edit:

Nog even over het verbruik: http://www.computerbase.d...schnitt_leistungsaufnahme

Daar zie je dat de GX2 wel degelijk meer gebruikt. Ik moet zeggen dat hij het in die review ook erg goed doet. Gaat de X2 erg vaak met een grote voorsprong voorbij. Echter zou hij meer geluid produceren en ook een aanzienlijk slechtere prijs prestatie verhouding hebben (gelijk aan de 8800 Ultra)

En CJ heeft ATi nog dingen verandert in de R600 qua AF ? want die performance hit is soms erg groot. In het verleden was de hit van AF bij ATi altijd klein. En de IQ veel beter dan die van nVidia. Maar wellicht dat de RV770 hier straks een stuk beter in is.

[Voor 8% gewijzigd door Astennu op 20-03-2008 09:53]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

quote:
Astennu schreef op donderdag 20 maart 2008 @ 09:32:
[...]
Soms meer in games zoals WoW want die gebruikt volgens mij geen CF daar blijft een core doodleuk op 300 MHz lopen. Soms schakelt de eerste core ook terug naar de low power 3Dmode heb ik gemerkt. Op dat moment kun je even een stotter merken. Ik zal eens gaan testen met een bios waar de MHz in alle profielen op 3D speeds staan.
offtopic:
Speel je WoW in Windowed Mode? Want dan blijft de GPU namelijk in 2D mode draaien en spint-ie niet naar 3D snelheden.
quote:
Astennu schreef op donderdag 20 maart 2008 @ 09:32:
En CJ heeft ATi nog dingen verandert in de R600 qua AF ? want die performance hit is soms erg groot. In het verleden was de hit van AF bij ATi altijd klein. En de IQ veel beter dan die van nVidia. Maar wellicht dat de RV770 hier straks een stuk beter in is.
De relatief grote performancehit in vergelijking tot de G80/G92 komt door het aantal Texture Units. Hoe meer texture filtering units, des te kleiner is de performancehit met AF.

G80: 64 texture filtering units
R600: 16 texture filtering units

Maar ondanks dat de G80 4x zoveel texture filtering units heeft is het verschil in performance niet 4x zo groot.... maar een stuk kleiner. Het ophogen van het aantal bij de Radeons naar bv 32 stuks zou het verschil dan waarschijnlijk al om zeep kunnen helpen. De units in de Radeon architectuur zijn veel efficienter.

En overigens schijnen de kenners het eens te zijn dat de 'brakke' AA performance niet het gevolg is van het gebrek aan hardware AA resolve. Het schijnt te komen door de multisampling rate.

R600: 2x AA samples per clock, 2xZ per clock
G80: 4x AA samples per clock, 8xZ per clock

Het ophogen van het aantal AA en Z samples per clock naar 4x (of hoger) moet het verschil ook weer goed kunnen maken, zonder dat er hardware AA resolve nodig is. De R600 heeft namelijk genoeg ALUs in huis om dit te doen... ze moeten alleen iets getweaked/gebuffed worden.

[Voor 56% gewijzigd door CJ op 20-03-2008 10:14]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:36

Astennu

-= RX 5700 XT 50th =-

quote:
CJ schreef op donderdag 20 maart 2008 @ 10:04:
[...]


offtopic:
Speel je WoW in Windowed Mode? Want dan blijft de GPU namelijk in 2D mode draaien en spint-ie niet naar 3D snelheden.
Ghehe grappig dat je dat zegt. Ik heb em gister naar windowed gezet en heb het idee dat dit beter liep :S. vaak als ik wow in full screen start stottert hij als een gek dat even alt tab en het is beter maar in game loopt het niet altijd even soepel met windowed op 1920x1200 doet hij het iets beter heb ik het idee. Echt jammer dat dat spel geen gebruik kan maken van CF ik begin zelfs het idee te krijgen dat een HD3870 sneller zou kunnen zijn.
quote:
Rumour round-up

Then there's the rumour doing the rounds that AMD has nearly tripled the chip's shader grunt. The HD 3800 architecture currently packs 64 shader units arranged in four arrays (ignore AMD's claims of 320 stream processors, it's mostly marketing). The most popular theory for RV770 is no less than 160 shaders in five arrays (or 800 stream processors in marketing parlance).

If the details aren't confirmed, what is almost guaranteed is that RV770 will at least offer some additional functional units - unlike the disappointing GeForce 9800 GTX from Nvidia. Simply put, it's a significantly larger chip built on the same process as the HD 3800. The extra transistors must have been spent on something.

Best of all, it looks like it won't be long before we find out for sure. Early engineering samples of RV770 has been spotted in the wild. It could be on sale before summer is in full swing.
Ik kwam die net tegen in het artikel dat je had gepost. 160 shaders zou echt insane zijn kan volgens mij niet eens. Want dan zouden we het sowiezo over een high end chip hebben. En ik gok dat de RV770 gewoon een Midrange part zal zijn. Misschien is dit dan de R700 ? Maar in dat geval zou je eigenlijk nog meer texture units willen als je van 64 naar 160 shaders gaat wil je eigenlijk ook van 16 naar 48 shader units. Maar goed ik geloof eerlijk gezegd niet dat ATi met een monster chip gaat komen. Eerder weer met een X2. Jammer genoeg kunnen de drivers stukken beter. Een grote chip die 2x zo veel shaders en zo heeft zal gewoon sneller blijven en lekkerder werken dan twee kaarten in SLI of CF. Hopelijk verandert dit nog in de toekomt.

offtopic:
Is het nu sowiezo of sowieso ? Firefox woorden boek zegt namelijk sowieso.
quote:
De relatief grote performancehit in vergelijking tot de G80/G92 komt door het aantal Texture Units. Hoe meer texture filtering units, des te kleiner is de performancehit met AF.

G80: 64 texture filtering units
R600: 16 texture filtering units

Maar ondanks dat de G80 4x zoveel texture filtering units heeft is het verschil in performance niet 4x zo groot.... maar een stuk kleiner. Het ophogen van het aantal bij de Radeons naar bv 32 stuks zou het verschil dan waarschijnlijk al om zeep kunnen helpen. De units in de Radeon architectuur zijn veel efficienter.

En overigens schijnen de kenners het eens te zijn dat de 'brakke' AA performance niet het gevolg is van het gebrek aan hardware AA resolve. Het schijnt te komen door de multisampling rate.

R600: 2x AA samples per clock, 2xZ per clock
G80: 4x AA samples per clock, 8xZ per clock

Het ophogen van het aantal AA en Z samples per clock naar 4x (of hoger) moet het verschil ook weer goed kunnen maken, zonder dat er hardware AA resolve nodig is. De R600 heeft namelijk genoeg ALUs in huis om dit te doen... ze moeten alleen iets getweaked/gebuffed worden.
Ik kreeg alleen het idee dat het in verhouding met de X1900 slechter was geworden maar dat kan misschien zijn omdat de G80 zo snel is. Die verhoging naar 32 zou inderdaad veel moeten schelen.

Ik ben ook van mening dat de AA zou moet blijven als i is want bij 8x AA werkt het super. Alleen het moet gewoon getweaked worden. Is er al iets bekend of ATi dat aantal sampels gaat verhogen ? En bij de RV670 op dat gebied niets getweaked ? En hoe deed de X1900 dit qua AA samples ? want daar was de hit veel minder groot. Z samples is de G80 altijd sterker in geweest misschien is het tijd dat ze die ook minimaal verdubbelen ?

[Voor 26% gewijzigd door Astennu op 20-03-2008 10:18]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

AMD heeft een bepaalde trend in werking gezet waarin ze volledig geloven. Ze geloven dat shaders belangrijker zijn dan texture units.

R520 had een 1:1 verhouding wat betreft shaderunits vs texture units (16:16).
R580 had een 3:1 verhouding wat betreft shaderunits vs texture units (48:16).
R600 had een 4:1 verhouding wat betreft shaderunits vs texture units (64:16).

De logische stap lijkt 5:1 of 6:1. Dit zou betekenen dat een opvolger 80 of 96 shaderunits heeft (400 of 480 streamprocessors) met nog steeds 16 texture units. Als men echter de 4:1 verhouding blijft houden en men alles dus evenredig ophoogt, dan zou het kunnen dat een opvolger 96 shaderunits heeft met 32 texture units.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Woutoud
  • Registratie: februari 2006
  • Laatst online: 22:28

Woutoud

Moderator Foto & Video

P/√P

quote:
Astennu schreef op donderdag 20 maart 2008 @ 10:13:
[...]


offtopic:
Is het nu sowiezo of sowieso ? Firefox woorden boek zegt namelijk sowieso.



[...]
offtopic:
Sowieso, dus FF heeft 't goed
;)

Woutoud.com


  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:36

Astennu

-= RX 5700 XT 50th =-

quote:
CJ schreef op donderdag 20 maart 2008 @ 10:20:
AMD heeft een bepaalde trend in werking gezet waarin ze volledig geloven. Ze geloven dat shaders belangrijker zijn dan texture units.

R520 had een 1:1 verhouding wat betreft shaderunits vs texture units (16:16).
R580 had een 3:1 verhouding wat betreft shaderunits vs texture units (48:16).
R600 had een 4:1 verhouding wat betreft shaderunits vs texture units (64:16).

De logische stap lijkt 5:1 of 6:1. Dit zou betekenen dat een opvolger 80 of 96 shaderunits heeft (400 of 480 streamprocessors) met nog steeds 16 texture units. Als men echter de 4:1 verhouding blijft houden en men alles dus evenredig ophoogt, dan zou het kunnen dat een opvolger 96 shaderunits heeft met 32 texture units.
Als je die 4:1 verhouding wilt houden moeten ze dan dus naar 128 Shaders gaan met 32 texture units anders zak je terug naar 3:1 verhouding als je voor 96 gaat. Maar wat hun denken klopt wel shaders zijn wel belangrijker maar ze onderschatten momenteel hoe belangrijk texture units zijn. Zie ook de performance van de nVidia kaarten. Ik denk dat 3:1 wel een beetje ideaal is met de hudige games. Want je ziet dat er nog best wat games zwaar op textures leunen.

[Voor 13% gewijzigd door Astennu op 20-03-2008 12:44]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Binnetie
  • Registratie: november 2000
  • Laatst online: 28-03 21:16
Ik ben bezig met een nieuwe pc en dus ook een nieuwe videokaart. Ik zit nog een beetje met de 8800 GT of de HD 3870 x2 (de 3870 x2 is natuurlijk een stuk sneller). Nu las ik ergens ook dat er binnenkort nieuwe kaarten van Ati komen. Zitten daar nog spectaculaire dingen tussen voor een prijs van max 300 euro? Wil graag wel een kaart waar ik een tijdje mee doe, voor een redelijke prijs. (zo vaak neem ik geen nieuwe pc).

Wat is jullie advies?

  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:36

Astennu

-= RX 5700 XT 50th =-

quote:
Binnetie schreef op donderdag 20 maart 2008 @ 12:40:
Ik ben bezig met een nieuwe pc en dus ook een nieuwe videokaart. Ik zit nog een beetje met de 8800 GT of de HD 3870 x2 (de 3870 x2 is natuurlijk een stuk sneller). Nu las ik ergens ook dat er binnenkort nieuwe kaarten van Ati komen. Zitten daar nog spectaculaire dingen tussen voor een prijs van max 300 euro? Wil graag wel een kaart waar ik een tijdje mee doe, voor een redelijke prijs. (zo vaak neem ik geen nieuwe pc).

Wat is jullie advies?
Die HD48xx is nog wel even weg denk ik. Als in kan makkelijk twee maanden duren. Ze zijn relatief dichtbij. RV770 zal onder die 300 euro zitten denk ik maar een HD4870 is mogelijk langzamer (is wel aan nemelijk maar we weten nog te weinig over de daadwerkelijk specs) dan een HD3870 X2 maar de X2 versie daar van is natuurlijk wel weer veel sneller.

Persoonlijk zou ik nu voor een HD3870 X2 gaan tenzij je nog 2-3 maanden kan wachten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Binnetie
  • Registratie: november 2000
  • Laatst online: 28-03 21:16
quote:
Astennu schreef op donderdag 20 maart 2008 @ 13:16:
[...]


Die HD48xx is nog wel even weg denk ik. Als in kan makkelijk twee maanden duren. Ze zijn relatief dichtbij. RV770 zal onder die 300 euro zitten denk ik maar een HD4870 is mogelijk langzamer (is wel aan nemelijk maar we weten nog te weinig over de daadwerkelijk specs) dan een HD3870 X2 maar de X2 versie daar van is natuurlijk wel weer veel sneller.

Persoonlijk zou ik nu voor een HD3870 X2 gaan tenzij je nog 2-3 maanden kan wachten.
Jah dat is het lastige altijd heh. In principe kan ik nog even wachten, maar tegen die tijd sta je in de backorder omdat veel mensen je voor zijn geweest met bestellen. Ik wacht nl ook nog op de Intel Q9450 daar kan je ook op gaan blijven wachten maar dan is het weer wachten op de videokaart. Ik wil er zo lang dus een goedkope processor inzetten.

Bedankt voor de info.

  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
CJ schreef op woensdag 19 maart 2008 @ 19:42:
Dan iets anders... het zou heel goed kunnen dat de RV7x0 serie op 45nm gemaakt wordt. TSMC gebruikt al vanaf September 2007 het 45nm proces op 'kleinere' projecten. Het zou me niks verbazen als het proces nu rijp genoeg is om ook de grotere projecten aan te pakken. En als dat zo is dan zou RV770 wel eens veel meer transistors hebben dan men tot nu toe aan neemt op basis van het 55nm proces (+/- 860M).
Een RV770 op 45 nm zou theoretisch geen probleem zijn. Eerste samples van 45nm had TSMC volgens mij al in 2006. Q3/Q4 2007 is t daadwerkelijk in productie gegaan. Maar goed al die verhalen van een R600 op 65nm herinner ik me nog al te goed. Was toen ook niet zo veel van waar. Laten we t dus maar op een 55nm chip houden. ;)

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla

Jawel.... er was een R600 op 65nm.... die is echter afgevoerd. ;)

65nm was niet rijp op dat moment. 80nm was het maximaal haalbare.... voor zo'n grote die... en dan nog had het last van leakage.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • peakaboo
  • Registratie: mei 2007
  • Niet online
Hoe draait die AMD DX10.1 demo bij jullie? Bij mij echt RUK, nog minder dan 5 fps lijkt wel. Iemand een idee waar dit aan ligt? Aan m'n GPU power zou het toch niet mogen liggen, anders zakt echt mn broek af. CCC staat alles op application preference, Catalyst A.I. op Standard (Advanced verandert niks aan de zaak).

Edit: Ja SP1 is net vers geinstalleerd. Draai overigens op 64bit, zag dat tijdens het installeren het in de program files x86 map wordt gezet, dus dit is niet true 64bit compatible of wat?

[Voor 23% gewijzigd door peakaboo op 20-03-2008 15:40]


  • Bullus
  • Registratie: oktober 2006
  • Laatst online: 19-01 07:45
Wat voor OS gebruik je?
Sowieso heb je vista + sp1 nodig voor dx10.1.

Heb het zelf ook nog niet getest,dus...

|2600k|Asus 290|


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 23:54
quote:
CJ schreef op woensdag 19 maart 2008 @ 23:53:
Newsflash: Official AMD Ping Pong DX10.1 Demo Out Now

Download Vista SP1 om DirectX naar versie 10.1 te updaten
is sp1 voor Vista NL al uit dan ?...

  • edward2
  • Registratie: mei 2000
  • Laatst online: 20:56

edward2

Schieten op de beesten

Quad CFX vs 1 9800GX2, de laatste wint (op dit moment), soms overtuigend van 4 HD3870's:

http://en.expreview.com/2...masher-GeForce-9800GX2/1/

Maximum IQ

quote:
Mr. Detonator schreef op donderdag 20 maart 2008 @ 15:47:
[...]


is sp1 voor Vista NL al uit dan ?...
Nee. Maar daar is om heen te werken dmv language packs. ;)
quote:
edward2 schreef op donderdag 20 maart 2008 @ 16:15:
Quad CFX vs 1 9800GX2, de laatste wint (op dit moment), soms overtuigend van 4 HD3870's:

http://en.expreview.com/2...masher-GeForce-9800GX2/1/
Onverwacht dan? Nee toch? Vergeet niet dat een RV670 zo'n 15% (of meer) trager is dan een G92 vanwege de verschillen in architectuur en hoe games geschreven zijn... Doe dit keer twee en de verschillen lopen op tot 50%. Verwacht en ook voorspeld. Daarnaast werkt CrossFireX niet in OpenGL games, wat je ook terug ziet in een test als ET:QW.

En de prijs verklapt natuurlijk ook een boel... :+ 300 vs 500

Voor een GPU die kleiner is dan de G92 en G94 heeft de RV670 het nog aardig lang uit gehouden. ;)

De meeste games zijn geschreven op een manier die de G80 heel erg ligt en waar alle 128 streamprocessoren aan de slag kunnen. Die games werken op de RV670 maar met 64 streamprocessoren (mits de drivers hier wat aan kunnen veranderen). Tel daarbij op dat de streamprocessoren ook nog eens op meer dan dubbele snelheid draaien, en dan is het niet vreemd dat het verschil er is. Maar wanneer een game complexere shaders gebruikt, dan begint de RV670 z'n potentieel te laten zien.

[Voor 74% gewijzigd door CJ op 20-03-2008 17:03]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 30-03 13:03
quote:
CJ schreef op donderdag 20 maart 2008 @ 16:25:
[...]


Onverwacht dan? Nee toch? Vergeet niet dat een RV670 zo'n 15% (of meer) trager is dan een G92 vanwege de verschillen in architectuur en hoe games geschreven zijn... Doe dit keer twee en de verschillen lopen op tot 50%. Verwacht en ook voorspeld. Daarnaast werkt CrossFireX niet in OpenGL games, wat je ook terug ziet in een test als ET:QW.

En de prijs verklapt natuurlijk ook een boel... :+ 300 vs 500
We hebben het over 2 HD3870X2's in CF!!! 600 euro tegen 500 euro. ;) We hadden toch wel verwacht dat dual HD3870X2 sneller zou zijn dan 1 GX2. En dit blijkt in de meeste gevallen niet zo te zijn.

RappieRappie in "[Algemeen] nVidia Nieuws & Discussie Top..."

[Voor 13% gewijzigd door Format-C op 20-03-2008 17:28]

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • dreee
  • Registratie: oktober 2004
  • Laatst online: 19-10-2017
Idd games met langere shaders doen het vaak beter bij AMD. Lijkt wel of AMD ook denkt dat 16 texture units genoeg is, en het veel belangrijjker is hoeveel shader bewerkingen je er op los kunt laten. Ze zullen ook niet voor niets de AA resolve daarin hebben geplaatst.
Ook de duidelijke betere performance op 8xAA laat dat zien.

Als je uit gaat van 5:1, en daarbij die 160 procs, kom je toch op 32 texture units. Zou wel extreem zijn. Kan ok zijn: 2 x 80 (64+16 erbij), en dus 2x RV770 ala HD4800X2, lijkt me logischer op 55nm.
45nm kan alle kanten op qua speculatie, en erg onwaarschijnlijk, wel een refresh van de RV770.

En idd ATi of nVidia gesponserde games zijn niet echt representatief voor vergelijkingen. Is Stalker geen goede neutrale game?

De weg kwijt? Vind je zelf weer terug... --> Radio Paradise <--


  • edward2
  • Registratie: mei 2000
  • Laatst online: 20:56

edward2

Schieten op de beesten

quote:
CJ schreef op donderdag 20 maart 2008 @ 16:25:
[...]


Nee. Maar daar is om heen te werken dmv language packs. ;)


[...]


Onverwacht dan? Nee toch? Vergeet niet dat een RV670 zo'n 15% (of meer) trager is dan een G92 vanwege de verschillen in architectuur en hoe games geschreven zijn... Doe dit keer twee en de verschillen lopen op tot 50%. Verwacht en ook voorspeld. Daarnaast werkt CrossFireX niet in OpenGL games, wat je ook terug ziet in een test als ET:QW.

En de prijs verklapt natuurlijk ook een boel... :+ 300 vs 500
Je maakt een (wiskundige) rekenfout ;)
2 HD3870's zouden volgens die theorie 1,7 keer sneller moeten zijn dan 1 G92.
En daarna zal een eventueel (verdubbeling) exponentieel van2 (4 vs 2 cores) daar niets aan veranderen, het blijft 1,7 maal. Al blijft dat puur theoretisch en zullen de limiten van 4 cores nooit dat rendement halen.

En het is natuurlijk 600 vs 500 voor de GX2.

Ik had zeker niet verwacht dat quad CF trager zou zijn dan 1 GX2, al blijft overeind wat ik al eerder zei, het ligt erg aan de games die je test.

[Voor 20% gewijzigd door edward2 op 20-03-2008 18:51]

Maximum IQ


  • markje1
  • Registratie: juli 2007
  • Laatst online: 22:54
quote:
Astennu schreef op donderdag 20 maart 2008 @ 10:13:
[...]


offtopic:
Is het nu sowiezo of sowieso ? Firefox woorden boek zegt namelijk sowieso.
Van dale zegt sowieso
quote:
Mr. Detonator schreef op donderdag 20 maart 2008 @ 15:47:
[...]


is sp1 voor Vista NL al uit dan ?...
die schijnt in april te komen ;)
quote:
quote: http://windowsvistablog.c...ed-to-windows-update.aspx
Looking forward, we're also getting ready to begin releasing the second wave of SP1 languages in April. These are the other 31 languages that we haven't released yet.

[Voor 4% gewijzigd door markje1 op 20-03-2008 18:24. Reden: link in quote fixex]

-

quote:
RappieRappie schreef op donderdag 20 maart 2008 @ 17:24:
[...]

We hebben het over 2 HD3870X2's in CF!!! 600 euro tegen 500 euro. ;) We hadden toch wel verwacht dat dual HD3870X2 sneller zou zijn dan 1 GX2. En dit blijkt in de meeste gevallen niet zo te zijn.

RappieRappie in "[Algemeen] nVidia Nieuws & Discussie Top..."
In veel gevallen biedt een HD3870 X2 helemaal niet veel extra's... dan is-ie niet veel sneller dan een kaartje van 300. ;) Dan heb je daar dus voldoende aan... En het is jammer dat Triple CrossFire niet is mee gerekend voor €450. Dat schaalt namelijk beter mee dan Quad CrossFire.

En het hangt inderdaad af van de game waarin je test. En zoals je kan zien in die ene review zijn 9 van de 12 games TWIMTBP games. 2 er van zijn AMD games (HL/COJ) en 1 weet ik niet zeker (Dirt). Als je dan in gedachten houdt wat ik op het laatst in m'n vorige post zei over de manier van werken in games....

Als je de HD3870X2 als single GPU zou nemen, dan had je een GPU met 128 shaderunits, evenveel als de G80/G92. De RBEs lopen dan wel op een iets hogere hogere snelheid bij AMD, maar de shaderunits zelf lopen op meer dan twee keer snelheid. Als de GPU bij AMD niet zo hoog geklokt was dan was het verschil tussen de G80/G92 en RV670 nog veel groter geweest.

De meeste games die onder de noemer TWIMTBP zijn geschreven zijn geoptimaliseerd voor de 128 scalar shaderunits van de G80. Dan moet een enkele RV670 met 64 superscalar shaderunits wel het onderspit delven, tenzij er optimalisaties komen die de RV670 architectuur ten goede komen (en dus ook in de breedte werken (en dus alle 5 processors per shaderunit gebruiken ipv slechts 1).

Ik weet dat veel mensen kijken naar het aantal GPUs wat je nodig hebt om prestaties te bereiken, maar zo simpeltjes is het allemaal niet. :+ Er komt meer bij kijken... en dan doet een GPU die 70% kleiner is dan een G92 en 23% kleiner is dan een G94, het zeker niet slecht.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • edward2
  • Registratie: mei 2000
  • Laatst online: 20:56

edward2

Schieten op de beesten

quote:
CJ schreef op donderdag 20 maart 2008 @ 18:59:
[...]


In veel gevallen biedt een HD3870 X2 helemaal niet veel extra's... dan is-ie niet veel sneller dan een kaartje van 300. ;) Dan heb je daar dus voldoende aan... En het is jammer dat Triple CrossFire niet is mee gerekend voor €450. Dat schaalt namelijk beter mee dan Quad CrossFire.

En het hangt inderdaad af van de game waarin je test. En zoals je kan zien in die ene review zijn 9 van de 12 games TWIMTBP games. 2 er van zijn AMD games (HL/COJ) en 1 weet ik niet zeker (Dirt). Als je dan in gedachten houdt wat ik op het laatst in m'n vorige post zei over de manier van werken in games....

Als je de HD3870X2 als single GPU zou nemen, dan had je een GPU met 128 shaderunits, evenveel als de G80/G92. De RBEs lopen dan wel op een iets hogere hogere snelheid bij AMD, maar de shaderunits zelf lopen op meer dan twee keer snelheid. Als de GPU bij AMD niet zo hoog geklokt was dan was het verschil tussen de G80/G92 en RV670 nog veel groter geweest.

De meeste games die onder de noemer TWIMTBP zijn geschreven zijn geoptimaliseerd voor de 128 scalar shaderunits van de G80. Dan moet een enkele RV670 met 64 superscalar shaderunits wel het onderspit delven, tenzij er optimalisaties komen die de RV670 architectuur ten goede komen (en dus ook in de breedte werken (en dus alle 5 processors per shaderunit gebruiken ipv slechts 1).

Ik weet dat veel mensen kijken naar het aantal GPUs wat je nodig hebt om prestaties te bereiken, maar zo simpeltjes is het allemaal niet. :+ Er komt meer bij kijken... en dan doet een GPU die 70% kleiner is dan een G92 en 23% kleiner is dan een G94, het zeker niet slecht.
Dat mag allemaal wel zo zijn vanuit technisch oogpunt, de user experience heeft daar geen boodschap aan. Er zijn en blijven nu eenmaal meer TWIMTBP-games en dat is wat de user ervaart.

Heeft heeft IMHO nog alles te maken met de breedte en mate waarin CFX schaalt in het aantal aangeboden games.

Overigens zit ik nog te wachten op een review met de min fps met quad/triple CF vs GX2. X-bit hurry.

Maximum IQ


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 30-03 13:03
quote:
CJ schreef op donderdag 20 maart 2008 @ 18:59:
[...]


In veel gevallen biedt een HD3870 X2 helemaal niet veel extra's... dan is-ie niet veel sneller dan een kaartje van 300. ;) Dan heb je daar dus voldoende aan... En het is jammer dat Triple CrossFire niet is mee gerekend voor €450. Dat schaalt namelijk beter mee dan Quad CrossFire.
Laat ik nog even voorop stellen dat ik (nog steeds) van mening ben dat 1 HD3870X2 het meeste bang for buck geeft. Dat lijkt me duidelijk. Triple CF is idd erg interessant. De 3e core schaalt wel goed, alleen de 4e wat minder in Quad CF, als we de benchmarks mogen geloven. Ook is het wel zo dat er de komende maanden vast nog wel goeie perfomanceboosts te halen zijn met de CFX drivers voor Quad CF. En dat die 4e core beter gaat schalen. :)

Dat (performanceboosts door drivers) zal met de GX2 minder zijn, omdat dat gewoon SLi is, en nVidia in wezen goed weet hoe hiervoor goeie snelle drivers te schrijven. CFX is ook een stuk nieuwer natuurlijk. :)

Desalniettemin presteert de GX2 goed. Maar dat doen 2 8800GT's in SLi ook. En dat is een stuk goedkoper, als je een SLi bord hebt that is. :)

[Voor 5% gewijzigd door Format-C op 20-03-2008 19:51]

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
Bullus schreef op donderdag 20 maart 2008 @ 15:43:
Wat voor OS gebruik je?
Sowieso heb je vista + sp1 nodig voor dx10.1.

Heb het zelf ook nog niet getest,dus...
Dat heb ik er toch bij gezet? Vista 64-bit Home Premium met NET vers geinstalleerd SP1....

  • Bullus
  • Registratie: oktober 2006
  • Laatst online: 19-01 07:45
Toen ik een berichtje schreef,stond het er iig nog niet bij, dat je hem geedit had.

|2600k|Asus 290|


  • ormagon
  • Registratie: februari 2005
  • Laatst online: 08-03 22:13

ormagon

Definitely Maybe

Wie heeft er sinds de nieuwste drivers ook last van kut prestaties met de 3870X2 bij 3Dmark06? Eerst scoorde ik 16786, nu 10942!!!!

Laptop: MacBook Pro 15" 2014 | Mobiel: LG G6
Camera: Sony Cyber-shot RX-100 | Versterker: Luxman L-505V
Speakers: Canton Plus S & Canton Plus C | Draaitafel: Dual CS-721


  • Apoca
  • Registratie: november 2001
  • Laatst online: 29-03 17:07

Apoca

Array Technology Industry

Zit een fout in de drivers, je CPU score is ook waardeloos ineens. Geen paniek zal wel weer in de volgende release gemaakt zijn :)

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


  • k995
  • Registratie: november 2002
  • Laatst online: 31-03 14:36
quote:
CJ schreef op donderdag 20 maart 2008 @ 18:59:
[...]


In veel gevallen biedt een HD3870 X2 helemaal niet veel extra's... dan is-ie niet veel sneller dan een kaartje van 300. ;) Dan heb je daar dus voldoende aan... En het is jammer dat Triple CrossFire niet is mee gerekend voor €450. Dat schaalt namelijk beter mee dan Quad CrossFire.
Reken dan wel de kosten van een triple cf moederbord. Daarmee enkel dat de X2 op zelfde voet komt als een 8800GT in SLI die is sneller maar duurder door de extra kost van SLI moederbord (alhoewel dat NV wel redelijk goedkope 8x 8x sli moederborden heeft)
quote:
En het hangt inderdaad af van de game waarin je test. En zoals je kan zien in die ene review zijn 9 van de 12 games TWIMTBP games. 2 er van zijn AMD games (HL/COJ) en 1 weet ik niet zeker (Dirt). Als je dan in gedachten houdt wat ik op het laatst in m'n vorige post zei over de manier van werken in games....
Ja en? Maakt toch niks uit? Wat telt is toch de snelheid en prijs van zo'n kaart?
NV heeft nu eenmaal die zaken beter op orde dan AMD, die hollen meestal achter de feiten en krijgen pas de performantie weken of maanden later bij driver updates. Bij NV gaat dat meestal wat sneller.
quote:
Ik weet dat veel mensen kijken naar het aantal GPUs wat je nodig hebt om prestaties te bereiken, maar zo simpeltjes is het allemaal niet. :+ Er komt meer bij kijken... en dan doet een GPU die 70% kleiner is dan een G92 en 23% kleiner is dan een G94, het zeker niet slecht.
en? Zelfs al zou die 10 keer zo klein en geavanceerd zijn; maakt het uit als die even duur en de helft trager is? Nee dan kopen de mensen die niet, hoe klein van procede ook.

[Voor 37% gewijzigd door k995 op 21-03-2008 09:29]


  • roy-t
  • Registratie: oktober 2004
  • Laatst online: 16-03 08:33
quote:
CJ schreef op woensdag 19 maart 2008 @ 23:53:
Newsflash: Official AMD Ping Pong DX10.1 Demo Out Now

Download Vista SP1 om DirectX naar versie 10.1 te updaten en download daarna de Ping Pong DX10.1 demo van AMD!


[...]


[video]

Get it while it's hot:

http://ati.amd.com/developer/demos/rhd3000.html
damn, vooral die nieuwe AA techniek klinkt erg interessant! lijkt me zelfs efficienter dan traditioneel AA en gebeurt zoals het hoort met AA echt pas op het aller aller laatste! Chapeau AMD!

Zo vreemd dat Nvidia pas over een jaar DX10.1 gaat ondersteunen er zitten toch echt toffe dingetjes in!

~ Mijn prog blog! ~ @RoyTries

quote:
k995 schreef op vrijdag 21 maart 2008 @ 09:06:
[...]

Reken dan wel de kosten van een triple cf moederbord. Daarmee enkel dat de X2 op zelfde voet komt als een 8800GT in SLI die is sneller maar duurder door de extra kost van SLI moederbord (alhoewel dat NV wel redelijk goedkope 8x 8x sli moederborden heeft)
Lieve schat voor Triple CF heb je geen Tripple CF moederbord nodig. Een simpel CrossFire moederbord voldoet.... als het maar 2 fysieke 16x PCIe sloten heeft. Een mobo met 8x 8x is voldoende.

Ooit gehoord van HD3870X2 + HD3870 in CrossFire om Triple CF te bereiken? Dat zijn toch echt maar twee kaarten. :+
quote:
Ja en? Maakt toch niks uit? Wat telt is toch de snelheid en prijs van zo'n kaart?
NV heeft nu eenmaal die zaken beter op orde dan AMD, die hollen meestal achter de feiten en krijgen pas de performantie weken of maanden later bij driver updates. Bij NV gaat dat meestal wat sneller.
Tuurlijk maakt het uit. Vergelijk het met een auto die normaal op Super98 draait. Als je er ineens Euro95 in gooit, dan is dat goedkoper voor je portemonnee en je auto loopt ook wel, maar reageert de auto soms schokkeriger en zijn de prestaties minder.

De ene fabrikant heeft dan een speciaal soort katalysator (Catalyst Drivers) nodig om er voor te zorgen dat alles wel goed draait op Euro95. De andere fabrikant zorgt er voor dat Euro95 gewoon goedkoop is zodat het altijd goed draait (NV met TWIMTBP).

Vroeger toen ging het om de hardware architectuur en niet om hoeveel geld er besteed werd aan het helpen van developers. Een game werd gemaakt zonder financiele hulp van IHVs en dat was de ultieme test voor een videokaart. Welke kon er het snelste mee om gaan? Nu is de strijd naar een heel ander vlak gebracht door sponsorprogramma's. En daar wint NV het.
quote:
en? Zelfs al zou die 10 keer zo klein en geavanceerd zijn; maakt het uit als die even duur en de helft trager is? Nee dan kopen de mensen die niet, hoe klein van procede ook.
Maar de HD3870X2 is niet even duur en de helft trager. De HD3870X2 is zo'n 70% goedkoper en afhankelijk van de benchmark en resolutie gemiddeld zo'n 30% trager (soms echter ook sneller en soms ook iets trager). Er zijn genoeg mensen die het snelste van het snelste willen, die nemen de GF9800GX2. Maar de groep mensen die bewuster om gaat met de portemonnee, is echter vele malen groter... dat zie je ook in de recent uitgebrachte cijfers waar bleek dat de €150-€300 videokaartensegment het grootste segment was. En welke kaart is daar het snelste dankzij het kleiner productieproces? Juist. Welkom HD3870X2.
quote:
roy-t schreef op vrijdag 21 maart 2008 @ 09:36:
[...]


damn, vooral die nieuwe AA techniek klinkt erg interessant! lijkt me zelfs efficienter dan traditioneel AA en gebeurt zoals het hoort met AA echt pas op het aller aller laatste! Chapeau AMD!

Zo vreemd dat Nvidia pas over een jaar DX10.1 gaat ondersteunen er zitten toch echt toffe dingetjes in!
Er zitten inderdaad hele interessante dingen in (zie ook de FAQ in de first post). Deze dingen zijn er in gekomen omdat de developers er om gevraagd hebben. Maar als NV genoeg geld in TWIMTBP stopt dan krijgen we hetzelfde effect als met DX8.1 dat er maar een enkele game komt die het ondersteunt. Pas wanneer NV DX10.1 ondersteunt in de hardware, zal het ook voor hen de heilige graag worden. Zo gaat dat helaas in de videokaartenwereld. AMD deed hetzelfde met SM3.0 (alhoewel ze daar ook gelijk bleken te hebben dat de toenmalige SM3.0 hardware (GF6800) gewoonweg te traag was voor de echtge SM3.0 features als dynamic branching en vertex texturing). That's the way it goes. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • k995
  • Registratie: november 2002
  • Laatst online: 31-03 14:36
quote:
CJ schreef op vrijdag 21 maart 2008 @ 10:34:
[...]


Lieve schat voor Triple CF heb je geen Tripple CF moederbord nodig. Een simpel CrossFire moederbord voldoet.... als het maar 2 fysieke 16x PCIe sloten heeft. Een mobo met 8x 8x is voldoende.

Ooit gehoord van HD3870X2 + HD3870 in CrossFire om Triple CF te bereiken? Dat zijn toch echt maar twee kaarten. :+
En dan heb je nog altijd de extra kost voor je CF moederbord he?

En 8x 8x , ok welke zijn zo? Wat ik terugvind is enkel bij AMD het verschil klein: de 790x chipset, 70euro tegen 55euro voor 650i chipset van NV 15euro verschil, maar dan betaal je meer voor AMD CPU en verlies je daar dus.

Bij intel CPU is het X38 maar dan spreek je al van 130euro
quote:
Tuurlijk maakt het uit. Vergelijk het met een auto die normaal op Super98 draait. Als je er ineens Euro95 in gooit, dan is dat goedkoper voor je portemonnee en je auto loopt ook wel, maar reageert de auto soms schokkeriger en zijn de prestaties minder.

De ene fabrikant heeft dan een speciaal soort katalysator (Catalyst Drivers) nodig om er voor te zorgen dat alles wel goed draait op Euro95. De andere fabrikant zorgt er voor dat Euro95 gewoon goedkoop is zodat het altijd goed draait (NV met TWIMTBP).
Je vergelijking gaat niet op. Het gaat niet om beter of slechte brandstof het gaat over de wegen (=spelletjes) beter aangepast aan je auto te maken zodat je soepeler rijd. De ene spreekt en helpt de wegenbouwers om voor hun wagen een soepele/snelle rit te maken, de andere doet dat veel minder met als gevolg dat ze dan later de wegenopmeten en alsnog wijzigingen doorsturen .

Manier 1 is beter, je rit is meestal soepel en snel van in het begin, bij 2 kan je pech hebben als het nog niet voor jou is aangepast en je daar rijd.


Maakt het uit dat ze verschillende methodes gebruiken of hoe krachtig je kaart theoretisch is? Nee wat telt is hoe snel ze is als jij ze gebruikt .
quote:
Vroeger toen ging het om de hardware architectuur en niet om hoeveel geld er besteed werd aan het helpen van developers. Een game werd gemaakt zonder financiele hulp van IHVs en dat was de ultieme test voor een videokaart. Welke kon er het snelste mee om gaan? Nu is de strijd naar een heel ander vlak gebracht door sponsorprogramma's. En daar wint NV het.
Ja en? De 2 hangen toch aan elkaar vast? Je hebt goed ontworpen spelen op goed ontworpen videokaarten nodig om het beste eruit te krijgen en NV doet dat inderdaad beter. Consument kan er enkel baat bij hebben door goed ontworpen/stabiele en snelle spelen te krijgen. AMD moet dringend zorgen dat ze dezelfde zorg besteden aan dat deel . En ik denk dat nu ze de hardware kant weer onder controle hebben ze dat wel gaan doen.
quote:
Maar de HD3870X2 is niet even duur en de helft trager. De HD3870X2 is zo'n 70% goedkoper en afhankelijk van de benchmark en resolutie gemiddeld zo'n 30% trager (soms echter ook sneller en soms ook iets trager). Er zijn genoeg mensen die het snelste van het snelste willen, die nemen de GF9800GX2. Maar de groep mensen die bewuster om gaat met de portemonnee, is echter vele malen groter... dat zie je ook in de recent uitgebrachte cijfers waar bleek dat de €150-€300 videokaartensegment het grootste segment was. En welke kaart is daar het snelste dankzij het kleiner productieproces? Juist. Welkom HD3870X2.
Weer met je kleiner productieproces :-)

Als ik zie is de 9600GT de beste : in SLI is die even snel als een X2 en zelfs met een SLI moederbord zelfs nog een stuk goedkoper.

http://en.expreview.com/2...ce-9600gt-review/?page=16

En de X2 is toch 300euro of meer wat toch wel boven ligt van wat de gemiddelde consument uitgeeft aan een videokaart.

  • Ed_L
  • Registratie: januari 2006
  • Laatst online: 22:01

Ed_L

Edmin

Ik Henk &#039;m!

quote:
k995 schreef op vrijdag 21 maart 2008 @ 12:25:
[...]

En dan heb je nog altijd de extra kost voor je CF moederbord he?

En 8x 8x , ok welke zijn zo? Wat ik terugvind is enkel bij AMD het verschil klein: de 790x chipset, 70euro tegen 55euro voor 650i chipset van NV 15euro verschil, maar dan betaal je meer voor AMD CPU en verlies je daar dus.
Aan de andere kant kan je dit dus ook kwijt in een ouder, reeds bestaand systeem. Het zou zelfs passen in die oude Athlon 3500+ op het Asus A8R-MVP bordje dat ik hier heb.

  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
quote:
k995 schreef op vrijdag 21 maart 2008 @ 12:25:
[...]
Ja en? De 2 hangen toch aan elkaar vast? Je hebt goed ontworpen spelen op goed ontworpen videokaarten nodig om het beste eruit te krijgen en NV doet dat inderdaad beter. Consument kan er enkel baat bij hebben door goed ontworpen/stabiele en snelle spelen te krijgen. AMD moet dringend zorgen dat ze dezelfde zorg besteden aan dat deel . En ik denk dat nu ze de hardware kant weer onder controle hebben ze dat wel gaan doen.
[...]
AMD doe aan developer support, geen financiële support _en dat is maar normaal_
Wat nvidia doet verstoort de marktsituatie en uiteindelijk wordt je daar als consument nooit beter van.
Dit terzijde, ik denk niet dat AMD zeer veel last mag ondervinden van het twimtbp programma. Uiteindelijk moet iedereen met dezelfde api werken (dx9 of dx10) en is er dus geen probleem.

Ik weet eigenlijk niet wat ze bij crytek dachten ofwel is het de slechte invloed van EA, Crysis is echt niet af, niet qua gameplay, niet qua graphics (performance), ze hadden zeker nog 6 maanden mogen doorwerken...

  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
k995 schreef op vrijdag 21 maart 2008 @ 12:25:
[...]

En dan heb je nog altijd de extra kost voor je CF moederbord he?

En 8x 8x , ok welke zijn zo? Wat ik terugvind is enkel bij AMD het verschil klein: de 790x chipset, 70euro tegen 55euro voor 650i chipset van NV 15euro verschil, maar dan betaal je meer voor AMD CPU en verlies je daar dus.

Bij intel CPU is het X38 maar dan spreek je al van 130euro
Wou je zeggen dat een SLi bord niks extra's kost? Bij ATi heb je iig de keus. Bij nV moet je een nForce boardje nemen. En dan nog een vorige generatie 650i vergelijken met een nieuwe 790x..... pff :X
quote:
Maakt het uit dat ze verschillende methodes gebruiken of hoe krachtig je kaart theoretisch is? Nee wat telt is hoe snel ze is als jij ze gebruikt .
Hé krijgen we nou weer het hele e-peen verhaal...
quote:
Als ik zie is de 9600GT de beste : in SLI is die even snel als een X2 en zelfs met een SLI moederbord zelfs nog een stuk goedkoper.

http://en.expreview.com/2...ce-9600gt-review/?page=16
Tja het hangt er maar af van welke keuzes je maakt voor benchmarks/instellingen. Zie bijv. cbase

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • dreee
  • Registratie: oktober 2004
  • Laatst online: 19-10-2017
Als je op Cbase leest, hebben ze het over de HD3830 die eraan moet komen, en de HD3690, De HD3830 zou zich tussen de HD3650 en de HD3850 moeten schalen. Alleen met een interface van 128-bit ipv 256 bit zoals de andere RV670 varianten.
Richtprijs 120 -130 dollar, wrs eerder bedoelt als OEM kaart.

http://www.computerbase.d...l_radeon_hd38x0_anmarsch/

Nu zit ik meer te wachten op of nieuwere revisie of de HD 4xxx serie.

De weg kwijt? Vind je zelf weer terug... --> Radio Paradise <--


  • k995
  • Registratie: november 2002
  • Laatst online: 31-03 14:36
quote:
Ed_L schreef op vrijdag 21 maart 2008 @ 12:36:
[...]


Aan de andere kant kan je dit dus ook kwijt in een ouder, reeds bestaand systeem. Het zou zelfs passen in die oude Athlon 3500+ op het Asus A8R-MVP bordje dat ik hier heb.
Niet echt, die CPU gaat te traag zijn ik heb al ondervonden dat de meeste mensen meestal alles upgraden, maar ten dele dus ja: als je nog een deftig systeem (niet CF of sli)hebt kan je upgraden naar een X2 dan is dat de beste keuze.
quote:
oeLangOetan schreef op vrijdag 21 maart 2008 @ 12:56:
[...]

AMD doe aan developer support, geen financiële support _en dat is maar normaal_
Wat nvidia doet verstoort de marktsituatie en uiteindelijk wordt je daar als consument nooit beter van.
Dit terzijde, ik denk niet dat AMD zeer veel last mag ondervinden van het twimtbp programma. Uiteindelijk moet iedereen met dezelfde api werken (dx9 of dx10) en is er dus geen probleem.
NV doet ook voornamelijk aan developer support hoor, crysis is een buitenbeentje, net zoals het geld dat ATI betaalde voor HL2 .

DX9 en 10 legt niet alles vast hoor, CJ kan je dat ongetwijfeld veel beter vertellen maar tussen NV en AMD kaarten zijn toch wel wat verschillen hoe ze die DX9 en 10 doen. Als developers dus de keuze krijgen van de NV manier en hulp van NV of de AMD manier en ze moeten het zelf maar uitzoeken zullen ze veelal kiezen voor NV en hier en daar ervoor zorgen dat AMD toch ook goed loopt.
quote:
aca schreef op vrijdag 21 maart 2008 @ 13:01:
[...]


Wou je zeggen dat een SLi bord niks extra's kost? Bij ATi heb je iig de keus. Bij nV moet je een nForce boardje nemen. En dan nog een vorige generatie 650i vergelijken met een nieuwe 790x..... pff :X
Niks extra kost? Zoals ik al zei een 650i bordje heb je al vanaf 55 euro , veel goedkoper gaan de niet SLI ook niet, dus nee het kost je niet veel extra.

En wat maakt die 790x dan zoveel beter? Heb weinig vooruitgang gezien de laatste tijd qua moederborden.
quote:
Hé krijgen we nou weer het hele e-peen verhaal...
?
quote:
Tja het hangt er maar af van welke keuzes je maakt voor benchmarks/instellingen. Zie bijv. cbase
Ik weet niet wat je wil aantonen maar de 9600GT SLI is daar toch gelijkaardig aan de X2 hoor, misschien doel je op de 8AA waarin op 1600 de X2 veel voorsprong heeft?

Als id de rest van die review lees is de 9600GT SLI stiller, koeler en heel wat minder stroom trekkend dan een X2

Prijs/snelheid is volgens die review ook heel wat beter dan een X2

  • SirNobax
  • Registratie: mei 2007
  • Laatst online: 26-03 23:08
Waarom komen deze nutteloze Nvidia/ATI discussie's elke week weer terug. :(

Ik zie hier in iedergeval de "ATI NIEUWS"-waarde niet van in.

[Voor 6% gewijzigd door SirNobax op 21-03-2008 15:03]

Pentaxiaan


  • sRai
  • Registratie: oktober 2007
  • Laatst online: 24-11-2009
AMD verlaagt prijzen HD3800 serie

Dat AMD en nVidia elkaar goed in de gaten houden blijkt maar weer eens, want na een onlangs doorgevoerde prijsverlaging van de 9600GT (van $179 naar $149 US Dollar) heeft AMD gelijk een reactie klaar: De HD3850 en HD3870 gaan wederom in prijs omlaag, en niet zo'n beetje ook. De snelste single-gpu videokaart van AMD - de HD3870 - zal binnenkort nog maar 159 US Dollar gaan kosten, omgerekend is dat een bedrag van 104 euro. De HD3850 wordt met omgerekend 94 euro nog weer een tientje goedkoper dan zijn snellere broer.

Bron: Hardware.info

  • Ed_L
  • Registratie: januari 2006
  • Laatst online: 22:01

Ed_L

Edmin

Ik Henk &#039;m!

Goede tijden voor de hardware koper van vandaag, maar de vraag is: waar betaalt AMD het van? Ik ga er voor het gemak maar van uit dat de 3870 en -50 nog steeds niet met verlies verkocht worden, wat zou betekenen dat ze twee maanden geleden geweldige marges op de kaarten hebben gehaald!

  • R-O-Y
  • Registratie: juni 2006
  • Laatst online: 01-07-2019

R-O-Y

Ik maak mijn zinnen nooit

Nu ze goedkoper zijn verkopen ze er ook veel meer van. Ik vraag me af hoeveel het nou werkelijk scheelt. Het zal ze geen windeieren leggen denk ik. Als ze 104 euro kosten koop ik een 2e 3870. Weer een aankoop extra die niet gedaan zou worden als de prijzen hoger lagen. Het levert ze vast wel iets op :P

Youtube Download ubersnel.nl

quote:
Ed_L schreef op vrijdag 21 maart 2008 @ 21:00:
Goede tijden voor de hardware koper van vandaag, maar de vraag is: waar betaalt AMD het van? Ik ga er voor het gemak maar van uit dat de 3870 en -50 nog steeds niet met verlies verkocht worden, wat zou betekenen dat ze twee maanden geleden geweldige marges op de kaarten hebben gehaald!
En dat loop ik nou al tijden te verkondigen... al sinds de launch van de 3800 serie... :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • EdwardvGelder
  • Registratie: december 2007
  • Laatst online: 19-03 21:55
Die 3850 512mb is er nu al voor €120,-!
pricewatch: MSI RX3850-T2D512E

Systeem -> http://tweakers.net/gallery/243108/sys Powered by Ati/Amd Radeon 5870/Ph2 955@3,8ghz


  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 23-03 09:52

Krizzie

Progressive Music \o/

quote:
CJ schreef op vrijdag 21 maart 2008 @ 21:55:
[...]


En dat loop ik nou al tijden te verkondigen... al sinds de launch van de 3800 serie... :+
Dus zelfs met deze absurd lage prijzen maken ze er nog winst op? :o

Geluidswolk


  • bnbaz
  • Registratie: september 2005
  • Niet online
quote:
Jups, een maand oid geleden, een van de eerste reviews van de 9600GT bevatte een vergelijking met de 3850, waar ze zeiden dat de 9600GT een betee keuze zou zijn omdat die nog goedkoper was. ATi had ze alleen al gebeld en gezegd dat binnen twee weken de prijs zou zakken (en dan na vier weken oid zakt het uiteindelijk voor de consument pas). Op die manier zal het altijd door blijven zakken natuurlijk, al gaat het wel met steeds kleinere stappen.

Helaas kan ik de bron niet meer vinden, maar het is een vrij simpele theorie natuurlijk (en daar bevestigd door ATi).

  • frankknopers
  • Registratie: december 2003
  • Laatst online: 22-01 10:49

frankknopers

Goud is geen geld

Het zou wel een strakke actie zijn als AMD met die 104 euro voor de HD3870 nog steeds winst maakt. Dat betekent dat ze een lange periode gewoon bijna 50 euro marge per kaart hebben kunnen incasseren. En als je ziet hoeveel die kaarten verkocht zijn dan is dat een mooie slag geweest voor AMD. Ik zou echt heel graag willen weten wat nou de productiekosten zijn van zo'n videokaart en hoeveel % daarvan in de RV670 chip zelf zit (wat het grootste verschil maakt met de 8800GT).

Toch zijn die prijsverlagingen niet leuk voor mensen die de hoofdprijs hebben betaald. Ik had me een paar weken geleden voorgenomen om één HD2900XT te verkopen voor ongeveer 130/140 euro, maar dat kan ik nu wel schudden als een nieuwere stillere zuinigere etc. opvolger al voor 120 of 130 euro in de schappen ligt... Maargoed, dat is het verlies wat je neemt als early adopter. ;)

Toch zie je maar weer dat in deze markt, waarin twee spelers domineren, het marktaandeel enorm belangrijk is. Als meer mensen jouw kaart hebben krijg je toch meer bekendheid, en als mensen tevreden zijn kopen ze later misschien weer een videokaart en zullen ze andere mensen ook aanraden dat merk te nemen. Ook kan een groter marktaandeel van AMD videokaarten (en Crossfire setups) stimulerend werken voor de neutrale game-devs om te optimaliseren voor AMD.

Dat NV zich zo sterk inmengt in de game-development is eigenlijk heel slecht. Het remt de innovatie (adoptie en nuttig gebruik van nieuwe technieken die niet in NV en wél in AMD kaarten zitten, denk aan de Tesselator, de shaderbased AA en voorlopig ook DX10.1) en frustreert de mensen met AMD videokaarten. Kijk eens naar Lost Planet, dat is gewoon één grote PR show waarbij het hele spel er niet meer toe lijkt te doen. Volgens mij haalt in dat spel zelfs een 8800GT nog meer dan een Triple-CF (wat uiteraard amper ondersteund wordt in dat spel).

Ook in Crysis heeft de inmenging van NV geen goed gevolg gehad, want op AMD videokaarten moest je gewoon een patch en twee driverreleases wachten voordat de artifacts en renderfouten er een beetje uit waren. En waarom werkte SLI wél vanaf het begin terwijl je met Crossfire gewoon 4 maanden moest wachten voordat je de tweede GPU nuttig kon gebruiken... 8)7 Ik weiger gewoon toe te geven aan dit gedrag van NV, want uiteindelijk is geen enkele gamer erbij gebaat imho.

Optimalisaties is echt iets voor consoles, voor PC gaming moet alle software eigenlijk zo open mogelijk geschreven zijn. Gelukkig wordt met DX10.1 de standaard nog strakker gedefinieerd, maar zolang NV nog geen DX10.1 kaart heeft zal het wel niet verder doordringen dan een paar techdemo's :z

[Voor 40% gewijzigd door frankknopers op 21-03-2008 23:00]

Goud is geen geld

quote:
Krizzie schreef op vrijdag 21 maart 2008 @ 22:33:
[...]


Dus zelfs met deze absurd lage prijzen maken ze er nog winst op? :o
Bij AMD draait het allemaal op die-size en transistorbudget.

Kijk naar de die-sizes en zoek de prijzen op waar deze ooit voor verkocht werden.

RV610: 82mm2
RV630: 153mm2
RV670: 194mm2
R600: 420mm2

RV515: 100mm2
RV530: 157mm2
RV570: 230mm2
R520: 321mm2
R580: 352mm2

Je ziet dan dat de R600 verkopen voor $399 geen pretje was. Voor de R580 vroeg men immers ook de hoofdprijs van $649 voor het topmodel. $399 betekende hele lage marges voor AMD. En ook heb ik van AMD te horen gekregen dat ze niet blij waren met dat de R520 voor minder dan $200 over de toonbank ging in de X1800GTO... dat beet ze lekker in de marges.... en RV570 was nog niet klaar, maar ze moesten wel.
De RV570 werd gelanceerd voor 200-249 en toen zat er nog flink veel winstmarge op. RV670 werd in dezelfde prijscategorie gelanceerd, maar is wel een flink stuk kleiner dan RV570, terwijl de performance toch wel verdubbeld is.

AMD mag dan geblunderd hebben in het verleden... de laatste tijd heeft de ATI Division het eigenlijk alleen maar goed gedaan. De chipsets doen het enorm goed. De GPUs komen in de eerste revisie van de band en kunnen vervroegd verkocht worden. Zo ook de RV770... De R600 was een missertje. Maar over het algemeen doen ze het niet slecht.

[Voor 3% gewijzigd door CJ op 22-03-2008 00:25]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
quote:
frankknopers schreef op vrijdag 21 maart 2008 @ 22:49:
[...]Het remt de innovatie (adoptie en nuttig gebruik van nieuwe technieken die niet in NV en wél in AMD kaarten zitten, denk aan de Tesselator, de shaderbased AA en voorlopig ook DX10.1) en frustreert de mensen met AMD videokaarten. [...]
imho, de tesselator implementeren is geen goed idee (hoewel er AMD nu ook al shader - implementaties van de tesselator heeft gemaakt voor de concurenten)
Shaderbased AA kunnen de nvidia kaarten ook (wellicht minder efficiënt maar nog niemand heeft dat tot nog toe kunnen aantonen)

  • bnbaz
  • Registratie: september 2005
  • Niet online
quote:
frankknopers schreef op vrijdag 21 maart 2008 @ 22:49:
Het zou wel een strakke actie zijn als AMD met die 104 euro voor de HD3870 nog steeds winst maakt. Dat betekent dat ze een lange periode gewoon bijna 50 euro marge per kaart hebben kunnen incasseren.
Je vergeet waarschijnlijk wel dat ATi niet de enige op de markt is. Let nog op de fabrikanten van de daadwerkelijke kaarten, en de kosten die in vervoer/onderdelen/chips gaan zitten, die worden ook steeds lager. Wanneer een nieuwe fab opgezet is of een chip ontwikkeld is moet dat proces zichzelf terugbetalen, op het eind hoeft dat niet meer en hoef je alleen de productiekosten van die chip eruit te halen.
quote:
Toch zijn die prijsverlagingen niet leuk voor mensen die de hoofdprijs hebben betaald. Ik had me een paar weken geleden voorgenomen om één HD2900XT te verkopen voor ongeveer 130/140 euro, maar dat kan ik nu wel schudden als een nieuwere stillere zuinigere etc. opvolger al voor 120 of 130 euro in de schappen ligt... Maargoed, dat is het verlies wat je neemt als early adopter. ;)
Precies, de enige manier om dat te ontwijken is om je hardware te kopen wanneer er niets nieuws en boeiends uitkomt en gebeurd, maar of dat nu interessant is...? Nee :P
quote:
Dat NV zich zo sterk inmengt in de game-development is eigenlijk heel slecht. Het remt de innovatie (adoptie en nuttig gebruik van nieuwe technieken die niet in NV en wél in AMD kaarten zitten, denk aan de Tesselator, de shaderbased AA en voorlopig ook DX10.1) en frustreert de mensen met AMD videokaarten. Kijk eens naar Lost Planet, dat is gewoon één grote PR show waarbij het hele spel er niet meer toe lijkt te doen. Volgens mij haalt in dat spel zelfs een 8800GT nog meer dan een Triple-CF (wat uiteraard amper ondersteund wordt in dat spel).
Voor de consument is het uiteindelijk slecht, maar in principe is het hardstikke goed dat dit gebeurd. Stom is alleen, dat ATi niet zoveel bezig is daarmee, als zij ook maar het zieltje van een developer hadden kunnen winnen die met een enorm goede/bekende game komt, gaat het balletje vanzelf rollen lijkt me zo.
quote:
Ook in Crysis heeft de inmenging van NV geen goed gevolg gehad, want op AMD videokaarten moest je gewoon een patch en twee driverreleases wachten voordat de artifacts en renderfouten er een beetje uit waren. En waarom werkte SLI wél vanaf het begin terwijl je met Crossfire gewoon 4 maanden moest wachten voordat je de tweede GPU nuttig kon gebruiken... 8)7 Ik weiger gewoon toe te geven aan dit gedrag van NV, want uiteindelijk is geen enkele gamer erbij gebaat imho.
Vergeet niet dat het niet alleen de zak geld van nV is die het doet, maar waarschijnlijk ook het feit dat nV een stuk meer tests uit mag/kan voeren met een spel voordat het gereleased wordt, omdat ze samen werken. Nogmaals, uiteindelijk is het voor de gamer inderdaad niet het beste, maar als ATi eens zoiets zou doen met wat studio's zou het een stuk beter worden.

Maar het is Crysis, who cares anyway? :+

  • Ed_L
  • Registratie: januari 2006
  • Laatst online: 22:01

Ed_L

Edmin

Ik Henk &#039;m!

offtopic:
Overigens zag ik op de aftiteling van Crysis een man of 8 NV personeel, 2-3 Intel mannen en ook 3 AMD'ers voorbij vliegen. What about?

  • Gorion3
  • Registratie: februari 2005
  • Laatst online: 20:47

Gorion3

ABC++

Dat klopt, namelijk elke dag was er wel 1 iemand (meestal meerdere) mensen van nvidia te vinden op de vloer van crytek. Zelfde geld voor de intel en amd mensen, deze gaven ondersteuning over bepaalde zaken, dit is redelijk normaal bij games met een groot budget.

Maar er waren altijd nvidia mensen die hielpen met optimalisatie's aan de engine, aangezien het erg lastig was voor de programmeurs om ook maar een beetje redelijke FPS te halen.

Daarnaast had bijna elke demo-machine een SLI opstelling, met natuurlijk een intel processor erin. Maar da's logisch :P

Deze informatie heb ik uit eerste bron, iemand die by crytek gewerkt heeft.

Awesomenauts! Swords & Soldiers


  • Goosy
  • Registratie: oktober 2006
  • Laatst online: 23-12-2018
Weet iemand of er nog steeds driverproblemen zijn met de AGP versie van de HD2600XT?

  • JohnAD
  • Registratie: maart 2006
  • Laatst online: 07-07-2012
Ik attendeer de topicstarter en iedereen die er belang bij heeft nog wel even op het volgende. Er staat in de start post dat de goedkoopste HD3650 57 euro kost. Dit mag dan wel zo zijn, maar hiermee heb je wel de 256 MB DDR2 versie. Asus bied een DDR3 versie voor slechts 4 euro meer, als goedkoopste in de pricewatch, terwijl de performance boost toch aanzienlijk is met dit snellere geheugen.

http://tweakers.net/price...us-eah3650-htdi-256m.html

Ik weet niet zoveel Systems


  • betaplayer
  • Registratie: juli 2007
  • Laatst online: 27-03 10:59
quote:
[...]

Hé krijgen we nou weer het hele e-peen verhaal...


[...]


Tja het hangt er maar af van welke keuzes je maakt voor benchmarks/instellingen. Zie bijv. cbase
inderdaad! hoeveel procent van de gamers spelen op 30" schermen met dergelijk hoge resoluties?

En een vraag aan degene die dat doen: Waarom? ik kom al ziek van de gedachte om daarop te spelen op pakweg een lanparty, waar je met moeite een meret van je scherm zit... |:(

Het is erg dat bepaalde personen deze testen gaan zien op zo'n resoluties en dan te snel besluiten dat Ati slechte producten heeft, iets wat compleet verkeerd is...

  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 23-03 09:52

Krizzie

Progressive Music \o/

quote:
betaplayer schreef op zondag 23 maart 2008 @ 09:39:
[...]

Hé krijgen we nou weer het hele e-peen verhaal...


[...]


Tja het hangt er maar af van welke keuzes je maakt voor benchmarks/instellingen. Zie bijv. cbase
[/quote]

inderdaad! hoeveel procent van de gamers spelen op 30" schermen met dergelijk hoge resoluties?

En een vraag aan degene die dat doen: Waarom? ik kom al ziek van de gedachte om daarop te spelen op pakweg een lanparty, waar je met moeite een meret van je scherm zit... |:(

Het is erg dat bepaalde personen deze testen gaan zien op zo'n resoluties en dan te snel besluiten dat Ati slechte producten heeft, iets wat compleet verkeerd is...
En hoeveel mensen kopen daadwerkelijk triple/quad sli/cf? ;)

Daar gaat het niet om, het gaat er om dat het in huis is en dat zij de snelste zijn, dat is namelijk goede reclame.

Geluidswolk


  • betaplayer
  • Registratie: juli 2007
  • Laatst online: 27-03 10:59
quote:
Krizzie schreef op zondag 23 maart 2008 @ 09:49:
[...]


En hoeveel mensen kopen daadwerkelijk triple/quad sli/cf? ;)

Daar gaat het niet om, het gaat er om dat het in huis is en dat zij de snelste zijn, dat is namelijk goede reclame.
Inderdaad Maar het is en feit dat crossfire/SLI veel potentieel heeft voor de toekomst, ik vind zo'n reclame schandalig: men kan zo ook een jeep en een ferarie vergelijken, de jeep gaat op een effen weg nooit zo rap gaan als een ferrarie, maar als je dan de 'natuur' ingaat is het een heel ander verhaal...
Mijn punt is dat de meeste mensen geen baat hebben bij zo'n jeep die sommige toch nooit gaan kunnen gebruiken in de 'natuur'(lees hoge resoluties :P )

  • Woutoud
  • Registratie: februari 2006
  • Laatst online: 22:28

Woutoud

Moderator Foto & Video

P/√P

Maar iedereen met een Ferrari haalt wel het maximale uit z'n wagen?

Beetje vreemde vergelijking...

Woutoud.com


  • Finraziel
  • Registratie: december 2001
  • Laatst online: 22:27
30" schermen zijn misschien nog niet zo veel voorkomend, maar 24" met 1920x1200 kom je wel veel vaker tegen. Ik heb zelf nu bijna 3 jaar zo'n scherm, en zou niet meer naar kleiner of een lagere resolutie terug willen, en als je dan ook AA aan wil zetten en zo dan kom je dus toch in de buurt van waar ze op testen.
Overigens ben ik zelf aan het twijfelen tussen 2 9600 GTs of 1 3870x2 momenteel (ga ergens in de komende maanden upgraden), maar als ik dit topic doorlees neig ik alleen maar meer naar nvidia. Het kan me weinig schelen waarom ze beter presteren, als dat maar wel zo is, en dat artikel op computerbase laat inderdaad naar mijn idee vooral zien dat de punten waar de 3870x2 sneller is, de 9600GT SLI nog altijd zo snel presteert dat je het verschil niet echt gaat zien, terwijl het andersom wel vaker gebeurt dat de 3870x2 schokkerige prestaties neer zet waar de 9600GT SLI opstelling dat niet doet. Of ik 80 of 120 fps haal boeit me niet, maar of ik 35 of 20 fps haal, dát boeit me wel enorm.

Gamertag: Finraziel42


  • R-O-Y
  • Registratie: juni 2006
  • Laatst online: 01-07-2019

R-O-Y

Ik maak mijn zinnen nooit

Als ik zie dat Ati met de 3870x2 op 1600*1200 met 8xAA en 16xAF bovenaan staat is dat toch best netjes. Een enkele 3870 wordt maar met 30% ingehaald door 9600GT SLI, ik zou aan de hand van die gegevens wel weten wat ik moest kiezen. Dacht altijd dat Ati zo slecht was met AA maar als het veel wordt zakt een Nvidia kaart blijkbaar ook in elkaar.

Ik game nu op 1920*1200 en met een enkele 3870 gaat dat prima. (met mijn games) Ik kan er altijd nog een 3870 bij zetten als dat nodig is. Of zelfs een X2. Als ik twee 9600GT's in SLI zou hebben kan ik daar niks op uitbreiden. Dat werkt trouwens niet eens op mijn bord.

Dat is #1 reden om voor Ati te gaan voor mij. Ik wil chipsets die fatsoenlijk klokken en veel cpu's supporten. Bij Nvidia ben je dan aan het verkeerde adres. Waar dat aan ligt maakt mij niets uit, het feit dat het zo is wel. Nvidia maakt uiteindelijk wel een goed klokkende chipset maar daar moet je dan wel weer een nieuw bord voor aanschaffen. Dat zijn allemaal dingen die bij mij zwaar wegen. Mede daarop baseer ik mijn aankoop van videokaarten.

Als SLI nou zou werken op Intel chipsets zou ik er misschien ooit eens over denken. Zoals het systeem nu werkt snijden ze zichzelf (in mijn geval) alleen maar in de vingers. Dat platform van AMD spreekt me ook erg aan. Voor mij is het nu in elk geval heel makkelijk. Omdat ik geen Nvidia chipsets wil zijn er maar een paar mogelijkheden.
    1 Nvidiakaart
    1,2 of 3 (evt 4) Ati kaarten
Dan weet ik wel wat er sneller is :) Het gaat niet alleen om kaarten specifiek. Het hele plaatje hoort erbij, dan is cpu-overklok en stroomverbruik toch nog wel een beetje een issue voor mij. Het mag best wat gebruiken maar als het zuiniger kan, graag. Vooral idle.

[Voor 5% gewijzigd door R-O-Y op 24-03-2008 02:07]

Youtube Download ubersnel.nl


  • Finraziel
  • Registratie: december 2001
  • Laatst online: 22:27
Goede punten op zich, maar je baseert dit:
quote:
Als ik zie dat Ati met de 3870x2 op 1600*1200 met 8xAA en 16xAF bovenaan staat is dat toch best netjes. Een enkele 3870 wordt maar met 30% ingehaald door 9600GT SLI, ik zou aan de hand van die gegevens wel weten wat ik moest kiezen.
dus blijkbaar op de gemiddelde resultaten daar?
Dat bedoel ik dus, dat vind ik geen goede uitgangspositie. Als ik alle testresultaten los bekijk, dan zie ik de 9600GT SLI opstelling consequent goed presteert, terwijl de 3870x2 het soms bizar goed doet, en af en toe ineens als crap presteert. Tuurlijk, dat zal waarschijnlijk aan minder goede game optimalisaties liggen, of aan niet volwassen drivers, maar dat doet er niet toe. Alleen eind resultaten doen er toe.
Je overige punten zijn wel goed, en dat is inderdaad een van mijn afwegingen... Ik zou liever een intel chipset nemen, maar SLI spreekt me op dit moment genoeg aan om dat voor lief te nemen.

Gamertag: Finraziel42


  • R-O-Y
  • Registratie: juni 2006
  • Laatst online: 01-07-2019

R-O-Y

Ik maak mijn zinnen nooit

Prestaties zonder AA en AF maken mij niet zoveel uit. Ik game toch alleen maar met die dingen aan. Daar koop ik tenslotte die kaarten voor. Als ik op 1280*1024 wil gamen zonder AA kan ik net zo goed mijn 2400pro gebruiken ;)

Met veel AA en AF scheelt het niet zoveel. Al zou het 10% schelen zonder vage drops etc. maakt dat ook nog niks uit. Of je nou 10 of 11FPS hebt maakt niet uit. 40 of 44 ook niet. 80 of 88 ook niet. Het ligt er dus maar aan wat je wilt. Ik hecht totaal geen waarde aan die minieme verschillen. Wat iemand anders van mijn hardware vind hecht ik nog minder waarde aan. Voor mij wegen al die andere punten dan zwaar genoeg om nu voor Ati te kiezen :)

Alle games die ik speel werken ook prima met Ati kaarten. Een hele tijd terug heb ik ook een 1900GT gekocht omdat die mijn scherm met maximale AA en AF prima aankon. Puur op BF2 benchmarks gekocht. Dat ding mag dan in 80 andere spellen langzamer zijn, als ik die toch niet speel maakt het mij niet uit :) Ik ben er ook van overtuigd dat de komende drivers nog aardig wat goed gaan maken. Testen waar een 3850 boven een X2 uitkomt lijken me niet echt een realistisch beeld van de potentie geven :P

[Voor 27% gewijzigd door R-O-Y op 24-03-2008 15:42]

Youtube Download ubersnel.nl


  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:36

Astennu

-= RX 5700 XT 50th =-

quote:
AMD’s GPU and Intel’s chipset


ATI is working hard with Intel to offer what we call switchable graphics for notebook users. It wouldn’t be so surprising if it weren't for the fact that AMD works hard with Intel to offer its mobile GPUs for Intel notebooks.

Intel will enable switchable graphics, where ATI’s GPU will work when the machine is plugged in to the power socket; while the Intel IGP will kick in when you are on battery power.

Naturally AMD will have this for its own CPUs in the Puma platform, but it will be offered and accepted for Centrino, as there is a need for better graphics performance.

It is still unclear if Intel will offer a Centrino-like platform with switchable Nvidia graphics, but it is highly likely to happen, as well.
Auw ! De Enige troef die ze hebben geven ze uit handen. Op dat moment is er gewoon geen rede meer om een Puma laptop te kopen. Mja aan de andere kant waardeert intel het misschien wel en werken ze AMD minder tegen ? Ik weet het allemaal niet meer maar het is voor de consument belangrijk dat AMD weer high end CPU's gaat maken.
quote:
Nvidia to suffer


You probably have heard that AMD has high hopes for its Puma notebook platform and that it's working with a lot of partners and so far has over 100 design wins. AMD has gone on record with this information a few times by now.

There is more than meets the eye here. Some partners that have barely worked with AMD in the past are all being very strong on Puma, simply due to the fact that they can profit from it.

Puma, on the other hand, puts Nvidia in a difficult position, as it uses AMD’s CPU and chipset. Nforce won’t be a part of the chipset, and it is not even an option.

Nvidia can fit in with its GPUs, but currently Nvidia is on 65nm, while ATI has completely switched to 55nm; but in the notebook market this plays a big role, as it runs cooler and probably preserves battery life.

Puma still has an Athlon – Turion-like CPU, but at least this time the CPU has been developed exclusively for the notebook market.
Maar dus ook positief nieuws. Echter Hoorde ik CJ zeggen dat het alleen met HD34xx Kaarten werkt waardoor je dan 80 stream processors krijgt. HD36xx is al sneller. Dus Snelheids voordeel heb je dan niet wel het lagere verbruik als je zonder AC werkt.

En dan Hebben we intel nog met Larrabee. Een Totaal andere GPU. Want gaan nVidia en AMD hier tegen doen ?

[Voor 37% gewijzigd door Astennu op 25-03-2008 14:04]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • peakaboo
  • Registratie: mei 2007
  • Niet online
Interessant review over quad CF vs quad SLI, met interessante resultaten.

http://www.computerbase.d...ssfire_x_nvidia_quad-sli/

Let op: wel in het duits

[Voor 47% gewijzigd door peakaboo op 25-03-2008 15:13]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:36

Astennu

-= RX 5700 XT 50th =-

quote:
peakaboo schreef op dinsdag 25 maart 2008 @ 15:13:
Interessant review over quad CF vs quad SLI, met interessante resultaten.

http://www.computerbase.d...ssfire_x_nvidia_quad-sli/

Let op: wel in het duits
Nette review. Quad SLi werkt dus beter dan Quad CF. Maar als Quad CF het doet schaalt het wel erg goed. Tripple CF werkt nog beter in verhouding. Maar de Game support moet gewoon beter gaan worden aan AMD's kant. Gelukkig zien we elke nieuwe driver release wel mooie boosts. Ik ben benieuwd hoe dit plaatje er over een paar maanden uit ziet. Zeker omdat AMD die X2 er in wil houden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • frankknopers
  • Registratie: december 2003
  • Laatst online: 22-01 10:49

frankknopers

Goud is geen geld

quote:
peakaboo schreef op dinsdag 25 maart 2008 @ 15:13:
Interessant review over quad CF vs quad SLI, met interessante resultaten.

http://www.computerbase.d...ssfire_x_nvidia_quad-sli/

Let op: wel in het duits
Op Hardware.info ook een test met Quad-SLI:

http://www.hardware.info/...e_9800_GX2_QuadSLI_test/1

Daar lijkt Quad-SLI nog helemaal niet vaak te werken zoals het moet.

Goud is geen geld


  • peakaboo
  • Registratie: mei 2007
  • Niet online
quote:
frankknopers schreef op dinsdag 25 maart 2008 @ 15:32:
[...]

Op Hardware.info ook een test met Quad-SLI:

http://www.hardware.info/...e_9800_GX2_QuadSLI_test/1

Daar lijkt Quad-SLI nog helemaal niet vaak te werken zoals het moet.
Wat heeft dat te maken met ATI? Het is een nvidia test

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Run

quote:
frankknopers schreef op vrijdag 21 maart 2008 @ 22:49:
Toch zijn die prijsverlagingen niet leuk voor mensen die de hoofdprijs hebben betaald. Ik had me een paar weken geleden voorgenomen om één HD2900XT te verkopen voor ongeveer 130/140 euro, maar dat kan ik nu wel schudden als een nieuwere stillere zuinigere etc. opvolger al voor 120 of 130 euro in de schappen ligt... Maargoed, dat is het verlies wat je neemt als early adopter. ;)
Tja, zo gaat het nu altijd met hardware :) Lig ik al lang niet meer wakker van.
quote:
Dat NV zich zo sterk inmengt in de game-development is eigenlijk heel slecht.
Neen, dat is juist heel goed, zo weet je zeker dat een game heel goed op dat soort hardware zal werken.
quote:
Het remt de innovatie (adoptie en nuttig gebruik van nieuwe technieken die niet in NV en wél in AMD kaarten zitten, denk aan de Tesselator, de shaderbased AA en voorlopig ook DX10.1) en frustreert de mensen met AMD videokaarten.
Die tesselator heeft weinig nut, shaderbased AA kan de G80 ook en DX10.1 is een verbetering voor de dev; de end user zal hier weinig van merken.
quote:
Ook in Crysis heeft de inmenging van NV geen goed gevolg gehad, want op AMD videokaarten moest je gewoon een patch en twee driverreleases wachten voordat de artifacts en renderfouten er een beetje uit waren.
Als AMD geen geld wil uitgeven aan game ontwikkeling met als gevolg dat de meeste games het best op nVidia hardware werken, koop je toch gewoon een nVidia kaart?
quote:
Optimalisaties is echt iets voor consoles, voor PC gaming moet alle software eigenlijk zo open mogelijk geschreven zijn. Gelukkig wordt met DX10.1 de standaard nog strakker gedefinieerd, maar zolang NV nog geen DX10.1 kaart heeft zal het wel niet verder doordringen dan een paar techdemo's :z
Je bedoelt, zolang AMD geen geld uitgeeft aan game ontwikkeling? ;) AMD integreert DX10.1, nVidia niet, en nu geef je nVidia de schuld dat DX10.1 niet van de grond geraakt?

It takes two fools to argue.


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
Hacku schreef op dinsdag 25 maart 2008 @ 15:36:
Als AMD geen geld wil uitgeven aan game ontwikkeling met als gevolg dat de meeste games het best op nVidia hardware werken, koop je toch gewoon een nVidia kaart?
De vraag is natuurlijk waar je de grens trekt met betrekking tot de inmenging van hardware fabrikanten. Verkapte vormen van koppelverkoop en zo de natuurlijke marktwerking de das om doen, is m.i. een slechte ontwikkeling.

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:36

Astennu

-= RX 5700 XT 50th =-

Ik kwam iets leuks tegen up Fudzilla:

HD3850 X3 ja je leest het goed X3:
quote:
According to a news post over at NordicHardware, Asus is working on a strange solution which includes three RV670 MXM modules strapped onto a single PCB. This card is currently going under the name of Trinity, although we'll have to see if it makes it as far as retail.

Two of the MXM modules are located on the back of the PCB and one is located on the front. According to the article, Asus engineers haven't yet decided on the amount of memory for these MXM cards, but 512MB sounds reasonable. The card has an additional 8-pin PCI-E power connector, and it will feature four DVI connectors. The entire Trinity contraption is cooled by an external water-cooling solution and heatpipes.

There is no inforomation about the clock speed of these GPU's or the memory. According to the same article, this card actually works, but if it ever will be available is still unknown. It looks interesting and we can only hope that it won't be as "popular" as Gecube's Gemini and Sapphire's dual GPU cards.

You can find the article here.
http://www.fudzilla.com/images/stories/2008/March/General%20News/asus_trinity_1.jpg

http://www.fudzilla.com/images/stories/2008/March/General%20News/asus_trinity_2.jpg

Het is al vaak gezegd 3 GPU's werken redelijk goed de 4e meestal niet. Als de prijs goed is (Dus iets van 450 euro max) kan dit een leuke en interessante kaart worden :) Die aardig kan concurreren met de GX2. Dat dan wel mits de clockspeeds niet te laag worden en de drivers nog beter worden. HD3870 X3 was leuker geweest. (iets hogere clocks gok ik.) Maar wie weet zit het qua clocks straks toch wel goed :)

[Voor 7% gewijzigd door Astennu op 25-03-2008 16:23]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • N0taFAma
  • Registratie: juni 2007
  • Laatst online: 13-08-2010

N0taFAma

[9800GX2]

Ik heb vandaag een Nvidia 9800GX2 gekocht (Nog niet up and running).
Was de lage performance zat in Nvidia-games.
Wees gerust, mijn volgende kaarten zullen weer ATI zijn.
Modbreak:
En de relevantie van deze schokkende onthullingen voor dit topic is :?

Hou het on-topic en gebruik IRC voor slowchat...

[Voor 37% gewijzigd door dion_b op 25-03-2008 19:36]

[ Asus Maximus Extreme ][ Intel Q9650 C0 @ 3000 Mhz ][ Evga Geforce 9800GX2 ][ OCZ Platinum 2048MB DDR3-1600 7-7-7-20 ][ Lacie Electron19blue ][ 2x WD RaptorX 150GB + SpinPoint F1 1TB][ Silverstone Olympia 1000W ][ Coolermaster Stacker 832 ]


  • ZouZou Dude
  • Registratie: maart 2006
  • Laatst online: 18:35
quote:
Astennu schreef op dinsdag 25 maart 2008 @ 16:21:

Het is al vaak gezegd 3 GPU's werken redelijk goed de 4e meestal niet. Als de prijs goed is (Dus iets van 450 euro max) kan dit een leuke en interessante kaart worden :) Die aardig kan concurreren met de GX2. Dat dan wel mits de clockspeeds niet te laag worden en de drivers nog beter worden. HD3870 X3 was leuker geweest. (iets hogere clocks gok ik.) Maar wie weet zit het qua clocks straks toch wel goed :)
Hmm, ik vraag me af of deze ook nog werkt met maar 2 MXM modules. Dan zou je als je iemand kent die een X2 wil, zo'n module er kunnen uithalen en in je laptop plaatsen :p. Mja, ik denk niet dat het zo simpel zal zijn :p

  • Fresh T.
  • Registratie: februari 2002
  • Laatst online: 22:35
Wanneer verwacht AMD met iets dergelijks als Hybrid SLI (HybridPower) te komen met betrekking tot het uitschakelen van de discrete videokaart om zodoende stroom te kunnen besparen in idle mode? Of heb ik het gemist en zou dit al mogelijk moeten zijn?

  • Woutoud
  • Registratie: februari 2006
  • Laatst online: 22:28

Woutoud

Moderator Foto & Video

P/√P

Daarmee zijn ze ongeveer net zo ver als nVidia op dit moment :)

Woutoud.com


  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:36

Astennu

-= RX 5700 XT 50th =-

quote:
Fresh T. schreef op dinsdag 25 maart 2008 @ 17:32:
Wanneer verwacht AMD met iets dergelijks als Hybrid SLI (HybridPower) te komen met betrekking tot het uitschakelen van de discrete videokaart om zodoende stroom te kunnen besparen in idle mode? Of heb ik het gemist en zou dit al mogelijk moeten zijn?
Puma platform heeft dat. En die laptops worden op dit moment in elkaar gezet. Ik denk dat we die over 1-2 maanden zullen zien.

nVidia heeft nog probs met de drivers. Overschakelijk van Dedicated naar IGP moet nog handmatig.
quote:
N0taFAma schreef op dinsdag 25 maart 2008 @ 16:42:
Ik heb vandaag een Nvidia 9800GX2 gekocht (Nog niet up and running).
Was de lage performance zat in Nvidia-games.
Wees gerust, mijn volgende kaarten zullen weer ATI zijn.
[modbreak]En de relevantie van deze schokkende onthullingen voor dit topic is :?

Hou het on-topic en gebruik IRC voor slowchat...[/modbreak]
Is die nu dan veel beter ? Je hebt er in ieder geval wel veel te veel voor betaald. Ik heb zelf de bios van me X2 wat aangepast. PowerPlay uit gezet en heb het idee dat het nu beter loopt. Verbruik is maar 10 watt hoger in 2D 3D 15-20 lager gemaakt. Clocks gelijk aan stock speeds. Mem zelfs iets hoger.

[Voor 38% gewijzigd door Astennu op 25-03-2008 19:56]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • The Source
  • Registratie: april 2000
  • Laatst online: 23-03 16:06
quote:
Fresh T. schreef op dinsdag 25 maart 2008 @ 17:32:
Wanneer verwacht AMD met iets dergelijks als Hybrid SLI (HybridPower) te komen met betrekking tot het uitschakelen van de discrete videokaart om zodoende stroom te kunnen besparen in idle mode? Of heb ik het gemist en zou dit al mogelijk moeten zijn?
Dit is al mogelijk en AMD / ATI ligt hiermee ver voor op NV qua drivers. Ze hadden dit ontwikkeld voor de notebooks, ik meen al zo'n 2 jaar geleden maar omdat het tegenwoordig ook relevant voor desktops is wordt het daar nu ook op ingezet. NV is nog steeds aan het sleutelen aan de drivers van het MCP78 (GeForce 8200) en 730a/750a/780a platform (laatste twee vandaag gelanceerd) om alles goed werkend te krijgen. Qua hardware is NV wel verder, aangezien zij Hybrid SLI al in alle AMD chipset integrated hebben, AMD beperkt zich op dit moment enkel tot 780G (dus niet in 780V en 740G) welke alle drie in de komende weken verkrijgbaar zijn.

Overigens interessant, ik vernam dat Intel haar QPI niet gaat openstellen aan third parties, dit zou betekenen dat NV geen chipsets voor Nehalem zou kunnen / mogen maken. Met als gevolg dat er geen SLI chipsets meer komen voor het Intel platform en guess what, de Nehalem chipset supporten allemaal nog steeds Crossfire.

Nu zijn dit allemaal van die roadmap slides en het kan snel veranderen als NV SLI vrijgeeft aan Intel en ze alsnog een QPI licentie bemachtigen, het is uiteraard een spelletje dat gespeeld wordt. Echter ook met QPI licentie en Sis en VIa die op apengapen liggen zal NV het niet makkelijk krijgen op de Intel chipset markt. Intel gaf in het verleden aan Sis en Via ook altijd maanden te laat alle info om hun chipsets 100% compatible te maken. Nu maakt in het low-end segment dat geen reet uit, maar als NV SLI chipsets wil maken voor het high-end segment wordt het direct wel van belang. En we hebben al precies gezien hoe dat kan zijn, 680i SLI kopers die zich bekocht voelen omdat de 45nm quadcore CPU's er niet stabiel op draaien en daar NV dan sommige NV only partners moet gaan supporten om een omruil aktie te houden. Dat is eigenlijk nog niets wat Intel in het verleden altijd bij VIa en SIs flikte, dus NV maak je borst maar nat.

Ik denk dat dit samen met de komst van Larrabee flinke druk op NV gaat zetten en ook wat vleugels (en marktaandeel) aan AMD gaat geven op het gebied van VGA kaarten.

[Voor 41% gewijzigd door The Source op 25-03-2008 20:41]

Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.



Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True