Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
http://www.guildwarsarena.net/ati/atitopiclogo.jpg
 
Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de Canadese fabrikant ATi kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten.

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

TOPIC REGELS
Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laaste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic!!!!!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic.

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders.
  • Basic vragen zoals "Welke kaart kan ik het beste kopen?", "Heb ik een nieuwe voeding nodig voor m'n X1800XT?", "Kan ik mijn X800GTO2 modden naar een X850XT PE?", "Klopt mijn 3DMark score wel?". "Hoe kan ik HDR + AA activeren in games?". "Welke tool moet ik gebruiken om te overclocken?". "Werkt CrossFire op een SLi mobo?". Gebruik de search. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Continue melden dat een kaart niet beschikbaar is. Het melden in dit topic HELPT de beschikbaarheid NIET verbeteren. En na 1x weten we het wel. Wacht gewoon, check de pricewatch, bel wat winkels, eet wat uit je neus... maar meldt het hier niet aangezien de discussiewaarde nihil is en niets bij draagt aan dit topic!
  • Probeer mensen niet continue te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied.
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".


TOPIC GESCHIEDENIS


http://www.guildwarsarena.net/ati/ati-eye.jpg


Zoek je meer gedetailleerde informatie over de R420? Kijk dan eerst even in de oudere topics. Elk topic biedt de mogelijkheid om binnen het topic op trefwoorden te zoeken! In deel 3 en 4 kan je meer vinden over de lancering van de R420. In deel 8 is een FAQ toegevoegd met o.a. informatie over Temporal Anti Aliasing en 3Dc. Deel 13 behandeld de R480 & R430 Launch, terwijl de eerste leaks over R520 in Deel 20 verschijnen.

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 43
NAVIGATIE
HUIDIGE VPUs
ATi's huidige line-up is tweeledig. Aan de ene kant zitten we nog met de nasleep van de SM2.0b kaarten zoals de X800XL en X850XT, aan de andere kant hebben we nu de SM3.0 generatie van de X1K-serie.

Wil je meer weten over de SM2.0b generatie dan raad ik je aan om even in de first post te kijken van een van de voorgaande delen (bv deel 10). Dit deel zal puur en alleen over de SM3.0 generatie gaan.

De huidige serie kaarten zijn gebaseerd op de volgende cores:
  • R580+ / R580 (PCI-E: X1900-serie)
  • R520 (PCI-E: X1800-serie)
  • RV535XT / RV530XT (PCI-E & AGP: X1600-serie)
  • RV535PRO / RV530PPRO / RV515 / RV516 / RV505 (PCI-E & AGP: X1300-serie)
Desktop: R520 - X1800 Serie | R580 - X1900/X1950 serie
http://www.guildwarsarena.net/ati/X1800series.jpg

R520 heeft een naam gekregen, namelijk Radeon X 1800.

http://www.guildwarsarena.net/ati/X1800XT.jpg
X1800XT


ATi lanceerde de X1800 serie in eerste instantie in twee varianten: de X1800XL en X1800XT. Fabrikanten staan vrij om sneller geklokte versies te leveren. Asus was een van de eersten die hiermee begon met een Asus X1800XT TOP die op 700Mhz core en 800Mhz mem draait. Daarnaast introduceerde ATi eind Maart 2006 de X1800GTO als tegenhanger van de GF7600GT. Dit is een R520 met 1 Quad gedisabled, waardoor er maar 12 pixelshaderengines over blijven.

http://www.guildwarsarena.net/ati/r520-chart.jpg


De prijzen in de chart zijn richtprijzen.


Er gingen veel geruchten over R580, zoals dat dit een 32 pipes kaart zou zijn, of dat de interne efficientie dusdanig is verbeterd dat de performance enorm omhoog is gegaan. De waarheid is de tweede optie. R580 gebruikt dezelfde architectuur als de RV530. Feitelijk zijn het 4 RV530s bij elkaar gestopt.

Bij ATi praat men niet meer over "pipelines" in de traditionele zin van het woord. Beter is het om te praten van "Fragment Pipelines" wanneer je de traditionele betekenis van het woord wilt gebruiken. In dat geval bevat de R580 nog steeds 16 "Fragment Pipelines", daar waar bijvoorbeeld de G71 er 24 heeft. Maar ATi heeft de fragment pipelines "breder" gemaakt zodat deze meer pixels kunnen verwerken per klokslag. Daar waar de R520 1 pixelshaderengine per fragment pipeline had, daar heeft R580 nu 3 pixelshaderengines per fragment pipeline om op een totaal van 48 pixelshader engines te komen!

http://www.guildwarsarena.net/ati/ASUSX1800XTTOP.jpg
Asus X1800XT TOP


Desktop: RV530 - X1600Pro/XT, RV535 - X1650Pro/X1300XT, RV560 - X1650XT, RV570 - X1950Pro
http://www.guildwarsarena.net/ati/X1600series.jpg

RV530 staat nu bekend onder de naam X1600. Deze kaart komt in 2 varianten, de Pro en XT.

http://www.guildwarsarena.net/ati/rv530-chart.jpg


De prijzen in de chart zijn richtprijzen.


In Oktober zal de X1600 min of meer verdwijnen. De RV560 zal dan zijn opwachting maken in het $149 segment. Dit is een GPU met 8 ROPs en 3 pixelshaderengines per ROP, wat een totaal aan 24 pixelshaderengines geeft. Deze kaart zou dus een stuk sterker moeten zijn dan de X1600XT. De X1600XT zal hernoemd worden naar X1650Pro en gebruik gaan maken van de RV535 core. De X1600Pro zal de naam X1300XT krijgen. In het begin zal de X1300XT gebruik maken van overtollige RV530 cores. Later zal dit vervangen worden door de goedkoper te produceren RV535 core.

Daarnaast zal de RV570 - aka X1950Pro - zijn opwachting maken. Deze kaart zal rond de $199 kosten en is in feite een hoger geklokte X1900GT. Aangezien de RV570 een spliksplinternieuwe core is, is deze vanaf de grond opgebouwd met maar 3 pixelshadingquads (dus 12 ROPs, 36 pixelshaderengines) en is er geen uitgeschakelde quad zoals bij de X1900GT. Aangezien de X1950Pro sneller geklokt is dan de X1900GT zal deze sneller zijn, terwijl de prijs lager is en ook minder stroom wordt verbruikt (dankzij het 80nm productieproces).

De X1650XT en X1950Pro bevatten tevens van huis uit ingebouwde CrossFire support (Enhanced CrossFire), waardoor mastercards overbodig zijn geworden.

Desktop: RV505 - X1250/X1300 / RV515 - X1300 Serie
http://www.guildwarsarena.net/ati/X1300series.jpg

RV515 staat nu bekend als de X1300 serie. Er zullen in eerste instantie drie varianten van verschijnen. De X1300HM, X1300 en X1300Pro.

http://www.guildwarsarena.net/ati/rv515-chart.jpg


De prijzen in de chart zijn richtprijzen.


TOEKOMSTIGE VPUs (Korte Termijn)
In de komende paar maanden zal ATi een refresh reeks VPUs introduceren. Het gaat dan om de volgende cores:
  • R580+/590 (Enthusiast)
  • RV570 (Performance
  • RV560 (Performance/Mainstream)
  • RV535/540 (Mainstream)
  • RV505 (Value)


R580 is de refresh van R520, maar zal niet de enige refresh core zijn. Ook RV570, RV560, RV535 en RV505 zullen gelanceerd worden halverwege 2006. R580+ is een R580 core van de A3 revisie. Deze zal gebruikt worden in de X1950XTX. De A2 revisie bevindt zich in de huidige X1900-serie. De nieuwe revisie is wat getweaked waardoor het PCB minder complex hoeft te zijn en kan iets beter overweg met GDDR4.

We weten nu dat de X1900XTX aardig goed z'n mannetje staat tegenover de 7900GTX. ATi hoeft dus in feite geen snellere core te lanceren. Maar tijdens een conference call hebben ze aangegeven dat ze al wel wat klaar hadden staan om zo de snelste te blijven op het gebied van singlecore kaarten.

Zoals het er nu naar uit ziet zal X1950XTX de performanceboost voornamelijk krijgen van het snelle GDDR4 waaraan het gekoppeld wordt. De core draait hoogstwaarschijnlijk op dezelfde snelheid als de R580, dus 650Mhz, terwijl het geheugen op 2Ghz GDDR4 draait. Dit doet er op wijzen dat R580+ dezelfde core is gebleven als R580, dus ook op 90nm is gemaakt, en dus niet op 80nm. Daarnaast werkt ATi samen met Arctic Cooling, die de nieuwe cooler heeft ontwikkeld voor de X1950XTX. Deze cooler koelt zo'n 10-11 graden beter dan de originele R580 cooler.

Daarnaast komt er een 256MB versie van de X1900XT die rond de 279 gelanceerd zal worden.

RV560/RV570 zijn de nieuwe midrange kaarten van ATi. RV560 aka X1650XT heeft 8 ROPs, 24 pixelshaderengines en een 128-bit memory interface. De performance staat ongeveer gelijk aan de performance van een X1800GTO, maar de prijs zal aanzienlijk lager liggen (rond de $149). De RV570 aka X1950Pro heeft 12 ROPs, 36 pixelshaderengines en een 256-bit memory interface. Dit is de eerste midrange kaart die out-of-the-box een 256-bit memory interface heeft. Dit zal zeker ten goede komen bij hoge resoluties en AA/AF.

Enhanced CrossFire bij de RV560/RV570
De Compositingchip is geintegreerd in de core en er is geen mastercard nodig. Twee RV560/RV570 cores worden verbonden via een dubbele interne bridgechip. Waarom deze dubbel is, is nog niet bekend. Hoogstwaarschijnlijk gebeurd dit om de performance met SuperAA modes te blijven garanderen (zie ook bij nVidia waar de SLi AA performance gigantisch inelkaar stort bij het gebruik van 1 bridgechip), daar waar dit nu via de externe dongle wordt gewaarborgd. Deze cores komen waarschijnlijk als X1950Pro en X1650XT op de markt.

RV505 is een 80nm variant van de RV515. Van de RV505 zijn er ook verschillnde varianten. De eerste zal de RV505CE zijn. Deze zal beschikbaar zijn in 32-bit en 64-bit varianten. De core zal lopen op zo'n 350Mhz en het geheugen op zo'n 400Mhz DDR. Deze eerste kaart zal bekend staan als X1250.

RV535 is een goedkope 80nm variant van de RV530. Van de RV535 zullen twee kaarten gemaakt worden, de X1650Pro en de X1300XT. De X1650Pro is identiek aan de X1600XT. De X1300XT is identiek aan de X1600Pro.

Mobile: M52, M54,M56, M58
Op ATi's roadmap staan de volgende cores: M52, M54, M56, M58, M58Pro, M59. Al deze cores zullen zoals het er nu naar uit ziet SM3.0 support hebben. M58 zal de highend core zijn.

M52: Mobility Radeon 1300 (4 ps, 2vs)
M54: Mobility Radeon 1400 (4 ps, 2vs @ 450/342)
M56: Mobility Radeon 1600 (12 ps, 5vs @ 450/?)
M58: Mobility Radeon 1800 (12 ps, 8vs)
M58Pro: Mobility Radeon X1800XT (16 ps, 8vs @ 446/495)
M59: tba

De M59 moet nog komen. Het meest voor de hand liggende is dat deze core gebaseerd is op de R580 of zelfs op de R590 vanwege het kleinere productieproces wat notebook GPUs alleen maar ten goede komt vanwege het lagere stroomverbruik.


Prijsovergezicht na lancering X1K serie
http://www.guildwarsarena.net/ati/pricechart.jpg


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan prijswijzigingen doorvoeren.

X1K TECHNOLOGY
OVERVIEW
De X1K generatie van ATi is een "Next Generation Architecture" die gemaakt wordt op het 90nm low-k proces. Dit houdt in dat het technieken bevat waar toekomstige generaties op zullen verder bouwen, maar ook dat het technieken bevat die gebruikt kunnen worden voor andere doeleinden dan puur en alleen renderen van beelden. Daarnaast is de X1K serie de eerste generatie die de naam Avivo Video & Display Platform kan dragen. Wat dit inhoudt kan je
hieronder lezen.

Shader Model 3 done right?
ATi vat een groot deel van de nieuwe functionaliteiten van de X1K-serie samen onder de noemer "DX9 Shader Model 3.0 done right!". Om dit te bewerkstelligen heeft de X1K serie een aantal nieuwe zaken aanboord zoals:

- Ultra Threaded Dispatch Processor
- 32-bit Processing At Full Speed Full Time
- Fast Dynamic Branching
- 512 Parallel Threads
- Veel snellere PCIe bandbreedte
- Advanced Memory Controller

De voordelen voor de eindgebruiker zijn dat er geen compromissen worden gesloten op performance en IQ. Zo wordt er altijd op full precision gewerkt, waar de concurrentie nog kan springen naar partial precision om snelheid te winnen ten koste van IQ. Tevens zorgt dit er voor dat toekomstige games die hevig gebruik maken van dynamic branching (toch "het" grote voordeel van SM3.0) alleen maar sneller werken dan op kaarten van de concurrentie. ATi is er dan ook trots op om te vermelden
dat hun SM3.0 kaarten de enige SM3.0 kaarten zijn die alle DCT SM3.0 tests goed volbrengt, daar waar de concurrentie een aantal tests niet kan voltooien. Shader Model 3 done right dus!

Shader Model 3.0
De top-of-the-line X1800-serie heeft 16 Pixel Shader Processors aan boord. Vanaf dit moment praten we dus niet meer van Pixelshader pipelines zoals voorheen het geval was. Deze 16 PSPs zijn verdeeld over 4 Shader Cores, waarvan elke Shader Core 4 PSPs
bevat, vandaar de naam "Quad Pixel Shader Core". Daarnaast bevat de X1800 serie 8 Vertex Shader Processors, 16 Texture Address Units, 16 Texture Units en 16 Render Back-End Units (de ROPs).

Shadermodel 3
Wat betreft setup van de Pixel Shader Processors is er niet veel verandert tov de R4x0 reeks. Er zijn echter wel wat dingen toegevoegd en aangepast om er voor te zorgen dat de X1800 kan voldoen aan de SM3.0 eisen. Zo is er een Branching Execution Unit toegevoegd aan elke PSP die kan zorgen voor snelle dynamic flow control (branching, looping, subroutines). En ook werkt alles nu volledig op 128-bit Floating Point Processing (FP32), terwijl bij de voorgaande generaties alles intern op
FP32 werkte, maar extern op FP24 (96-bit Floating Point Processing) werkte.

http://www.ixbt.com/short/images/x1800xt.jpg
PowerColor X1800XT


Dynamic Flow Control / Branching
Op de huidige generatie kaarten van de competitie is Dynamic Flowcontrol niet bepaald het sterkste punt. Het gaat zelfs zo ver dat de competitie developers aanraadt om spaarzaam om te gaan met zaken als dynamic branching, omdat dit anders averechts zou kunnen werken en de performance juist achteruit gaat ipv vooruit. ATi heeft dit probleem aangepakt met de X1K serie.

De X1K serie acceleert Flow Control door multiple threads te ondersteunen (tot 512 op de X1800), een intelligent thread selection systeem in te bouwen, met kleinere threadsizes te werken (competite
werkt met grotere blocks waardoor de boel langzamer is) en een dedicated branching unit aan te brengen.

Ultra-Threading
De X1000 serie is in staat om honderden threads tegelijkertijd te verwerken op verschillende PSPs. Elke thread kan 6 verschillende shaderinstructies op 4 pixels per clockcycle verwerken. Dankzij de
aparte snelle Branching Execution Unit wordt flow control snel en effectief uitgevoerd zonder dat dit de ALU's zwaar belast, iets waar de concurrentie zich op zal verslikt zoals meerdere flowcontrol
benchmarkprogrammas al uitwijzen. En dankzij de Multi-Ported Register Array is het mogelijk om snel van thread te wisselen zonder dat er bottlenecks ontstaan. In de oude generatie was het dus mogelijk dat een thread moest wachten totdat de PSP waar hij voor in de rij stond beschikbaar kwam. Wat er nu gebeurd is dat de wachtende thread doorgeschakeld wordt naar een PSP die wel vrij is. Is er geen PSP vrij dan wordt de thread 'in slaap' gezet totdat er een PSP vrij komt om het
te verwerken. Hiermee wordt de hele architectuur efficienter aangezien de Pixel Shader Processors continue aan het werk blijven.. Zoals je wel zult begrijpen kan dit ook veel voordelen voor dynamic flow control hebben. Wanneer games echt gebruik gaan maken van SM3.0 zal je hier dan ook de grote snelheidsverschillen ten op zichte van bv de G70 kunnen vinden.

Vertex Engine
De X1800 serie heeft 8 Vertex Shader Processors aan boord. Elke VSP kan 2 shader instructions per klok aan. Dankzij de hoge snelheid waarmee de X1800 cores werken kunnen deze 8 VSPs dus in totaal meer dan 10 miljard instructies per seconde aan. En om te voldoen aan de SM3.0 standaard
zijn de VSPs opgewaardeerd met support voor Dynamic Flow Control, 1024 instructieslots (oneindig met flow control) en meer registers.

Voorheen bevatten alle kaarten die gebruik maakten van dezelfde core, dezelfde aantallen Vertex Shaders. Dit was eigen aan de manier waarop de cores in elkaar staken. Zo hadden alle Radeon X800 en X850 serie kaarten 6 vertexshaders. Maar ook de afgeleide X700 had er 6. ATi is nu
het pad op gegaan van nVidia en nu kunnen er afzonderlijke VSPs afgesloten worden. De X1800 heeft er 8, de X1600 heeft er 5, de X1300 heeft er 2. En op verzoek van fabrikanten kunnen er meer worden opengegooid of dicht worden gedaan. Dit geldt overigens niet alleen voor de Vertex Shader Processors, maar ook voor de Texture Units, Z Compare Units en Render Back End Units. Elk kan onafhankelijk van elkaar worden ingesteld. Zo heeft de X1600 8 Z Compare Units terwijl er
maar 4 ROPs zijn.

Image Quality: Anti Aliasing & Anisotropic Filtering
De R520 serie beschikt over alle AA en AF methodes die de vorige generaties - die gebaseerd zijn op de R4x0 en R3x0 - ook tot hun beschikking hadden. Hier gaat het dan om de volgende instellingen:
  • Multi Sample Anti Aliasing: 2x, 4x, 6x
  • Temporal Anti Aliasing: 4x, 8x, 12x
  • Super AA (alleen in CrossFire): 8x, 10x, 12x, 14x
  • Anisotropic Filtering: 4x, 8x, 16x

Daarnaast zijn er een aantal nieuwigheden toegevoegd, waaronder een nieuw soort AA en een nieuw soort AF, namelijk Adaptive AA en Area AF (ook wel High Quality AF).

Adaptive AA
Adaptive AA (AdAA) is ATi's manier om alpha textures te ontdoen van hun karteltjes. Alpha textures zijn nooit vatbaar geweest voor Multi Sampling Anti Aliasing (MSAA). Hierdoor zag je vaak nog steeds aliasing op bv hekwerk, takken en bladeren in veel games. AdAA werkt door het beeld te analyseren en te kijken naar de plekken die niet profiteren van normale MSAA zoals in de hiervoor genoemde gevallen vaak voor komt. Wat ATi dan doet is het toepassen van Super Sampling Anti Aliasing (SSAA) op deze gebieden. Het voordeel hiervan is dat niet op het hele beeld SSAA hoeft te worden toegepast. SSAA geeft doorgaans de beste IQ, maar de performance hit is bij normaal gebruik ook enorm, omdat de hele scene twee keer moet worden gerenderd. Bij AdAA worden alleen gedeeltes met SSAA bewerkt, waardoor de performancedrop vaak te verwaarlozen is.

Hiermee is AdAA dus feitelijk de tegenhanger van nVidia's "Transparency AA" en het mooie is dat dit ook gaat werken op alle oude Radeons vanaf de Radeon 9500! Op dit moment wordt AdAA uitvoerig getest op oudere Radeons. Voordat we het in de Catalyst drivers zien voor de oudere
kaarten, zal AdAA eerst een uitgebreide Quality Assurance test moeten ondergaan. Het is de verwachting dat AdAA zijn officiele opwachting in Catalyst 6.xx zal maken. Wel is het via registry hacks al uit te proberen.

High-Quality Anisotropic Filtering (Area Aniso)
ATi was de eerste die begon met "angle dependent anisotropic filtering". Dit wil zeggen dat onder bepaalde hoeken er minder gefilterd wordt dan onder andere hoeken. De redenatie hierachter is dat
mensen dit toch niet snel door hebben en dat het de performance alleen ten goede komt. nVidia heeft tot aan de GF FX altijd non-angle dependent AF gedaan en had daarmee de beste AF qualiteit. Maar vanaf de GF6 serie ook over gestapt op hoek-afhankelijke AF vanwege de vele performancevoordelen en aangezien weinig mensen het verschil ook daadwerkelijk konden zien, leek het ook een goede oplossing.

Met de X1K serie biedt ATi echter de mogelijkheid om de Angle Dependent AF uit te zetten en echt AF aan te bieden onder alle hoeken! Deze mode heet Area Aniso oftewel High Quality AF. Activering hiervan zorgt voor de beste beeldkwaliteit terwijl de performance maar een klein beetje achteruit gaat. nVidia ondersteunt sinds de GF6 niet de mogelijkheid om angle dependent AF volledig uit te schakelen! De verwachting is dat zij wel snel zullen volgen in de nieuwe generatie. Op dit moment heeft ATi echter op het gebied van AF en AA de beste kaarten in handen.
ATi & High Dynamic Range
ATi heeft veel geinvesteerd in HDR ondersteuning in de X1K serie. HDR staat voor High Dynamic Range en wordt gebruikt om de kleuren die normaal gesproken buiten het kleurbereik van het menselijk oog zitten, toch op beeld te krijgen door middel van verschillende soorten van belichting. Te denken valt aan zonlichtreflecties in een donkere kamer.

Er zijn verschillende manier mogelijk om HDR te bewerkstelligen. De gemakkelijkste methode is die volgens DX9 (Shader HDR) zoals dat in Valve's Lost Coast gebeurt of in Day Of Defeat: Source. De grote voordelen zijn dat het op alle DX9 hardware werkt (dus ook nVidia!) en dat er AA kan worden toegepast en dat de performance niet al te veel inkakt. Een nadeel is dat de precisie minder hoog ligt dan een aantal andere vormen van HDR en dat er geen HDR effection op refraction mogelijk is (denk aan zonlicht door glas-in-lood). Veel mensen maken de fout door Blooming als volle vorm van HDR te zien. Het is echter een techniek die gebruikt wordt in combinatie met andere technieken om tot het HDR effect te komen.

Een andere methode is OpenEXR HDR zoals gebruikt in Far Cry, een hardwarematige oplossing die tot op dit moment alleen nVidia ondersteunde. OpenEXR HDR maakt gebruik van FP16 Blending waardoor de precisie net iets hoger ligt dan Valve's manier van HDR.

ATi heeft in de X1K meerdere hardwarematige vormen van HDR ondersteund. HDR op ATi kaarten is sneller dan op nVidia kaarten zeker wanneer bv Int16 of Int10 HDR gebruikt wordt.. En het mooiste is dat alle vormen van HDR nu AA ondersteunen!! Dit is niet het geval bij de concurrentie waar bv OpenEXR HDR het moet stellen zonder AA, tenzij je Supersampling AA gebruikt wat weer tot gevolg heeft dat de performance gigantisch inkakt vanwege het hoge gebruik van bandbreedte. Hier is het dus een trade-off, je offert 1 IQ optie op om de ander aan te zetten of je zet het toch aan en maakt de game onspeelbaar. Bij ATi kan je dus beide aan zetten en hoef je niet meer te kiezen!

De verschillende manieren van HDR die hardwarematig ondersteunt worden:
- FP16 (64-bits)
- Int16 (64-bits)
- Int10 (32-bits)
- Custom Formats (bv Int10+L16)

Zoals je ziet zijn er meerdere vormen van HDR, maar je kan ze eigenlijk in 2 groepen indelen:
- Software HDR (via de shaders)
- Hardware HDR (hardwarematig versneld zoals bv OpenEXR en de (custom)formaten van ATi)
Avivo
Avivo is ATi's next generation video & display platform. Het staat dus niet zoals sommige mensen onterecht denken voor "Advanced Video In Video Out". Tijdens de
developmentfase heette Avivo eerst "Kaleidoscope", maar aangezien men dacht dat bijna niemand dit goed zou kunnen uitspreken - laat staan spellen - veranderde men dit in "Clarity". Maar ook deze naam werd niet goed genoeg bevonden en men kwam met Avivo.

Avivo integreert een aantal belangrijke technologieen die allemaal tot doel hebben om de beste beeldweergave neer te zetten, ongeacht of je nu een film aan het kijken bent, een film aan het encoderen bent of een game aan het spelen bent. In het kort omvat Avivo het volgende:

  • Supports hardware MPEG-2 compression, hardware assisted decode of MPEG-2, H.264 and VC-1 video codecs, and advanced display upscaling
  • 64 times the number of colors currently available in current PCs; higher color fidelity with 10-bit processing throughout Avivo´s display engine
  • Resolutions, such as 2560x1600 or higher, on the latest digital displays using dual-link DVI, as well as high color depth support over DVI
  • Advanced up or down resolution scaling on any flat panel display using ATI´s solutions
  • Video capture with features like 3D comb filtering, front-end video scaling, and hardware MPEG video compression
  • Hardware noise reduction and 12-bit analog-to-digital conversion
  • Supports standard TV, HDTV, video input and all PC displays via digital (DVI, HDMI) and analog (VGA, Component, S-Video, composite) ports


Avivo zal een integraal onderdeel worden van alle toekomstige ATi producten. Of het nou gaat om desktop, mobile, chipset, workstation of software maakt niet uit... Avivo zal er onderdeel van zijn.



De Previews & Reviews

http://img.hexus.net/v2/graphics_cards/ati/r580xt_xtx/images/logo.png
X1900 Series


Hieronder staat een overzicht van alle X1K reviews.

Radeon X1950XTX & X1900XT256
- Hardwarezone - 4.5/5
- HardOCP - Gold Award
- Hexus - Extreme Editors Choice
- Bjorn3D
- Driverheaven - Gold Award <check het Optimisations OFF gedeelte ;) >
- Hot Hardware
- Tech Power Up - 9/10
- Firingsquad X1950
- Firingsquad X1900XT256
- PC Perspective
- Guru3D
- Anandtech
- Toms Hardware
- Hardware Secrets
- Legit Reviews
- Madshrimps
- The Tech Lounge
- The Tech Report
- ExtremeTech X1900XT256 vs GF7900GS

Radeon X1950 Pro
- http://www.anandtech.com/video/showdoc.aspx?i=2858
- http://www.bit-tech.net/hardware/200...950_pro/1.html
- http://www.hardwarezone.com/articles...?cid=3&id=2090
- http://www.hexus.net/content/item.php?item=7016
- http://www.hothardware.com/viewartic...leid=886&cid=2
- http://www.pcper.com/article.php?aid=312&type=expert
- http://techreport.com/reviews/2006q4...o/index.x?pg=1

Radeon X1650 Series
- Elite Bastards

Radeon X1900 Series
Anandtech
Beyond3D
Bjorn3D
Bit Tech
Computerbase (Duits)
Driver Heaven
Elite Bastards
Extreme Tech
Firing Squad
Guru3D
Hexus
HardOCP
Hardware Zone
Hot Hardware
Legit Reviews
Neoseeker
NGO HQ Tech Preview
PC Perspective
T-Break
The Tech Report
Trusted Reviews
Tweaktown

Radeon X1K Series
Anandtech
Digit Life Tech Preview
ExtremeTech
Guru3D
HardOCP
Hardware Secrets
Hot Hardware
NeoSeeker
Noticias 3D
Overclockers.CL
PC Perspective
PC World
T-Break
Tech Report
The Tech Lounge
Xbit Labs Tech Preview

Radeon X1800
Beyond3D - Tech Preview *TIP*
Driver Heaven
Firing Squad
Hardware France
Hexus
Xbit Labs *TIP*

Radeon X1600
Xbit Labs

Radeon X1300
HardwareZone: MSI Radeon X1300Pro 256

Avivo
http://www.anandtech.com/video/showdoc.aspx?i=2536&p=1
http://www.beyond3d.com/previews/ati/avivo/
http://www.hexus.net/content/item.php?item=1622


TOEKOMSTIGE VPUs (Lange Termijn): R600
R500 ging vroeger door het leven als R400. R400 was bedoeld als opvolger van de R300 serie en zou een compleet nieuwe architectuur brengen, de zogenaamde Unified Shader Architecture. In deze architectuur zouden er geen aparte pixelshaders
en vertexshaders meer bestaan, maar zou er n grote shaderpool zijn van shaders die zowel met pixels als vertices overweg kunnen gaan. R400 bleek voor zijn tijd echter te hoog gegrepen en zou qua performance niet genoeg power hebben. Na goed beraad werd besloten om R400 naar achteren te schuiven op de roadmap en deze te hernoemen naar R500. Als vervanging voor de R400 werd de R300 architectuur nog eens flink onder handen genomen. Er werden extra pixelpipelines toegevoegd en extra vertexshaders, alsmede ook enkele tweaks in de R300 architectuur om de boel nog efficienter te maken. En zie daar... R420 was geboren, met meer performance dan de toenmalige R400 ooit had kunnen bieden.

Xbox 360 deal
In de tussentijd sloot Microsoft met ATi een deal voor het leveren van de VPU voor de Xbox360. En weer werd de roadmap aangepast. R500 werd vanaf de desktop roadmap naar de X-Box2 geduwd. In plaats van de R500 kwam nu de R520 voor de desktop te staan. De R520 is gebaseerd op de R420 architectuur, maar neemt wel enkele dingen over van de R500... Een van die dingen is dat R520 volledig FP32 is en niet FP24 zoals alle vorige kaarten. Daarnaast ondersteunt R520 Shadermodel 3.0 en meer, waardoor er eigenlijk gesproken kan worden van een soort
"SM3.5" of "SM3.0+".

De details van de R500 die in de Xbox 360 zit zijn inmiddels bekend:

  • 48-way parallel floating-point dynamically scheduled shader pipelines
  • 10 MB of embedded DRAM
  • Unified Shader Architecture
  • 500 million triangles per second
  • 16 gigasamples per second fillrate using 4x MSAA
  • 48 billion shader operations per second
  • 512 MB of 700 Mhz GDDR3 RAM (shared by VPU & CPU)
  • 22.4 GB/s memory interface bus bandwidth
  • 256 GB/s memory bandwidth to EDRAM
  • 21.6 GB/s FSB
  • Parentdie: 232 miljoen transistors, daughterdie: 105 miljoen transistors = 337 mln transistors


Ter vergelijking nog wat stats van de R500 aka Xenos aka C1 die misschien beter te vergelijken zijn met ATi's huidige topmodel R580:

Xbox360 vs X1900XTX
ROPs: 8 vs 16
Memory interface: 128-bit vs 256-bit
Memory speed: 700Mhz GDDR3 vs 775Mhz GDDR
Memory bandwidth: 22,4GB/s vs 49,6GB/s
Pixelshaderengines: 48* vs 48
Vertexshaderengines: 48* vs 8
Fragment Pipes: 3 vs 16
Z/Stencils per clock: 16** vs 16

*beter is het om te spreken van unified shaderengines die of bezig zijn met pixelshading of met vertexshading. Ze kunnen beide. De X1900XTX heeft aparte 'dedicated' ps en vs units.
** Xbox360 heeft een dubbele Z/Stencil rate a la RV530.

Nintendo Revolution deal
Ook Nintendo's next generation console wordt door ATi voorzien van een VPU. ATi is geen vreemde wat betreft het werken met Nintendo aangezien de Flipperchip die zich in de GameCube bevindt, ook door ATi (of beter gezegd: door het overgenomen ArtX) is ontworpen. Hoewel eerst de verwachting was dat de VPU in Revolution zich tussen R500 en R520 zou bevinden wat betreft specs en performance, lijkt het er nu meer en meer op dat de Hollywood GPU een opgevoerde Flipperchip is met de nodige tweaks.

R600 is de opvolger van R580. De R600 is de eerste desktopchip die gebaseerd is op de nieuwe architectuur van de X-Box2 chip, de R500. Hiermee heeft ATi de eerste Unified Shader Model op de markt gebracht en deze zal naar alle waarschijnlijkheid volledig SM4.0 en WFG 2.0 DX10 ondersteunen. Voor de details omtrend R500 kan je hierboven iets meer lezen. We kunnen dus minimaal 3 shaderarrays met elk 16 ALUs verwachten. De verwachting is dat R600 eind 2006 op de markt komt en waarschijnlijk minimaal 4 shaderarrays zal hebben van elk 16 ALUs (en dus 64 unified shaderengines zal hebben).

DE GERUCHTENMOLEN
http://www.guildwarsarena.net/ati/atilogo.jpg
Gerucht: Digital Vibrance op ATi kaarten
ATi komt binnenkort met een eigen variant op Digital Vibrance, de color control applicatie van nVidia. ATi noemt het "Radiance". ATi heeft echter aangegeven dat Radiance op dit moment een low-priority feature is.

Vanaf de X1K serie ondersteunt ATi echter "Avivo Color". Dit is gelijkwaardig aan DV. De kans dat Radiance nog op de oude 9x00 en X8x0 serie komt is hiermee zeer klein geworden.
Waarheidsfactor: 70%
Update: 02-03-2006
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: RD580 Chipset Heeft Onboard Compositing Chip
Het gerucht gaat dat de nieuwe ATi mobo chipset RD580 een ingebouwde Compositing Engine heeft. Hierdoor zouden er geen aparte CrossFire edition kaarten meer nodig zijn en zouden alle PCIe Radeons geschikt zijn voor CrossFire.

Update: RD580 heeft geen onboard Compositing Chip. Voor X1300 en X1600 CrossFire opstellingen is echter geen mastercard nodig met Compositing Chip. Deze kaarten werken rechtstreeks via de PCIe-bus. In vergelijking met de RD480 chipset is de RD580 chipset wel aanzienlijk sneller en daar zullen deze CF opstellingen dus enorm van profiteren.
Waarheidsfactor: 00%
Update: 02-03-2006
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: CrossFire is beperkt tot 60 Hz op 1600x1200 op R4x0 kaarten
Helaas is dit waar..
Waarheidsfactor: 100%
Update: 02-10-2005
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: CrossFire heeft niet dezelfde 60Hz beperking op R5x0 kaarten
Waar!
Waarheidsfactor: 100%
Update: 02-10-2005


http://www.guildwarsarena.net/ati/sapphirex1900xtx-blizzard.jpg
Sapphire X1900XTX Blizzard Edition - Watergekoelde X1900XTX

OVERIGE ZAKEN
http://www.guildwarsarena.net/ati/atilogo.jpgATi Exclusive Fabrikanten
Sapphire
Powercolor
HIS
GeCube
Connect3D

Non Exclusive Fabrikanten (zowel ATi als nVidia)
Abit
Asus
Gigabyte
Club3D
MSI
EPoX

ATi Tweak Tools
Rage3D Tweak - (3.9 versie)
ATiTool - TIP!! Zoek 'veilig' de max van je core en mem!
RivaTuner - Tweak utility incl. SoftRadeon
ATi Tray Tools

Handige Links
• Officiele ATi website: http://www.ati.com
• Catalyst Drivers WinXP (Cat 6.9): Windows XP - Display Drivers Only (12.4 MB)
• Catalyst Drivers WinXP (Cat 6.9): Windows XP - Met CCC (34.7MB) (.NET 1.1 en SP2 nodig)
• Catalyst 6.9 Windows XP 64-bit - Met CCCWinXP 64-bit (38.3 MB)
Catalyst For Windows Vista Beta 2 - 32 bits (74.6 MB)
Catalyst For Windows Vista Beta 2 - 64 bits (80.3 MB)
• Linux x86 Drivers: ATi Driver Installer v 8.29.6 (55.0 MB)
• Linux x86_64 Drivers: ATi Driver Installer v 8.29.6 (52.7 MB)
• Meest recente Catalyst Mobility: http://www.ati.com/online/mobilecatalyst/
• Meer drivers @ http://www.ati.com
• De grootste online ATi community: http://www.rage3d.com
• Omegadrivers: http://www.driverheaven.net/downloads/index4.htm
• Praten over de laatste 3D ontwikkelingen? http://www.beyond3d.com
[OC] X800pro naar X800XT mod topic Deel 6
[OC] ATI Radeon X1K Series



Het moge duidelijk zijn dat de meeste dingen nog gebaseerd zijn op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd
van harte welkom (via mail dan wel in het topic).

CJ wijzigde deze reactie 19-10-2006 14:17 (100%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
http://www.guildwarsarena.net/ati/atitopiclogo.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQ
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is 3Dc?

Antwoord: 3Dc is een manier van normal map compressie. Check de firstpost van dit topic [Algemeen] ATi Nieuws & Discussie Topic - Deel 10 om te zien wat 3Dc precies is. 3Dc is inmiddels opgenomen in de specificatie van DirectX10 en ook de Xbox360 ondersteunt 3Dc. Games zullen dus steeds meer 3Dc ondersteuning bieden (zelfs zonder dat het expliciet vermeld wordt) en nVidia zal 3Dc ook hardwarematig moeten ondersteunen (alhoewel ze het waarschijnlijk anders gaan noemen, aangezien de naam 3Dc waarschijnlijk door ATi is gepatenteerd).
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is CrossFire?

Antwoord: CrossFire is ATi's Multi VPU oplossing waarmee zoals de naam al zegt, meerdere kaarten aan elkaar gekoppeld kunnen worden om de performance te verbeteren. Wil je precies weten wat CrossFire is, kijk dan even in de First Posts van de vorige topics.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Ondersteunen alle kaarten CrossFire zonder Mastercard en Dongle?

Antwoord: NEE!

ATi kan per serie in de drivers aangeven dat CrossFire zonder dongle werkt. Tot op dit moment is dat alleen gebeurt voor de X1300 serie, X1600 serie, X1800GTO en X1900GT. Voorlopig is de X1900GT de snelste kaart zonder speciale CF Mastercard/dongle, maar onthoud wel dat de performanceboost gemiddeld maar zo'n 40-50% zal zijn, terwijl je bij het gebruik van een mastercard (dus X1900GT + X1900CF) je een performanceboost kan verwachten van zo'n 70-90%.

CrossFire zonder dongle/mastercard is wel de toekomst aangezien RV560 en RV570 allebei onchip CF support hebben. Ook alle andere toekomstige GPUs zullen dit hebben (dus ook R600). Dit noemt ATi "Enhanced CrossFire". De nieuwe kaarten zullen een ingebouwde compositing engine hebben en zullen gebruik maken van een bridgechip zoals nVidia dat doet bij SLI. Het verschil is echter dat ATI een dubbele bridgechip zal gebruiken om snelle communicatie te garanderen tussen de twee kaarten, waardoor full speed SuperAA tot de mogelijkheden behoort.

De compositing chip is o.a. nodig om full speed SuperAA aan te kunnen bieden, maar ook om -samen met de externe dongle- de PCIe bus te ontlasten bij voornamelijk hogere resoluties en AA/AF modes. Je begrijpt natuurlijk wel dat een X1900 kaart veel meer bandbreedte opslurpt doordat deze bv meer ROPs heeft dan een X1600 (4) of X1800GTO (12).

Op dit moment lijkt de PCIe bandbreedte van de RD580 chipset voldoende om de 12 ROPs van de X1800GTO snel genoeg in CF te laten werken. De RD480 met twee keer 8xPCIe was bv nog lang niet optimaal genoeg voor de 4ROPs van de X1300 en X1600. Deze begon ook pas te schijnen met twee keer 16x PCIe op de RD580. Echter bij de X1900GT zie je al dat bandbreedte het probleem is. Het verschil tussen 2x een X1900GT of 1x een X1900GT + X1900CF kan oplopen tot zo'n 50%. Dus het is zeer onwaarschijnlijk dat ATI nog oudere kaarten via dongleless CrossFire laat werken.

Dus nogmaals, CrossFire zonder Mastercard en Dongle werkt op:

  • X1300 serie
  • X1600 serie
  • X1800 GTO (vanaf Catalyst 6.5)
  • X1900 GT (vanaf Catalyst 6.6)


Een Mastercard + Dongle heb je nodig voor CrossFire met:

  • X1800XL & XT (nodig: X1800CF kaart)
  • X1900 serie (nodig: X1900CF kaart)
  • X800XL, XT & XT PE (nodig: X800XL CF)
  • X850 serie (nodig: X850XT CF)


Enhanced CrossFire (dus CrossFire via een interne dubbele bridge) werkt op een:

  • X1650XT
  • X1950Pro

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games ondersteunen 3Dc?

Antwoord: ATi maakt binnenkort een lijst bekend met 3Dc titels.
Op dit moment zijn dit games waarvan bekend is dat ze 3Dc
ondersteunen.

- Far Cry (patch 1.3)
- Half Life 2 (ATi levels)
- Tribes Vengeance
- Sid Meier's Pirates!
- DarkSector
- Project Freedom

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [Algemeen] ATi Nieuws & Discussie Topic - Deel 10 om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
quote:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.


Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in R500 -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 1600 (voormalig Radeon Xpress 200)
- ATi Radeon Xpress 3100
- ATi Radeon Xpress 3200
- Intel 955x
- Intel 965x (biosupdate mogelijk benodigd, vanaf Cat 6.9)
- Intel 975x

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Op dit moment werkt het niet. ATi verwijst je graag naar nVidia om aan hen te vragen waarom CrossFire niet werkt op SLI chipsets.... Trek hier uit je eigen conclusies maar...
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaargeworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Komen er ook AGP versies uit van de X1K serie?

Antwoord: ATi laat het aan AIB (All In Board partners, zoals MSI, Asus, Powercolor etc) over om AGP versies uit te brengen van hun kaarten. ATi heeft aangegeven dat ze AIBs ter zijde willen staan mochten ze hulp nodig hebben bij het ontwikkelen van AGP versies. Tot dit moment zijn er alleen maar AGP versies van de X1300 en X1600 serie. Blijkbaar zien bepaalde AIBs geen brood in AGP varianten van de highend ATi kaarten. Dit is dus NIET ATi's schuld, maar de schuld van de AIBs.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers. Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes (C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.

CJ wijzigde deze reactie 26-10-2006 22:58 (203%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
http://www.guildwarsarena.net/ati/pricechart.jpg
Richtprijzen na de lancering van de X1950XTX, X1950Pro, X1650XT, X1650Pro en X1300XT

X1K-serie in de Pricewatch
http://tweakers.net/price...;orderSort=asc&page=1

Let er wel op dat de prijzen dagelijks kunnen veranderen en dat deze pricewatch eens in de maand wordt geupdate. De prijzen kunnen dus iets anders zijn.
• Goedkoopste X1300 128MB PCIe: 42,99 <
• Goedkoopste X1300 256MB PCIe: 61,02 =
• Goedkoopste X1300 512MB PCIe: 52,60 <
• Goedkoopste X1300Pro 256MB PCIe: 68,68 =
• Goedkoopste X1300XT 512MB PCIe: 68,68 N E W
• Goedkoopste X1600Pro 256MB PCIe: 79,00 <
• Goedkoopste X1600Pro 256MB AGP PCIe: 103,96 =
• Goedkoopste X1600Pro 512MB PCIe: 93,21 <
• Goedkoopste X1600XT 256MB PCIe: 109,95 <
• Goedkoopste X1800GTO 256MB PCIe: 190,00 <
• Goedkoopste X1800XT 256MB PCIe: link verouderd
• Goedkoopste X1800XT 512MB PCIe: 289,00 <<
• Goedkoopste X1900GT 256MB PCIe: 185,00 <<
• Goedkoopste X1900XT 256MB PCIe: 238,81 N E W TIP!!
• Goedkoopste X1900XT 512MB PCIe: 263,87
• Goedkoopste X1900XT CrossFire: 339,00 <<
• Goedkoopste X1900XTX 512MB PCIe: 345,00 <
• Goedkoopste X1950XTX PCIe: 399,99 <
• Goedkoopste X1950XTX CrossFire PCIe: 406,00 <
< lager in prijs tov vorige update (<< meer dan 10 gezakt)
> hoger in prijs tov vorige update (>> meer dan 10 gestegen)
= gelijk gebleven tov vorige update
Last updated: 4 Oktober 2006

CJ wijzigde deze reactie 11-10-2006 01:32 (99%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • frankknopers
  • Registratie: december 2003
  • Laatst online: 09-09 19:31

frankknopers

Goud is geen geld

Het lijkt erop dat Crossfire op de Intel 965 chipset niet gelimiteerd wordt door de PCI-e 4x connector op de southbridge. In de vorige review van Intel 965 + Crossfire op Anandtech zagen de resultaten er veel somberder uit. Nu blijkt dat er met nieuwere drivers en DMI optimalisaties veel verloren performance teruggewonnen kan worden, is het lucratief om een 2e X1900XT videokaart te kopen.. :)

Subtiel linkje: http://tweakers.net/aanbod/advertentie/47942

frankknopers wijzigde deze reactie 04-10-2006 14:27 (16%)

Goud is geen geld


  • nudie
  • Registratie: april 2002
  • Laatst online: 10-09-2011
Vraagje,
Ik heb net een Sapphire 1900XTX 512mb gekocht en in mijn systeempje:
quote:

Asrock Skt 939 Dual-Sata II
AMD Athlon 64 X2 3800+ Dual Core (@2.2ghz)
2x Kingston 1GB DDR PC3200 CL3 ValueRAM (KVR400X64C3A/1G)
Maxtor 250GB SATA II 7200RPM 16MB


geplaatst. Echter las ik op een blaadje in de doos dat het aanbevolen werd om een voeding van 450watt te gebruiken. Echter toen ik in mijn nieuwe Aopen case keek (grote kast, weinig inhoud, veel airflow en aircooling) zag ik daar staan 350watt. Echter gezien het feit dat ik maar 1HD, 1DVD, geen pci kaarten etc gebruik heb ik enigszins een laag wattage verbruik. Kan dit problemen geven of moet ik nu weer een nieuwe case gaan kopen?

Enige tips zijn handig :)

  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

Je krijgt denk ik problemen :) Athans ik trek makkelijk 350 watt @ stock. Dus neem een zwaardere psu anders kun je de boel echt slopen als de voeding het niet goed trekt. 450 watt moet genoeg zijn en heb je ook nog wat vermogen over.

Ik ben nu aan het kijken wat voor een VGA setup ik wil gaan nemen voor het komende half jaar / jaar ( tot DX 10 echt nodig is en nuttig is voor games ).

Opties:
1x X1900 CF er bij en dus 2xX1900 XT setup ( nadeel slecht verkrijgbaar )
2x X1950 Pro ( met 100-150 euro boven op de verkoop prijs van mijn X1900 XTX ( Nadeel maar 30 tot max 50% sneller dan de X1950 XTX )
2x X1950 XTX in CF ( Nadeel 800 euro !! voor 50--70% sneller dan 2x X1950 Pro en 2x zo duur )

Dus het gaat optie 1 of 2 worden. Welke weet ik nog niet. Maar ik hoop er een beetje op dat die X1950 Pro sneller zijn met hun on Die CF en voor wat minder problemen zorgen ( zoals stotters die ik met mijn X1900 CF setup had ). Maar de 256 MB zorgt ook weer voor prestatie verlies en de 512 MB duurt nog wel even. En dan is me X1900 XTX mischien niets meer waard.

In iedergeval komen er een paar hele mooie games aan die ik op 1920-1200 @ full detail wil draaien en dat gaat een X1900 XTX niet halen.

Hopelijk snel wat benchmarks van de X1950 Pro / X1950 Pro CF. Ben benieuwd hoeveel sneller deze zullen zijn dan de X1900 GT en de prestaties tov een X1900 XT 256/512 MB.

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • catfish
  • Registratie: december 2000
  • Laatst online: 18:00
quote:
nudie schreef op woensdag 04 oktober 2006 @ 14:44:
Vraagje,
Ik heb net een Sapphire 1900XTX 512mb gekocht en in mijn systeempje:

geplaatst. Echter las ik op een blaadje in de doos dat het aanbevolen werd om een voeding van 450watt te gebruiken. Echter toen ik in mijn nieuwe Aopen case keek (grote kast, weinig inhoud, veel airflow en aircooling) zag ik daar staan 350watt. Echter gezien het feit dat ik maar 1HD, 1DVD, geen pci kaarten etc gebruik heb ik enigszins een laag wattage verbruik. Kan dit problemen geven of moet ik nu weer een nieuwe case gaan kopen?

Enige tips zijn handig :)

dat hangt er van af :)
allereerst heb ik de indruk dat men altijd een zeer ruime marge neemt omdat Ati (of nVidia) niet weet of je een A-voeding hebt of een rommelding, uiteraard ivm schadeclaims
als je echt zo'n "kaal" systeem hebt, denk ik dat een A-voeding van 350W dat wel moet kunnen
in 2D zou het dan zeker zonder problemen moeten lukken

draai daarna wat zware benchmarks met een voltage monitoring op de achtergrond, dan zal je vanzelf wel merken of het lukt (A-voedingen hebben normaal gezien beveiligingen die zichzelf uitschakelen indien overbelast, in zo'n geval heb je dus weinig tot geen kans op schade)

indien het een no-name/rommelvoeding is moet je idd uitkijken naar vervanging

catfish wijzigde deze reactie 04-10-2006 15:01 (12%)


  • nudie
  • Registratie: april 2002
  • Laatst online: 10-09-2011
quote:
catfish schreef op woensdag 04 oktober 2006 @ 14:57:
[...]

dat hangt er van af :)
allereerst heb ik de indruk dat men altijd een zeer ruime marge neemt omdat Ati (of nVidia) niet weet of je een A-voeding hebt of een rommelding, uiteraard ivm schadeclaims
als je echt zo'n "kaal" systeem hebt, denk ik dat een goede 350W voeding dat wel moet kunnen
gewoon proberen eigenlijk, in 2D zou het zonder problemen moeten lukken

draai daarna wat zware benchmarks met een voltage monitoring op de achtergrond, dan zal je vanzelf wel merken of het lukt


Ik ben nu ook 3dmark aan het downloaden om even te draaien.
Indien ik toch een 450watt voeding nodig heb kan ik die simpelweg bestellen en vervangen met de huidige of moet ik een hele nieuwe case omdat die fysiek anders qua grootte zijn?

update:
domme vraag deze bijvoorbeeld kan met een aantal schroeven erin gedumpt worden zonder problemen lijkt me.

Maar is het verstandig om 3dmarks te draaien of kan het schade aan mn systeem brengen?

nudie wijzigde deze reactie 04-10-2006 15:02 (14%)


  • catfish
  • Registratie: december 2000
  • Laatst online: 18:00
zie mijn edit boven jouw reply, indien het een standaard noname is kan het idd slecht aflopen, indien het een A-voeding is zit er normaal gezien een beveiliging in
alle ATX voedingen hebben standaard afmetingen, dus geen problemen (tenzij je een speciale kast hebt zie zich niet aan de ATX standaard houdt natuurlijk)

  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

quote:
nudie schreef op woensdag 04 oktober 2006 @ 15:00:
[...]


Ik ben nu ook 3dmark aan het downloaden om even te draaien.
Indien ik toch een 450watt voeding nodig heb kan ik die simpelweg bestellen en vervangen met de huidige of moet ik een hele nieuwe case omdat die fysiek anders qua grootte zijn?


Ik zou wel oppassen als ik jou was. Hij zal het mischien wel doen. Want een voeding kan wel even wat mere leveren dan zijn max. Maar de kans is dan groot dat het fout gaat. Even een schatting:

-Vga kaart 120/140 Watt
-Cpu max 90 Watt
-Geheugen modules 40-50 Watt ( 20-25 per stuk )
-Hardeschijf iets van 15-20 watt ??
-Moederbordje 50-90 Watt ??

Zoals je ziet zit je dan aardig aan je 350 watt. In het ergste geval gebruik je 390-400 watt. Het is wel een schatting maar toch. Ik zal voor de grap eens meteen wat mijn Systeem gebruikt zonder Overclock. Maar ik denk dat 350 watt te krap is en als je voeding klapt zou je schade aan je hardware kunnen hebben. Dat lijkt me gewoon zonde. Een beetje voeding van coolermaster kost 50-60 euro heb je gleoof ik 500 watt. Voor 38 euro heb je een 430 Watt voeding van coolermaster die werken super.

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
Jongens, zouden jullie de discussie over Radeons + voedingen zo min mogelijk offtopic willen laten gaan? Dat is geen goed begin van dit topic wat bedoeld is voor nieuwtjes over ATI kaarten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • EricJH
  • Registratie: november 2003
  • Laatst online: 18:08
De plaatjes op de pagina werken niet.

  • nudie
  • Registratie: april 2002
  • Laatst online: 10-09-2011
Ik sluit het dan maar even af CJ :)

Ik ga geen risico nemen bij een kaart als deze en we hebben het niet over honderden euro's dus in mijn 10min afwezigheid heb ik al even een nieuwe 600watt voeding bij de plaatselijke computerboer gehaald, nu even inbouwen :D

Bedankt voor de tips!

  • frankknopers
  • Registratie: december 2003
  • Laatst online: 09-09 19:31

frankknopers

Goud is geen geld

Mijn setup (Intel E6600, 2GB, X1900XTX) slurpt 330-350 watt aan stroom uit mijn Realpower 450W voeding. Voor de verdere specs van mijn systeem moet je maar even in mijn sig kijken, maar ik kan iig bevestigen wat Astennu zegt. Een X1900XTX based systeem gaat al gauw over de 300 heen en met wat extra HDD of DVD drive activiteit klapt zo'n 350W standaard voeding er zo uit.

Je kunt het natuurlijk altijd proberen, maar een voeding die buiten specificaties moet draaien geeft geen garantie meer voor een stabiel systeem en eventuele schadelijke gevolgen. Nou zal er niet gelijk iets stukgaan, maar ik denk dat je harddisks het niet leuk gaan vinden als de 12V lijn opeens inzakt naar 10,5V zodra je 3Dmark gaat draaien ofzo...

Dus: Voorkomen is beter dan genezen, koop een 450W(+) voeding van een goed merk. Daarvoor kun je informatie inwinnen in het ''Welke voeding moet ik nemen topic''. Ik kan iig de Coolermaster Realpower 450W aanbevelen. Ik heb hem zelf al een lange tijd in gebruik en hij draait prima stabiel en stil. :)

quote:
CJ schreef op woensdag 04 oktober 2006 @ 15:15:
Jongens, zouden jullie de discussie over Radeons + voedingen zo min mogelijk offtopic willen laten gaan? Dat is geen goed begin van dit topic wat bedoeld is voor nieuwtjes over ATI kaarten.
Excuses, toen ik deze lange post typte, stond dat bericht er nog niet. En om mijn post maar te deleten vind ik ook jammer..

frankknopers wijzigde deze reactie 04-10-2006 15:20 (17%)

Goud is geen geld


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

Mensen wat doen AMD en ATi ? Ik heb het idee dat er geen ATi chipset is voor de Turion X2. Alle Laptops met Turion X2 en een losse VGA kaart hebben een Gforce 7300/7400 of 7600 er in zitten. Ik kan nergens een laptop vinden met een X2 en een X1600 of X1700. Het beste wat ik gevonden heb is er een met een ATi IGP maar dan is me huidige laptop nog veel sneller :?

Op dit moment kan de Concument niets kiezen op het gebied van Turion X2 cpu's behalve een Nvidia kaart of een Gare IGP :&#039;( Hopelijk komt daar heel snel verandering in.

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • DaMarcus
  • Registratie: juli 2005
  • Laatst online: 17:53

DaMarcus

Moderator Harde Waren / Consumentenelektronica

Powered by 

Wellich om bij het in de TS aan het Mobile gedeelte m.b.t. de M56. Deze draait op 355 mem (710 effectief). ;)

  • MelvinB
  • Registratie: oktober 2002
  • Laatst online: 18-09 18:03

MelvinB

I have no idea...

In de topicstart doen de plaatjes die zijn gehost op phoenixclan.nl het niet? Ik zie rooie kruisjes. ;)

| DELL XPS 15 Haswell QHD | NOKIA Lumia 1520 32GB Black | APPLE iPad Air |


  • Puppetmaster
  • Registratie: december 2001
  • Laatst online: 16-09 22:47
quote:
Astennu schreef op woensdag 04 oktober 2006 @ 14:54:
Ik ben nu aan het kijken wat voor een VGA setup ik wil gaan nemen voor het komende half jaar / jaar ( tot DX 10 echt nodig is en nuttig is voor games ).

Opties:
1x X1900 CF er bij en dus 2xX1900 XT setup ( nadeel slecht verkrijgbaar )
2x X1950 Pro ( met 100-150 euro boven op de verkoop prijs van mijn X1900 XTX ( Nadeel maar 30 tot max 50% sneller dan de X1950 XTX )
2x X1950 XTX in CF ( Nadeel 800 euro !! voor 50--70% sneller dan 2x X1950 Pro en 2x zo duur )

Dus het gaat optie 1 of 2 worden. Welke weet ik nog niet. Maar ik hoop er een beetje op dat die X1950 Pro sneller zijn met hun on Die CF en voor wat minder problemen zorgen ( zoals stotters die ik met mijn X1900 CF setup had )

je kon toch ook je 1900XTX in CF plaatsen met een 1950CF?
dan heb je alleen die erbij nodig en hou je gewoon je huidige X1900XTX... :)

kost je 400E 8)

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

quote:
Puppetmaster schreef op woensdag 04 oktober 2006 @ 19:34:
[...]

je kon toch ook je 1900XTX in CF plaatsen met een 1950CF?
dan heb je alleen die erbij nodig en hou je gewoon je huidige X1900XTX... :)

kost je 400E 8)
Ook best veel :) Maar ik weet ook niet of dat gestotter er dan nog steeds is. Want dat was best iritant. En ik vraag me af of het optimaal is om er een X1950 bij te hangen. Eerst maar eens kijken wat die X1950 Pro's doen X1950 CF kopen kan altijd nog :)

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
quote:
MelvinB schreef op woensdag 04 oktober 2006 @ 19:20:
In de topicstart doen de plaatjes die zijn gehost op phoenixclan.nl het niet? Ik zie rooie kruisjes. ;)
Klein foutje van m'n hostingprovider. Files gedelete in een bepaalde map. :( Ik zal het zo snel mogelijk proberen te fixen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

Wow mensen ik heb 2 laptops gevonden met een X2 en een ATi kaart:

Acer Ferrari 1000 en de 5000. Maar je raad het al de 1000 is een 21.1" laptop dus dat is niets en de 5000 is niet te krijgen :(

Dus ik ga maar een Targa laptop kopen met een Geforce 7600 GO :( Dit is totaal niet leuk maar beter dan een laptop met een Intel cpu en een ATi vga kaart.

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

Gotta move that gear up!

Je bent die-hard of je bent het niet he Astennu? ;)

| World Community Grid: 1 systeem, 10 speldjes, 1894 dagen rekentijd, 10.738e van de wereld! ]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

quote:
Jejking schreef op donderdag 05 oktober 2006 @ 07:57:
Je bent die-hard of je bent het niet he Astennu? ;)


Ik ben idd meer Die Hard AMD fan dan Die Hard ATi. Maar gelukkig is ATi van AMD. Ik zal er alles voor doen om Intel systemen te vermeiden ik ga intel echt geen geld geven door een cpu van hun te kopen. Dus dan liever een Nvidia VGA kaart dan een Intel cpu in me Laptop :)

Acer moet gewoon opschieten met die Ferrari 5000 dan is er ook geen probleem. Heb ik toch me Turion X2 met ATi vga kaart :P

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Tweakers abonnee Tweakers abonnementen

Mr Majestic

Specs G80 (met dank aan ElemenTAL)
http://www.dailytech.com/article.aspx?newsid=4442
http://www.dailytech.com/article.aspx?newsid=4441
http://www.beyond3d.com/f...d.php?t=33576&page=33

8800GTX
* 575MHz Core Clock
* 900MHz Mem Clock
* 768MB GDDR3 memory
* 384-bit memory interface (86GB/s)
* 128 unified shaders clocked at 1350 MHz
* 38.4 billion pixels per second theoretical texture fill-rate
* 450W PSU Recommended
* Hard launch in second week of November


8800GTS
* 500MHz Core Clock
* 900MHz Mem Clock
* 640MB GDDR3 memory
* 320-bit memory interface (64GB/s)
* 96 unified shaders clocked at 1200 MHz
* ?? billion pixels per second theoretical texture fill-rate
* 400W PSU Recommended
* Hard launch in second week of November

Persoonlijk heb ik het altijd al raar gevonden dat nVidia niet gelijk voor unified zou gaan. Zeker aangezien ze volgensmij ontwikkeltijd over hadden want G7800 en G7900 verschillen niet veel.
Daarnaast zou het marketingtechnisch een gemiste kans zijn om bij de Release van Vista geen volledige DX10 architectuur te hebben.
Mochten het idd allemaal kloppen, 100% Unified EN eerder op de markt dan R600, dan zet Vidia toch weer een mooie stunt neer. De kaart wordt dan op slag een stuk interessanter.

Alleen zit ik niet zo op watercooling te wachten, een groot minpunt imo.

Verder blijkt uit de artikelen dat het echt een monster van een kaart wordt met vermoedelijk 800w recommandation voor SLI :o

Begin nu toch echt ernstig benieuwd te raken naar de R600 specs. IMO moet ATI nu wel wat meer definitieve specs gaan lekken om mensen geinteresseerd te houden voor de R600.

Help!!!! wijzigde deze reactie 05-10-2006 09:40 (11%)

I do not pre-order games because of Industry Repeatedly Shipping Turds!
BF4 - Why its broken & current state gaming industry
PC Specs


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

quote:
Help!!!! schreef op donderdag 05 oktober 2006 @ 09:29:
offtopic:
Specs G80 (met dank aan ElemenTAL)
http://www.dailytech.com/article.aspx?newsid=4442
http://www.beyond3d.com/f...d.php?t=33576&page=33

8800GTX

* 575MHz Core Clock
* 900MHz Mem Clock
* 768MB GDDR3 memory
* 384-bit memory interface (86GB/s)
* 128 unified shaders clocked at 1350 MHz
* 38.4 billion pixels per second theoretical texture fill-rate
* 450W PSU Recommended
* Hard launch in second week of November


8800GTS

* 500MHz Core Clock
* 900MHz Mem Clock
* 640MB GDDR3 memory
* 320-bit memory interface (64GB/s)
* 96 unified shaders clocked at 1200 MHz
* ?? billion pixels per second theoretical texture fill-rate
* 400W PSU Recommended
* Hard launch in second week of November

Persoonlijk heb ik het altijd al raar gevonden dat nVidia niet gelijk voor unified zou gaan. Zeker aangezien ze volgensmij ontwikkeltijd over hadden want G7800 en G7900 verschillen niet veel.
Daarnaast zou het marketingtechnisch een gemiste kans zijn om bij de Release van Vista geen volledige DX10 architectuur te hebben.
Mochten het idd allemaal kloppen, 100% Unified EN eerder op de markt dan R600, dan zet Vidia toch weer een mooie stunt neer. De kaart wordt dan op slag een stuk interessanter.

Alleen zit ik niet zo op watercooling te wachten, een groot minpunt imo.


Damm wat een specs. 128 Uni shaders. De R600 gaat het giganties moeilijk krijgen als die er maar 64 heeft. Dan zou de R600 op zijn minst zuinig moeten zijn. Verder valt het me op dat de unified shaders van de G80 op meer dubbele snelheid van de core lopen. En dat de GT wel een hele vage bandbrete heeft naar het geheugen ( 320 Bit ).

800 watt is niet zo raar. 2x180 Watt per kaart als niet meer. + nog 200 voor de rest van het systeem en een echta buffer.

Maar volgens mij is de core van die kaart echt giga. Dit is gewoon niet normaal meer dit soort kaarten. Het moet echt week compacter en zuiniger. Want dit is abnormaal aan het worden.

Ultraman wijzigde deze reactie 05-10-2006 21:33 (18%)

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Tweakers abonnee Tweakers abonnementen

Mr Majestic

quote:
Astennu schreef op donderdag 05 oktober 2006 @ 09:37:
[...]

Damm wat een specs. 128 Uni shaders. De R600 gaat het giganties moeilijk krijgen als die er maar 64 heeft. Dan zou de R600 op zijn minst zuinig moeten zijn. Verder valt het me op dat de unified shaders van de G80 op meer dubbele snelheid van de core lopen. En dat de GT wel een hele vage bandbrete heeft naar het geheugen ( 320 Bit ).
Die bandbreedte viel me ook op. IMO zijn bovenstaande gegevens natuurlijk nog lastig te interpreteren aangezien we met een nieuwe architectuur te maken hebben. We weten ook niet wat de verschillen in aanpak tussen ATI en nvidia zijn. Het aantal pipelines hoeft niet alles te zeggen.De specs zijn sowieso anders dan we gewend zijn.
De gegevens lijken me wel echt aangezien Dailytech toch behoorlijk betrouwbaar is en spreekt over "hands on with the G8800".
quote:

800 watt is niet zo raar. 2x180 Watt per kaart als niet meer. + nog 200 voor de rest van het systeem en een echta buffer.

Maar volgens mij is de core van die kaart echt giga. Dit is gewoon niet normaal meer dit soort kaarten. Het moet echt week compacter en zuiniger. Want dit is abnormaal aan het worden.

Raar is het idd niet gezien de specs maar 800W voor een PC is natuurlijk redelijk insane!
Alhoewel je uiteraard veel minder gebruikt bij "het internetten" enzo en dit een ultieme highend setup betreft, begint het wel erg extreem te worden.

Help!!!! wijzigde deze reactie 05-10-2006 09:49 (9%)

I do not pre-order games because of Industry Repeatedly Shipping Turds!
BF4 - Why its broken & current state gaming industry
PC Specs


  • Thund3r
  • Registratie: juni 2002
  • Laatst online: 19-09 12:49

Thund3r

random gestoord

quote:
Astennu schreef op woensdag 04 oktober 2006 @ 22:27:
Wow mensen ik heb 2 laptops gevonden met een X2 en een ATi kaart:

Acer Ferrari 1000 en de 5000. Maar je raad het al de 1000 is een 21.1" laptop dus dat is niets en de 5000 is niet te krijgen :(

Dus ik ga maar een Targa laptop kopen met een Geforce 7600 GO :( Dit is totaal niet leuk maar beter dan een laptop met een Intel cpu en een ATi vga kaart.
Die 5000 zou eind Oktober leverbaar moeten zijn :)

╔╗╔═╦╗
║╚╣║║╚╗ T.net ID en Specs
╚═╩═╩═╝


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

quote:
Thund3r schreef op donderdag 05 oktober 2006 @ 09:46:
[...]


Die 5000 zou eind Oktober leverbaar moeten zijn :)


Uhmm duurt dus nog wel even. Jammer genoeg ook geen X1700 maar een X1600 :P En wat moet i gaan kosten ? want de 1000 serie met het 12.1"scherm kost al 1700+ euro :|.

Ben eens gaan kijken maar al die laptops met een 7600 Go kaart zijn ook niets. Want die 7600 Go non GT is iets van 40% langzamer. Scoort maar iets van 3400 3dmarks in 05. Dus X1700 Mobility met 45xx is veel sneller.

Het lijkt er op dat ik voorlopig nog moet wachten met een nieuwe laptop want er is gewoon niets fatsoenlijks op de markt. OFje MOET een Intel cpu nemen. En dat wil ik niet :) Wel stom ATi is van AMD maar een Laptop met een X2 Turion en een X1600 M of X1700 M kun je niet krijgen.

Astennu wijzigde deze reactie 05-10-2006 10:42 (44%)

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
quote:
Help!!!! schreef op donderdag 05 oktober 2006 @ 09:29:
Begin nu toch echt ernstig benieuwd te raken naar de R600 specs. IMO moet ATI nu wel wat meer definitieve specs gaan lekken om mensen geinteresseerd te houden voor de R600.


R600 heeft meer rauwe performance dan G80 als ik het goed heb. ;)

Een gerucht gaat dat G80 een soort van unified R580 met 32 pipelines met elk een array van 4 unified ALUs die zowel vertex als pixelshader bewerkingen kunnen doen, daar waar R580 16 pipelines heeft met elk een array van 3 ALUs die alleen pixelshaderbewerkingen kunnen doen. Voor G80GTX zou je dan uit komen op 128 streamprocessors. De G80GTS zou 24 pipelines hebben met elk een array van 4 unified ALUs, zodat je uitkomt op een totaal van 96 streamprocessors.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

quote:
CJ schreef op donderdag 05 oktober 2006 @ 12:52:
[...]


R600 heeft meer rauwe performance dan G80 als ik het goed heb. ;)

Een gerucht gaat dat G80 een soort van unified R580 met 32 pipelines met elk een array van 4 unified ALUs die zowel vertex als pixelshader bewerkingen kunnen doen, daar waar R580 16 pipelines heeft met elk een array van 3 ALUs die alleen pixelshaderbewerkingen kunnen doen. Voor G80GTX zou je dan uit komen op 128 streamprocessors. De G80GTS zou 24 pipelines hebben met elk een array van 4 unified ALUs, zodat je uitkomt op een totaal van 96 streamprocessors.
Mja wat krijgt de R600 dan. 8 Pipes met ieder 16 van die dingen ? Of zelfs meer dan 8 pipes ?

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
quote:
Astennu schreef op donderdag 05 oktober 2006 @ 13:27:
[...]


Mja wat krijgt de R600 dan. 8 Pipes met ieder 16 van die dingen ? Of zelfs meer dan 8 pipes ?
Je kan niet meer over pipes praten, maar over shaderarrays. Pipes zoals we die kennen bestaan niet meer.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • SpankmasterC
  • Registratie: juli 2002
  • Laatst online: 09:33
Ik vraag me af hoeveel ALU's per shader unit de G80 heeft.. Stel dat dit 1 ALU per shader unit is, dan kan ATi alsnog komen met 6t4 shader units met elk 2 ALU's.

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Tweakers abonnee Tweakers abonnementen

Mr Majestic

Volgens de laatste berichten heeft de G80 ook een aparte "physicsengine". ATI's GPU's zijn al zo gebouwd dat ze ook effectief voor dat doel in te zetten.

Ook hier is het interessant om te weten wat het verschil tussen beider implementaties is, en in hoeverre ze compatibel zijn met elkaar en met andere Physics api's/solutions op de markt.

Echt veel duidelijker wordt het allemaal nog niet.

I do not pre-order games because of Industry Repeatedly Shipping Turds!
BF4 - Why its broken & current state gaming industry
PC Specs


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
quote:
SpankmasterC schreef op donderdag 05 oktober 2006 @ 14:16:
Ik vraag me af hoeveel ALU's per shader unit de G80 heeft.. Stel dat dit 1 ALU per shader unit is, dan kan ATi alsnog komen met 6t4 shader units met elk 2 ALU's.


Volgens mij zijn het inderdaad enkele ALUs per shaderunit die minder bewerkingen per klokslag doen dan een R600 ALU. Vandaar dat er geruchten gaan dat de R600 meer ruwe kracht heeft.

quote:
Help!!!! schreef op donderdag 05 oktober 2006 @ 14:23:
Volgens de laatste berichten heeft de G80 ook een aparte "physicsengine". ATI's GPU's zijn al zo gebouwd dat ze ook effectief voor dat doel in te zetten.

Ook hier is het interessant om te weten wat het verschil tussen beider implementaties is, en in hoeverre ze compatibel zijn met elkaar en met andere Physics api's/solutions op de markt.

Echt veel duidelijker wordt het allemaal nog niet.


Beide implementaties maken als ik het goed heb begrepen gewoon gebruik van Havok FX voor physics. Dus het eindresultaat is hetzelfde, alleen is het even afwachten wie sneller is.

Hetzelfde zagen we gebeuren met PureVideo, daar waar ATI het hele videogebeuren via shaders versneld. Nu heeft nVidia dus Quantum Physics, terwijl ATi het weer via de shaders doet. We hebben al gezien dat ATi heel erg veel met zijn shaderpower kan dus ik ga er van uit dat het met de physics wel goed zit.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

Mja je ziet ook dat ATi daar erg goed bezig is. Op ATi kaarten kun je gewoon Folding draaien. En de Nvidia kaarten waren daar te langzaam. De ATi kaarten zijn gewoon fexibeler te programeren. Ik ben benieuwd hoe de prestatie van een X1900 in de next gen games zal zijn TOV een 7900.

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • donkerthomas
  • Registratie: oktober 2006
  • Laatst online: 15-10-2006

donkerthomas

Groetjes! ;)

zo, ff een domme vraag erdoorheen, waneer worden die #*$&(@ asus 1950CF nou is leverbaar...

heb alles voor mn nieuwe systeem, behalve (je raad het al) mn videokaart,

waneer worden die #*$&(@ asus 1950CF nou is leverbaar...

www.dutchfightclub.nl


  • theroman
  • Registratie: januari 2002
  • Laatst online: 10:32

theroman

F@H: Pjotr84

Domme vragen bestaan niet :)

Bel gewoon eens even een leverancier, mail de fabrikant, bel een webshop...

GA-P35C-DS3R Rev. 2.0 F11 | E6750 @ Arctic Freezer Pro | 4GB MDT PC6400 | Gigabyte HD3870 | Audigy ZS | Coolermaster Realpower 450W | Seagate 7200.10 250GB | 2x Seagate 7200.10 250GB Raid0 | Vista X64 Ultimate


  • The Source
  • Registratie: april 2000
  • Laatst online: 10:17
http://www.dailytech.com/article.aspx?newsid=4438
Vendors Say "RD600" is ATI's Last Intel Chipset

Dit was eigenlijk te verwachten.

Follow us: http://www.facebook.com/MSI.europe


  • donkerthomas
  • Registratie: oktober 2006
  • Laatst online: 15-10-2006

donkerthomas

Groetjes! ;)

quote:
theroman schreef op donderdag 05 oktober 2006 @ 18:00:
Domme vragen bestaan niet :)

Bel gewoon eens even een leverancier, mail de fabrikant, bel een webshop...
tsjah, daar krijg ik al1 maar ''Nee nog steeds niet, Asus is met al zijn produkten zeer problematisch." te horen.... Is dat altijd zo, dat ze de nieuwe high-end kaarten zo lang op zich laten wachten?

www.dutchfightclub.nl


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 19-09 15:36
quote:
Help!!!! schreef op donderdag 05 oktober 2006 @ 14:23:
Volgens de laatste berichten heeft de G80 ook een aparte "physicsengine". ATI's GPU's zijn al zo gebouwd dat ze ook effectief voor dat doel in te zetten.

Ook hier is het interessant om te weten wat het verschil tussen beider implementaties is, en in hoeverre ze compatibel zijn met elkaar en met andere Physics api's/solutions op de markt.

Echt veel duidelijker wordt het allemaal nog niet.
Een apparte physics engine is erg onwaarschijnlijk & alle nieuwsberichten spreken over het gebruik van de shaders. De G80 lijkt wel een zeer fexibele architectuur te worden, 128 stream processoren die 1D werken, (vroeger kon de G70 in het slechtste geval tot de helft van zijn processing power verliezen omdat de processoren vec2 waren) dit zou voor branching & GPGPU zeer interessante resultaten moeten geven. De G80 kan zijn shaders hergroeperen van 32 pipelines (meest voorkomend geval, alle data 4D) naar 128 pipelines (een extreem geval, maar zeer goed voor gpgpu). Natuurlijk zijn 4 1D processoren veel groter dan bv een 3D+1D bij de R300/R520. En we mogen niet vergetend dat de mini alu's verdwenen zijn.

  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
R600 in Q1 2007. RD790 bevat vier PCIe16x sloten!

Tadaaa....

http://www.chilehardware.com/usuarios/juanflaiter/roadmap/8.jpg

Let vooral op de "2 graphics", "3 graphics", "4 graphics" bij respectievelijk de RD580, RD580 (ja twee keer) en RD790. Twee PCIe16x sloten op de R580 en later 3, maar 4 PCIe 16x sloten op de RD790... op die laatste zit 4x een 8xPCIe slot. Wat is ATi van plan met CrossFire? De RD580 met 3 sloten is duidelijk gericht op een extra physics slot. Maar 4x op de RD790? :o

En R600 in Q1 2007, next gen R600 in Q3.

Bron: http://www.chilehardware....d&order=0&thold=0

CJ wijzigde deze reactie 06-10-2006 12:01 (12%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • TweakJerommeke
  • Registratie: april 2005
  • Laatst online: 16-09 17:25

TweakJerommeke

Stay a while and listen

Ik heb maar 1 PCIe slot nodig :+

YouTube Kanaal | WoT Livestream


  • Andamanen
  • Registratie: februari 2001
  • Niet online

Andamanen

Trotse eilandengroep

Q1 2007 is nog zo ver weg. :&#039;( Ook van de vermelding USA wordt ik niet vrolijker, aangezien ik meteen denk dat de introductie in de rest van de wereld (hier) nog later zal vallen.

-- Andamanen
Voorzitter en enig lid Front Anti-Mobieltjes


  • Claude
  • Registratie: juni 2001
  • Niet online
quote:
Andamanen schreef op vrijdag 06 oktober 2006 @ 12:25:
Q1 2007 is nog zo ver weg. :&#039;( Ook van de vermelding USA wordt ik niet vrolijker, aangezien ik meteen denk dat de introductie in de rest van de wereld (hier) nog later zal vallen.
USA betekent hier: unified shader architecture... ;)

  • Andamanen
  • Registratie: februari 2001
  • Niet online

Andamanen

Trotse eilandengroep

quote:
Claude schreef op vrijdag 06 oktober 2006 @ 13:00:
[...]

USA betekent hier: unified shader architecture... ;)
8)7 Damn you, afkortingen met meerdere betekenissen! (maar Q1 blijft ver weg, 3 tot 6 maanden)

-- Andamanen
Voorzitter en enig lid Front Anti-Mobieltjes


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
Q1 geeft de X1950XTX, X1950Pro en X1650XT wel weer een levensduur van zo'n 6 maanden, wat gemiddeld is voor ATi kaarten.

Dan iets anders... Digit Life gaat ook op de Image Quality tour! Ze hebben de "Performance", "Default" en "Quality" settings onder de loupe genomen! Ondanks dat verschillen soms klein zijn, komt Digit Life tot de volgende conclusie:

- Performance: nVidia
- Default: ATi
- Quality ATi

quote:
What concerns NVIDIA's optimizations of trilinear and anisotropic filtering, they often result in noticeable texture noise even in the default mode. Such noise has a negative effect on the general rendering quality in some games. Small performance gains cannot always justify such a drop in image quality. So we can say that optimal settings for NVIDIA cards these days are the Quality mode and Default mode in rare cases. In case of ATI it's the Default mode and the Quality mode in some cases. But these conclusions are subjective. It's wrong to compare performance of video cards with different quality settings. In our opinion, the optimal solution is to compare performance with default driver settings (maximum quality in some cases) and to provide several screenshots for our readers to evaluate rendering quality on their own.
http://www.digit-life.com...deo/quality_settings.html

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Apple
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
quote:
maar Q1 blijft ver weg, 3 tot 6 maanden
Yep, ik vind dat Nvidia een flinke voorsprong krijgt van Ati. En de specs van de G80 geven nou ook niet echt aanleiding om op de R600 te gaan zitten wachten, want die zijn zr indrukwekkend.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

quote:
Apple schreef op vrijdag 06 oktober 2006 @ 16:14:
[...]


Yep, ik vind dat Nvidia een flinke voorsprong krijgt van Ati. En de specs van de G80 geven nou ook niet echt aanleiding om op de R600 te gaan zitten wachten, want die zijn zr indrukwekkend.
Begint een beetje op de X1800 te lijken. Komt te laat waadoor veel mensen dan de G80 gaan kopen en ATi geld gaat mislopen.

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Apple
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
quote:
Astennu schreef op vrijdag 06 oktober 2006 @ 17:08:
[...]
Begint een beetje op de X1800 te lijken. Komt te laat waadoor veel mensen dan de G80 gaan kopen en ATi geld gaat mislopen.


Ik vind dit nog een graadje erger voor Ati. Velen konden nog geduld opbrengen om geen G70 te kopen en te wachten op X1K, wegens de verwachte HDR+AA mogelijkheid en toch ook wel een beetje tegenvallende specs van de G70 (24 ipv 32 pipes).
Dat de G80 in eerste instantie niet unified zou zijn zou weer zo'n reden zijn om op de R600 te wachten, maar zo te zien heeft de G80 echt alles in huis. De specs zijn om te kwijlen, ik geloof nou niet dat de G80 een draai om z'n oren gaat krijgen van de R600. :)

Apple wijzigde deze reactie 06-10-2006 18:20 (8%)


  • Andamanen
  • Registratie: februari 2001
  • Niet online

Andamanen

Trotse eilandengroep

quote:
Apple schreef op vrijdag 06 oktober 2006 @ 18:19:
[...]

... maar zo te zien heeft de G80 echt alles in huis. De specs zijn om te kwijlen, ik geloof nou niet dat de G80 een draai om z'n oren gaat krijgen van de R600. :)
Alleen prijs en misschien hitte/geluid lijken zwakke punten, maar ik ben bang dat ATi met hun volgende reeks dezelfde kant opgaat (topmodel duurder dan 600, enorme koeler).

-- Andamanen
Voorzitter en enig lid Front Anti-Mobieltjes


  • uploader26
  • Registratie: maart 2004
  • Laatst online: 28-03-2009
R600 zal net zo heet worden als G80 hoor, zo niet heter. Dus dat argument valt ook af :)
Maar goed, ik ben wel wat hitte gewend met een GX2 in mijn bak, dus ik zie het allemaal wel.

uploader26 wijzigde deze reactie 06-10-2006 18:35 (34%)

AMD 64 X2 4200@2.7Ghz | Asus A8N-SLi | 2048MB Corsair TwinX | XFX 8800GTX | 400GB Seagate Barracuda | Samsung 204b 20.1inch | G5+G15


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Tweakers abonnee Tweakers abonnementen

Mr Majestic

quote:
CJ schreef op vrijdag 06 oktober 2006 @ 14:32:
Q1 geeft de X1950XTX, X1950Pro en X1650XT wel weer een levensduur van zo'n 6 maanden, wat gemiddeld is voor ATi kaarten.

Dan iets anders... Digit Life gaat ook op de Image Quality tour! Ze hebben de "Performance", "Default" en "Quality" settings onder de loupe genomen! Ondanks dat verschillen soms klein zijn, komt Digit Life tot de volgende conclusie:

- Performance: nVidia
- Default: ATi
- Quality ATi


[...]


http://www.digit-life.com...deo/quality_settings.html

Ik ben zo blij dat er eindelijk een paar grote sites kwa testen de goede richting opgaan. Alleen op deze manier kunnen fabrikanten als nVidia "gedwongen" worden hun truuks te stoppen.

Verder ben ik het eens met de posters hierboven. Hoe kan het in vredesnaam dat nVidia weer eerder is met een, iig op papier, indrukwekkende kaart terwijl ATI al ruim een jaar een DX10 verwante processor via de XBOX360 produceert.

Persoonlijk overweeg ik, nu het er op lijkt dat nvidia echt unified is, de G80 meer dan voorheen.
Wel is het zo dat vanwege persoonlijke omstandigheden mijn upgrademoment eerder in febr. ligt. Derhalve zal ik ws afwachten. :)

I do not pre-order games because of Industry Repeatedly Shipping Turds!
BF4 - Why its broken & current state gaming industry
PC Specs


  • uploader26
  • Registratie: maart 2004
  • Laatst online: 28-03-2009
Hoe mooi die G80 op papier ook klinkt, ik wil eerst de chte feiten met de bijbehorende betrouwbare benchmarks zien, voordat er weer 650 eurootjes van mijn rekening wordt afgeschreven ( - +/- 350 euro die ik tegen die tijd nog wel voor een GX2 kan vangen :9 ).

AMD 64 X2 4200@2.7Ghz | Asus A8N-SLi | 2048MB Corsair TwinX | XFX 8800GTX | 400GB Seagate Barracuda | Samsung 204b 20.1inch | G5+G15


  • The Source
  • Registratie: april 2000
  • Laatst online: 10:17
quote:
CJ schreef op vrijdag 06 oktober 2006 @ 11:59:
R600 in Q1 2007. RD790 bevat vier PCIe16x sloten!
Let vooral op de "2 graphics", "3 graphics", "4 graphics" bij respectievelijk de RD580, RD580 (ja twee keer) en RD790. Twee PCIe16x sloten op de R580 en later 3, maar 4 PCIe 16x sloten op de RD790... op die laatste zit 4x een 8xPCIe slot. Wat is ATi van plan met CrossFire? De RD580 met 3 sloten is duidelijk gericht op een extra physics slot. Maar 4x op de RD790?


RD580 = 2x PCI-E x16
RD790 = 2x PCI-E x16 or 4x PCI-E x8 (dus configurable, physiek x16 maar electrical x8)
RD580+ ofzo die in Q1 2007 komt = wellicht 1x x16 + 2x x8 (gok ik)

Geen vooruitgang dus als je het mij vraagt op dit front.

Wel interessant is de RS790, deze beweert DX10 te gebruiken.
Op dit moment gebruikt de RS690 de X700 chip, logisch gezien zou de opvolger de RS790 dan de X1700 chip gebruiken, maar deze wordt overgeslagen en men gaat direct met de R600 core aan de slag. De valua versie RS740 gebruikt wel een DX9 variant, dus hierbij zou de X1700 (of X1000 core) gebruikt kunnen worden.

RX690 hier heb ik nog geen designwins van gehoord, wel zijn er bedrijven bezig met de RS690 (UMA). Mocht (ik zeg mocht) Intel nVidia overnemen en stoppen met de AMD chipsets, dan zou AMD/ATI dit chipset de RX690 als tegenhanger van de nForce5 heel hard nodig hebben.

Ze spreken ook over de RD550 (XPRESS 3100), gebaseerd op de RD580. Hier had ik nog niet van gehoord, ook nog niet van designwins. RD480 daar heeft Asrock een zut van gekocht en zijn gaan low-budget Crossfire mainboards met ATI chipsets op de markt zetten.

Ook erg leuk om te zien dat AMD + ATI is BEST graphics enkel Intel aanvallen, en niet nVIdia. Intel doet het wel erg beroerd, maar AMD/ATI claimed nog steeds veel sneller te zijn tov nVidia, toch wordt er om politieke redenen geen woord over gerept. Men wil uiteraard gewoon vriendjes blijven met nVidia omdat ze teveel afhankelijk zijn van nVIdia chipsets.

The Source wijzigde deze reactie 06-10-2006 19:25 (27%)

Follow us: http://www.facebook.com/MSI.europe


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
quote:
Apple schreef op vrijdag 06 oktober 2006 @ 16:14:
[...]


Yep, ik vind dat Nvidia een flinke voorsprong krijgt van Ati. En de specs van de G80 geven nou ook niet echt aanleiding om op de R600 te gaan zitten wachten, want die zijn zr indrukwekkend.


Hou dit in je achterhoofd... volgens de meeste 3D kenners zal de G80 dankzij de 128 streamprocessors gelijk staan aan een echte 32 pipes kaart in huidige applicaties. ATi heeft aangegeven dat de huidige 48 shaderprocessing units in de Xbox360 al gelijk staan aan een vergelijkbare 32 pipes processor. R600 zal naar alle waarschijnlijkheid 64 shaderprocessors (Xenos heeft dit waarschijnlijk al, maar heeft een deel uitgeschakeld vanwege yields) of zelfs meer hebben.

Als de G80 128 streamprocessors hebben die elk 1D bewerkingen (scalar) kunnen uitvoeren, daar waar de huidige pipelines elk een 4D bewerking (vec2 + vec2 of vec3 + scalar) kunnen uitvoeren, dan is dit dus daadwerkelijk gelijk aan 32 pipes. 4 streamprocessors zouden dan samen het werk doen van 1 'ouderwetse' G71 pipeline. Xenos kan per shaderprocessor een 5D bewerking (Vec4 en Scalar op) uitvoeren. Daarnaast heeft elke Xenox shaderprocessor speciale logica aan boord waardoor shaderoperations tot zo'n 33% sneller kunnen uit gevoerd dan op een vergelijkbare R580.

Welke is dan sneller? G80 of R600? Dat zou dan afhangen van de manier waarop de applicatie gecodeerd wordt. MS en vele devs zijn in ieder geval gewend aan de Xbox360, maar een G80 is zo op het eerste gezicht wel flexibeler en kan gemakkelijk worden uitgebreid in de toekomst. Het feit dat de betrouwbare bronnen hebben aangegeven dat 2 maanden geleden de G80 nog langzamer was dan het huidige topmodel, geeft aan dat de drivers heel erg belangrijk zullen zijn.

G80 ziet er in ieder geval heel erg interessant uit en het lijkt er op dat ze iedereen om de tuin hebben geleid met het verhaal dat ze geen unified shader kaart uit zouden brengen. Er zitten heel veel 'als'-en in het verhaal hierboven, maar we weten gewoon nog te weinig over G80 (bv hoeveel ROPs, hoe werkt de dubbelpumped snelheid van de streamprocessors tov de core), hoeveel TMUs (Xenos heeft 32 texture units: 16 texture fetch units + 16 vertex fetch units), etc) en nog bijna nagenoeg niks over R600 om nu al tot een conclusie te komen welke beter is. Daarnaast is Vista nog niet uit en DX10 komt ook pas later.

Dezelfde geruchtenbronnen die als eerste vermelden dat de G80 een 384 bit memory interface zou hebben en toch voor unified zou gaan, melden ook dat R600 sneller is dan de G80 in de 'next gen 3DM'. Zou dat dan ook kloppen? Nu nog maar afwachten hoeveel daar van waar is. Als Vista en DX10 uit zijn dan weten we meer. :+

Daarnaast loopt ATi trouwens maar zo'n 3 maanden achter op nVidia, dus zo'n ramp is het niet. Overigens gaan er ook geruchten dat ATi de R600 niet verder krijgt geklokt dan 400Mhz, terwijl 600Mhz het geprojecteerde doel is. Op 400Mhz zou de R600 moeite hebben om de G80 bij te houden. Op 600Mhz zou dat geen probleem moeten zijn.

En ook de eerste X1650XT is gespot:

http://img11.picsplace.to/img10/17/x1650xt.jpg

CJ wijzigde deze reactie 06-10-2006 20:12 (13%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • The Source
  • Registratie: april 2000
  • Laatst online: 10:17
Mijn info The Source in "[Algemeen] ATi Nieuwsdiscussie Topic - D..." mbt de launch dates lijkt te kloppen; http://www.ocwforums.com/bbs/showthread.php?threadid=55262

http://www.dailytech.com/article.aspx?newsid=4462
Sapphire Announces Two AGP Graphics Cards
X1650 AGP en X1300XT AGP (lees X1600XT onder nieuwe naam)

The Source wijzigde deze reactie 06-10-2006 22:02 (28%)

Follow us: http://www.facebook.com/MSI.europe


  • Upke dupke
  • Registratie: januari 2003
  • Laatst online: 15:37

Upke dupke

Oompa Loompa

quote:
CJ schreef op vrijdag 06 oktober 2006 @ 20:00:
[...]
Overigens gaan er ook geruchten dat ATi de R600 niet verder krijgt geklokt dan 400Mhz, terwijl 600Mhz het geprojecteerde doel is. Op 400Mhz zou de R600 moeite hebben om de G80 bij te houden. Op 600Mhz zou dat geen probleem moeten zijn.



Dat klinkt bekend...

Deja vu.

;)

  • wizkristof
  • Registratie: augustus 2005
  • Laatst online: 11-04-2009
quote:
Upke dupke schreef op vrijdag 06 oktober 2006 @ 21:55:
[...]


Dat klinkt bekend...

Deja vu.

;)
kzie het alweer gebeuren. Oh probleempjes met de kaart, paar maanden sukkelen tot er een technikertje gevonden heeft dat er een stuk van de kaart moet vervangen worden anders kan hij zo hoog niet geklokt worden :|

my system : http://specs.tweak.to/13025


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

Gotta move that gear up!

Details of ATI's four-GPU chipset, physics acceleration plans emerge
10/6/2006 4:27:46 PM, by Jon Stokes

quote:
A Chilean website, MadboxPC, appears to have gotten hold of a slide presentation detailing AMD/ATI's chipset plans for the coming year. The slides reveal that ATI has a few new chipsets in the works that are aimed at supporting the 4x4 platform and next generation of AMD K8L processors.

In the mid-range, sub-$100 segment, there's the RD550, a chipset that's derived from ATI's existing RD580. The slides claim that the RD580 will support three GPUs and two CPUs in Q107. The RD580's existing Xpress Route technology, which enables faster two-way communication between cards in different PCIe slots, may finally start to realize its full potential as the GPUs in these systems start to take on more coprocessor functions. (But more on that in a moment.)

The high end of the lineup will be the RD790 and RX970, both of which support AMD's Socket AM2+ (for the initial run of K8Ls) and the HyperTransport 3.0 spec. The RD790 will be aimed at the very high end, and will support up to four GPUs on 8x PCIe lanes, or two GPUs on two 16x lanes. Moving down lower in the high end, there will be an RS790 part and an RS740 part.

The slides are full of talk of GPU-based physics acceleration, and in particular they hint at enhancements to the chipset that enable greater two-way communication between the GPU and CPU. The current, output-oriented nature of the CPU-GPU link is a problem for the kind of physics acceleration that actually affects game play, as we've pointed out previously. From our article on the AMD/ATI merger:

However, the GPU does not feed very much data back to the CPU as a result of its physics calculations, which means that nothing that the GPU produces in the way of physics simulation can really affect gameplay. So you couldn't use the GPU to simulate the partial demolition of a structure that's holding some NPCs, because the CPU wouldn't know enough about the results. The simulated demolition would go from the GPU straight to the framebuffer and onto the screen, like so many water or particle effects, but nobody would tell the actual game code running on the CPU where the large chunks of debris (fallen beams, pieces of wall, the inevitable barrels and crates) had fallen and where the new gap in the wall appeared.

The take-home point here is that a real PPU has to collaborate closely with the CPU-the two must talk back-and-forth quite a bit because the physics output of the PPU affects gameplay. In contrast, the more "eye candy"-oriented physics output from the GPU does not affect gameplay, so that output goes straight from the GPU to the screen.

AMD/ATI is no doubt intent on fixing this problem, and that's behind some of what they're doing with the Crossfire Xpress chipsets. In the next generation of chipsets from AMD/ATI, a GPU that's acting as a PPU will have a fast two-way link with the rest of the system, which means that this "PPU" will be able to talk not only to the CPU but also to the other GPU(s) that are working on graphics rendering. This is where AMD/ATI is taking their chipsets, and it's probably what's behind the line "Eliminating Master/Slave" in one of the CrossFire slides. (Either that, or it's a cryptic Nietzsche reference.)

What this spells for gamers is full-blown physics acceleration on the GPU, with all the fixins. What is spells for Ageia, makers of the PhysX PPU, is a potentially fatal migrane.
Jaaaaaaja ik weet het, hierboven al vermeld maar toch even aardig om te posten dacht ik zo, een bron past wel zo goed en dan kunnen de mensen zich wat meer inlezen :)

Jejking wijzigde deze reactie 07-10-2006 14:32 (2%)
Reden: Wat vergeten

| World Community Grid: 1 systeem, 10 speldjes, 1894 dagen rekentijd, 10.738e van de wereld! ]


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Tweakers abonnee Tweakers abonnementen

Mr Majestic

quote:
Jejking schreef op zaterdag 07 oktober 2006 @ 14:31:
Details of ATI's four-GPU chipset, physics acceleration plans emerge
10/6/2006 4:27:46 PM, by Jon Stokes


[...]


Jaaaaaaja ik weet het, hierboven al vermeld maar toch even aardig om te posten dacht ik zo, een bron past wel zo goed en dan kunnen de mensen zich wat meer inlezen :)
Goede post toch :? Althans voor mij is t verhelderend. :)

I do not pre-order games because of Industry Repeatedly Shipping Turds!
BF4 - Why its broken & current state gaming industry
PC Specs


  • Bladeslayer
  • Registratie: mei 2005
  • Laatst online: 19-09 17:02
(jarig!)
Ik heb een vraagje, ik heb een 21" CRT PR1400F. Het is de bedoeling om de volgende resoluties te gebruiken : 1680x1050 en 1280x800 ( beide kunnen ze dus makkelijk op de 21") Maar in Catalyst control center kan ik die resoluties niet gebruiken omdat ik dus geen 20" breedbeeld monitor heb.

Met de Forceware drivers kan ik gewoon een custom resolutie toevoegen, en werkt het wel.

Ik heb al rond gekeken in catalyst control center, maar ik kan nergens een optie vinden op een resolutie toe te voegen.

Ik heb de nieuwste Catalyst 6.9, windows XP etc.

www.frees-it.com


  • Apple
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
quote:
Upke dupke schreef op vrijdag 06 oktober 2006 @ 21:55:
[...]


Dat klinkt bekend...

Deja vu.

;)
Het lijkt me dat Ati geleerd moet hebben van dat eerdere slippertje. ;)

  • martijnve
  • Registratie: december 2004
  • Laatst online: 18-09 13:50
quote:
Bladeslayer schreef op zaterdag 07 oktober 2006 @ 15:49:
Ik heb een vraagje, ik heb een 21" CRT PR1400F. Het is de bedoeling om de volgende resoluties te gebruiken : 1680x1050 en 1280x800 ( beide kunnen ze dus makkelijk op de 21") Maar in Catalyst control center kan ik die resoluties niet gebruiken omdat ik dus geen 20" breedbeeld monitor heb.

Met de Forceware drivers kan ik gewoon een custom resolutie toevoegen, en werkt het wel.

Ik heb al rond gekeken in catalyst control center, maar ik kan nergens een optie vinden op een resolutie toe te voegen.

Ik heb de nieuwste Catalyst 6.9, windows XP etc.

Probeer de omega drivers eens. Die ondersteunen veel meer resoluties.

edit: wel behoorlijk off-topic dit

Phenom X3 720 @ 4 cores | 16GB DDR3 | Radeon 7970 | Xonar D2X | Marantz SR5004 | 2x Magnat 605, 2x 603 | Asrock 890GX Extreme | Samsung 830 128GB | 4x 2,5" Raid 0 | Obsidian 650D | u2711(27", IPS,1440p), 2343BW, 720p Beamer


  • The Source
  • Registratie: april 2000
  • Laatst online: 10:17
De complete gelekte ATI / AMD chipset presentatie:

http://www.techpowerup.com/index.php?18140

Follow us: http://www.facebook.com/MSI.europe


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 28-05 08:09

Cheetah

Try to live without PC ;)

- bookmark - :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, Asus GTX670 DC2 TOP
Samsung 830 256GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Philips 32" 9605H Ambi/LED
Full Specz


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 19-09 16:23

XanderDrake

Genetics is the key

Trouwens, je leest overal dat de shaders van de 8800GTX draaien op 1350mhz. Ik vraag me af hoe snel de shaders van de R600 draaien in dat geval.
Is die snelheid ook niet een belangrijke factor naast de hoeveelheid shaders en soort shaders?

Hephaistos Game PC
Non scholae sed vitae discimus Seneca


  • wizkristof
  • Registratie: augustus 2005
  • Laatst online: 11-04-2009
quote:
XanderDrake schreef op zondag 08 oktober 2006 @ 12:17:
Trouwens, je leest overal dat de shaders van de 8800GTX draaien op 1350mhz. Ik vraag me af hoe snel de shaders van de R600 draaien in dat geval.
Is die snelheid ook niet een belangrijke factor naast de hoeveelheid shaders en soort shaders?
ik had er nog nooit van gehoord, snelheid van shaders. 8)7

my system : http://specs.tweak.to/13025


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 19-09 16:23

XanderDrake

Genetics is the key

quote:
wizkristof schreef op zondag 08 oktober 2006 @ 12:24:
ik had er nog nooit van gehoord, snelheid van shaders. 8)7
Afkomstig van Daily Tech:
quote:
NVIDIA’s GeForce 8800GTX will be the flagship product. The core clock will be factory clocked at 575 MHz. All GeForce 8800GTX cards will be equipped with 768MB of GDDR3 memory, to be clocked at 900 MHz. The GeForce 8800GTX will also have a 384-bit memory interface and deliver 86GB/second of memory bandwidth. GeForce 8800GTX graphics cards are equipped with 128 unified shaders clocked at 1350 MHz. The theoretical texture fill-rate is around 38.4 billion pixels per second.

Hephaistos Game PC
Non scholae sed vitae discimus Seneca


  • wizkristof
  • Registratie: augustus 2005
  • Laatst online: 11-04-2009
jaja maar voordien bv de 7800GTX. op hoeveel mhz lopen ide shaders?

my system : http://specs.tweak.to/13025


  • Tyranium
  • Registratie: december 2003
  • Niet online

Tyranium

Ero-sennin

quote:
wizkristof schreef op zondag 08 oktober 2006 @ 14:40:
jaja maar voordien bv de 7800GTX. op hoeveel mhz lopen ide shaders?
Dit is een hele nieuwe architectuur, dus echt vergelijken met de 7800GTX gaat niet. Maar ook in de 7800 en 7900 liepen verschillende delen van de core op verschillende clocksnelheden.

| I7 920 @ 4.6 ghz | Asrock X58 Extreme | 6GB OCZ Reaper DDR3-1866 Ram | MSI GTX670 | Samsung 830 128GB SSD| 2x Samsung F3 1TB @ RAID0 | Corsair TX850W | BenQ G2420HD


  • DoO_darkrush_NL
  • Registratie: mei 2004
  • Laatst online: 10-09-2011

DoO_darkrush_NL

is my name

quote:
Daarnaast loopt ATi trouwens maar zo'n 3 maanden achter op nVidia, dus zo'n ramp is het niet. Overigens gaan er ook geruchten dat ATi de R600 niet verder krijgt geklokt dan 400Mhz, terwijl 600Mhz het geprojecteerde doel is. Op 400Mhz zou de R600 moeite hebben om de G80 bij te houden. Op 600Mhz zou dat geen probleem moeten zijn.


Ik ga ervan uit dat R600 sneller is dan G80. Het zou een beetje dom zijn om 3 maanden later alsnog met een tragere kaart te komen. Dat lijkt me alles behalve logisch.

nadeel van 3 maanden achterstand is, is dat zodra R600 uitgebracht word er waarschijnlijk ook een aankondiging van Nvidia komt dat er binnen 3 maanden een update komt van de G80 serie.

Zo blijven ze mekaar flink op de hielen zitten, zonder echt een duidelijke winnaar.

DoO_darkrush_NL wijzigde deze reactie 08-10-2006 15:39 (5%)

AMD Athlon 64 3200+ I MSI K8N Neo Platinum I 1536mb DDR 400 I Nvidia Geforce 6800 GT 256mb GDDR3 I Creative Audigy 2 ZS Platinum Pro I Creative Megaworks THX 550 I 1x Zalman Casefan I 1X Glacialtech Casefan I Philips CD-Rewriter 48x I PSU 400 Watt No-Name


  • theroman
  • Registratie: januari 2002
  • Laatst online: 10:32

theroman

F@H: Pjotr84

quote:
donkerthomas schreef op donderdag 05 oktober 2006 @ 22:36:
[...]


tsjah, daar krijg ik al1 maar ''Nee nog steeds niet, Asus is met al zijn produkten zeer problematisch." te horen.... Is dat altijd zo, dat ze de nieuwe high-end kaarten zo lang op zich laten wachten?
Of dat altijd zo is, zou ik je niet kunnen zeggen, maar uit de antwoorden spreekt wel dat zij het blijkbaar ook niet weten.

GA-P35C-DS3R Rev. 2.0 F11 | E6750 @ Arctic Freezer Pro | 4GB MDT PC6400 | Gigabyte HD3870 | Audigy ZS | Coolermaster Realpower 450W | Seagate 7200.10 250GB | 2x Seagate 7200.10 250GB Raid0 | Vista X64 Ultimate


  • Apple
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
quote:
Daarnaast loopt ATi trouwens maar zo'n 3 maanden achter op nVidia, dus zo'n ramp is het niet.
Van die 3 maanden is er wel eentje d belangrijkste verkoopmaand v/h jaar, december. Daarnaast is dit de tweede achtereenvolgende keer dat ze maandenlang 'achterlopen' bij een nieuwe generatie. Ik vraag me af hoe lang ze zulke geintjes nog uit kunnen halen voordat Nvidia de lat t hoog legt (voor Ati). ;) Ik kan me trouwens niet aan de indruk onttrekken dat Nv dit nu al doet.

Apple wijzigde deze reactie 08-10-2006 16:28 (44%)


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 19-09 16:23

XanderDrake

Genetics is the key

quote:
Overigens gaan er ook geruchten dat ATi de R600 niet verder krijgt geklokt dan 400Mhz, terwijl 600Mhz het geprojecteerde doel is. Op 400Mhz zou de R600 moeite hebben om de G80 bij te houden. Op 600Mhz zou dat geen probleem moeten zijn.

Ik vind dit eerlijk gezegd een rare claim. Er moet dus *iemand* zijn die zowel de engineering samples heeft van de R600 n de G80 om ze te kunnen testen. Dat lijkt me sterk, gezien de geheimhouding van nVidia omtrend de G80. Vervolgens, hoe testen ze dit? Bedoelen ze Dx9 of Dx10? Met welke drivers hebben ze de testen gerunt? Welke revisies van de cores zijn gebruikt?

Ik ben een beetje immuun geworden voor de geruchten rondom de R600/G80. Meer als normaal. Deze roddels doen me dus weinig, net als die VR-Zone claims.

Hephaistos Game PC
Non scholae sed vitae discimus Seneca


  • frankknopers
  • Registratie: december 2003
  • Laatst online: 09-09 19:31

frankknopers

Goud is geen geld

Ik wil nog even terugkomen op de pas gereleasde Farcry Patch 1.4. Daarvan werd gezegd dat Ubisoft de HDR+AA heeft uitgeschakeld, mogelijk wegens engine problemen.

Nou heb ik net Farcry Patch 1.4 gedownload en geinstalleerd op mijn systeem, en ik kan je vertellen dat er niets van waar is. Toen ik Farcry 1.4 opstarte kon ik via het menu (~) nog gewoon ''\r_hdrrendering 7'' invoeren, gevolgd door een bevestiging ''HDR Engine = 7".

Vervolgens heb ik het eerste checkpoint uit het level ''Research'' gestart. Gelijk richt ik de pointer van de M4 naar de felle avondzon en ik wordt verbaasd door de overweldigende HDR effecten. De zon is nog feller en de zonnestralen zien er nog realistischer uit. Ook zien de HDR lichteffecten op rotsen en bomen er een stuk mooier uit met patch 1.4. Ik kreeg het gevoel dat mijn videokaart harder moest werken, dus ik typte in console "\r_displayinfo 1". Mijn framerate was met ongeveer 20% gedaald. De HDR effecten zijn dus geen trucage, maar gewoon een serieuze verbetering! Voor alle Farcry enthousiasts (zoals ik, ik heb het spel nu al 8x uitgespeeld :D ), downloaden die patch!!

Testsysteem:
Intel Core 2 Duo E6600 / 2x1GB OCZ PC6400 CL4 / ATi Radeon X1900XTX

http://patches.ubi.com/far_cry/

Goud is geen geld


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

Gotta move that gear up!

Edit: oopsie, Frank was me voor ^^ :)

Jejking wijzigde deze reactie 08-10-2006 21:05 (76%)

| World Community Grid: 1 systeem, 10 speldjes, 1894 dagen rekentijd, 10.738e van de wereld! ]


  • Apoca
  • Registratie: november 2001
  • Laatst online: 11:53

Apoca

Array Technology Industry

Looks great, en draait als een trein met de patch 1.4

[ Workstation ] [HTPC ]


  • edward2
  • Registratie: mei 2000
  • Laatst online: 19:15

edward2

Schieten op de beesten

quote:
Frank_Knopers schreef op zondag 08 oktober 2006 @ 20:32:
Ik wil nog even terugkomen op de pas gereleasde Farcry Patch 1.4. Daarvan werd gezegd dat Ubisoft de HDR+AA heeft uitgeschakeld, mogelijk wegens engine problemen.

Nou heb ik net Farcry Patch 1.4 gedownload en geinstalleerd op mijn systeem, en ik kan je vertellen dat er niets van waar is. Toen ik Farcry 1.4 opstarte kon ik via het menu (~) nog gewoon ''\r_hdrrendering 7'' invoeren, gevolgd door een bevestiging ''HDR Engine = 7".

Vervolgens heb ik het eerste checkpoint uit het level ''Research'' gestart. Gelijk richt ik de pointer van de M4 naar de felle avondzon en ik wordt verbaasd door de overweldigende HDR effecten. De zon is nog feller en de zonnestralen zien er nog realistischer uit. Ook zien de HDR lichteffecten op rotsen en bomen er een stuk mooier uit met patch 1.4. Ik kreeg het gevoel dat mijn videokaart harder moest werken, dus ik typte in console "\r_displayinfo 1". Mijn framerate was met ongeveer 20% gedaald. De HDR effecten zijn dus geen trucage, maar gewoon een serieuze verbetering! Voor alle Farcry enthousiasts (zoals ik, ik heb het spel nu al 8x uitgespeeld :D ), downloaden die patch!!

Testsysteem:
Intel Core 2 Duo E6600 / 2x1GB OCZ PC6400 CL4 / ATi Radeon X1900XTX

http://patches.ubi.com/far_cry/
HDR is er ook niet uitgesloopt, alleen HDR+AA. Overigens kan je met Farcry naar Oblivion renamen dat wel bereiken, tenminste met de 1.4 beta patch en chuck 6.8 die ik toen gebruikte als alternatief.

CJ, ik zal je missen....


  • wizkristof
  • Registratie: augustus 2005
  • Laatst online: 11-04-2009
ik heb de DVD hiervan niet meer ik gebruik altijd no-cd cracks voor far cyr, zijn voor 1.4 al cracks uit?
Modbreak:
Het algemeen beleid
quote:
Licentie of copyright schendingen.

Hoe je aan je software, muziek, foto's, films, Canal+ uitzendingen en dergelijke zaken komt moet je zelf weten, we willen echter niet dat je Gathering of Tweakers.net hier op welke manier dan ook in betrekt. Buiten dat het ons problemen gaat opleveren bij de diverse controlerende instanties willen we niet dat GoT uitgroeit tot een uitwisselboard voor van alles en nog wat. Het volgende willen wij dan ook niet op Gathering of Tweakers zien.

* Warez, cracks NO-CD patches en dergelijke.
Check je mail... :/

dion_b wijzigde deze reactie 08-10-2006 23:09 (75%)

my system : http://specs.tweak.to/13025


  • wizkristof
  • Registratie: augustus 2005
  • Laatst online: 11-04-2009
om mooie HDR effecten te zien de nieuw zijn in 1.4 moet je daarvoor \r_hdrrendering 7'' invoeren? of zou dit al vanzelf moeten zichtbaar zijn?
[Edit]
amai wat zegt far cry er beeldig uit zeg. maar is wel echt veel zwaarder geworden om het deftig te draaien :9
Modbreak:
Maak eens gebruik van de Edit knop http://gathering.tweakers.net/global/templates/tweakers/images/icons/edit.gif

Ultraman wijzigde deze reactie 09-10-2006 00:25 (51%)

my system : http://specs.tweak.to/13025


  • WoutF
  • Registratie: maart 2000
  • Laatst online: 17:41

WoutF

Redacteur
Is het al bekend of ATI nog met een Vista RC2 driver komt?

  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
quote:


Leuk detail zijn plaatje 17 en 25. Plaatje 17 laat de nieuwe X1950Pro in CrossFire zien terwijl plaatje 25 de nieuwe X1650XT in CrossFire laat zien, beide met dubbele bridgechips.

quote:
XanderDrake schreef op zondag 08 oktober 2006 @ 12:17:
Trouwens, je leest overal dat de shaders van de 8800GTX draaien op 1350mhz. Ik vraag me af hoe snel de shaders van de R600 draaien in dat geval.
Is die snelheid ook niet een belangrijke factor naast de hoeveelheid shaders en soort shaders?


Het aantal megahertzen zegt steeds minder. Het kan zijn dat een shaderengine van fabrikant A meer bewerkingen per megahertz kan uitvoeren als een shaderengine van fabrikant B. Daardoor kan je dus een situatie creeeren dat fabrikant A maar de helft van het aantal megahertzen nodig heeft als fabrikant B om hetzelfde resultaat te bereiken.

Bij nVidia is het trouwens niets nieuws onder de zon om verschillende shaderonderdelen op verschillende snelheden te klokken (zie ook het vertexdomain bij de G7x serie die zo'n 50Mhz hoger is geklokt op bepaalde modellen). Waarschijnlijk draaien bij de G80 de ROPs op 575Mhz, terwijl de shaderengines zelf 100Mhz hoger geklokt zijn en ook nog eens dubbel pumped zijn (dus 675x2=1350Mhz). Als het inderdaad simpele shaders zijn zoals wordt verondersteld, dan zouden deze snelheden best mogelijk kunnen zijn en moet men dit ook wel doen om shaders bij te houden die 'ingewikkelder' in elkaar zitten.

quote:
XanderDrake schreef op zondag 08 oktober 2006 @ 17:18:
[...]

Ik vind dit eerlijk gezegd een rare claim. Er moet dus *iemand* zijn die zowel de engineering samples heeft van de R600 n de G80 om ze te kunnen testen. Dat lijkt me sterk, gezien de geheimhouding van nVidia omtrend de G80. Vervolgens, hoe testen ze dit? Bedoelen ze Dx9 of Dx10? Met welke drivers hebben ze de testen gerunt? Welke revisies van de cores zijn gebruikt?

Ik ben een beetje immuun geworden voor de geruchten rondom de R600/G80. Meer als normaal. Deze roddels doen me dus weinig, net als die VR-Zone claims.
De eerste G80 samples waren er al in Januari. Veel devs hebben al G80 samples binnen gekregen om games op te testen. Het zal voor R600 niet veel anders zijn. Dus de kans is groot dat een dev zowel een G80 als een R600 in huis had en daar (niet geheel netjes) wat informatie over naar buiten heeft gelekt. Het zou niet de eerste keer zijn dat dit gebeurt. Maar zowiezo is het altijd verstandig om dit soort dingen met een flinke korrel zout te nemen totdat je het bevestigd ziet als waarheid op betrouwbare plekken.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

Ik wil zo i zo even afwachten wat die G80 en R600 gaan doen. En heb ook geen zin in een stroom verbuik van 200 watt of zo. Ik wil eigenlijk terrug naar max 80-100 per kaart. Vind ik mooi zat. Vooral het idle wattage moet laag zijn. Want dan kan ik me pc gewoon voor downloaden gebruiken. Nu verbruikt i daar veel te veel stroom voor.

En ik denk dat ik gewoon 2x X1950 Pro koop en dan maar ga testen VS 1x X1900 XTX. En kijken hoeveel sneller die 2x X1950 Pro is. Is het de moeite waard verkoop ik de X1900 XTX. Zo niet moesten er in huis toch nog wat upgrade's gebeuren dus dan wordt het doorschuiven :). Maar ik ga er van uit dat er behoorlijk wat snelheids winst te zien is. Zodat ik DX 10 toch kan uit stellen en wel al me games op max detail kan spelen :P

Astennu wijzigde deze reactie 09-10-2006 09:23 (11%)

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • PassieWassie
  • Registratie: mei 2004
  • Laatst online: 18-03-2013
Even wat nieuws betreft de concurrentie vanuit ageia hun kant:

".. Hardware Scene Manager (HSM)

The HSM now uses Compartments, allowing the utilization of multiple PhysX cards in future versions.
The interface of the HSM has been completely revised.

..."

Dit betekend volgens mij keihard dat je meerdere physx kaarten kunt gebruiken in de toekomst om de performance omhoog te krikken :&gt; ?

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

Tja maar dan kun je straks kiezen tussen 2 van die kaartjes of je gebruikt gewoon een X1950 Pro kaart die net zo snel is als die van die dingen. En even duur is al 2 :)

Dus ik vraag me af of het iets gaat worden. Ik zie zo i zo niet veel mensen een speciale physics kaart gaan gebruiken. Of het moet meer gaan doen dan in de huidige games. Zodat het echt de moeite waard is.

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • PassieWassie
  • Registratie: mei 2004
  • Laatst online: 18-03-2013
quote:
Astennu schreef op maandag 09 oktober 2006 @ 09:50:
Tja maar dan kun je straks kiezen tussen 2 van die kaartjes of je gebruikt gewoon een X1950 Pro kaart die net zo snel is als die van die dingen. En even duur is al 2 :)

Dus ik vraag me af of het iets gaat worden. Ik zie zo i zo niet veel mensen een speciale physics kaart gaan gebruiken. Of het moet meer gaan doen dan in de huidige games. Zodat het echt de moeite waard is.
Het is maar de vraag of ze even snel zijn, echt concrete benchmarks voor physics zijn er nog niet !En of mensen een speciale physics kaart gaan gebruiken is meer een kwestie van tijd. Want je hebt het persoonlijk al over een x1950pro als physics kaart. Waarom geen 2 Ageia kaartjes die veel minder stroom verbruiken dan een single x1950pro. 18 oktober komen trouwens de PCI-x 1x versies van de kaarten op de markt, waardoor een breder publiek bereikt moet gaan worden.

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

quote:
thabazzman schreef op maandag 09 oktober 2006 @ 11:32:
[...]


Het is maar de vraag of ze even snel zijn, echt concrete benchmarks voor physics zijn er nog niet !En of mensen een speciale physics kaart gaan gebruiken is meer een kwestie van tijd. Want je hebt het persoonlijk al over een x1950pro als physics kaart. Waarom geen 2 Ageia kaartjes die veel minder stroom verbruiken dan een single x1950pro. 18 oktober komen trouwens de PCI-x 1x versies van de kaarten op de markt, waardoor een breder publiek bereikt moet gaan worden.


Ik gok dat de X1950 Pro iets van 80 watt zal gebruiken. Zeker weet ik dit niet maar daar ga ik even van uit. 2x Ageia = ook 60+ watt. En neemt ook weer 2 slots in gebruik. En de vraag is hoeveel rendement je haald met 2 van die kaarten. Nu is het wel zo dat de ATi kaarten super goed zijn in het berekenen van dingen. Dus ik ga er even van uit dat een X1300 ongeveer even snel kan zijn qua physics als een Ageia kaart. Maar dat moeten we natuurlijk nog wel even afwachten :).

En ik keek nu even naar de prijs. Een X1950 Pro zal iets van 190 euro gaan kosten. Dus dan zijn 2x Ageia kaartjes ongeveer 2x zo duur.

Astennu wijzigde deze reactie 09-10-2006 11:36 (6%)

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
quote:
thabazzman schreef op maandag 09 oktober 2006 @ 09:26:
Even wat nieuws betreft de concurrentie vanuit ageia hun kant:

".. Hardware Scene Manager (HSM)

The HSM now uses Compartments, allowing the utilization of multiple PhysX cards in future versions.
The interface of the HSM has been completely revised.

..."

Dit betekend volgens mij keihard dat je meerdere physx kaarten kunt gebruiken in de toekomst om de performance omhoog te krikken :&gt; ?


Ik ben bang dat dit de laatste stuiptrekking is van Ageia.

Ze zullen ten eerste een PhysX card op PCIe moeten uit brengen aangezien PCI er langzaam maar zeker uit vliegt en veel mensen niet genoeg PCI sloten hebben om er nog eentje bij te steken naast bv hun X-Fi.

Ten tweede voelen ze nu echt de hete adem van Havok FX. Wat is namelijk gebleken tijdens het Stream Computing Event van ATI? Havok liet zien dat ze enorm ver gevorderd waren met hun Havok FX, veel verder dan menigeen dacht...

Voorheen werd gedacht dat de GPUs voornamelijk gebruikt zouden worden voor Effects Physics, dus het er mooier laten uit zien van de explosies, botsingen etc, terwijl Havok HydraCore en en Havok Physics er voor zouden zorgen dat de Gameplay Physics, dus de daadwerkelijke berekeningen van botsingen, rook, vloeistoffen etc. Het blijkt nu dat Havok FX ook Effects Physics kan laten doen op de GPU en dat dit heel erg snel kan!

quote:
Then he produced a real surprise: Havok FX with "gameplay physics"—that is, physics interactions that affect gameplay rather than just being eye candy—running on the GPU. I wasn't even aware they had truly interactive GPU-based physics in the works, but here was a working demo.

...

Havok seems to have made quite a bit of progress on Havok FX in the past few months. According to Yates, the product is approaching beta and will soon be in the hands of game developers. When that happens, he said, game developers will need to change the way they think about physics, because the previous limits will be gone.

Bron: http://www.techreport.com...am-computing/index.x?pg=3

Dus GPUs kunnen zowel Gameplay als Effects physics.

nVidia blaast op dit moment niet zo hoog van de Physics toren aangezien hun GF7 serie veel trager is dan de X1K serie (zelfs een X1600XT is 2x zo snel als een GF7900GTX), maar verwacht maar dat ze met de G80 flink veel lawaai gaan maken over Physics op de GPU aangezien de G80 een dedicated physics engine heeft (de Quantum Physics Engine). Als straks de hele lineup van nVidia dit heeft dan kan Ageia wel fluiten naar z'n centen. Havok is nu eenmaal de meest populaire physics engine van dit moment en Havok FX zit nu dus standaard in de Havok SDK, waardoor developers dus snel en gemakkelijk dit kunnen gebruiken.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • PassieWassie
  • Registratie: mei 2004
  • Laatst online: 18-03-2013
quote:
CJ schreef op maandag 09 oktober 2006 @ 12:18:

Ik ben bang dat dit de laatste stuiptrekking is van Ageia.

Ze zullen ten eerste een PhysX card op PCIe moeten uit brengen aangezien PCI er langzaam maar zeker uit vliegt en veel mensen niet genoeg PCI sloten hebben om er nog eentje bij te steken naast bv hun X-Fi.
Ik gaf al aan dat deze 1812 Oktober komt ;)

Bron: Link

Vertaling(babelfish):
quote:

AGEIA, pionier op het gebied van de materile versnelling van de natuurkundige berekeningen, bereidt zich erop voor om een kaart PhysX aan het PCI-Express formaat te lanceren, Reg Hardware gelovende. De maatschappij heeft zelfs geopenbaard dat de kaart klaar is sinds maart, dezelfde datum als de PCI versie, maar niet uitgelegd werd waarom dit model niet vroeger werd gepresenteerd

De Pci-Express interface zal geen enkele winst van prestaties ten opzichte van de bus PCI leveren, AGEIA toegelaten, want de processor PhysX is verre van de drukke reep PCI (133 Mo/s) te verzadigen.Het is waarschijnlijk omwille van deze reden dat de maatschappij zich niet heeft gedrongen om een Pci-Express kaart te lanceren. De nieuwe kaarten PhysX zullen op 12 oktober a.s aangekondigd worden en zij zouden beschikbaar moeten zijn kort nadien in de handel.

PassieWassie wijzigde deze reactie 09-10-2006 13:08 (57%)

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


  • mvds
  • Registratie: november 2000
  • Laatst online: 15:21

mvds

Oud, is het nieuwe hip!

quote:
CJ schreef op maandag 09 oktober 2006 @ 12:18:
[...]


Ik ben bang dat dit de laatste stuiptrekking is van Ageia.

Ik denk het wel mee gaat vallen. Er zijn veel mensne die het zeggen want, zeggen ze dan, de GPU kan dit soort dingen ook. En dat klopt. Maar waarom koop je een grafische kaart van 400 euro? Niet om hem lastig te vallen (en dus te vertragen) met physicsberekeningen. Leuk dat ze het kunnen, maar ik laat mijn kaart liever een extra 10 fps eruit persen dan dat ik hem de physics laat berekenen.

De gamercommunity geeft kapitalen uit aan hardware om zo een voordeel te kunnen behalen, en waarom zouden ze dan niet een 200 euro kostende kaart aanschaffen naast hun 800 euro kostende grafische setup?

Ik geloof niet dat een GPU er niet stevig door zal worden vertraagd als ze dit erbij moeten gaan doen en toch hetzelfde niveau halen als de Ageia kaart. Oke, ze moeten wat doen aan de ondersteuning en mogelijkheden van de drivers, maar als ze de mogelijkheden volledig gaan benutten dan denk ik dat ik zeker voor een physics kaart zal gaan, en niet voor een berekning door de GPU.

Misschien dat een GPU oplossing wat is voor de budgetgamer, maar voor de grote groep hardcoregamers zeker niet.

mvds wijzigde deze reactie 09-10-2006 13:03 (4%)

- Leeg -


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

Ik ben he tmet CJ eens.

Ik vraag me wel af wat sneller is als je Physics gaat gebruiken op 1 kaart. Ik weet niet of dat straks kan. Maar aangezien de G80 een dedicated unit heeft zou dat dus best kunnen. En ATi moet dan shaders inzetten om Physics te berekenen terwijl de G80 er niets van merkt alleen de losse unit gaat het werk doen.

Kan nog interessant worden...

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
quote:
thabazzman schreef op maandag 09 oktober 2006 @ 12:47:
[...]


Ik gaf al aan dat deze 1812 Oktober komt ;)

Bron: Link

Vertaling(babelfish):

[...]


De volgende stap die ze moeten doen is dan nog de prijs van de PhysX kaart omlaag gooien.

quote:
obsidian schreef op maandag 09 oktober 2006 @ 13:02:
[...]

Ik denk het wel mee gaat vallen. Er zijn veel mensne die het zeggen want, zeggen ze dan, de GPU kan dit soort dingen ook. En dat klopt. Maar waarom koop je een grafische kaart van 400 euro? Niet om hem lastig te vallen (en dus te vertragen) met physicsberekeningen. Leuk dat ze het kunnen, maar ik laat mijn kaart liever een extra 10 fps eruit persen dan dat ik hem de physics laat berekenen.

De gamercommunity geeft kapitalen uit aan hardware om zo een voordeel te kunnen behalen, en waarom zouden ze dan niet een 200 euro kostende kaart aanschaffen naast hun 800 euro kostende grafische setup?

Ik geloof niet dat een GPU er niet stevig door zal worden vertraagd als ze dit erbij moeten gaan doen en toch hetzelfde niveau halen als de Ageia kaart. Oke, ze moeten wat doen aan de ondersteuning en mogelijkheden van de drivers, maar als ze de mogelijkheden volledig gaan benutten dan denk ik dat ik zeker voor een physics kaart zal gaan, en niet voor een berekning door de GPU.

Misschien dat een GPU oplossing wat is voor de budgetgamer, maar voor de grote groep hardcoregamers zeker niet.


Ik denk dat we eerst maar eens moeten afwachten hoe de performance is van een GPU die physics doet ten opzichte van een dedicated PPU. Als de eerste tekenen aan de wand kenmerkend zijn voor de goede performance van de GPU als physics accelerator, dan heb je straks aan een enkele X1600Pro (nu inmiddels X1300XT) genoeg om superieure physics performance te krijgen. Laat die kaarten nu voor minder dan 89 te krijgen zijn, dan is het een no-brainer over welke kaart je neemt.

Hardcore gamer of niet... als een X1300XT voor 89 net zo goed presteert als een PhysX kaart van 199-249 dan lijkt me duidelijk welke je neemt. Daarnaast accelereert een GPU ook Effects Physics terwijl een PPU het puur en alleen met Gameplay Physics moet doen.

Uit de laatste leaks van AMD/ATi is al gebleken dat CrossFire Physics nog meer gepromoot gaat worden, zo erg zelfs dat straks de CPU en GPU nog beter met elkaar kunnen communiceren om bewerkingen als physics te versnellen. Een R600 als hoofdkaart om je graphics te renderen en een X1600XT als physics kaart, of een R600 CrossFire setup met een derde X1300XT/X1950Pro/etc erbij als physics kaart zullen straks heel normaal zijn. De drivers van ATi zijn klaar. Het is nu even wachten op de eerste stroom aan games die gebruik maken van Havok FX.

Daarnaast is de support voor de physics APIs ook enorm belangrijk. Havok FX lijkt nu enorm in het voordeel te zijn. Bijna alle grote titels van dit moment gebruiken een of andere vorm van Havok physics. En daarnaast heeft een grote developer als Blizzard aangekondigd dat ze Havok FX in alle aankomende titels gaan gebruiken.

Er zijn genoeg mensen die al een X1K kaart in hun computer hebben zitten. Als straks DX10 uit komt zullen veel mensen hun videokaart vernieuwen. Deze hoeven dan hun oude X1600XT niet weg te gooien, maar kunnen het gebruiken als physics accelerator en hoeven dus maar 1 nieuwe kaart te kopen (of in het geval van nVidia koop je met een G80 tegelijk een GPU en PPU) in plaats van n een nieuwe dure videokaart n een dure PPU.

Maar goed, performance blijft het belangrijkste. Eerst maar eens afwachten in hoe een GPU het doet ten opzichte van een PPU alvorens de eindconclusie te trekken.

Maar als ik zelf een inschatting zou moeten maken, dan denk ik dat het er slecht uit ziet voor Ageia. Ze hebben 2 grote videokaartfabrikanten tegenover zich (en nu dus ook een CPU fabrikant in de vorm van AMD) die beide al in enorm veel huishoudens te vinden zijn. Daarnaast boksen ze op tegen Havok die nu in de meerderheid van de games te vinden is als physics API. Vandaar mijn verwachting dat dit de laatste stuiptrekkingen zijn van Ageia, tenzij ze de kaarten 1) heel goedkoop op de markt zetten en 2) er genoeg A-Titels uit komen waarvan duidelijk de meerwaarde blijkt van PhysX.

CJ wijzigde deze reactie 09-10-2006 13:29 (6%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

Ik ben vooral benieuwd wat de uiteindelijke peformance van de platforms wordt. Als ik het zo hoor heb je bij Nvidia alleen een G80 nodig en je kunt Physics doen.

Bij ATi moet je een 2e kaart hebben ? of de eerst kaart zal Physics er bij doen. Maar wat voor een hit zal dit op de FPS hebben ? want die shaders die met Physics bezig zijn kunnen niet ovor FPS gebruikt worden.

En je hebt Ageia met een losse kaart. Eventueel 2 van die kaartjes die je naast een ATi/nVidia kaart kan prikken.

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • uploader26
  • Registratie: maart 2004
  • Laatst online: 28-03-2009
quote:
Astennu schreef op maandag 09 oktober 2006 @ 13:48:
Ik ben vooral benieuwd wat de uiteindelijke peformance van de platforms wordt. Als ik het zo hoor heb je bij Nvidia alleen een G80 nodig en je kunt Physics doen.

nVidia kwam toch ook nog met een aparte PhysX kaart? Of is dat nu met de komst van G80 op de lange baan geschoven?

AMD 64 X2 4200@2.7Ghz | Asus A8N-SLi | 2048MB Corsair TwinX | XFX 8800GTX | 400GB Seagate Barracuda | Samsung 204b 20.1inch | G5+G15


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

quote:
uploader26 schreef op maandag 09 oktober 2006 @ 14:11:
[...]


nVidia kwam toch ook nog met een aparte PhysX kaart? Of is dat nu met de komst van G80 op de lange baan geschoven?
De G80 heeft een Phiysics unit er in zitten. Dus zit al in de gpu gebakken. Ik neem aan dat ze dan niet met een losse kaart gaan komen. Of mischien een low end kaart waar die unit ook in zit zodat je die als physics kan inzetten.

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • CJ
  • Registratie: augustus 2000
  • Niet online
(overleden)
quote:
Astennu schreef op maandag 09 oktober 2006 @ 13:48:
Ik ben vooral benieuwd wat de uiteindelijke peformance van de platforms wordt. Als ik het zo hoor heb je bij Nvidia alleen een G80 nodig en je kunt Physics doen.

Bij ATi moet je een 2e kaart hebben ? of de eerst kaart zal Physics er bij doen. Maar wat voor een hit zal dit op de FPS hebben ? want die shaders die met Physics bezig zijn kunnen niet ovor FPS gebruikt worden.

En je hebt Ageia met een losse kaart. Eventueel 2 van die kaartjes die je naast een ATi/nVidia kaart kan prikken.


Bij ATi hoef je geen tweede kaart te hebben. Een Radeon zou in staat moeten zijn om zowel physics als normale rendering op 1 kaart uit te voeren. Maar of je dit ook daadwerkelijk wil is nog maar de vraag aangezien je wel een performancedrop zal zien, aangezien er dan een hardcap wordt aangebracht op de fps (bv 60fps), zodat de rest van de rendering power gebruikt kan worden om physics te berekenen.

Daarom promoot ATi ook tripple 16x PCIe sloten op moederborden. Dit doen ze met RD600 en ook RD580 gaat straks gebruikt worden om 3 16xPCIe sloten aan te bieden.

quote:
uploader26 schreef op maandag 09 oktober 2006 @ 14:11:
[...]


nVidia kwam toch ook nog met een aparte PhysX kaart? Of is dat nu met de komst van G80 op de lange baan geschoven?


Ga er maar van uit dat dat hele gerucht over een aparte physicskaart van nVidia uit de lucht gegrepen is en verkeerd is begrepen door de mensen van Asus. Waarschijnlijk doelden ze gewoon op de G80 waar dus een apart gedeelte voor physics in zit a la purevideo engine en is dit verandert in "nVidia komt met een eigen physics versneller".




Eerste X1950Pro (RV570) benchmarks online!

Dan iets anders... Dailytech heeft een engineering sample van de X1950Pro te pakken gekregen die op 575Mhz core en 686Mhz mem liep (dus anders dan de 600/700Mhz die waarschijnlijk op de uiteindelijke samples komen van een aantal fabrikanten). Hieruit blijkt dat de X1950Pro ondanks z'n 36 pixelshaderprocessors en lagere kloksnelheid de X1900XT256 redelijk goed kan bijhouden en zelfs beter scoort in bepaalde applicaties als 3DM06.

Stroomverbruik Idle:
X1900XT256 - 151 W
X1950Pro - 144 W

Stroomverbruik Load:
X1900XT256 - 279 W
X1950Pro - 225 W

Stroomverbruik is dus ook met zo'n 24% omlaag gegaan.

bron: http://www.dailytech.com/article.aspx?newsid=4472

Edit: toch lijkt me iets niet te kloppen aan de scores. Dat een X1900XT256 en een X1950Pro zo dicht op elkaar zitten, zou betekenen dat de X1950Pro intern wat betreft efficientie flink omhoog is gegaan, en dat terwijl het niet meer is dan een X1900GT met echt 36 pixelshader processors ipv 48 pixelshaderprocessors waarvan er 12 uitgeschakeld zijn. Als het wel zo is dan is het natuurlijk alleen maar positief.

CJ wijzigde deze reactie 09-10-2006 14:31 (8%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • uploader26
  • Registratie: maart 2004
  • Laatst online: 28-03-2009
Dat begrijp ik maar wat ik me afvraag is of die PhysX unit in de G80 wel krachtig genoeg is, tov van bijv. een Ageia of een willekeurige Ati kaart uit de X1*** serie. Of is het meer ter ondersteuning vn zeg maar, of zoiets als kijk onze G80 kan ook PhysX, maar wil je de real deal moet je toch een aparte kaart aanschaffen van ons.

Edit: Deze vraag is nu eigenlijk overbodig geworden na de reactie van CJ dus hierboven. Ok, dan is het duidelijk.

uploader26 wijzigde deze reactie 09-10-2006 14:32 (16%)

AMD 64 X2 4200@2.7Ghz | Asus A8N-SLi | 2048MB Corsair TwinX | XFX 8800GTX | 400GB Seagate Barracuda | Samsung 204b 20.1inch | G5+G15


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

Over Physics ik denk dat als je met 1 kaart Physics wil doen je heel goed af bent met een G80. Ik weet niet wat voor een prestaties die unit geeft maar in dit geval is het dedicated wel erg handig. Want bij ATi zal je in FPS omlaag gaan als je dat op een kaart wil doen. Als de R600 veel sneller is dan een G80 is dat niet echt een probleem. Maar als ze zonder Physics even snel zijn zie ik daar een groot voordeel voor nVidia.

Als we het over Multi VPU gaan hebben kan ATi weer het voordeel hebben omdat een los kaartje waarschijnlijk sneller is al 2 van die Nvidia units. Maar het voordeel zou je dan pas hebben bij 3 kaarten. Dus Crossfire + Physics en dus 3x nvidia kaarten. Dan heeft Nvidia 3 units. Maar staat een kaart niets te doen. ( Als dit al zo werkt dat ze aan elkaar gekoppeld kunnen worden ).

Dus het kan nog spannend worden...

Over de X1950 Pro:

Stroom verbruik is 54 Watt lager. Dus iets van 80-90 Watt tov 140 van de X1900 XT. Dat is een hele verbetering.

Echter vind ik die resultaten een beetje raar. De X1950 XTX is in SS2 2x zo snel. Dat zou betekenen dat 512 MB ram dus erg nuttig is. Verder zie ik niet hoe een X1950 Pro sneller kan zijn als een X1900 XT 256 MB. De core en mem clock zijn lager en hij mist een hele quad. De core kan dan wel optimised zijn dus mischien wat tweaks voor snelheid. Maar hoe kan hij dan toch zo veel sneller zijn.

En ik ga toch maar eens een aantal 256 vs 512 mb tests zoeken wat nu echt het verschil is in peformance.

Astennu wijzigde deze reactie 09-10-2006 14:58 (6%)

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • wizkristof
  • Registratie: augustus 2005
  • Laatst online: 11-04-2009
quote:
Astennu schreef op maandag 09 oktober 2006 @ 14:38:
Over Physics ik denk dat als je met 1 kaart Physics wil doen je heel goed af bent met een G80. Ik weet niet wat voor een prestaties die unit geeft maar in dit geval is het dedicated wel erg handig. Want bij ATi zal je in FPS omlaag gaan als je dat op een kaart wil doen. Als de R600 veel sneller is dan een G80 is dat niet echt een probleem. Maar als ze zonder Physics even snel zijn zie ik daar een groot voordeel voor nVidia.

Als we het over Multi VPU gaan hebben kan ATi weer het voordeel hebben omdat een los kaartje waarschijnlijk sneller is al 2 van die Nvidia units. Maar het voordeel zou je dan pas hebben bij 3 kaarten. Dus Crossfire + Physics en dus 3x nvidia kaarten. Dan heeft Nvidia 3 units. Maar staat een kaart niets te doen. ( Als dit al zo werkt dat ze aan elkaar gekoppeld kunnen worden ).

Dus het kan nog spannend worden...

Over de X1950 Pro:

Stroom verbruik is 54 Watt lager. Dus iets van 80-90 Watt tov 140 van de X1900 XT. Dat is een hele verbetering.

Echter vind ik die resultaten een beetje raar. De X1950 XTX is in SS2 2x zo snel. Dat zou betekenen dat 512 MB ram dus erg nuttig is. Verder zie ik niet hoe een X1950 Pro sneller kan zijn als een X1900 XT 256 MB. De core en mem clock zijn lager en hij mist een hele quad. De core kan dan wel optimised zijn dus mischien wat tweaks voor snelheid. Maar hoe kan hij dan toch zo veel sneller zijn.

En ik ga toch maar eens een aantal 256 vs 512 mb tests zoeken wat nu echt het verschil is in peformance.
wacht nog effe op final release. ;)

my system : http://specs.tweak.to/13025


  • Astennu
  • Registratie: september 2001
  • Laatst online: 19:33

Astennu

-= R9 290X =-

Edit 256 MB VS 512 MB :

http://img.neoseeker.com/v_thumb.php?articleid=1957&image=5

http://img.neoseeker.com/v_thumb.php?articleid=1957&image=6

http://img.neoseeker.com/v_thumb.php?articleid=1957&image=14

http://img.neoseeker.com/v_thumb.php?articleid=1957&image=22

http://img.neoseeker.com/v_thumb.php?articleid=1957&image=29

Dus de X1950 Pro zou wel eens 70-80 watt verbruik kunnen hebben. Maar de Verschillen tussen 512 en 256 mb zijn duidelijk aanwezig. En de verschillen tussen de X1900 GT en de X1900 XT 256 MB zijn ook best groot .....

Astennu wijzigde deze reactie 09-10-2006 15:00 (7%)

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneAsus

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013