Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 65 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 3.703 views sinds 30-01-2008
http://www.guildwarsarena.net/ati/atitopiclogo2.jpg
 

Direct door naar de lijst met ATi Radeon HD 2000 reviews? Klik HIER

Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de voormalig Canadese fabrikant ATi, dat nu onderdeel is van AMD, kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten. We willen het hier namelijk gezellig houden. ;)

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

CHANGELOG
  • 29 Juni 2007 - Waarschijnlijke releasedate RV670 toegevoegd
  • 28 Juni 2007 - Eerste HD2600XT GDDR3 reviews toegevoegd aan reviewlijst
  • 27 Juni 2007 - Niks :P Behalve dan deze changelog die ik deze week even zal integreren in de rest van de layout

http://www.guildwarsarena.net/ati/atitopic-topicregels.jpg

Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laatste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic en post je probleem dus niet hier!!!!!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Laten we het vooral gezellig houden. :)

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders.
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Wat voor voeding heb ik nodig?", "Kan ik mijn *vul naam kaart in* modden naar een *vul naam andere kaart in*?", "Klopt mijn 3DMark score wel?", "Werkt CrossFire op een SLi mobo?", "Welke drivers kan ik het beste gebruiken?" etc. Je kent het wel... Gebruik de search-functie. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Continu melden dat een kaart niet beschikbaar is of te laat is. Het melden in dit topic HELPT de beschikbaarheid NIET verbeteren. Wacht gewoon, check de pricewatch, bel wat winkels, eet wat uit je neus... maar meldt het hier niet aangezien de discussiewaarde nihil is en niets bij draagt aan dit topic!
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


http://www.guildwarsarena.net/ati/atitopic-topicgeschiedenis.jpg

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de voorgaande topics en hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
De laatste topics over elke kaart zullen altijd het meest uptodate zijn. Zo vind je de meest complete informatie over de R580 in topic 47.



http://www.guildwarsarena.net/ati/atitopic-topicnavigatie.jpg
http://www.guildwarsarena.net/ati/atitopic-huidigegpus.jpg
ATi's huidige line-up is bestaat uit de HD-serie (DX10) en X1K-serie (DX9). De HD-serie bestaat uit:
  • HD2900XT - R600 (PCIe)
  • HD2600Pro, XT & Gemini - RV630 (PCIe & AGP)
  • HD2400Pro & XT - RV610 (PCIe & AGP)
De X1K serie bestaat uit de volgende GPUs. Aangezien de HD serie is gelanceerd zal de X1K serie langzaam uitgefaseerd worden.
  • X1950XT & XTX - R580+ (PCIe & AGP)
  • X1950Pro & GT - RV570 (PCIe & AGP)
  • X1650XT & GT - RV560 (PCIe & AGP)
  • X1650Pro - RV535 (PCIe & AGP)
  • X1550 - RV515/RV516 (PCIe)
  • X1300XT - RV530 (PCIe & AGP)
  • X1300Pro - RV516 (PCIe & AGP)
  • X1300 - RV505 (PCIe & AGP)
  • X1050 - RV370 (PCIe & AGP)
Op de R580+ na is alles gefabriceerd op het 80nm proces. Wil je meer weten over deze GPUs, dan kan je daarvoor terecht in de first posts van Topic 40-50. Vanaf 52 gaat het voornamelijk over R600 en aanverwanten in de first post.
http://www.guildwarsarena.net/ati/atitopic-atidivision.jpg

Voor de fusie met AMD, werkte ATi met drie verschillende GPU teams die afzonderlijk aan aparte projecten werkten. Deze teams waren het "Westcoast Team" in Santa Clara (Silicon Valley - California) op enkele meters afstand van het nVidia hoofdkwartier, een team aan de Oostkust in Marlborough (Massachusets) en een team in Orlando Florida. Deze drie teams zijn ook weer onder te verdelen in een groep voor de high end en een groep voor de mainstream en lowend.

R200 (Radeon 8500) -> East Coast Team
R300 & R350 & R360 (Radeon 9x00) -> West Coast Team
R420 & R480 (Radeon X8x0) -> West Coast Team
R520 & R580 (Radeon X1xx0) -> West Coast Team

Waar waren dan al die jaren het Orlando team en het East Coast Team na R200 mee bezig? Dat varieerde van special projects (Xenos/Hollywood) en het assisteren van de overige teams tot aan andere projecten zoals handhelds, digital TV etc (Orlando). ATI werkte normaal gesproken met een ping-pong systeem, waar eerst het ene team een GPU lanceerde inclusief refreshes, en dat in de tussentijd een ander GPU team werkte aan een volledig nieuwe generatie inclusief refreshes. R400 werd dan ook oorspronkelijk ontwikkeld door het East Coast Team, maar dit project werd op halt gezet. De reden was dat het project van unified shader engines op dat moment (in 2002) technisch te hoog gegrepen was.

Om toch niet met lege handen te staan aan het einde van de levenscyclus van de R300, besloot men om het op de goedkope tour te gooien en simpelweg de R300 te nemen, deze te krimpen en te verdubbelen. Het resultaat was de zeer goedkoop te produceren R420.

Rond deze tijd kreeg ATI ook het Xbox360 contract met Microsoft. Deze waren zeer geinteresseerd in de unified architecture ideeen van ATI en daarmee werd het R400 project nieuw leven ingeblazen, dit maal onder de codenaam C1, die wij later als Xenos / R500 leerden kennen. Het East Coast Team richtte zich dus specifiek op de Xbox360. Dit team slaagde er in om een unified shader architecture in elkaar te flansen die samen zo'n 300M transistoren telde op het 90nm proces en Free 4xAA te voorschijn weet te toveren op je TV scherm. De ontwikkeling van de C1 was natuurlijk een goede proefperiode voor ATI om te testen met een desktop unified architectuur, die inmiddels omgedoopt was naar R600.

Natuurlijk moest er ook een opvolger komen van de R4x0 reeks. En ook hier werd het West Coast Team weer geraadpleegd. Deze zouden verder bouwen op de R3x0 en R4x0 reeks en er volledig Shadermodel 3 support aan toe voegen, een compleet nieuwe memory controller te integreren en enkele nieuwigheden als HDR + AA te introduceren. Dit gebeurde allemaal als basis voor de aankomende R600 GPU.

Nadat de R5x0 reeks ontwikkeld was, ging een gedeelte van West Coast Team zich richten op R700, terwijl een groot gedeelte zich op de verdere ontwikkeling van de R600 stortte samen met het team uit Orlando.

R600 is dan ook de eerste GPU die door alle drie teams gezamenlijk wordt ontwikkeld. Het hart van de ontwikkeling lag in Silicon Valley (West Coast Team).

R800 is de allereerste GPU die door alle drie teams samen vanaf de bodem is opgebouwd. Dit werd gezegd door Dave Orton in 2004, waardoor men misschien zou kunnen opmaken dat R700 een soort van refresh is van R600.

Interessante feitjes om te weten zijn dat ATI zowel Bitboys als XGI overnam voor de fusie met AMD. Dus AMD bezit nu de kennis van zowel ATI, XGI als de Bitboys. En daarnaast hebben ze al een hele tijd wat S3 mensen in dienst (waaronder de mensen die DXTC hebben ontwikkeld die ook 3Dc ontwikkelden) als veel ex-nV personeel.
http://www.guildwarsarena.net/ati/atitopic-r600architectuur.jpg

De Radeon HD2900 serie van AMD is al in ontwikkeling geweest sinds 2001. In de loop der jaren is er veel veranderd aan de architectuur. De volgende punten zijn kenmerkend voor de Radeon HD2900. De midrange en low-end kaarten zijn natuurlijk naar beneden geschaald wat betreft features:

•Superscalar unified shader architecture
•320 stream processing units
•512-bit 8-channel memory interface
•Comprehensive DirectX® 10 support
•Integrated CrossFire™
•High-speed 128-bit HDR (High Dynamic Range) rendering
•Up to 24x Custom Filter Anti-Aliasing
•ATI Avivo™ HD video and display technology
•Built-in HDMI and 5.1 surround audio
•Dynamic geometry acceleration
•Game physics processing capability
•Free “Black Box” game bundle from Valve Corporation

Over het stroomverbruik is het volgende bekend:
Singlecard: Max 225W default clockspeed (Overdrive >225W). Aanbevolen PSU: 500W
Crossfire setup aanbevolen PSU: 750W

Zoals je kan zien in de specs is de R600 dus geen vector machine zoals voorheen gedacht (Vec4 + Scalar), maar een scalar architecture net zoals de G80. Het verschil zit hem echter in de implementatie. Daarnaast biedt de R600 volledige ondersteuning voor HD Audio en is daarmee dus zowel een GPU als SPU.

Stream Processors
De term stream processors voerde AMD in met de FireStream GPUs die gericht waren op General Purpose applicaties. nVidia gebruikte de term daarna ook voor de shaderunits in de G80. Daar houdt echter de vergelijking op.

In de G80 was elke Stream Processor (SP) een scalar, single component unit, die gekoppeld werd aan een special function unit (SFU). Dat betekent dat elke SP in nVidia's G80 in staat is om een enkele instructie per klokslag af te handelen, wat een totaal van 128 instructies per klokslag oplevert.

AMD heeft een andere aanpak gekozen voor de HD 2000 serie. Zij hebben gekozen voor een "Super Scalar Architecture". In plaat van het uitvoeren van een enkele instructie per klokslag, kan elk van de 64 shader units in de R600 er 5 uitvoeren.

http://www.elitebastards.com/hanners/ati/r600/sp.jpg
Opbouw van een shaderunit in de R600: 5 stream processors per unit


Op het plaatje hierboven zie je de opbouw van een shader unit in de R600. Deze bestaat uit 5 streamprocessors, waarvan er eentje een dikke is. Dit is een special function unit (SFU) die ook nog andere taken voor zijn rekening neemt zoals SIN, COS en EXP. Daarnaast beschikt elke shaderunit over een aparte branching unit.

De streamprocessors zijn geplaatst in een SIMD (Single Instruction, Multiple Data) arrays van zestien units. Elke array heeft daardoor dus tachtig Stream Processing units. De R600 heeft vier arrays wat in totaal dus 320 shader units oplevert die geschikt zijn voor het bewerken van pixel, vertex en geometry data.

Vergelijken we het Super Scalar ontwerp met de Scalar Architecture van de G80, dan is het duidelijk waar de voordelen liggen van AMDs architectuur, dankzij de mogelijkheid om met meerdere instructies per klokslag te werken in tegenstelling tot de enkele instructie per klokslag bij de G80. Er is echter één grote maar.... Het is bij de G80 vrij gemakkelijk om alle SPs gevoed te houden me data, terwijl het bij de R600 moeilijker is om de complexere SPs bezig te houden en efficient te laten werken. Dus hoe probeert AMD haar architectuur in te richten voor een maximale efficientie?

AMD introduceerde met de X1K serie de "Ultra Threaded Dispatch Processor". Met de HD2K serie heeft AMD deze UTDP flink opgepimpt en veel dingen overgenomen uit de Xbox360 GPU. Ten eerste beschikt de HD2K serie over dedicated instruction cache, wat het theoretisch mogelijk maakt om shaders met oneindige lengte te verwerken. Daarnaast is er een gelijksoortige cache ingebakken waar de GPU een onbeperkt aantal constanten kan opslaan. Was de X1K in staat om 512 threads tegelijkertijd 'in flight' te houden, met de HD2K serie is dit aantal nog verder omhoog gebracht. Honderden threads kunnen tegelijkertijd 'in flight' gehouden worden die er voor zorgen dat de SIMD arrays nooit uit hun neus hoeven te vreten. Per array zijn er twee "thread arbiters", een soort scheidsrechters, die aangeven welke threads door welke SP verwerkt moeten worden. Als een thread op data wacht, dan kan het 'in flight' blijven (deze wordt als het ware op pauze gezet) en vervangen worden door een andere thread die wel klaar is om bewerkt te worden door de SP. Als de thread die 'in flight' is klaar is om bewerkt te worden, kan de SP het werk hieraan hervatten. Hierdoor blijven de SPs dus gevoed met data.

AMD biedt dus wel meer processing units aan in vergelijking met de G80 van nVidia, maar de SPs van de G80 werken wel op meer dan de dubbele kloksnelheid van de core. Daarnaast is het moeilijker om alle SPs gevoed te houden in de R600 en zal dit voornamelijk aan het driverteam zijn om dit voor elkaar te krijgen. Alleen de tijd en driververbeteringen zullen ons leren hoeveel efficientie AMD uit hun super scalar architectuur kan halen. Maar gezien het feit dat ze veel ervaring hebben met Xenos, lijkt het er op dat AMD hier geen problemen mee zal krijgen.

http://www.guildwarsarena.net/ati/atitopic-iq.jpg

De Radeon HD serie zal ook op het gebied van Image Quality weer een sprong voorwaarts zijn ten opzichte van de Radeon X1K serie. De Anisotropic Filtering algoritmes zijn verbeterd en ook zijn er een aantal nieuwe Anti Aliasing Modi te vinden in de nieuwe reeks. Daarnaast maakt de HD serie ook gebruik van "Bicubic Texture Filtering", dit is een verbeterde variant van Bilinear Texture Filtering en geeft een scherper beeld zonder artefacts. Veel techies hadden de optie van Bi-Cubic Texture Filtering als ongeloofwaardig afgeschreven, maar dit is toch door AMD geimplementeerd en is met name bedoeld voor bepaalde OS Font features. Er is echter 1 maar. Bicubic Filtering functionaliteit wordt niet blootgesteld. DX houdt het op dit moment tegen, maar het zal wel mogelijk zijn dat devs deze functionaliteit via OGL aan spreken.

Anisotropic Filtering
Bracht de X1K serie een speciale High Quality AF mode die je zelf aan moest zetten in de drivers, in de HD serie is de High Quality AF mode de standaard AF mode. Dus vanaf de HD serie kunnen alle Radeons standaard genieten van bijna hoekonafhankelijke AF zonder zich zorgen te maken over een grote performancedrop. De filteringmodes zijn geoptimaliseerd om te kunnen concurreren met de zeer sterke high quality AF modi van de G80.

Anti Aliasing
Oftewel het weg werken van kartelrandjes. Ook dit is sterk verbeterd en wel op 2 gebieden:
  • 8x MSAA
  • Custom Filter AA
Naast de standaard 2x, 4x en 6x MSAA introduceert AMD nu ook de 8x MSAA instelling. De 6x MSAA mode is verdwenen op de HD2K serie. Een groot verschil met de G80 serie van nVidia is dat AMD gebruik maakt van programmeerbare AA samples. Dit zorgt voor een enorme flexibiliteit en kan daardoor voor een veel betere beeldkwaliteit zorgen. Via driverupdates is het mogelijk om nieuwe sample patronen en resolve filters te programmeren in de HD kaarten. Na het downloaden van nieuwe filters kan je deze selecteren via het Catalyst Control Center.

In de toekomst zullen developers straks zelf hun eigen AA filters/patronen kunnen programmeren in hun games. Hierdoor kunnen ze zelf kiezen wat het beste bij hun game past. Op dit moment ondersteunt DX10 dit nog niet, maar dit zal in een toekomstige versie van DX10 worden blootgesteld aan developers (waarschijnlijk in DX10.1). Maar met de HD serie brengt AMD deze toekomstige functionaliteit al naar jou toe zodat je er vandaag al van kunt genieten!

Custom Filter AA is het AA wapen dat AMD in de strijd gooit tegen Coverage Sample AA (CSAA) van de G80 serie van nVidia. CFAA werkt als een post-processing filter op elke gerenderde frame. Hier zal ongetwijfeld direct de vergelijking met Quincunx AA van nVidia worden getrokken dat ook een post-processing filter was. In het geval van Quincunx AA trad er vaak een soort van waas over de lijnen op, waardoor veel mensen dit gekscherend "blur AA" noemden. Ongetwijfeld zullen veel 'critici' hier op gaan letten of ze dit ook bij CFAA gaan zien.

AMD lanceert initieel 6 nieuwe CFAA modes:
  • 4x CFAA (2x MSAA + Narrow Tent)
  • 6x CFAA (2x MSAA + Wide Tent of 4x MSAA + Narrow Tent)
  • 8x CFAA (4x MSAA + Wide Tent)
  • 12x CFAA (8x MSAA + Narrow Tent of 4x MSAA + Edge Detect)
  • 16x CFAA (8x MSAA + Wide Tent)
  • 24x CFAA (8x MSAA + Edge Detect)
CFAA biedt een aantal voordelen boven CSAA:
  • CFAA provides better edge quality per sample
  • CFAA can scale to more than 16 samples per pixel
  • CFAA works better on silhouette edges
  • CFAA works on stencil shadows
  • CFAA is not limited to polygon edges
Als laatste zal AMD binnenkort ook een nieuwe vorm van Adaptive AA introduceren. Dit is echter niet gebonden aan de HD serie, maar zal ook op oudere kaarten (vanaf de 9500 serie) werken. Men noemt het Performance AAA en zal een betere kwaliteit AAA brengen met de snelheid van multisample AA, daar waar Quality AAA een grotere performancehit heeft vanwege het gebruik van supersampling AA.

Natuurlijk zijn ook de AA varianten uit de vorige generaties aanwezig. Dwz dat je gebruik kan blijven maken van HDR + AA, Adaptive AA, Temporal AA en SuperAA. Al deze varianten werken met Gamma Correction zoals we dat al gewend zijn vanaf de R300 serie.

http://www.guildwarsarena.net/ati/atitopic-reviews.jpg

Hieronder staan links naar de meeste HD2900XT reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

3D Center TIP
Anandtech
Beyond3D
Bit Tech Score: 7/10
Bjorn3D
Chile Hardware
Computer Base.De
Cubic
Digit Life - Architecture Overview
Digit Life - Image Quality
Digit Life - Theoretical Benchmarks
Digit Life - Games Benchmarks
Driver Heaven
Elite Bastards
Extreme Tech | Architecture Analysis
Firing Squad
Guru3D
Hardware Info
Hardware Secrets
Hardware Zone Score: 4.5/5
Hexus Award: Good Value
HardOCP
Hot Hardware
Legit Reviews
Neoseeker
OC Workbench
PC Perspective
PC Presence
T-Break
Tech Power Up
The Inquirer
The Tech Lounge
The Tech Report
Tom's Hardware
Trusted Reviews
Tweakers.net
Tweak Town
VR-Zone
X-Bit Labs

Hieronder staan links naar de meeste HD2400 / HD2600 reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

Anandtech
Computerbase - HD2400XT & HD2600XT
Firingsquad - HD2600Pro & XT
Fudzilla
Guru3D
Hexus.net - HD2400XT & HD2600XT
Hot ardware - HD2400XT & HD2600XT
Neoseeker
OC Workbench - HD2600XT GDDR3 - Score: 8.1
PC Perspective
Phoronix
http://www.reghardware.co.uk/2007/06/28/review_powercolor_hd_2600_xt/]Reg Hardware
The Tech Lounge
Technic3D
Techpowerup - HD2400Pro
Techpowrup - HD2400XT
Techpowerup - HD2600XT


http://www.guildwarsarena.net/ati/atitopic-hd2900.jpg

http://www.guildwarsarena.net/ati/hd2900xt.jpg
Retail 9.5" versie van de Radeon HD 2900 XT


Over de R600 chip is al heel wat geschreven (zie ook vorige delen en hierboven). De R600 zal er in eerste instantie alleen komen in XT uitvoeren met 512MB GDDR3. Voor OEMs is er een XT beschikbaar die gebruik maakt van 1GB GDDR4 geheugen. Deze is meteen ook een flink stuk groter uitgevallen. Het ziet er naar uit dat er wel een XTX uitvoering komt, maar wanneer is niet precies bekend.

AMD heeft de X laten vallen ten gunste van de HD-tag. Hier wil men de nadruk leggen op de Avivo HD mogelijkheden van de R6-serie. De GPU loopt op 742Mhz terwijl het geheugen op 825Mhz geklokt is. Fabrikanten kunnen hiervan afwijken. Zo zal HIS de core op 750Mhz laten lopen en het geheugen op 850Mhz klokken. Gebleken is dat de core vrij hoog over te klokken is, dus ook voor de enthousiaste overklokker is er nog genoeg speelruimte om zelf aan de slag te gaan.

Het stroomverbruik lig iets hoger dan die van een GF8800GTX, maar de meeste mensen die voor snel gaan zal dit niet veel uit maken (een Ferrari koop je ook niet omdat-ie zo zuinig is en met 120km over autobahn te rijden). Wat wel voor de koper echter ook interessant is, is dat de cooler zijn werk goed doet en ook nog eens zeer stil is. Volgens de eerste berichten is de kaart zelfs koeler dan de X1950XTX.

De grote verrassing van de R600 is de prijs. De adviesprijs ligt namelijk op $399. In Europa zal de kaart voor onder de €399 beschikbaar zijn. Voor deze prijs krijg je een kaart die over het algemeen met gemak de GF8800GTS640 verslaat die dezelfde adviesprijs heeft en heeft ook nog eens meer features aan boord! En het leuke is dat de HD2900XT voor die prijs ook nog eens zeer dicht bij de GF8800GTX/Ultra komt en er in sommige gevallen zelfs boven uit steekt. Let wel... die twee kaarten hebben een adviesprijs van respectievelijk $549 en $829. Op dit moment schommelen de pre-order prijzen van de HD2900XT tussen de €339 en €380.

Sommige mensen zullen teleurgesteld zijn dat de HD2900XT niet overtuigend de GF8800GTX kan weerstaan en ook dat AMD niet direct een XTX versie uit brengt die dat wel kan. Vergeet daarbij niet het volgende... het gaat hier alleen om DX9 benchmarks en niet om DX10. De eerste tekenen (Crysis, FSX, next gen BF) wijzen er op dat de HD2900XT geen moeite heeft om de GF8800GTX bij te benen (en in te halen) in DX10 applicaties. Vergeet niet dat de R600 gemaakt is voor DX10 (en niet voor DX9) en dat ATI al sinds de Xenos met Microsoft in 1 bed slaapt.... Uiteraard is hier het laatste nog niet over gesproken, want bv drivers kunnen nog veel verschil uitmaken:

http://www.guildwarsarena.net/ati/crysisdemo.jpg


Er komt in eerste instantie geen XTX uit met GDDR4 omdat er wat problemen waren met de 512-bit memory interface en GDDR4. Dit zou opgelost moeten worden in een nieuwe revisie dan wel in de R650. Het probleem was iets waar AMD op het allerlaatste moment achter kwam. Hieruit bleek dat een HD2900XT met 825Mhz GDDR3 geheugen net zo snel was als een HD2900XT met 1.1Ghz GDDR4. Het leek net alsof het niet uit maakte of er GDDR3 of snel GDDR4 op zat en alsof het beide beperkt was tot zo'n 105,6GB/s aan bandbreedte ondanks dat GDDR4 hier flink boven zou moeten gaan zitten. Op de een of andere manier werd dus niet het volle potentieel benut van de 512-bit memory interface in combinatie met GDDR4 en was het dus logisch om retail kaarten in eerste instantie te voorzien van GDDR3 totdat het probleem met GDDR4 is opgelost.

http://www.guildwarsarena.net/ati/atitopic-hd2800.jpg

Over de RV670 is nog niet veel bekend, behalve het kwartaal waarin deze GPU gepland staat, namelijk Kwartaal 3 van 2007. Als we afgaan op de RV570 GPU, dan is de RV670 een GPU die zich in de hogere regionen van de midrange bevindt en dus waarschijnlijk een 256-bit memory interface zal hebben.

Eventueel zou ook een RV660 uit kunnen komen, net zoals er ook een RV560 variant was van de RV570 die identiek was op een aantal uitgeschakelde onderdelen na. Deze series heten dan waarschijnlijk de Radeon HD 28x0 serie en de Radeon HD 27x0 serie.

De laatste inschatten zeggen Oktober voor de release van de RV670, itt eerdere berichten van Q1 08 (misinformation van AMD).

http://www.guildwarsarena.net/ati/atitopic-hd2600.jpg

Launchdate: 1 Juli vervalt de NDA

De midrange GPU RV630 heeft de officiele naam HD2600 mee gekregen. Van de RV630 zijn er een drietal PCB modellen bekend. Al deze modellen zijn vernoemd naar diamanten, namelijk Kohinoor, Orloff en Sefadu. In eerste instantie zullen er twee retailversies van de HD2600 leverbaar zijn, namelijk de HD2600Pro en HD2600XT. Al deze modellen zullen gebruik maken van een 128-bit memory interface, net zoals de RV530 en RV560. De die-size van RV630 13.3x11.5mm oftewel ~153mm² op 65nm en is daarmee 10% kleiner dan zijn rechtstreekse concurrent de G84, terwijl hij wel zo'n 150M meer transistoren bevat.

Beide HD2600 kaarten zullen de beschikking hebben over 120 streamprocessors.

http://www.guildwarsarena.net/ati/hd2600xt.jpg


Ondanks veelgehoorde geruchten dat de snelste RV630, de HD2600XT, een dubbelslotcooler nodig zou hebben en meer dan 120W zou verbruiken, is gebleken dat dit allemaal wel mee valt. Het stroomverbruik van de HD2600XT ligt rond de 65W en heeft daardoor geen extra stroomvoorziening nodig. Daarnaast gebruikt deze kaart ook een singleslotcooler zoals je kan zien in het plaatje.

De HD2600XT doet op - voor de desktop space - ongekend hoge kloksnelheden zijn werk. 800Mhz core om precies te zijn. Van de HD2600XT zijn twee varianten: GDDR3 versie op 800/700 en de GDDR4 versie op 800/1100. Door de hoge snelheid van het GDDR4 zal deze ondanks de 128-bit memory interface toch een bandbreedte hebben die hoger ligt dan die van een 6800GT of X800XT.

http://www.guildwarsarena.net/ati/hd2600pro.jpg


De HD2600Pro zal waarschijnlijk een populair kaartje worden gezien het vriendelijker prijskaartje. Daarnaast doet deze kaart prima dienst als extra physics GPU. De HD2600Pro maakt uitsluitend gebruik van GDDR3 of GDDR2 geheugen.

Het voordeel die de RV630 serie heeft op de G84 serie ligt niet zo zeer op het gebied van performance, maar op het gebied van featureset en IQ. Elke kaart in de RV630 serie biedt bijvoorbeeld HDCP en native HDMI aan, daar waar de G84 en G86 dit niet doen.

RV630 heeft de Unified Video Decoder aan boord. Hiermee wordt hardware H.264 en VC-1 decoding mogelijk zonder al te veel performanceverlies. De G84 ondersteunt geen VC-1! UVD kan rechtstreeks Bitstream Processing/Entropy Decode, Frequency Transform, Pixel Prediction en Deblocking op de GPU uitvoeren waardoor het CPU verbruik enorm omlaag gaat.

Het stroomverbruik is inmiddels ook bekend.
HD 2600 XT -> 65W
HD 2600 PRO -> 55W

http://www.guildwarsarena.net/ati/atitopic-hd2400.jpg

Launchdate: 1 Juli vervalt de NDA

De RV610 komt er in eerste instantie in twee varianten, de HD2400Pro en HD2400XT. Deze maken gebruik van PCB met de codenamen: Falcon en Antelope. Beide varianten worden in Mei 2007 gelanceerd en zijn gemaakt op het 65nm productieproces. Dit productieproces zorgt er voor dat de RV610 bijzonder klein is, namelijk 7.7x10.7mm, oftewel ~82mm² op het 65nm productieproces. Ter vergelijking, nVidia's tegenhanger de G86 is 11.5x10mm, oftewel ~115mm² op 80nm.

Beide HD2400 kaarten zullen de beschikking hebben over 40 streamprocessors.

http://www.guildwarsarena.net/ati/hd2400xt.jpg


Antelope, HD2400XT, is de 'snelle' jongen van de twee. Deze zal gebruik maken van 256MB GDDR3 op een 64-bit memoryinterface. Zo'n dusdanig kleine memorycontroller staat er om bekend dat hierdoor de prestaties flink geknepen worden, maar dat mag in de budgetsector geen probleem zijn. In combinatie met een andere RV610 kan je gebruik maken van hardwarematige CrossFire, wat je ook ziet op het plaatje. De core loopt op 700Mhz.

http://www.guildwarsarena.net/ati/hd2400pro.jpg


Falcon, HD2400Pro, is het laagste model en deze zal gemiddeld zo'n 25W verbruiken. Het geheugen dat op dit PCB geprikt zal worden is 128MB GDDR2 geheugen, dat dmv Hypermemory uit te breiden is naar 512MB of meer. CrossFire wordt alleen via software ondersteund. De eerste geruchten wijzen op een core snelheid van 525Mhz voor de RV610LE die op het Falcon PCB geprikt zal worden.

Net als RV630 heeft ook RV610 alle UVD mogelijkheden aan boord.

Over het stroomverbruik is het volgende te melden:
HD 2400 XT -> 20W
HD 2400 PRO -> 18W

Note: Let op. Er zijn laptops in omloop met de Mobility Radeon X2300 en X2400. Dit zijn geen DX10 kaarten, maar gebaseerd op de X1450 (lichtelijk getweakte X1400). Alleen de kaarten met de prefix HD zullen DX10 ondersteunen. Alle kaarten die beginnen met een X zijn dus DX9 kaarten.

http://www.guildwarsarena.net/ati/atitopic-mobility.jpg

Tegelijkertijd met de desktop GPUs zal AMD ook haar nieuwe notebook lineup presenteren. Deze zal bekend staan onder de naam Mobility Radeon HD 2x00. In eerste instantie zullen er 5 Mobility Radeons gelanceerd worden, waarvan er eentje gebaseerd is op DX9.
  • Mobility Radeon HD 2300
  • Mobility Radeon HD 2400 Pro
  • Mobility Radeon HD 2400 XT
  • Mobility Radeon HD 2600 Pro
  • Mobility Radeon HD 2600 XT
De Mobility Radeon HD 2300 is zoals het er nu naar uit ziet de enige uit het rijtje die gebaseerd is op de RV550 core, wat wil zeggen dat dit een DX9 core is met UVD aan boord. De RV550 is op zijn beurt weer gebaseerd op de RV516 (4PS, 2VS).

De 4 overgebleven kaarten zijn wel volledig DX10 compliant en zijn identiek aan hun desktop broertjes op kloksnelheid verschillen na. De eerste scores zijn bekend. HP heeft een notebook met een 256MB versie van de Mobility Radeon HD 2600 XT. Deze scoort iets meer dan 4000 punten in 3DMark06 en rond de 12000 in 3DMark03.

http://www.guildwarsarena.net/ati/atitopic-toekomstigegpus.jpg

Of de opvolger van R600 de naam R650 of R680 krijgt is nog weinig bekend. Wat wel bekend is, is dat AMD op de roadmap een "next generation R600" heeft staan en dat deze gepland is voor het derde kwartaal van 2007. De refresh van de R600 zal hoogst waarschijnlijk gebruik maken van het 65nm productieproces. Dit kan je min of meer afleiden aan de hand van een opmerking gemaakt door Dave Orton, die meldde dat AMD de eerste zou zijn die een high end GPU op het 65nm productieproces zou releasen in 2007.

De voordelen van het 65nm productieproces zijn dat de core veel kleiner kan worden, en dat tegelijkertijd ook de kloksnelheid opgevoerd kan worden. De eerste geruchten over de R600 zeggen dat deze zeer goed meeschaalt met kloksnelheid. Er staat ons dus nog wat te wachten! En als sommige geruchten kloppen zelfs al in September. Er gaan echter ook geruchten dat er pas in Januari 2008 weer een refresh van de high end komt. Misschien dat we dan de HD 2900 XTX of HD 2950 XTX te zien krijgen op een klok die tegen de 1000Mhz aan ligt.

Wat in ieder geval zeker is, is dat deze kaart 1GB aan GDDR4 krijgt en dat deze kaart pas eind 2007 of begin 2008 concurrentie krijgt van nVidia in de vorm van G90. G90 stond namelijk gepland voor Q3, maar heeft een tapeout gemist waardoor deze verschoven is naar het einde van Q4/begin Q1 '08.

R700 staat bekend onder de codenaam Wekiva. AMD werkt hier al een tijdje aan.

http://www.guildwarsarena.net/ati/atitopic-prijsoverzicht.jpg
http://www.guildwarsarena.net/ati/hd2000-prijsoverzicht.jpg


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan tussentijds prijswijzigingen doorvoeren.

http://www.guildwarsarena.net/ati/atitopic-geruchtenmolen.jpg
http://www.guildwarsarena.net/ati/atilogo.jpg
Gerucht: De refresh van R600 komt in Q3 07
Nee.
Waarheidsfactor: 80%
Update: 24-05-2007
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007


http://www.guildwarsarena.net/ati/sapphirex1900xtx-blizzard.jpg
Sapphire X1900XTX Blizzard Edition - Watergekoelde X1900XTX

http://www.guildwarsarena.net/ati/atitopic-overige.jpg
http://www.guildwarsarena.net/ati/atilogo.jpgATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Het moge duidelijk zijn dat de meeste dingen nog gebaseerd zijn op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd van harte welkom (via mail dan wel in het topic).

[Voor 100% gewijzigd door CJ op 17-07-2007 22:36]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.guildwarsarena.net/ati/atitopiclogo2.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQR600 FAQ
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is 3Dc?

Antwoord: 3Dc is een manier van normal map compressie. Check de firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te
zien wat 3Dc precies is. 3Dc is inmiddels opgenomen in de specificatie van DirectX10 en ook de Xbox360 ondersteunt 3Dc. Games zullen dus steeds meer 3Dc ondersteuning bieden (zelfs zonder dat het expliciet vermeld wordt) en nVidia zal 3Dc ook hardwarematig moeten ondersteunen (alhoewel ze het waarschijnlijk anders gaan noemen, aangezien de naam 3Dc waarschijnlijk door ATi is gepatenteerd).
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is CrossFire?

Antwoord: CrossFire is ATi's Multi VPU oplossing waarmee zoals de naam al zegt, meerdere kaarten aan elkaar gekoppeld kunnen worden om de performance te verbeteren. Wil je precies weten wat CrossFire is, kijk dan even in de First Posts van de vorige topics.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Op de nieuwste AMD kaarten, de ATI Radeon X1650XT en X1950Pro, zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! De R600 (en afgeleiden) zullen dit nieuwe systeem ook gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een 70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games ondersteunen 3Dc?

Antwoord: ATi maakt binnenkort een lijst bekend met 3Dc titels.
Op dit moment zijn dit games waarvan bekend is dat ze 3Dc
ondersteunen.

- Far Cry (patch 1.3)
- Half Life 2 (ATi levels)
- Tribes Vengeance
- Sid Meier's Pirates!
- DarkSector
- Project Freedom

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in Xenos -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200
- Intel 955x
- Intel 975x

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaar geworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Komen er ook AGP versies uit van de X1K serie?

Antwoord: ATi laat het aan AIB (All In Board partners, zoals MSI, Asus, Powercolor etc) over om AGP versies uit te brengen van hun kaarten. ATi heeft aangegeven dat ze AIBs ter zijde willen staan mochten ze hulp nodig hebben bij het ontwikkelen van AGP versies. Op dit moment zijn de volgende kaarten beschikbaar in AGP variant:
  • X1300Pro
  • X1600Pro
  • X1650Pro
  • X1650XT (Powercolor beschikbaar vanaf medio Januari 07)
  • X1950Pro256/512

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes
(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment
bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580 maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik
maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.

ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen
wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van DirectPhysics lijkt dit dan ook te gaan gebeuren. En nu AMD net als nVidia samenwerkt met HavokFX, lijkt Havok vooralsnog de beste kaarten in handen te hebben.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een HD2K kaart bij, dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook
HavokFX onderdeel van is. Zeer waarschijnlijk is dat het recent aangekondigde Starcraft 2 ook gebruik zal maken van GPU physics. Een andere titel die waarschijnlijk gebruik gaan maken van GPU physics is Alan Wake.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft R600 wel of geen UVD aan boord zoals de RV610 en RV630?

Antwoord: In de R600-GPU zijn GEEN transistors besteed aan UVD. UVD wordt dus niet hardwarematig ondersteunt zoals op de RV610 en RV630. De R600 heeft genoeg streamprocessors aan boord om toch dezelfde kwaliteit te leveren als de low-end en midrange GPUs met hardwarematige UVD.

Een aantal AIBs heeft de fout gemaakt door op de dozen van de HD2900XT het woordje "UVD" te plakken, ondanks dat AMD al meerdere keren heeft laten blijken dat de R600 geen UVD aan boord had. Dit kan je ook zien op de volgende slide:

http://www.guildwarsarena.net/ati/atitopic-uvd.jpg

[Voor 99% gewijzigd door CJ op 12-07-2007 00:11]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.guildwarsarena.net/ati/hd2000-prijsoverzicht.jpg
Richtprijzen na de lancering van de HD2K serie


Let er wel op dat de prijzen dagelijks kunnen veranderen en dat deze pricewatch eens in de maand wordt geupdate. De prijzen zijn afgerond in hele euro's. De echte winkelprijzen kunnen dus iets anders zijn.

HD2K-serie in de Pricewatch
http://tweakers.net/price...Field=prijs&orderSort=asc

http://www.hardware.info/images/news/2600xtbox_550.jpg
HD2600XT


• Goedkoopste HD 2400Pro 256MB PCIe: €44
• Goedkoopste HD 2600Pro 256MB PCIe: €72
• Goedkoopste HD 2600XT 512MB GDDR3 PCIe: €119
• Goedkoopste HD 2600XT 256MB GDDR4 PCIe: €127
• Goedkoopste HD 2900XT 512MB PCIe: €337

X1K-serie in de Pricewatch
http://tweakers.net/price...Field=prijs&orderSort=asc

• Goedkoopste X1050 128MB PCIe: €32 >
• Goedkoopste X1300 256MB PCIe: €56,95 <
• Goedkoopste X1300 512MB PCIe: €53,16 >
• Goedkoopste X1300Pro 256MB PCIe: €45 <<
• Goedkoopste X1300XT 256MB PCIe: €44 <<
• Goedkoopste X1550 256MB PCIe: €38 =
• Goedkoopste X1600Pro 256MB AGP AGP: 99,91 <
• Goedkoopste X1600Pro 512MB PCIe: €98,55 >
• Goedkoopste X1600XT 256MB PCIe: €77 <<
• Goedkoopste X1650Pro 256MB PCIe: €67,00 =
• Goedkoopste X1650XT PCIe: €99 <<
• Goedkoopste X1950GT 256MB PCIe: €121 NEW
• Goedkoopste X1950Pro 256MB PCIe: €126 < TIP !!!
• Goedkoopste X1950Pro 256MB AGP AGP: €176 NEW AGP TIP !!!
• Goedkoopste X1950Pro 512MB PCIe: €156 <<
• Goedkoopste X1950Pro 512MB AGP: €183 <<
• Goedkoopste X1900XT 512MB PCIe: €179 <<
• Goedkoopste X1900XT CrossFire: €374,00 >
• Goedkoopste X1900XTX 512MB PCIe: €299 <<
• Goedkoopste X1950XT 256MB PCIe: €178 << TIP
• Goedkoopste X1950XTX PCIe: €240 <<
• Goedkoopste X1950XTX CrossFire PCIe: €337 <<
< lager in prijs tov vorige update (<< meer dan €10 gezakt)
> hoger in prijs tov vorige update (>> meer dan €10 gestegen)
= gelijk gebleven tov vorige update
Last updated: 24 Mei 2007

[Voor 103% gewijzigd door CJ op 17-07-2007 15:11]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • BlackWolf666
  • Registratie: november 2006
  • Laatst online: 16-09 02:00

BlackWolf666

Dawn's Moonlight

Nice Topicstart. Maar uh..

http://www.fudzilla.com/i...ask=view&id=1881&Itemid=1

AMD zegt RV670 in Q4.. 55nm.. We zullen het zien

Specs


  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

Nu dat Dave Orton weg is, Dit is wat AMD /Ati nu nodig heeft, een Paul Otellini :)
http://www.intel.com/pressroom/images/bios/otellini/hmpg_top1.jpg
http://www.intel.com/pressroom/kits/bios/otellini.htm

Zo'n soort man vinden zal niet makkelijk gaan helaas.

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum


  • N0taFAma
  • Registratie: juni 2007
  • Laatst online: 13-08-2010

N0taFAma

[9800GX2]

90nm -> 80nm -> 65nm -> 55nm :o
Waarvan 80 en 65nm amper gebruikt alleen in de R600, R630 en R610.
Bijna 90nm -> 55nm 8)7

[Voor 59% gewijzigd door N0taFAma op 12-07-2007 01:50]

[ Asus Maximus Extreme ][ Intel Q9650 C0 @ 3000 Mhz ][ Evga Geforce 9800GX2 ][ OCZ Platinum 2048MB DDR3-1600 7-7-7-20 ][ Lacie Electron19blue ][ 2x WD RaptorX 150GB + SpinPoint F1 1TB][ Silverstone Olympia 1000W ][ Coolermaster Stacker 832 ]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26

Astennu

-= RX 5700 XT 50th =-

N0taFAma schreef op donderdag 12 juli 2007 @ 01:47:
90nm -> 80nm -> 65nm -> 55nm :o
Waarvan 80 en 65nm amper gebruikt alleen in de R600, R630 en R610.
Bijna 90nm -> 55nm 8)7
R600 is 80nm. RV630 en RV610 zijn 65nm. Heel misschien een R650 of R680 die ook 65nm gebruikt.

Wel logisch om met mid range en low end zo snel mogelijk naar 55nm te gaan. Je kunt het productie process met die chips beter testen en je zorgt er voor dat je meer winst per chip kan maken zodra je overstapt van 65nm naar 55nm. En in Low en Mid range zit het volumme.

Maar ik ben het met je eens ze zijn wel snel overgestapt maar dat komt denk ik door dat de Rx6xx gewoon te veel vertraagt was.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04 23:28

Cheetah

Try to live without WWW ;)

Nog even de referentie aan de FiringSquad 2900XT 1GB review, die staat (nog) niet in de TS:
Jejking schreef op dinsdag 10 juli 2007 @ 23:40:
http://www.firingsquad.co...n_2900_xt_1gb/default.asp

Review HD2900XT 1GB... Conclusie: links laten liggen tenzij gebruik van extreme reso's en AA&AF-usage (gains up to 20%). Beetje jammer imho, drivers anyone?
Drivers? Ze hebben de 8.38.9.1-rc2 gebruikt, en dit is de laatste beta van ATi. Dat zeggen ze ook: In order to extract the most performance as possible from these cards under Windows Vista, we’re using the very latest beta drivers from both AMD and NVIDIA. The performance optimizations integrated into these beta drivers will eventually find their way into final drivers that will be posted online in the coming months (although 162.18 can be found today on nzone.com).
Ga er dus maar niet van uit dat het op korte termijn veel beter gaat worden :/

Is het ook andere mensen opgevallen dat ook deze review in lijn is met de resultaten van [H]?
Verschil is vooral duidelijk zichtbaar bij Oblivion 0xAA (XT ruim in het voordeel) versus Oblivion HDR + 4xAA (GTS ruim in het voordeel).
Enige is dat ze niet overal AA gebruiken en waar ze het gebruiken niet verder gaan dan 4x zoals [H] doet... maar dan nog zie je in de meeste games (met AA) een gelijkspel tot zeer afgetekend performanceverschil in voordeel van de GTS... moet je voorstellen wat een mainstream OC edition - zoals [H] die laatst gebruikte - die zo'n 10-15% harder loopt (en die dus wel goed meeschaalt met z'n overklok) hier zou doen.
aca schreef op dinsdag 10 juli 2007 @ 23:45:
Overclockability is wel goed. Kijk maar op nordic oid. Die gekke Zweden hebben de core boven de 1 GHz weten te krijgen. Maar wat betreft efficientie zou het idd geen energielabel-A krijgen.
Overclockability met stock cooling en stock v-core natuurlijk he ;)
De GTS doet daar gemiddeld ~30% (500 naar 650 core)... en schaalt uitstekend mee met zowel z'n core als mem OC.
N0taFAma schreef op woensdag 11 juli 2007 @ 00:44:
Er is wel een zin in die review van Firing Spuad die helemaal waar is: Of course as any hardcore gamer will tell you, the next generation of games should utilize HDR+AA extensively, so Diamond’s 1GB Viper card would be a better long-term purchase than the stock Radeon HD 2900 XT 512MB if this is important to you.
Een zin die helemaal waar is? What about al die andere zinnen die helemaal waar zijn? ;)
De 1GB versie zit in de prijsklasse van de 8800GTX, maar heeft op niveau (dus met hoge IQ) al zijn handen meer dan vol aan een stock 8800GTS :/

De enige plaatsen waar de 1GB versie een beetje afstand kan nemen van zijn 'broertje' is in de paar situaties waar de textures 512mb overschreiden... wat weer bevestigd dat de bottleneck bij deze kaart lang voor zijn bandbreedtelimiet intreed (1.6 vs 2Ghz mem maakt geen verschil).


@CJ: Wordt het zo langzamerhand geen idee om dat DX10 stuk uit de TS bij te werken? Hier wordt al een aantal topics om gevraagd. Wat er staat is totaal niet representatief voor de werkelijkheid zoals we die nu kennen...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • apd
  • Registratie: september 2000
  • Niet online
Gisteren mijn MSI 2600XT met passieve koeling binnengekregen. :) Mooi ding, lomp groot ook. Dat merkte ik pas toen ik mijn oude passieve X800 verving en bleek dat de 2600 niet eens in het eerste slot past omdat de Zalman cpu-koeler in de weg zit. Gelukkig werkt het ook prima in het andere sli-slot (Asus A8N-SLI Dlx).
Helaas weet ik nu ook al uit eigen ervaring wat een vpu-recover is.
Cheetah schreef op donderdag 12 juli 2007 @ 10:31:
@CJ: Wordt het zo langzamerhand geen idee om dat DX10 stuk uit de TS bij te werken? Hier wordt al een aantal topics om gevraagd. Wat er staat is totaal niet representatief voor de werkelijkheid zoals we die nu kennen...
Nee. Die blijft er voorlopig nog in staan totdat Crysis uit is gekomen. :)

Maar ik wil er wel wat CoJ benchmarks bij zetten. ;)

Overigens interessante blurp op The Inq over DX10, Vista, MS, nV en ATI:

http://uk.theinquirer.net/?article=40913

Samenvatting: DX10 vereiste virtualisation. nVidia kon dit niet voor elkaar krijgen in hun huidige hardware. ATI wel. MS streek z'n hand over het hart en liet de vereiste vallen voor virtualisation. nVidia blij. ATI balen, want die hadden een GPU die hier perfect mee kon omgaan. Gevolg: DX10 games zouden ook op XP moeten kunnen draaien.

[Voor 39% gewijzigd door CJ op 12-07-2007 11:50]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • BlackWolf666
  • Registratie: november 2006
  • Laatst online: 16-09 02:00

BlackWolf666

Dawn's Moonlight

Hm ok.. Misschien is dat de reden dat DX10.1 (of hoe je het ook wilt noemen) ook nog uitkomt. Zodat nVidia nog tijd heeft om het te implementeren. Eigenlijk heeft MS nVidia gewoon gered..

Specs


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

Cheetah schreef op donderdag 12 juli 2007 @ 10:31:
Enige is dat ze niet overal AA gebruiken en waar ze het gebruiken niet verder gaan dan 4x zoals [H] doet... maar dan nog zie je in de meeste games (met AA) een gelijkspel tot zeer afgetekend performanceverschil in voordeel van de GTS... moet je voorstellen wat een mainstream OC edition - zoals [H] die laatst gebruikte - die zo'n 10-15% harder loopt (en die dus wel goed meeschaalt met z'n overklok) hier zou doen.
Mainstream OC edition? Een mooi oxymoron. ;)
De 1GB versie zit in de prijsklasse van de 8800GTX, maar heeft op niveau (dus met hoge IQ) al zijn handen meer dan vol aan een stock 8800GTS :/
Het lijkt me nog te vroeg om deze kaart af te schrijven, met CFAA in t verschiet. Firingsquad merkt dit ook terecht op in de laatste alinea. CFAA is het summum van reconfigurability - een van de keywords tegenwoordig in System maar ook IC design.
@CJ: Wordt het zo langzamerhand geen idee om dat DX10 stuk uit de TS bij te werken? Hier wordt al een aantal topics om gevraagd. Wat er staat is totaal niet representatief voor de werkelijkheid zoals we die nu kennen...
De DX10 'werkelijkheid' die we nu kennen bestaat maar uit een paar games/benchmarks. Dat is toch ook niet echt representatief voor DX10 performance in de toekomst?

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • MrJ
  • Registratie: mei 2001
  • Laatst online: 25-09 21:34

MrJ

Train, eat, sleep. Repeat.

Ik volg dit topic omdat ik benieuwd ben naar wat de Ati nog met de drivers zal gaan doen voor de 2900, maar wil even melden dat een aantal linkjes in de OP naar deeltje 64 wijzen. ;)

Godfather Bodybuilding topic reeks

MrJ schreef op donderdag 12 juli 2007 @ 12:24:
Ik volg dit topic omdat ik benieuwd ben naar wat de Ati nog met de drivers zal gaan doen voor de 2900, maar wil even melden dat een aantal linkjes in de OP naar deeltje 64 wijzen. ;)
Oops. Ja het was laat toen ik het nieuwe topic opende. Moet nog ff wat linkjes aanpassen. Is zo gepiept. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • MrJ
  • Registratie: mei 2001
  • Laatst online: 25-09 21:34

MrJ

Train, eat, sleep. Repeat.

Heb ik trouwens nog een vraagje voor de Ati users hier.

Gebruiken jullie de hele Catalyst suite, of alleen de driver met daar omheen andere 3th party software? :)

Godfather Bodybuilding topic reeks

Ik gebruik op dit moment alleen de Catalyst suite. Voor mij voldoet-ie prima. Maar ik kan me voorstellen dat sommige mensen meer tweakmogelijkheden willen hebben en daarom een third party tweakutility gebruiken.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Gkirmathal
  • Registratie: november 2002
  • Laatst online: 23-09 11:50
MrJ schreef op donderdag 12 juli 2007 @ 12:47:
Heb ik trouwens nog een vraagje voor de Ati users hier.

Gebruiken jullie de hele Catalyst suite, of alleen de driver met daar omheen andere 3th party software? :)
Ik gebruik alleen de 'catalyst' driver + Ati Tray Tools. Of Ati Omega driver als er ooit de nieuwste van uti komt.

AMD Ryzen 3600, MSI B450 Tomahawk MAX, 2x8Gb Cruscial Ballistix Sport LT 3200C16, Sapphire RX 5600 XT, Seasonic EVO-II 750W


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04 23:28

Cheetah

Try to live without WWW ;)

CJ schreef op donderdag 12 juli 2007 @ 11:43:
Nee. Die blijft er voorlopig nog in staan totdat Crysis uit is gekomen. :)
Ondanks alle andere gamebenchmarks tot nu toe totaal anders uitwijzen, blijf je bij een zeer discutabel performanceplaatje dat maanden geleden oorspronkelijk bij een vage turkse site vandaan kwam?
Misschien dat je tenminste de oorspronkelijke bron van dat plaatje er bij kunt vermelden, zodat iedereen de werkelijke realiteitswaarde ervan voor zichzelf kan vaststellen?

Dit is een nieuwsdiscussie topic. Het lijkt me dat de TS dan de huidige situatie hoort te reflecteren, niet een vage hoop ingegeven door een nog vagere Turkse 'benchmark'. Desnoods verwijder je het geheel, maar wat er momenteel staat klopt gewoon niet met de realiteit tot nu toe.
Maar ik wil er wel wat CoJ benchmarks bij zetten. ;)
Geen probleem hoor. Hieronder is staat het meest recente plaatje, en het is ook nog eens van een beproefde en betrouwbare bron: Anandtech ;)

http://images.anandtech.com/graphs/first%20dx10%20games_07050720716/14994.png

Als je toch bezig bent, doe er dan ook meteen wat piccas van de andere DX10 gamebenches bij ;)
Overigens interessante blurp op The Inq over DX10, Vista, MS, nV en ATI

http://uk.theinquirer.net/?article=40913

Samenvatting: DX10 vereiste virtualisation. nVidia kon dit niet voor elkaar krijgen in hun huidige hardware. ATI wel. MS streek z'n hand over het hart en liet de vereiste vallen voor virtualisation. nVidia blij. ATI balen, want die hadden een GPU die hier perfect mee kon omgaan. Gevolg: DX10 games zouden ook op XP moeten kunnen draaien.
Ach, degene die het geschreven heeft was zo gruwelijk duidelijk dolgelukkig een motivatie te hebben om MS neer te sabelen dat we maar moeten zien in hoeverre dit klopt.
Er zijn in de loop der tijd al meerdere artikelen geschreven over waarom DX10 niet eenvoudig te implementeren is op XP, en ik hecht daar meer waarde aan dan de opinie van een MS hater bij the Inq ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04 23:28

Cheetah

Try to live without WWW ;)

aca schreef op donderdag 12 juli 2007 @ 12:13:
Mainstream OC edition? Een mooi oxymoron. ;)
Nee hoor, je hebt namelijk ook extreme OC editions die nog hoger geklokt worden. Een 'mainstream' OC edition doet een overklok tussen de 10 en 15%.
Bovendien bieden de meeste fabrikanten voor ietsje meer geld OC editions van de GTS aan. Diverse hebben zelfs meerdere smaken OC editions in de verkoop. De OC editions zijn dus sowieso mainstream :)
Het lijkt me nog te vroeg om deze kaart af te schrijven, met CFAA in t verschiet. Firingsquad merkt dit ook terecht op in de laatste alinea. CFAA is het summum van reconfigurability - een van de keywords tegenwoordig in System maar ook IC design.
Hoe lang wil je nog daarop wachten, en welke garantie heb je betreffende hoeveel verschil dat uberhaupt gaat maken? Dat CFAA het (performance)plaatje drastisch gaat veranderen - wanneer het ooit eens in de driver verschijnt - is weinig meer dan speculatie.
Bovendien: niet alleen CFAA maar ook de volgende generatie videokaarten ligt 'in het verschiet'.
De DX10 'werkelijkheid' die we nu kennen bestaat maar uit een paar games/benchmarks. Dat is toch ook niet echt representatief voor DX10 performance in de toekomst?
Het zegt in ieder geval veel meer dan een onbevestigde 'benchmark' van een vage turkse bron.
Het heden is het enige waar je over kunt rapporteren. Over de toekomst kun je slechts speculeren. Bevestigde hedendaagse resultaten horen dus leidend te zijn totdat de toekomst anders uitwijst, en niet andersom zoals er nu gebeurt (hedendaagse resultaten negeren en onbevestigde speculaties over de toekomst aanvoeren als 'bewijs').

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • MrJ
  • Registratie: mei 2001
  • Laatst online: 25-09 21:34

MrJ

Train, eat, sleep. Repeat.

CJ schreef op donderdag 12 juli 2007 @ 13:00:
Ik gebruik op dit moment alleen de Catalyst suite. Voor mij voldoet-ie prima. Maar ik kan me voorstellen dat sommige mensen meer tweakmogelijkheden willen hebben en daarom een third party tweakutility gebruiken.
Ik hoorde dat de OC mogelijkheden in de Catalyst redelijk ok waren. Dat zou mooi zijn, maar ik vrees dat die hele suite graag op de achtergrond meedraait en daar hou ik niet zo van. :)

Godfather Bodybuilding topic reeks


  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 26-09 21:10
Cheetah schreef op donderdag 12 juli 2007 @ 13:05:
[...]

Er zijn in de loop der tijd al meerdere artikelen geschreven over waarom DX10 niet eenvoudig te implementeren is op XP, en ik hecht daar meer waarde aan dan de opinie van een MS hater bij the Inq ;)
het schijnt dat de hele kernel van xp opnieuw moet worden ontworpen (omdat dx10 gedeeltelijk in de kernel draait oid)... en dat brengt weer té veel problemen met zich mee met andere programma's... maw: alle programma's die de kernel op een of andere manier benaderen, moeten opnieuw worden geschreven of geupdate worden...

  • mieJas
  • Registratie: april 2005
  • Niet online

mieJas

Red!

Mr. Detonator schreef op donderdag 12 juli 2007 @ 13:37:
het schijnt dat de hele kernel van xp opnieuw moet worden ontworpen (omdat dx10 gedeeltelijk in de kernel draait oid)
DX10 zit niet in de kernel, maar het model van de drivers voor DX10 wel. En dat model is compleet anders.

[Voor 13% gewijzigd door mieJas op 12-07-2007 14:04]

The biggest thrill is planning and failing. The mind fills with ideas on how to improve.

Cheetah schreef op donderdag 12 juli 2007 @ 13:05:
[...]
Ondanks alle andere gamebenchmarks tot nu toe totaal anders uitwijzen, blijf je bij een zeer discutabel performanceplaatje dat maanden geleden oorspronkelijk bij een vage turkse site vandaan kwam?
Misschien dat je tenminste de oorspronkelijke bron van dat plaatje er bij kunt vermelden, zodat iedereen de werkelijke realiteitswaarde ervan voor zichzelf kan vaststellen?
Ik weet de originele bron van dat plaatje wel. Het begint met een A en eindigt op een D. Dus totzover de werkelijke realiteitswaarde. Het is af en toe best leuk om je gespeculeer te zien over bronnen enzo. Maar het is handiger als je er echt wat mensen kent. ;)

[Voor 3% gewijzigd door CJ op 12-07-2007 14:14]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • speeder1988
  • Registratie: maart 2007
  • Laatst online: 26-09 15:40
Weet iemand hoe het nu eigenlijk zit met de 2950xtx ? omdat het enige wat ik tot nu zover weet dat het in september uit zou komen?

  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

Cheetah schreef op donderdag 12 juli 2007 @ 13:18:
Hoe lang wil je nog daarop wachten, en welke garantie heb je betreffende hoeveel verschil dat uberhaupt gaat maken? Dat CFAA het (performance)plaatje drastisch gaat veranderen - wanneer het ooit eens in de driver verschijnt - is weinig meer dan speculatie.
Bovendien: niet alleen CFAA maar ook de volgende generatie videokaarten ligt 'in het verschiet'.
Met CFAA kun je de beste AA garanderen. Dat is het hele idee achter het 'custom' zijn. De performance hangt natuurlijk af van hoe complex het filter is. Ben dus zelf ook erg benieuwd hiernaar. En ja, het liefst wil ik hier niet te lang op wachten. Persoonlijk koop ik wel weer een nieuwe ATi dan. Dat klopt. Maar voor diegene die niet hun graka elke generatie vervangen zou de komst van CFAA wel aardig zijn.
Het zegt in ieder geval veel meer dan een onbevestigde 'benchmark' van een vage turkse bron.
Het heden is het enige waar je over kunt rapporteren. Over de toekomst kun je slechts speculeren. Bevestigde hedendaagse resultaten horen dus leidend te zijn totdat de toekomst anders uitwijst, en niet andersom zoals er nu gebeurt (hedendaagse resultaten negeren en onbevestigde speculaties over de toekomst aanvoeren als 'bewijs').
Ik lees eigenlijk nooit echt die startpost, aangezien ik hier vaak langs kom. Ik wist niet dat dat figuurtje CJ's startpost had gehaald. Het plaatje heeft idd een groot Fud-gehalte en het zou me niets verbazen als t gewoon nep is. Ik vind t plaatje eigenlijk niet kunnen, CJ :o

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • Cyberblizzard
  • Registratie: februari 2003
  • Niet online
CJ schreef op donderdag 12 juli 2007 @ 14:14:
[...]


Ik weet de originele bron van dat plaatje wel. Het begint met een A en eindigt op een D. Dus totzover de werkelijke realiteitswaarde. Het is af en toe best leuk om je gespeculeer te zien over bronnen enzo. Maar het is handiger als je er echt wat mensen kent. ;)
Anand bedoel je? Mag ik eens een linkje? :)
Cyberblizzard schreef op donderdag 12 juli 2007 @ 14:52:
[...]
Anand bedoel je? Mag ik eens een linkje? :)
Nee. Niet anand. Het heeft 3 letters.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Fly-guy
  • Registratie: juni 2000
  • Niet online
CJ schreef op donderdag 12 juli 2007 @ 14:58:
[...]


Nee. Niet anand. Het heeft 3 letters.
oe, oe, oe net galgje..

A . D
___
| |
O |
/|\ |
_\ /|\__
ik gok... uh... uh.. de M?

  • movo.
  • Registratie: april 2007
  • Laatst online: 25-04 09:59
of gewoon ATi? :9

  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Cheetah schreef op donderdag 12 juli 2007 @ 13:05:
[...]
Ondanks alle andere gamebenchmarks tot nu toe totaal anders uitwijzen, blijf je bij een zeer discutabel performanceplaatje dat maanden geleden oorspronkelijk bij een vage turkse site vandaan kwam?
Misschien dat je tenminste de oorspronkelijke bron van dat plaatje er bij kunt vermelden, zodat iedereen de werkelijke realiteitswaarde ervan voor zichzelf kan vaststellen?

Dit is een nieuwsdiscussie topic. Het lijkt me dat de TS dan de huidige situatie hoort te reflecteren, niet een vage hoop ingegeven door een nog vagere Turkse 'benchmark'. Desnoods verwijder je het geheel, maar wat er momenteel staat klopt gewoon niet met de realiteit tot nu toe.
Oh? Dat is grappig zeg... ik heb net een paar DX10-reviews zitten lezen, en daar kwam bij een aantal uit dat de HD2900XT vlak onder de 8800GTX zat, en ook een paar waarbij de HD2900XT ganz de boot miste en onder een 8800GTS320 uitkwam. Helaas ook daar weer oude drivers gebruikt (maar wat wil je, als het al een maand oud is).

Waar baseer jij dan in vredesnaam je eigen conclusie op dat die plaat in de OP ongeldig is? :/ Zoveel reviews zijn er niet en ze spreken elkaar zo ongeveer allemaal tegen. Als je nieuws hebt mag je het melden, maar meld het dan even netjes en niet zulke niet bewezen standpunten die als feiten moeten overkomen Cheetah :')
Ach, degene die het geschreven heeft was zo gruwelijk duidelijk dolgelukkig een motivatie te hebben om MS neer te sabelen dat we maar moeten zien in hoeverre dit klopt.
Er zijn in de loop der tijd al meerdere artikelen geschreven over waarom DX10 niet eenvoudig te implementeren is op XP, en ik hecht daar meer waarde aan dan de opinie van een MS hater bij the Inq ;)
Wat weet jij van Charlie Demerjian wat wij niet weten? Toevallig bij hem in de box gezeten toen jullie nog klein waren? Dit heb je al eerder gedaan, val de bron maar aan als je voor de rest niets weet. Laatste tijd ging het een stuk beter, erg vervelend vind ik dit :O

Nogmaals, als jij me kan overtuigen dat het echt waar is wat hij zegt, neem ik m'n woorden terug. Deal.
Cheetah schreef op donderdag 12 juli 2007 @ 13:18:
Nee hoor, je hebt namelijk ook extreme OC editions die nog hoger geklokt worden. Een 'mainstream' OC edition doet een overklok tussen de 10 en 15%.
Bovendien bieden de meeste fabrikanten voor ietsje meer geld OC editions van de GTS aan. Diverse hebben zelfs meerdere smaken OC editions in de verkoop. De OC editions zijn dus sowieso mainstream :)
Dat is ook een domme zet van AMD, de pit zit wel in de kaartjes nu, maar de OC-editions zijn er amper. Gat in de markt, voor de pretending-tweaker :)
Hoe lang wil je nog daarop wachten, en welke garantie heb je betreffende hoeveel verschil dat uberhaupt gaat maken? Dat CFAA het (performance)plaatje drastisch gaat veranderen - wanneer het ooit eens in de driver verschijnt - is weinig meer dan speculatie.
Bovendien: niet alleen CFAA maar ook de volgende generatie videokaarten ligt 'in het verschiet'.
Geef ze ook eens een kans zeg... Hoe lang duurde het voordat nVidia's problemen fogproblemen in HL2 waren opgelost? Hoe lang duurde het voordat de GF7 van zijn kuren afwas zonder noemenswaardige performancedrop? Je zeikt het al vantevoren af terwijl je er nog niets zeker over weet, en doet het af als speculatie. Denk je dat AMD expres een term zal ontwikkelen om even te pochen? Kost ze alleen maar naam. Denk daar eens over na...

@Cyberblizzard: wie zal AMD nog serieus nemen als blijkt dat zij er zelf achter zit, je eigen producten de markt inprijzen kan iedereen ;)

Edit: ik heb m'n beslissing genomen, ik ga een 2e-hands X1950XT met voltagecontrol halen, geen 8800GTS voor mij, het ligt én buiten mijn budget én je kan de eerste DX10-titels er toch niet goed op spelen. DX10 is te zwaar voor R600 en GF8800, hoe je het wendt of keert. M'n X800XL is op sterven na dood, RFactor at 1280x1024x6AA 16AF max detail redt ie al amper meer :X

[Voor 28% gewijzigd door Jejking op 12-07-2007 15:48]


  • Cyberblizzard
  • Registratie: februari 2003
  • Niet online
Waarom zo geheimzinnig doen? Geef gewoon een linkje. En waarom maken ze die benchmark niet openlijk bekend? Elke dag dat ze ermee wachten stappen er honderden over naar hun concurrent.

  • Phantom88
  • Registratie: januari 2002
  • Laatst online: 12-12-2008
Ik weet niet of dit het goede topic is maar hoop dat jullie me kunnen helpen, ik heb het volgende probleem:

Ik heb vandaag bericht van de winkel gehad dat mijn Asus moederbord gewoon in orde is. Ik heb namelijk het probleem dat wanneer ik alles heb aangesloten en het systeem aanzet, er vlak achter de voedingsconnector op de X1950XTX een rood ledje gaat branden. Kan nergens vinden waar dit ledje voor dient maar ik gok dat de kaart niet genoeg stroom krijgt. Ik heb een Asus A8N32-SLI Deluxe bord waar ook nog een extra molex op het bord zelf aangesloten kan worden dus dat ga ik zodra ik het bord terug heb nog proberen.

Maar naar mijn weten is het voldoende om de PCI-Express stekker op de videokaart aan te sluiten maar ondanks dat gaat het rode ledje op de videokaart nog steeds branden.

Kan iemand me vertellen wat er aan de hand is als dit rode ledje brandt?

Ik kan namelijk nergens vinden wat de betekenis is als het rode ledje brandt maar ik gok dat de kaart dan niet genoeg stroom krijgt maar dit weet ik niet zeker van vandaar deze vraag.

Belangrijk detail is wel dat de originele koeler niet meer op de kaart zit, ik heb er een EK full cover waterblock op gemonteerd.

  • movo.
  • Registratie: april 2007
  • Laatst online: 25-04 09:59
Jejking schreef op donderdag 12 juli 2007 @ 15:28:

Edit: ik heb m'n beslissing genomen, ik ga een 2e-hands X1950XT met voltagecontrol halen, geen 8800GTS voor mij, het ligt én buiten mijn budget én je kan de eerste DX10-titels er toch niet goed op spelen. DX10 is te zwaar voor R600 en GF8800, hoe je het wendt of keert. M'n X800XL is op sterven na dood, RFactor at 1280x1024x6AA 16AF max detail redt ie al amper meer :X
Mag ik vragen wat je met dat voltagecontrol bedoel? :>

  • Viss
  • Registratie: september 2004
  • Laatst online: 10:28
@ phantom;

Heb dezelfde kaart en dat ledje gaat hier ook altijd even aan. Heeft volgens mij niets te maken met voeding (Zeus ST75ZF).

  • Phantom88
  • Registratie: januari 2002
  • Laatst online: 12-12-2008
Het probleem is juist dat ik geen beeld krijg en het rode ledje blijft branden.

Krijgt de kaart dan te weinig stroom als dit rode ledje gaat branden?

  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Ted56 schreef op donderdag 12 juli 2007 @ 16:20:
Mag ik vragen wat je met dat voltagecontrol bedoel? :>
Aangezien ik een energiezuinigheidsjunkie ben ga ik er zo één halen en dan undervolten, zo weinig mogelijk voltage erdoorheen (en zéker in 2D-modus) zodat je goede 3D-performance hebt maar dan met een stuk minder verbruik (kan je regelen met ATiTool, één van de laatste versies :) ).

Zie ook [OC] ATI Radeon X1K Series - Deel 2, pagina 9 :)

Vanwaar die :> dan?

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04 23:28

Cheetah

Try to live without WWW ;)

Jejking schreef op donderdag 12 juli 2007 @ 15:28:
Oh? Dat is grappig zeg... ik heb net een paar DX10-reviews zitten lezen, en daar kwam bij een aantal uit dat de HD2900XT vlak onder de 8800GTX zat, en ook een paar waarbij de HD2900XT ganz de boot miste en onder een 8800GTS320 uitkwam. Helaas ook daar weer oude drivers gebruikt (maar wat wil je, als het al een maand oud is).

Waar baseer jij dan in vredesnaam je eigen conclusie op dat die plaat in de OP ongeldig is? :/ Zoveel reviews zijn er niet en ze spreken elkaar zo ongeveer allemaal tegen. Als je nieuws hebt mag je het melden, maar meld het dan even netjes en niet zulke niet bewezen standpunten die als feiten moeten overkomen Cheetah :')
Even een realiteitscheck:
Er zijn momenteel 3 DX10 gamebenchmarks: Call of Juarez, Company of Heroes en Lost Planet.
In de laatste 2 (CoH en LP) heeft nV niet eens competitie van de 2900. Ook in recentere reviews niet (kijk maar eens naar de FS review). In CoJ heeft de 2900 korte tijd iets voor gelegen. De zeer aannemelijke motivatie hiervoor is dat AMD de rechten van die benchmark (en daarmee feitelijk de benchmark zelf) heeft opgekocht, vervolgens samen met Techland heeft bekokstoofd dat hardware AA eruit moest verdwijnen, en tevens de build met nV optimalisaties geblokkeerd moest worden.
In de recentste test van Anandtech (een week geleden) wint de 8800GTX, ondanks die in die bench - i.m.o. onterecht - net als de 2900 geforceerd software AA moet doen, echter ook die benchmark.

Waar heb je het dus over, c.q. wat is je punt?
Wat weet jij van Charlie Demerjian wat wij niet weten? Toevallig bij hem in de box gezeten toen jullie nog klein waren? Dit heb je al eerder gedaan, val de bron maar aan als je voor de rest niets weet. Laatste tijd ging het een stuk beter, erg vervelend vind ik dit :O

Nogmaals, als jij me kan overtuigen dat het echt waar is wat hij zegt, neem ik m'n woorden terug. Deal.
Als je dat Inq artikel even opslaat kun je niet anders dan constateren dat de Charlie zwaar Anti-microsoft is. De hele toon van dat artikel ademt niet anders.
In plaats van neutrale berichtgeving moeten we o.m. lezen dat Microsoft ATi genaaid heeft, dat Microsoft overigens al zijn partners naait, en als klap op de vuurpijl voelt Charlie zich genoodzaakt ons er - volkomen offtopic - van op de hoogte te stellen dat hij recent van Win XP is 'geupgrade' naar Ubuntu en sindsdien nooit gelukkiger is geweest gezien hij nu gevrijwaard is van alle windows-ellende.
Uiteraard naait MS volgens hem ook al zijn klanten omdat het - terwijl het een nieuw OS op de markt heeft - geen effort steekt in ontwikkeling van een grote update inclusief kernelaanpassingen voor een 6 jaar oud OS. Want MS moet om zijn klanten te niet te naaien tot in den eeuwigheid XP blijven ondersteunen.

Bovendien komt meneer met geen enkele technische onderbouwing waarom zijn anti-ms betoog - dat haaks staat op een aantal technisch onderbouwde betogen waaronder van Tweakers zelf - correct is.

En dan moet ik aannemen dat daar een objectief en gebalanceerd verhaal vandaan komt? :Z
Dat is ook een domme zet van AMD, de pit zit wel in de kaartjes nu, maar de OC-editions zijn er amper. Gat in de markt, voor de pretending-tweaker :)
Geen domme zet. De 2900 wordt nu al te heet, maakt nu al teveel lawaai, en verbruikt nu al teveel stroom en levert (vermoedelijk daardoor) nu al regelmatig VPU-recoveries op. Een OC-edition zou dat alleen maar erger maken, nog afgezien van toename in failure rates.
Daarnaast schaalt de 2900 niet supergoed mee met core OC's en vrijwel helemaal niet met mem OC's. Een OC edition lijkt me dus niet heel erg zinvol, zeker niet bekeken tegen de drawbacks.
Geef ze ook eens een kans zeg... Hoe lang duurde het voordat nVidia's problemen fogproblemen in HL2 waren opgelost?
Dat waren problemen met incorrecte fog codering binnen HL2 zelf, en de 2900 heeft hier ook last van gehad in het begin.
Hoe lang duurde het voordat de GF7 van zijn kuren afwas zonder noemenswaardige performancedrop?
:?
Je zeikt het al vantevoren af terwijl je er nog niets zeker over weet, en doet het af als speculatie.
Ik zeik helemaal niets af. Ik zeg alleen dat we er nog niets zeker over weten, zowel qua IQ als qua performance niet, en alles wat daarover beweerd wordt voor mij niets anders dan speculatie is totdat het tastbaar wordt gemaakt.
Denk je dat AMD expres een term zal ontwikkelen om even te pochen? Kost ze alleen maar naam. Denk daar eens over na...
Termen bedenken? Marketing doet haast niet anders. Daar worden ze voor betaald.
@Cyberblizzard: wie zal AMD nog serieus nemen als blijkt dat zij er zelf achter zit, je eigen producten de markt inprijzen kan iedereen ;)
Ik heb nog geen enkele solide bron voor dat Crysis plaatje dat al maanden in de TS prijkt kunnen waarnemen. Het zou me niets verbazen als CJ dat plaatje inderdaad van - of waarschijnlijk via - AMD heeft. Daar heeft hij immers inderdaad contacten
Volgens Techpowerup is de oorspronkelijke bron van dat plaatje echter eerdergenoemde vage Turkse site, en het stamt van ongeveer een maand voor de release van de 2900XT. Stinkt ernstig hard naar FUD i.m.o... ook al komt het (vermoedelijk/hopelijk) oorspronkelijk niet van AMD vandaan, het komt hun marketing department uiteraard wel goed uit.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • movo.
  • Registratie: april 2007
  • Laatst online: 25-04 09:59
Cheetah schrijf jij ook boeken over benchmarks die niet goed zijn, die teksten die je hier schrijft zijn niet normaal lang...

  • Dennis
  • Registratie: februari 2001
  • Laatst online: 26-09 20:58
Zijn er al mensen die de 2600XT in huis hebben? Met DDR4 geheugen welteverstaan...

  • markjuh
  • Registratie: juli 2000
  • Laatst online: 09-08 14:16
Ted56 schreef op donderdag 12 juli 2007 @ 16:56:
Cheetah schrijf jij ook boeken over benchmarks die niet goed zijn, die teksten die je hier schrijft zijn niet normaal lang...
Ach, volgens mij heeft hij gewoon enorm veel vrije tijd. :P
Verder hoop ik dat het nu eens ophoudt met wie wel of niet gelijk heeft, welke benchmark wel of niet klopt en wie de beste drivers heeft. Niemand hier weet precies hoe het in elkaar zit en als jullie denken het beter te weten solliciteer dan lekker bij Ati/AMD/Anandtech/Tweakers/whatever. Er zijn er een aantal hier die doen alsof ze de wijsheid in pacht hebben en een aantal daarvan posten ook nog eens op een nogal vervelende toon.
Cyberblizzard schreef op donderdag 12 juli 2007 @ 15:30:
Waarom zo geheimzinnig doen? Geef gewoon een linkje.
Geheimzinnig omdat ik mijn bronnen bescherm? Geen linkje omdat ik niet naar afzonderlijke mailtjes in mijn mailbox kan linken? ;)

Ik heb het al zo vaak gezegd. Ik krijg met enige regelmaat dingen toegeschoven van mensen die dat in vertrouwen doen. Soms lek ik iets uit en soms is iemand anders me voor. Als ik wat uit lek heeft vaak niet iedereen het door. Soms door een cryptische omschrijving, soms omdat iedereen het te druk heeft met flamen en mijn posts gewoon verdwijnen onder alle rotzooi over hoe men moet benchmarken of hoe slecht een CoJ benchmark is totdat blijkt dat nVidia ineens wel sneller is. Zelfs in de first post staan hints die niet iedereen snapt of doorheeft dat het een hint is.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • k995
  • Registratie: november 2002
  • Laatst online: 17:38
CJ schreef op donderdag 12 juli 2007 @ 14:14:
[...]


Ik weet de originele bron van dat plaatje wel. Het begint met een A en eindigt op een D. Dus totzover de werkelijke realiteitswaarde. Het is af en toe best leuk om je gespeculeer te zien over bronnen enzo. Maar het is handiger als je er echt wat mensen kent. ;)
Blijft dat het 0,0 Nieuwswaarde heeft en dat is raar ziende dat dit het ENIGE performance grafiek is in heel de OT die al maandnen erin staat met de tekst dat ATI het beter zal doen in directx10. Heel misleidend dus .
k995 schreef op donderdag 12 juli 2007 @ 17:23:
[...]

Blijft dat het 0,0 Nieuwswaarde heeft en dat is raar ziende dat dit het ENIGE performance grafiek is in heel de OT die al maandnen erin staat met de tekst dat ATI het beter zal doen in directx10. Heel misleidend dus .
Dat jij er 0,0 nieuwswaarde aan hecht is jou goed recht.

Het is wel de enige grafiek die een inschatting geeft van de performance in de allereerste DX10 game die vanaf de grond voor DX10 is gebouwd. De rest zijn opgewaardeerde DX9 games. En misleidend is het niet. Er staat zelfs duidelijk vanaf het begin al onder vermeldt: "Uiteraard is hier het laatste nog niet over gesproken, want bv drivers kunnen nog veel verschil uitmaken".

Dat zie je toch ook bij CoJ? Eerst wordt er moord en brand geroepen door sommige mensen dat de CoJ DX10 benchmark niet eerlijk is. Maar als nVidia dan ineens beter scoort in de CoJ DX10 benchmark door de laatste drivers, dan hoor je ze er niet meer over en wordt het zelfs naar voren gehaald als bewijs dat de GF8800GTX sneller is dan een HD2900XT in DX10. :+

Er staat nergens dat het de definitieve performance is. Dat kan je zowiezo niet inschatten zo ver weg voor de release. Te veel factoren spelen nog mee die de performance kunnen beinvloeden. En dan heb ik het niet eens over een smak geld. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Phantom88
  • Registratie: januari 2002
  • Laatst online: 12-12-2008
Is er iemand bekend met het feit dat een X1950XTX met een waterblok zonder de fan aangesloten op de kaart niet opstart omdat de kaart dan geen fan vind en daarom geen beeld geeft?

Ik had dit probleem namelijk niet met mijn X1900XT maar dat was ook niet het topmodel uit de serie.

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04 23:28

Cheetah

Try to live without WWW ;)

CJ schreef op donderdag 12 juli 2007 @ 17:39:
Het is wel de enige grafiek die een inschatting geeft van de performance in de allereerste DX10 game die vanaf de grond voor DX10 is gebouwd. De rest zijn opgewaardeerde DX9 games. En misleidend is het niet. Er staat zelfs duidelijk vanaf het begin al onder vermeldt: "Uiteraard is hier het laatste nog niet over gesproken, want bv drivers kunnen nog veel verschil uitmaken".
Oh dus een vage disclaimer praat het goed dat je ongedefinieerde benchmarks van ongedefinieerde bronnen - dus vrijwel zeker FUD - als ondersteunend bewijsmateriaal post dat de 2900 het beter gaat doen dan de 8800 in DX10, terwijl alle andere indicaties tot nu toe de andere kant opwijzen?
Er is geen enkele reden om aan te nemen dat dat plaatje ergens anders vandaan komt dan uit de fantasie van een of andere AMD/ATi fan. Niemand die ook maar in de buurt van geloofwaardig komt claimt de origine ervan.
Ach ja, 'de hoop is de vader van de gedachte' zegt men wel eens... 'bij gebrek aan beter' (in mijn straatje) is wellicht ook van toepassing.
Dat zie je toch ook bij CoJ? Eerst wordt er moord en brand geroepen door sommige mensen dat de CoJ DX10 benchmark niet eerlijk is. Maar als nVidia dan ineens beter scoort in de CoJ DX10 benchmark door de laatste drivers, dan hoor je ze er niet meer over en wordt het zelfs naar voren gehaald als bewijs dat de GF8800GTX sneller is dan een HD2900XT in DX10. :+
Dat de GTX , ondanks aankoop van de bench door AMD, toch de 2900 voorbijgaat wil wel wat zeggen ja.
Er staat nergens dat het de definitieve performance is. Dat kan je zowiezo niet inschatten zo ver weg voor de release. Te veel factoren spelen nog mee die de performance kunnen beinvloeden. En dan heb ik het niet eens over een smak geld. ;)
Precies, dus slaat het nergens op om performancebenchmarks van ongedefinieerde/ongeverifieerde bronnen, van maanden geleden (zelfs ruim voor de XT uitkwam), betreffende een game die pas over maanden gereleased wordt als ondersteuning voor je betoog te posten alsof het de hedendaagse realiteit is... tenminste tenzij je bewust een verkeerd beeld wilt scheppen natuurlijk.
En dan met name gezien je zelf met regelmaat op 'onbetrouwbaarheid' van 'roddelsites' als the Inq en Fudzilla wijst... zelfs Dailytech (=Anandtech) werd fel in twijfel getrokken. Maar als het even uitkomt zet je zelf een ronduit onbetrouwbaar plaatje in je TS en houdt dat maandenlang aan als 'bewijs'?

Ik word er trouwens ook erg moe van dat je je regelmatig als dingen die je post ter discussie worden gesteld achter 'bronbescherming' verschuilt. Zo kan ik ook van alles en nog wat gaan beweren dat vogeltjes me ingefluisterd hebben... ohnee, ik uit 'betrouwbare' maar niet openbaar te maken PR bron vernomen heb.

[Voor 5% gewijzigd door Cheetah op 12-07-2007 18:10]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • biobak
  • Registratie: augustus 1999
  • Laatst online: 13:58
Wel grappig dat iedereen zich nu ineens druk maakt over een grafiekje dat er al tig startposts terug staat. Is het FUD? Waarschijnlijk wel. Is het een vorm van viral marketing vanuit ATi? Misschien. Moeten er er ons druk over maken? Nee! ;)

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 15-04 23:28

Cheetah

Try to live without WWW ;)

biobak schreef op donderdag 12 juli 2007 @ 18:09:
Wel grappig dat iedereen zich nu ineens druk maakt over een grafiekje dat er al tig startposts terug staat. Is het FUD? Waarschijnlijk wel. Is het een vorm van viral marketing vanuit ATi? Misschien. Moeten er er ons druk over maken? Nee! ;)
Grafiekje plus bijbehorende tekst :)
Er is ook al een flink aantal startposts geleden op gewezen, al enkele malen overigens, het is al die tijd gehandhaafd, en nu begint 't gewoon echt irritant te worden dat die rommel er nog steeds staat... en als 't aan CJ ligt ook nog eens gehandhaafd wordt tot Crysis over een aantal maanden uitkomt :/

Als dat ding zo belangrijk voor 'm is, laat ie dan tenminste een geloofwaardige bron posten ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Cyberblizzard
  • Registratie: februari 2003
  • Niet online
CJ schreef op donderdag 12 juli 2007 @ 17:39:
Er staat nergens dat het de definitieve performance is. Dat kan je zowiezo niet inschatten zo ver weg voor de release. Te veel factoren spelen nog mee die de performance kunnen beinvloeden. En dan heb ik het niet eens over een smak geld. ;)
De performance van COJ en LP lijkt me toch definitiever dan de performance van Crysis, en toch wordt net de grafiek van Crysis gehandhaafd om aan te tonen hoe ATI zal presteren in DX10? Plus het feit dat er van laatstgenoemde geen enkele andere benchmark is dan die van die Turkse site en van jouw inside information. :) Maar je hebt wel een punt dat Crysis het eerste is dat van de grond af DX10 is. De vraag is hoeveel doorslag dit uiteindelijk zal geven. Dus lieve mensen: Afwachten tot officiële benchmarks! :)

[Voor 3% gewijzigd door Cyberblizzard op 12-07-2007 19:01]

Cheetah schreef op donderdag 12 juli 2007 @ 18:14:
[...]
Grafiekje plus bijbehorende tekst :)
Er is ook al een flink aantal startposts geleden op gewezen, al enkele malen overigens, het is al die tijd gehandhaafd, en nu begint 't gewoon echt irritant te worden dat die rommel er nog steeds staat... en als 't aan CJ ligt ook nog eens gehandhaafd wordt tot Crysis over een aantal maanden uitkomt :/

Als dat ding zo belangrijk voor 'm is, laat ie dan tenminste een geloofwaardige bron posten ;)
Het is vooral 1 persoon geweest die er continue op wijst. En dat ben jij.

Wil je een geloofwaardige bron? Ik kan je zo een e-mail adres geven dat eindigt op amd.com (en vroeger eindigde op ati.com) zodat je het zelf kan navragen. Maar da's misschien niet geloofwaardig genoeg voor je. ;) En je begrijpt natuurlijk wel dat ik dat nooit of te nimmer hier zou plaatsen zeker niet om mijn punt te bewijzen vanwege wat getroll/flame van jou kant. Dus ik laat het helemaal aan de lezer over (de honderden anderen besides you) om het op z'n waarde te schatten. Ik denk dat je de intelligentie van de gemiddelde lezer van dit topic onderschat. Die kunnen heus wel het kaf van het koren scheiden als ze dit ATI topic lang genoeg hebben gevolgd.

Maar ik kan het wel naar het geruchtengedeelte verplaatsen als je je daar iets lekkerder bij voelt. :>

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • m277755
  • Registratie: februari 2004
  • Laatst online: 22-10-2012

m277755

leest meer dan hij typt

Cheetah schreef op donderdag 12 juli 2007 @ 16:36:
[...]
Even een realiteitscheck:
Er zijn momenteel 3 DX10 gamebenchmarks: Call of Juarez, Company of Heroes en Lost Planet.
In de laatste 2 (CoH en LP) heeft nV niet eens competitie van de 2900. Ook in recentere reviews niet (kijk maar eens naar de FS review). In CoJ heeft de 2900 korte tijd iets voor gelegen. De zeer aannemelijke motivatie hiervoor is dat AMD de rechten van die benchmark (en daarmee feitelijk de benchmark zelf) heeft opgekocht, vervolgens samen met Techland heeft bekokstoofd dat hardware AA eruit moest verdwijnen, en tevens de build met nV optimalisaties geblokkeerd moest worden.
Je mag wel een keer ophouden met je speculatie over wat techland met AMD bekokstoofd heeft. AMD heeft de distributierechten gekocht, waarschijnlijk omdat ze ingeschat hebben dat als ze deze benchmark aan iedereen sturen het goede reclame zou zijn. Er is geen reden om te denken dat AMD ook maar iets heeft aan laten passen aan de bench. Je hebt (overvloedig) duidelijk gemaakt dat jij denkt dat het wel zo is, maar tenzij je daar bronnen voor heb mag je daar nu wel mee ophouden.
[...]
Geen domme zet. De 2900 wordt nu al te heet, maakt nu al teveel lawaai,
De 2900 wordt absoluut niet te heet (hoe kom je daarbij?) en maakt ook helemaal niet zo veel lawaai. De mensen met een voor de rest stille pc zullen hem misschien horen, maar in de meeste pc's zal hij totaal overstemd worden door de rest.
[...]
Dat waren problemen met incorrecte fog codering binnen HL2 zelf, en de 2900 heeft hier ook last van gehad in het begin.
Klopt, maar hij vroeg hoe lang het geduurd heeft voordat het probleem verholpen was op de 8800 kaarten. Hoe lang heeft het geduurt voor de 2900?

De HD 2900 XT is een prima kaart, met wat minpuntjes (waar nieuwe drivers hopelijk nog verbetering kunnen brengen). Als ik jouw betoog zo lees zou ik eerder denken dat het een incarnatie van de duivel is...

  • N0taFAma
  • Registratie: juni 2007
  • Laatst online: 13-08-2010

N0taFAma

[9800GX2]

is er al nieuws over een HD2900XT1GB in Nederland aangezien ze overal in de wereld al wel zijn :)

[Voor 5% gewijzigd door N0taFAma op 12-07-2007 21:16]

[ Asus Maximus Extreme ][ Intel Q9650 C0 @ 3000 Mhz ][ Evga Geforce 9800GX2 ][ OCZ Platinum 2048MB DDR3-1600 7-7-7-20 ][ Lacie Electron19blue ][ 2x WD RaptorX 150GB + SpinPoint F1 1TB][ Silverstone Olympia 1000W ][ Coolermaster Stacker 832 ]


  • martijnve
  • Registratie: december 2004
  • Laatst online: 25-09 14:31
overbodig na edit post hier boven
Hoe bedoel je? een review?
De kaarten zijn nu redelijk goed beschikbaar afaik.

[Voor 52% gewijzigd door martijnve op 12-07-2007 21:48]

Mini-ITX GamePC: Core i5 3470 | 16GB DDR3 | GTX 970 4GB | Samsung 830 128GB | Dell u2711 (27", IPS,1440p), 2343BW


  • k995
  • Registratie: november 2002
  • Laatst online: 17:38
CJ schreef op donderdag 12 juli 2007 @ 17:39:
[...]


Dat jij er 0,0 nieuwswaarde aan hecht is jou goed recht.
Ongefundeerd, onbevestigd en op pre hardware met beta of stokoude drivers op een beta demo : 0.0 nieuwswaarde dus.

Trouwens wel grappig te merken op gereleaste demo's waar ATI slecht op scoort word afgedaan als "maar een demo"
Het is wel de enige grafiek die een inschatting geeft van de performance in de allereerste DX10 game die vanaf de grond voor DX10 is gebouwd. De rest zijn opgewaardeerde DX9 games. En misleidend is het niet. Er staat zelfs duidelijk vanaf het begin al onder vermeldt: "Uiteraard is hier het laatste nog niet over gesproken, want bv drivers kunnen nog veel verschil uitmaken".
Wat complete onzin is, post het 1 maal in dit topic dat is meer dan genoeg voor zoiets, in de OT als voorbeeld hoe ATI zal scoren op DX10 is het gewoonweg misleidend, en ziende dat het er al zo lang staat vind ik dat erg.
Dat zie je toch ook bij CoJ? Eerst wordt er moord en brand geroepen door sommige mensen dat de CoJ DX10 benchmark niet eerlijk is. Maar als nVidia dan ineens beter scoort in de CoJ DX10 benchmark door de laatste drivers, dan hoor je ze er niet meer over en wordt het zelfs naar voren gehaald als bewijs dat de GF8800GTX sneller is dan een HD2900XT in DX10. :+
Dat komt omdat die verdacht is en blijft, je kan net zo goed een tech demo pakken, wie daar wint maakt me weinig uit, de resultaten op het uiteindelijke spel zijn me belangrijker.
Er staat nergens dat het de definitieve performance is. Dat kan je zowiezo niet inschatten zo ver weg voor de release. Te veel factoren spelen nog mee die de performance kunnen beinvloeden. En dan heb ik het niet eens over een smak geld. ;)
Idd en daarom is die grafiek daar totaal ongepast en misleidend .

  • BTownMadness
  • Registratie: augustus 2005
  • Laatst online: 23-09-2015
N0taFAma schreef op donderdag 12 juli 2007 @ 19:44:
is er al nieuws over een HD2900XT1GB in Nederland aangezien ze overal in de wereld al wel zijn :)
Dennis schreef op donderdag 12 juli 2007 @ 17:03:
Zijn er al mensen die de 2600XT in huis hebben? Met DDR4 geheugen welteverstaan...
Ze bedoelen deze of deze
Ik krijg maar geen adres gevonden zonder creditkaart of die wel levert in nedereland. :(

  • Hekking
  • Registratie: april 2006
  • Laatst online: 02-02 09:07

Hekking

Can of whoopass

k995 schreef op donderdag 12 juli 2007 @ 20:39:

Dat komt omdat die verdacht is en blijft, je kan net zo goed een tech demo pakken, wie daar wint maakt me weinig uit, de resultaten op het uiteindelijke spel zijn me belangrijker.

Trouwens wel grappig te merken op gereleaste demo's waar ATI slecht op scoort word afgedaan als "maar een demo"


.
Erm, hoezo jezelf tegespreken
[...]

Ongefundeerd, onbevestigd en op pre hardware met beta of stokoude drivers op een beta demo : 0.0 nieuwswaarde dus.

Idd en daarom is die grafiek daar totaal ongepast en misleidend .
Anders ga je even jou statements als waarheid verkondiggen

Ik denk zelf dat de meeste tweakers hier komen voor ATI/AMD nieuws en niet voor het wel of niet betrouwbaar zijn van benches en demo's. Daarnaast vind ik posts van bepaalde mensen hier nogal sarcastisch overkomen. Lekker gezellig but don't shoot the messenger. Een beetje tweaker kan idd de waarde van deze posts wel inschatten en de nieuwswaarde van jou posts vind ik 0,0

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 21-09 16:24

Krizzie

Progressive Music \o/

Ik vind de hele discussie 0,0. Aangezien het alleen maar gegooi is met meningen.

Voor het steeds na trappen en oude koeien uit de sloot halen wordt erg irritant!

Sorry voor offtopic, maar ik zie liever 1 pagina met nieuwtjes dan 20 met een nutteloze discussie.. :)

Geluidswolk


  • Dennis
  • Registratie: februari 2001
  • Laatst online: 26-09 20:58
BTownMadness schreef op donderdag 12 juli 2007 @ 21:32:
Ze bedoelen deze of deze
Ik krijg maar geen adres gevonden zonder creditkaart of die wel levert in nedereland. :(
Ik bedoelde echt de 2600, en niet de 2900 ;). Ik bedoel bijvoorbeeld deze.

  • Mr. Detonator
  • Registratie: februari 2003
  • Laatst online: 26-09 21:10
Krizzie schreef op donderdag 12 juli 2007 @ 22:27:
Ik vind de hele discussie 0,0. Aangezien het alleen maar gegooi is met meningen.
daarom hou ik me de laatste tijd een beetje rustig :)

  • rstyled
  • Registratie: september 2006
  • Laatst online: 10:05
Wat een hoop spuit 11 in dit topic zeg. En voor de mensen die commentaar leveren op de bronnen en betrouwbaarheid van Cj.. breng hier a.u.b geen bezoek meer. Ik weet wel dat hij al heel veel ati discussietopics objectief is gebleven en zijn bronnen en kennis goed heeft onderbouwd. Mocht iemand zijn taak beter kunnen uitvoeren, dan zou ik dat wel eens willen zien. Zo niet, dan lever niet zo veel 0,0 waarde-commentaar.

Maar nu graag ontopic. is er al enige informatie over de midrange kaarten van de volgende serie van Ati?

  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

well hier een review van Fireingsquad:
http://www.firingsquad.co...2600_performance_preview/

als die van Hardware.info/nl
http://www.hardware.info/...HD_2600_XT__2400_XT_test/

daar kwam de HD 2600XT met een Gold award uit den bus maar bij Fireingsquad wordt er veel anders op gekeken wat mij meer als serieuze review overkomt.

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum


  • Format-C
  • Registratie: maart 2005
  • Laatst online: 26-09 23:53
De enige die ik geloof over de performance van de HD2900 vs de 8800GTX is Edward2.

Reviews zeggen mij niks of weinig. Als Edward2 zegt dat de prestaties en IQ van de HD2900 inferieur zijn aan de 8800GTX dan geloof ik dat. Daar hoef ik geen review voor te lezen of 1 of ander plaatje te zien. ;)


Ik heb gisteren weer iets meegemaakt waardoor ik een grafische kaart "materialistische dingen" ineens veel minder belangrijk vind dan al het andere. Ik zal niet zeggen wat het is, maar jongens; geniet van elke dag en maak je niet te druk om dingen die niet leven.

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


  • SG
  • Registratie: januari 2001
  • Laatst online: 15:10

SG

SG surft naar info hardewaren

Obi-Wan Kenobi schreef op vrijdag 13 juli 2007 @ 02:43:
well hier een review van Fireingsquad:
http://www.firingsquad.co...2600_performance_preview/

als die van Hardware.info/nl
http://www.hardware.info/...HD_2600_XT__2400_XT_test/

daar kwam de HD 2600XT met een Gold award uit den bus maar bij Fireingsquad wordt er veel anders op gekeken wat mij meer als serieuze review overkomt.
Hardwareinfo neemt prijs performance ratio mee. En voor de GDDR4 XT is die goed.
Firing squad houd rekening met rare verwachting als killer GTS. Past ook hier en daar AA toe
Je krijgt wat je ervoor betaald en HWI berust zijn prijs performance ratio op prijzen van hier en laat dat ook door tellen in de conslusie.

Wel is het zo volgens firingsquad dat aTI momenteel grote gaten in hun produkt lijn heeft wat OEM's niet leuk vinden.

D'r is dus geen 8600GTS en 8800GTS320 tegen hangers.
RV670?

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • k995
  • Registratie: november 2002
  • Laatst online: 17:38
SG schreef op vrijdag 13 juli 2007 @ 07:41:
[...]


D'r is dus geen 8600GTS en 8800GTS320 tegen hangers.
RV670?
Ja vind ik wel spijtig, ik hoop nog steeds dat ATI een killer 8800GTS320 uitbrengt.

  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

een killer 8800GTS zal het niet worden, het blijft een ontwerp net als de R600, aangezien dat de R600 zelf met 512Bit GDD3/4 soms moeite heeft om een GTS 640 te verslaan met FSAA en AF dus laat staan een RV760 met 256Bit GDDR3/4 tegen een GTS 320 met 320Bit GDDR3, maargoed kan aan mij liggen dat het anders is, maar tot zo verre hadden de 8800 GTS's een grote voor sprong met FSAA + HDR + AF, ofdat de RV670 zich kan bewijzen om hiermee er van door te gaan, hoop ik zekr wel op maar de verwachting daarvan is klein.

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum


  • k995
  • Registratie: november 2002
  • Laatst online: 17:38
Hekking schreef op donderdag 12 juli 2007 @ 22:10:
[...]


Erm, hoezo jezelf tegespreken
En waar spreek ik mezelf tegen?
Anders ga je even jou statements als waarheid verkondiggen
Nee ik zeg gewoon feiten, die grafiek is ongeundeerd (volgens CJ van ATI volgens andere van een turkse obscure website), oud, op oude drivers met oude hardware (voor de echte release van HD2900) en op een bate (alhpa?) demo .

Dat zijn gewoon feiten niet mijn mening .
Ik denk zelf dat de meeste tweakers hier komen voor ATI/AMD nieuws en niet voor het wel of niet betrouwbaar zijn van benches en demo's. Daarnaast vind ik posts van bepaalde mensen hier nogal sarcastisch overkomen. Lekker gezellig but don't shoot the messenger. Een beetje tweaker kan idd de waarde van deze posts wel inschatten en de nieuwswaarde van jou posts vind ik 0,0
Wel ja dat is dan jouw mening, ik denk dat sommigen naar hier komen gewoon om te zien hoe de laatste nieuwe kaarten scoren en niet verder lezen dan hun neus lang is. Als ze dan zo'n grafiek zien voor een spel waar veel op wachten kunnen die verkeerde conclusies trekken. Ik schiet dus helemaal niet op de messenger maar op de boodschap.

Volgens mij kan een beetje tweaker idd zien dan die grafiek onzin is en niks zal zeggen over de uiteindelijke snelheid waarmee crysis zal draaien. Zels de cijfers zien er raar uit, amer verschil tussen 1600x... en met hoge AA en AF en de beide kaarten gaan evenveel naar beneden, iets wat compleet tegengesproken word door elke echte benchmark die uit is.

Maar ja sommigen lijken een beetje blind als hun favoriete merk ter discussie staat, raar je koopt gewoon het beste wat uit is voor de goedkoopste prijs vind ik of dat dit nu ATI of NV of zeeman is maakt mij weinig uit.

  • GaensDude
  • Registratie: mei 2006
  • Laatst online: 04-02-2009

GaensDude

Shilky

Het houdt niet op met hun gezanik..

Chocomousse feat. druivensap => mmmmmmmmm


  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26

Astennu

-= RX 5700 XT 50th =-

GaensDude schreef op vrijdag 13 juli 2007 @ 08:30:
Het houdt niet op met hun gezanik..
De nieuwe mode :) waait wel weer over. Alleen dit is wel hardnekkig ja :D

Nog even een nieuws bericht van Fud:
Dual card in early 2008


Despites all kinds of rumours around we can confirm that ATI wont br releasing any Rx6xx chips this year. The company will try to finish RV670 this year but as we said several times this chip is going to show its face in early 2008.

ATI's only hope is to put two RV670 cards together and such a dual chip card should be able to take the performance crown out of Nvidia's G80 Ultra. The biggest trouble is that at the time RV670 comes to reality Nvidia is suppose to have the next generation card ready that someone called G92.

Well, ATI don't have any other choice as its real next generation R700 comes in Q2 2007 and this is the best case scenario that ATI usually fail to make in its reality.
Hij blijft er maar op hameren dat er geen R650 of R680 is of komt. En dat de RV670 het beste is dat ATi heeft. Twee van deze chippies samen moeten het tegen de 8800 Ultra opnemen. Mja nVidia komt natuurlijk met een G92. En daar zou ATi dan niets tegenover hebben staan. Als dat zo is. En nVidia is dan nog steeds performance leider en het zuinigste ga ik toch tijdelijk over naar een G92. Of ze moeten daar net als bij de R600 dingen verandert hebben zodat hij niet goed in DX9 games presteert of niet goed is in AA en AF.

[Voor 74% gewijzigd door Astennu op 13-07-2007 08:54]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Ritchie
  • Registratie: juni 1999
  • Laatst online: 25-09 11:42
Obi-Wan Kenobi schreef op vrijdag 13 juli 2007 @ 02:43:
well hier een review van Fireingsquad:
http://www.firingsquad.co...2600_performance_preview/

als die van Hardware.info/nl
http://www.hardware.info/...HD_2600_XT__2400_XT_test/

daar kwam de HD 2600XT met een Gold award uit den bus maar bij Fireingsquad wordt er veel anders op gekeken wat mij meer als serieuze review overkomt.
Als ik die HWI review moet geloven is die 2900 helemaal zo slecht nog niet.. Toch maar overwegen om dan toch die maar te nemen..

- NAC Breda -


  • movo.
  • Registratie: april 2007
  • Laatst online: 25-04 09:59
GaensDude schreef op vrijdag 13 juli 2007 @ 08:30:
Het houdt niet op met hun gezanik..
Helemaal mee eens...

  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26

Astennu

-= RX 5700 XT 50th =-

RV670 made for 65nm

But will be converted to 55

The beauty of half node process such as 80 or currently most interesting 55 nanometre process is that it is not that hard to convert the original chip and prepare it for the smaller so called half node process.

This is exactly what will happen to RV670. Our sources confirmed that the original design of the chip was suppose to end up at 65 nanometre but the final version of the chip will be out as a 55 nanometre. The chip will draw less power and will be physically smaller.

It is much easier to put two 55 nanometre chip than two 65 as the card will need less power and that is the plan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • movo.
  • Registratie: april 2007
  • Laatst online: 25-04 09:59
Bron? en wordt dat de HD2800? of HD2950? :)

  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26

Astennu

-= RX 5700 XT 50th =-

Ted56 schreef op vrijdag 13 juli 2007 @ 09:45:
Bron? en wordt dat de HD2800? of HD2950? :)
Fudzilla stond er ook bij.

En dat zal wel een HD27xx of HD28xx worden. En dan Gemini versie er van als topmodel.

Mja ik ben benieuwd...... Hopelijk komt er nog wel een R650 of R680.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 21-09 16:24

Krizzie

Progressive Music \o/

Waarom zou je die willen als 2x RV670 net zo snel is? :?

Geluidswolk


  • Cyberblizzard
  • Registratie: februari 2003
  • Niet online
Dit topic lijkt enkel nog te bestaan uit speculaties en discussies over die speculaties. Het wordt tijd dat AMD écht met iets nieuws voor de dag komt dat het spannend maakt in de strijd met nVidia. :)

  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26

Astennu

-= RX 5700 XT 50th =-

Krizzie schreef op vrijdag 13 juli 2007 @ 11:07:
Waarom zou je die willen als 2x RV670 net zo snel is? :?
Als die net zo snel is ja. Maar de 2x RV670 zou het tegen de 8800 Ultra op nemen. Echter komt nVidia tegen die tijd misschien wel met de G92. Dit is geen rare gedachte want de G80 is er al heel lang. En die G92 zal wel heel veel sneller zijn dan de G80. Dus ook sneller dan 2x RV670. En daar komt bij dat die GX2 kaarten of Gemini kaarten het soms goed doen. En in andere games die slechte support hebben voor multi VPU bijna geen winst laten zien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 21-09 16:24

Krizzie

Progressive Music \o/

RV670 vs 8800GTS320
2x RV670 vs 8800Ultra
R700 vs G90(92?)

Lijkt mij dan de meest voor de hand liggende volgorde. :)

Geluidswolk


  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26

Astennu

-= RX 5700 XT 50th =-

Krizzie schreef op vrijdag 13 juli 2007 @ 11:23:
RV670 vs 8800GTS320
2x RV670 vs 8800Ultra
R700 vs G90(92?)

Lijkt mij dan de meest voor de hand liggende volgorde. :)
Dat is wel waar. Alleen de verwachtingen zijn dat nVidia dit daar nog met de G92 op de proppen komt. En AMD pas volgend jaar met de R700. Weer een gat van een half jaar. En daar heb ik nu geen zin meer in. Als de G92 sneller zuiniger is, goede beeld Kwaliteit heeft, goede drivers heeft. En ATi niet binnen 2 maanden met iets soort gelijks kom vrees ik dat ik toch een G92 kaartje koop.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • MauSS
  • Registratie: juni 2005
  • Laatst online: 08-08 05:18
Astennu schreef:
Als de G92 sneller zuiniger is, goede beeld Kwaliteit heeft, goede drivers heeft. En ATi niet binnen 2 maanden met iets soort gelijks kom vrees ik dat ik toch een G92 kaartje koop.
Ik sluit me bij Astennu aan, vind Ati top hoor, (heb nog steeds ati) maar met de 2900XT hebben ze me niet echt overtuigd,..(na 1 week verkocht vul nu de tijd op met een 1950XT)
Opzich heb ik liever Ati, maar zoals Astennu ook al zegt als ati tegen die tijd niet snel met een leuk kaartje komt,.. dan is dat voor mij ook een reden om een keer een dikke Nv te kopen inplaats van een "red-one" O-)

(MauSS droomt over de R700....)

to Cyberblizzard hieronder:
Ik heb ook een voorkeur voor Ati! dat is makkelijk zat! (en die blijft wel)
(zelfde al iemand een voorkeur voor blond of donker heeft..)
maar dat neemt niet weg dat donkere dame nie fijn kan zijn :)

[Voor 31% gewijzigd door MauSS op 13-07-2007 11:56]

A world without gadgets is no world ;)


  • Cyberblizzard
  • Registratie: februari 2003
  • Niet online
MauSS schreef op vrijdag 13 juli 2007 @ 11:42:
[...]


Me 2 vind Ati top hoor, (heb nog steeds ati) maar met de 2900XT hebben ze me niet echt overtuigd,..(ondanks dat het geen slechte kaart is,.. met het voor mij "net niet" heeft)
Opzich heb ik liever Ati, maar zoals Astennu ook al zegt dat ati dan weer later is met een kaartje,.. dat is voor mij ook een reden om een keer een dikke Nv te kopen inplaats van een "red-one" O-)
Waarom altijd denken in termen van pro/anti-nvidia/ati. Ik ga gewoon voor de beste en in het verleden was dat afwisselend GF4, R9800 en momenteel is dat GF8 (wat de high-end betreft), en de volgende is misschien terug ATI. Ik vind ze allebei top, het zorgt voor een gezonde concurrentie. Jij bent niet 100% 'pro' of 'anti' iets, maar je laat toch een duidelijke voorkeur voor ATI uitschijnen. :) Ik denk dat er weinigen zo in het midden zitten als ik. :)

[Voor 15% gewijzigd door Cyberblizzard op 13-07-2007 11:53]


  • edward2
  • Registratie: mei 2000
  • Laatst online: 18:46

edward2

Schieten op de beesten

RappieRappie schreef op vrijdag 13 juli 2007 @ 06:48:
De enige die ik geloof over de performance van de HD2900 vs de 8800GTX is Edward2.

Reviews zeggen mij niks of weinig. Als Edward2 zegt dat de prestaties en IQ van de HD2900 inferieur zijn aan de 8800GTX dan geloof ik dat. Daar hoef ik geen review voor te lezen of 1 of ander plaatje te zien. ;)


Ik heb gisteren weer iets meegemaakt waardoor ik een grafische kaart "materialistische dingen" ineens veel minder belangrijk vind dan al het andere. Ik zal niet zeggen wat het is, maar jongens; geniet van elke dag en maak je niet te druk om dingen die niet leven.
Ik moet wel zeggen dat het iq met 8aa bijna gelijk is aan de 8800GTX. De aliasing en shimmer waar ik het over had, wordt dan redelijk gereduceerd. Ik denk dat, als straks de Custom AA eindelijk beschikbaar is, het IQ praktisch gelijk zal zijn. Nu vind ik die juist weer iets te blurry.

Maximum IQ


  • MensionXL
  • Registratie: juni 2004
  • Niet online

MensionXL

Optimaliseren!

Cyberblizzard schreef op vrijdag 13 juli 2007 @ 11:50:
[...]
Waarom altijd denken in termen van pro/anti-nvidia/ati. Ik ga gewoon voor de beste en in het verleden was dat afwisselend GF4, R9800 en momenteel is dat GF8 (wat de high-end betreft), en de volgende is misschien terug ATI. Ik vind ze allebei top, het zorgt voor een gezonde concurrentie. Jij bent niet 100% 'pro' of 'anti' iets, maar je laat toch een duidelijke voorkeur voor ATI uitschijnen. :) Ik denk dat er weinigen zo in het midden zitten als ik. :)
Het boeit mij ook niks, mijn volgorde:

ATi Rage 128 Pro > vervangen door een Geforce 2MX
ATi Radeon 9600 > vervangen door een Geforce 7600GS

En nu een HD2900XT besteld, maar als de GTX 150+ euro goedkoper had geweest, dan had ik voor die gegaan. Ik kijk meestal gewoon naar de price/performance verhouding, verder boeit het me niet of ik groen of rood in m'n kast heb zitten. :)

Gratis hardware! - Goedkoop bellen via VoIP


  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26

Astennu

-= RX 5700 XT 50th =-

edward2 schreef op vrijdag 13 juli 2007 @ 12:03:
[...]


Ik moet wel zeggen dat het iq met 8aa bijna gelijk is aan de 8800GTX. De aliasing en shimmer waar ik het over had, wordt dan redelijk gereduceerd. Ik denk dat, als straks de Custom AA eindelijk beschikbaar is, het IQ praktisch gelijk zal zijn. Nu vind ik die juist weer iets te blurry.
Ik heb zelf het idee dat de R600 minder goede IQ heeft dan de R580. En de G80 wat beter is dan de R580 wat betreft HQ AF.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • edward2
  • Registratie: mei 2000
  • Laatst online: 18:46

edward2

Schieten op de beesten

Astennu schreef op vrijdag 13 juli 2007 @ 12:25:
[...]


Ik heb zelf het idee dat de R600 minder goede IQ heeft dan de R580. En de G80 wat beter is dan de R580 wat betreft HQ AF.
De R600 heeft mi een te aggressive LOD BIAS, wat schimmeringen veroorzaakt. De mipmap overgangen vind ik wel beter, zelfs beter dan de G80 (goed te zien in COJ)

Met CAT AI uit, is het IQ na genoeg gelijk aan de G80 vwb de shimmering, maar dat kost perf.

Ik hoop dat EATM snel in de Vista 64 drivers komt en met perf.

Maximum IQ

Cyberblizzard schreef op vrijdag 13 juli 2007 @ 11:09:
Dit topic lijkt enkel nog te bestaan uit speculaties en discussies over die speculaties. Het wordt tijd dat AMD écht met iets nieuws voor de dag komt dat het spannend maakt in de strijd met nVidia. :)
Tja, het is komkommertijd. Dan wordt er veel gespeculeerd of worden er vaak oude koeien uit de sloot gehaald. Tijdens de back-to-school periode wordt het weer interessanter. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Cheetah schreef op donderdag 12 juli 2007 @ 16:36:
Even een realiteitscheck:
Er zijn momenteel 3 DX10 gamebenchmarks: Call of Juarez, Company of Heroes en Lost Planet.
In de laatste 2 (CoH en LP) heeft nV niet eens competitie van de 2900. Ook in recentere reviews niet (kijk maar eens naar de FS review). In CoJ heeft de 2900 korte tijd iets voor gelegen. De zeer aannemelijke motivatie hiervoor is dat AMD de rechten van die benchmark (en daarmee feitelijk de benchmark zelf) heeft opgekocht, vervolgens samen met Techland heeft bekokstoofd dat hardware AA eruit moest verdwijnen, en tevens de build met nV optimalisaties geblokkeerd moest worden.
In de recentste test van Anandtech (een week geleden) wint de 8800GTX, ondanks die in die bench - i.m.o. onterecht - net als de 2900 geforceerd software AA moet doen, echter ook die benchmark.
Lost Planet is inderdaad een nVidia-walkover. Call of Juarez is het ongeveer nVidia=AMD, en CoH
daar verschillen de benches ook erg over. Wat betreft die ''zeer aannemelijke motivatie'', gezien de rel die er is ontstaan terwijl Techland zichzelf verdedigd en dus blijkbaar op eigen benen staat, en jij nog steeds geen reçu hebt laten zien van een bepaalde geldsoverdracht, zegt mij dat je uit je nek kletst. Wat me overigens wel opviel is dat ook in bepaalde reviews (Guru3D) er niét op maximale IQ is getest, hoe dom kan je zijn. Je bencht goed, of je bencht niet. Net zoiets als dat je 8800GTX vs. HD2900XT in Oblivion gaat testen op Medium Quality, geen kuddo's voor de verwarring die menig reviewer zaait, zowel bij mij als bij de consument :/
Als je dat Inq artikel even opslaat kun je niet anders dan constateren dat de Charlie zwaar Anti-microsoft is. De hele toon van dat artikel ademt niet anders.
In plaats van neutrale berichtgeving moeten we o.m. lezen dat Microsoft ATi genaaid heeft, dat Microsoft overigens al zijn partners naait, en als klap op de vuurpijl voelt Charlie zich genoodzaakt ons er - volkomen offtopic - van op de hoogte te stellen dat hij recent van Win XP is 'geupgrade' naar Ubuntu en sindsdien nooit gelukkiger is geweest gezien hij nu gevrijwaard is van alle windows-ellende.
Uiteraard naait MS volgens hem ook al zijn klanten omdat het - terwijl het een nieuw OS op de markt heeft - geen effort steekt in ontwikkeling van een grote update inclusief kernelaanpassingen voor een 6 jaar oud OS. Want MS moet om zijn klanten te niet te naaien tot in den eeuwigheid XP blijven ondersteunen.
Heb het nog even nagelezen, de woorden die hij gebruikt zijn inderdaad subjectief, de uitleg daarentegen niet. Prima als hij anti-Microsoft is, maar wij gebruiken dit artikel als backgroundinfo over nVidia versus AMD en ieders voor- en nadelen. Die vent mag misschien partijdig zijn, maar hij slaat de spijker op zijn kop. Microsoft heeft nVidia gered door het optioneel te maken en AMD een hak heeft gezet omdat het één van de (overigens vrij weinige) punten was waarop ze nVidia hadden kunnen pakken. Het zal mij een biet zijn, maar nVidia heeft hier geluk gehad, en dat weet jij ook. Wij kunnen gelukkig de regels wit goed lezen, toch? ;)
Geen domme zet. De 2900 wordt nu al te heet, maakt nu al teveel lawaai, en verbruikt nu al teveel stroom en levert (vermoedelijk daardoor) nu al regelmatig VPU-recoveries op. Een OC-edition zou dat alleen maar erger maken, nog afgezien van toename in failure rates.
Daarnaast schaalt de 2900 niet supergoed mee met core OC's en vrijwel helemaal niet met mem OC's. Een OC edition lijkt me dus niet heel erg zinvol, zeker niet bekeken tegen de drawbacks.
Ik had het over de mainstream, de HD2600-series. HD2900XT is performance-enthousiast ;)
Dat waren problemen met incorrecte fog codering binnen HL2 zelf, en de 2900 heeft hier ook last van gehad in het begin.
Leuk dat de HD2900 er ook last van had, en ik ben blij voor de users dat het opgelost is. Maar het was toch écht een beta van nVidia die de problemen fixte :)
Disaster in "[PC] Counter-Strike: Source - Deel 10"
meuktracker: nVidia ForceWare 158.18 beta
:?
Ik kon niet meer op het woord komen, shimmering bedoelde ik (dank @ ergens hierboven :P ). GF7 moest op HQ en had dan performancedrops. Heeft AMD nu, had nVidia toen. Dus...
Ik zeik helemaal niets af. Ik zeg alleen dat we er nog niets zeker over weten, zowel qua IQ als qua performance niet, en alles wat daarover beweerd wordt voor mij niets anders dan speculatie is totdat het tastbaar wordt gemaakt.
Okee, gelijk heb je, maar door je toon is dat niet echt duidelijk...
Termen bedenken? Marketing doet haast niet anders. Daar worden ze voor betaald.
Klopt, maar het verschil tussen een term koppelen aan een evolutie van je hardware, en een term afschieten in het luchtledige, is best groot ;)
Ik heb nog geen enkele solide bron voor dat Crysis plaatje dat al maanden in de TS prijkt kunnen waarnemen. Het zou me niets verbazen als CJ dat plaatje inderdaad van - of waarschijnlijk via - AMD heeft. Daar heeft hij immers inderdaad contacten
Volgens Techpowerup is de oorspronkelijke bron van dat plaatje echter eerdergenoemde vage Turkse site, en het stamt van ongeveer een maand voor de release van de 2900XT. Stinkt ernstig hard naar FUD i.m.o... ook al komt het (vermoedelijk/hopelijk) oorspronkelijk niet van AMD vandaan, het komt hun marketing department uiteraard wel goed uit.
Hier ga ik volmondig met je mee. Zeg eens CJ, als ik way before HD2900-launch een mooie grafiek in elkaar had geflanst waarin de R600 GF8800 ganz aan moes stampte, en ergens op de een of andere site had neergegooid, had ik hier die dan teruggezien? Het is leuk dat het het enige is wat er op écht DX10-gebied is te krijgen, maar het is pre-beta en we zijn inmiddels al een tijd verder, wordt het dan geen tijd om het op zijn minst (de rest zie je zelf maar) aan te vullen met hedendaagse benches van o.a. Call of Juarez waarin AMD en nVidia aan elkaar gewaagd zijn, als ook de rest of the pack? Ik geef de rest gelijk, dit is vrij eenzijdige berichtgeving :X ...

  • elmystic
  • Registratie: mei 2007
  • Laatst online: 27-02-2012
ik denk dat iedereen ondertussen wel doorheeft dat de 2900xt geen strijd kan aangaan tov de 8800gtx. laat cj dan die stomme grafiek in zijn startpost staan, iedereen weet toch dat het niet klopt en ik denk ook dat iedereen ondertussen wel doorheeft dat cj gewoon een ati-aanhanger is... hij zal dat grafiekje heus niet wegdoen hoor. (zo een uniek grafiekje waar ati eens wint van nvidia :p )
Het moet wel enorm rustig zijn als op nieuwsgebied als iedereen zich zo druk maakt om een grafiekje, waar ook nog eens een disclaimer bij staat en terwijl er ook nog eens een disclaimer aan het einde van de topicstart zelf staat.

Het lijkt net alsof er altijd iets te zeuren moet zijn in dit topic. Is het niet de CoJ benchmark, dan is het wel de AA Resolve Methodes. Is het dat niet dan is het een klein grafiekje in de topicstart of staat mijn credibiliteit en/of objectiviteit/subjectiviteit ter sprake. Volgende discussiepunt is waarschijnlijk nog iets dommers. :+

Anyway, ik ben richting North Sea Jazz. Genieten van het echte leven. :>

[Voor 6% gewijzigd door CJ op 13-07-2007 14:14]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

CJ schreef op vrijdag 13 juli 2007 @ 14:13:
Het lijkt net alsof er altijd iets te zeuren moet zijn in dit topic. Is het niet de CoJ benchmark, dan is het wel de AA Resolve Methodes. Is het dat niet dan is het een klein grafiekje in de topicstart of staat mijn credibiliteit en/of objectiviteit/subjectiviteit ter sprake. Volgende discussiepunt is waarschijnlijk nog iets dommers. :+

Anyway, ik ben richting North Sea Jazz. Genieten van het echte leven. :>
Kwamkwammertijd he :+

Have fun daar :)

Edit: http://www.neoseeker.com/...600_gts_oc2_review/8.html

Rright... niks over de drivers zeggen, maar wel een HD2600XT die een 8600GTS OC-Edition zwáár afslacht in DX10-modus. Jammer dat ze de HD2600XT niet testen in LP :/

[Voor 18% gewijzigd door Jejking op 13-07-2007 14:42]


  • TGEN
  • Registratie: januari 2000
  • Laatst online: 14-09 11:05

TGEN

Hmmmx_

Jejking schreef op vrijdag 13 juli 2007 @ 14:29:
[...]

Kwamkwammertijd he :+

Have fun daar :)

Edit: http://www.neoseeker.com/...600_gts_oc2_review/8.html

Rright... niks over de drivers zeggen, maar wel een HD2600XT die een 8600GTS OC-Edition zwáár afslacht in DX10-modus. Jammer dat ze de HD2600XT niet testen in LP :/
De HD2600XT daargelaten, zakt de performance van de BFG 8600GTS OC2 wel erg hard in. Brakke drivers? Bottleneck in de hardware?

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


  • Arjan90
  • Registratie: september 2005
  • Nu online
Bij een bottleneck in de hardware zou de 8600GTS dan toch nog beter moeten functioneren? Tenzij de 2600XT precies op zijn maximum ziet, en de 8600GTS nog aan het warmdraaien is, maar dan nog zou de 8600GTS toch niet slechter presteren terwijl ze met dezelfde 'bottleneck' te maken hebben? (Ik neem immers aan dat het met dezelfde hardware is getest, iig praktisch gelijk).. Klinkt erg onlogisch, drivers zou natuurlijk wel kunnen :)

"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."


  • Da_DvD
  • Registratie: april 2004
  • Laatst online: 14-07 11:35
Komen deze verwachte scores in Crysis van developer Crytek? Zo ja dan is ATi binnen wbt Crysis performance..

http://www.tiberiumweb.com/crap/crysis1.png

http://www.tiberiumweb.com/crap/crysis2.png

  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26

Astennu

-= RX 5700 XT 50th =-

Da_DvD schreef op vrijdag 13 juli 2007 @ 15:52:
Komen deze verwachte scores in Crysis van developer Crytek? Zo ja dan is ATi binnen wbt Crysis performance..

[afbeelding]

[afbeelding]
Er valt me wel wat op: ATi Radeon HD2x00 XTX ??? dus kan van alles zijn van HD2400 tot HD2900 en XTX is er al helemaal niet. En alle cijfers zijn afgerond. Want alles is of x0 of x5.

[Voor 5% gewijzigd door Astennu op 13-07-2007 15:59]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Cyberblizzard
  • Registratie: februari 2003
  • Niet online
Da_DvD schreef op vrijdag 13 juli 2007 @ 15:52:
Komen deze verwachte scores in Crysis van developer Crytek?
Nee:
A while ago the Admin Team put together a spreadsheet with specualted crysis performance on different graphics cards. It sat there gathering dust so I decided to make a post and stick it out their for the rest of you to use. Please Note: These are speculated performance levels, actual performance may vary
Afwachten dus. :)

  • Visgek82
  • Registratie: december 2002
  • Laatst online: 18:36
elmystic schreef op vrijdag 13 juli 2007 @ 14:07:
ik denk dat iedereen ondertussen wel doorheeft dat de 2900xt geen strijd kan aangaan tov de 8800gtx. laat cj dan die stomme grafiek in zijn startpost staan, iedereen weet toch dat het niet klopt en ik denk ook dat iedereen ondertussen wel doorheeft dat cj gewoon een ati-aanhanger is... hij zal dat grafiekje heus niet wegdoen hoor. (zo een uniek grafiekje waar ati eens wint van nvidia :p )
Dit soort posts bedoelen een hoop mensen dus. op de man spelen, en met zand gooien. waar ben je nou mee bezig?

Deze post heeft 0,0 nieuwswaarde, en het is een directe flame naar CJ toe, totaal onzinnig en niet nuttig.

CJ is een ATI aanhanger, net zoals Cheetah een NVIDIA aanhanger is. laat iedereen in hun waarde , svp.

Gigabyte Aorus B550 Pro / Ryzen 5 3600 / 1070 TI / NVME / 16 GB 3600 C15


  • edward2
  • Registratie: mei 2000
  • Laatst online: 18:46

edward2

Schieten op de beesten

Da_DvD schreef op vrijdag 13 juli 2007 @ 15:52:
Komen deze verwachte scores in Crysis van developer Crytek? Zo ja dan is ATi binnen wbt Crysis performance..

[afbeelding]

[afbeelding]
Ik denk dat dit nog lang niet vast staat. Zeker niet als deze cijfers dateren uit een nog grijzer verleden.
DX10 en videodrivers zijn zo complex en onrijp, dat dit beeld nog tig keer kan veranderen IMHO.

Maximum IQ


  • Andamanen
  • Registratie: februari 2001
  • Niet online

Andamanen

Trotse eilandengroep

Astennu schreef op vrijdag 13 juli 2007 @ 15:58:
[...]


Er valt me wel wat op: ATi Radeon HD2x00 XTX ??? dus kan van alles zijn van HD2400 tot HD2900 en XTX is er al helemaal niet. En alle cijfers zijn afgerond. Want alles is of x0 of x5.
Ik denk dat deze cijfers zelfs nog stammen van vóór de introductie van de 2900xtx en dat de uiteindelijke naam nog niet bekend was.

  • Jejking
  • Registratie: februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Kan je ook wel zien aan de link... tiberiumweb.com/crap/... ;)

:+

  • edward2
  • Registratie: mei 2000
  • Laatst online: 18:46

edward2

Schieten op de beesten

Mijn 1 GB x2900XT@825/2000 mhz in 3 DMark06
11036 cat. 7.6 Vista 64 bits
http://service.futuremark.com/compare?3dm06=2446821

De 8800 Ultra deed 11550.

[Voor 9% gewijzigd door edward2 op 13-07-2007 17:21]

Maximum IQ


  • tjtristan
  • Registratie: augustus 2005
  • Laatst online: 25-09 12:30
edward2 schreef op vrijdag 13 juli 2007 @ 17:20:
Mijn 1 GB x2900XT@825/2000 mhz in 3 DMark06
11036 cat. 7.6 Vista 64 bits
http://service.futuremark.com/compare?3dm06=2446821

De 8800 Ultra deed 11550.
Volgens mij zit er bijna geen verschil in de 3dmark06 score van 2900xt 512 en 1GB, omdat die 512MB nog niet eens volkrijgt (alleen als je hem op hogere resoluties zet, maar iig niet op stock)

http://specs.tweak.to/15535


  • Loempia
  • Registratie: juni 2002
  • Laatst online: 30-05-2013

Loempia

sambal bij?

edward2 schreef op vrijdag 13 juli 2007 @ 17:20:
Mijn 1 GB x2900XT@825/2000 mhz in 3 DMark06
11036 cat. 7.6 Vista 64 bits
http://service.futuremark.com/compare?3dm06=2446821

De 8800 Ultra deed 11550.
Waar heb je die 1GB x2900xt vandaan? Volgens mij had je het al in het vorige topic gepost maar kan het zo snel niet vinden :)
Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.



Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True