Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 59 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 16.129 views sinds 30-01-2008

Acties:
  • 0Henk 'm!
http://www.guildwarsarena.net/ati/atitopiclogo2.jpg
 

Direct door naar de lijst met ATi Radeon HD 2000 reviews? Klik HIER

Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de voormalig Canadese fabrikant ATi, dat nu onderdeel is van AMD, kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten. We willen het hier namelijk gezellig houden. ;)

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

http://www.guildwarsarena.net/ati/atitopic-topicregels.jpg

Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laatste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic en post je probleem dus niet hier!!!!!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Laten we het vooral gezellig houden. :)

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders.
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Wat voor voeding heb ik nodig?", "Kan ik mijn *vul naam kaart in* modden naar een *vul naam andere kaart in*?", "Klopt mijn 3DMark score wel?", "Werkt CrossFire op een SLi mobo?", "Welke drivers kan ik het beste gebruiken?" etc. Je kent het wel... Gebruik de search-functie. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Continu melden dat een kaart niet beschikbaar is of te laat is. Het melden in dit topic HELPT de beschikbaarheid NIET verbeteren. Wacht gewoon, check de pricewatch, bel wat winkels, eet wat uit je neus... maar meldt het hier niet aangezien de discussiewaarde nihil is en niets bij draagt aan dit topic!
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


http://www.guildwarsarena.net/ati/atitopic-topicgeschiedenis.jpg

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de voorgaande topics en hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
De laatste topics over elke kaart zullen altijd het meest uptodate zijn. Zo vind je de meest complete informatie over de R580 in topic 47.



http://www.guildwarsarena.net/ati/atitopic-topicnavigatie.jpg
http://www.guildwarsarena.net/ati/atitopic-huidigegpus.jpg
ATi's huidige line-up is bestaat uit de X1K serie. Deze serie is opgedeeld in verschillende segmenten:
  • X1950XT & XTX - R580+ (PCIe & AGP)
  • X1950Pro & GT - RV570 (PCIe & AGP)
  • X1650XT & GT - RV560 (PCIe & AGP)
  • X1650Pro - RV535 (PCIe & AGP)
  • X1550 - RV515/RV516 (PCIe)
  • X1300XT - RV530 (PCIe & AGP)
  • X1300Pro - RV516 (PCIe & AGP)
  • X1300 - RV505 (PCIe & AGP)
  • X1050 - RV370 (PCIe & AGP)
Op de R580+ na is alles gefabriceerd op het 80nm proces. Wil je meer weten over deze GPUs, dan kan je daarvoor terecht in de first posts van Topic 40-50. Vanaf 52 gaat het voornamelijk over R600 en aanverwanten in de first post.
http://www.guildwarsarena.net/ati/atitopic-atidivision.jpg

Voor de fusie met AMD, werkte ATi met drie verschillende GPU teams die afzonderlijk aan aparte projecten werkten. Deze teams waren het "Westcoast Team" in Santa Clara (Silicon Valley - California) op enkele meters afstand van het nVidia hoofdkwartier, een team aan de Oostkust in Marlborough (Massachusets) en een team in Orlando Florida. Deze drie teams zijn ook weer onder te verdelen in een groep voor de high end en een groep voor de mainstream en lowend.

R200 (Radeon 8500) -> East Coast Team
R300 & R350 & R360 (Radeon 9x00) -> West Coast Team
R420 & R480 (Radeon X8x0) -> West Coast Team
R520 & R580 (Radeon X1xx0) -> West Coast Team

Waar waren dan al die jaren het Orlando team en het East Coast Team na R200 mee bezig? Dat varieerde van special projects (Xenos/Hollywood) en het assisteren van de overige teams tot aan andere projecten zoals handhelds, digital TV etc (Orlando). ATI werkte normaal gesproken met een ping-pong systeem, waar eerst het ene team een GPU lanceerde inclusief refreshes, en dat in de tussentijd een ander GPU team werkte aan een volledig nieuwe generatie inclusief refreshes. R400 werd dan ook oorspronkelijk ontwikkeld door het East Coast Team, maar dit project werd op halt gezet. De reden was dat het project van unified shader engines op dat moment (in 2002) technisch te hoog gegrepen was.

Om toch niet met lege handen te staan aan het einde van de levenscyclus van de R300, besloot men om het op de goedkope tour te gooien en simpelweg de R300 te nemen, deze te krimpen en te verdubbelen. Het resultaat was de zeer goedkoop te produceren R420.

Rond deze tijd kreeg ATI ook het Xbox360 contract met Microsoft. Deze waren zeer geinteresseerd in de unified architecture ideeen van ATI en daarmee werd het R400 project nieuw leven ingeblazen, dit maal onder de codenaam C1, die wij later als Xenos / R500 leerden kennen. Het East Coast Team richtte zich dus specifiek op de Xbox360. Dit team slaagde er in om een unified shader architecture in elkaar te flansen die samen zo'n 300M transistoren telde op het 90nm proces en Free 4xAA te voorschijn weet te toveren op je TV scherm. De ontwikkeling van de C1 was natuurlijk een goede proefperiode voor ATI om te testen met een desktop unified architectuur, die inmiddels omgedoopt was naar R600.

Natuurlijk moest er ook een opvolger komen van de R4x0 reeks. En ook hier werd het West Coast Team weer geraadpleegd. Deze zouden verder bouwen op de R3x0 en R4x0 reeks en er volledig Shadermodel 3 support aan toe voegen, een compleet nieuwe memory controller te integreren en enkele nieuwigheden als HDR + AA te introduceren. Dit gebeurde allemaal als basis voor de aankomende R600 GPU.

Nadat de R5x0 reeks ontwikkeld was, ging een gedeelte van West Coast Team zich richten op R700, terwijl een groot gedeelte zich op de verdere ontwikkeling van de R600 stortte samen met het team uit Orlando.

R600 is dan ook de eerste GPU die door alle drie teams gezamenlijk wordt ontwikkeld. Het hart van de ontwikkeling lag in Silicon Valley (West Coast Team).

R800 is de allereerste GPU die door alle drie teams samen vanaf de bodem is opgebouwd. Dit werd gezegd door Dave Orton in 2004, waardoor men misschien zou kunnen opmaken dat R700 een soort van refresh is van R600.

Interessante feitjes om te weten zijn dat ATI zowel Bitboys als XGI overnam voor de fusie met AMD. Dus AMD bezit nu de kennis van zowel ATI, XGI als de Bitboys. En daarnaast hebben ze al een hele tijd wat S3 mensen in dienst (waaronder de mensen die DXTC hebben ontwikkeld die ook 3Dc ontwikkelden) als veel ex-nV personeel.
http://www.guildwarsarena.net/ati/atitopic-r600architectuur.jpg

De Radeon HD2900 serie van AMD is al in ontwikkeling geweest sinds 2001. In de loop der jaren is er veel veranderd aan de architectuur. De volgende punten zijn kenmerkend voor de Radeon HD2900. De midrange en low-end kaarten zijn natuurlijk naar beneden geschaald wat betreft features:

•Superscalar unified shader architecture
•320 stream processing units
•512-bit 8-channel memory interface
•Comprehensive DirectX® 10 support
•Integrated CrossFire™
•High-speed 128-bit HDR (High Dynamic Range) rendering
•Up to 24x Custom Filter Anti-Aliasing
•ATI Avivo™ HD video and display technology
•Built-in HDMI and 5.1 surround audio
•Dynamic geometry acceleration
•Game physics processing capability
•Free “Black Box” game bundle from Valve Corporation

Over het stroomverbruik is het volgende bekend:
Singlecard: Max 225W default clockspeed (Overdrive >225W). Aanbevolen PSU: 500W
Crossfire setup aanbevolen PSU: 750W

Zoals je kan zien in de specs is de R600 dus geen vector machine zoals voorheen gedacht (Vec4 + Scalar), maar een scalar architecture net zoals de G80. Het verschil zit hem echter in de implementatie. Daarnaast biedt de R600 volledige ondersteuning voor HD Audio en is daarmee dus zowel een GPU als SPU.

Stream Processors
De term stream processors voerde AMD in met de FireStream GPUs die gericht waren op General Purpose applicaties. nVidia gebruikte de term daarna ook voor de shaderunits in de G80. Daar houdt echter de vergelijking op.

In de G80 was elke Stream Processor (SP) een scalar, single component unit, die gekoppeld werd aan een special function unit (SFU). Dat betekent dat elke SP in nVidia's G80 in staat is om een enkele instructie per klokslag af te handelen, wat een totaal van 128 instructies per klokslag oplevert.

AMD heeft een andere aanpak gekozen voor de HD 2000 serie. Zij hebben gekozen voor een "Super Scalar Architecture". In plaat van het uitvoeren van een enkele instructie per klokslag, kan elk van de 64 shader units in de R600 er 5 uitvoeren.

http://www.elitebastards.com/hanners/ati/r600/sp.jpg
Opbouw van een shaderunit in de R600: 5 stream processors per unit


Op het plaatje hierboven zie je de opbouw van een shader unit in de R600. Deze bestaat uit 5 streamprocessors, waarvan er eentje een dikke is. Dit is een special function unit (SFU) die ook nog andere taken voor zijn rekening neemt zoals SIN, COS en EXP. Daarnaast beschikt elke shaderunit over een aparte branching unit.

De streamprocessors zijn geplaatst in een SIMD (Single Instruction, Multiple Data) arrays van zestien units. Elke array heeft daardoor dus tachtig Stream Processing units. De R600 heeft vier arrays wat in totaal dus 320 shader units oplevert die geschikt zijn voor het bewerken van pixel, vertex en geometry data.

Vergelijken we het Super Scalar ontwerp met de Scalar Architecture van de G80, dan is het duidelijk waar de voordelen liggen van AMDs architectuur, dankzij de mogelijkheid om met meerdere instructies per klokslag te werken in tegenstelling tot de enkele instructie per klokslag bij de G80. Er is echter één grote maar.... Het is bij de G80 vrij gemakkelijk om alle SPs gevoed te houden me data, terwijl het bij de R600 moeilijker is om de complexere SPs bezig te houden en efficient te laten werken. Dus hoe probeert AMD haar architectuur in te richten voor een maximale efficientie?

AMD introduceerde met de X1K serie de "Ultra Threaded Dispatch Processor". Met de HD2K serie heeft AMD deze UTDP flink opgepimpt en veel dingen overgenomen uit de Xbox360 GPU. Ten eerste beschikt de HD2K serie over dedicated instruction cache, wat het theoretisch mogelijk maakt om shaders met oneindige lengte te verwerken. Daarnaast is er een gelijksoortige cache ingebakken waar de GPU een onbeperkt aantal constanten kan opslaan. Was de X1K in staat om 512 threads tegelijkertijd 'in flight' te houden, met de HD2K serie is dit aantal nog verder omhoog gebracht. Honderden threads kunnen tegelijkertijd 'in flight' gehouden worden die er voor zorgen dat de SIMD arrays nooit uit hun neus hoeven te vreten. Per array zijn er twee "thread arbiters", een soort scheidsrechters, die aangeven welke threads door welke SP verwerkt moeten worden. Als een thread op data wacht, dan kan het 'in flight' blijven (deze wordt als het ware op pauze gezet) en vervangen worden door een andere thread die wel klaar is om bewerkt te worden door de SP. Als de thread die 'in flight' is klaar is om bewerkt te worden, kan de SP het werk hieraan hervatten. Hierdoor blijven de SPs dus gevoed met data.

AMD biedt dus wel meer processing units aan in vergelijking met de G80 van nVidia, maar de SPs van de G80 werken wel op meer dan de dubbele kloksnelheid van de core. Daarnaast is het moeilijker om alle SPs gevoed te houden in de R600 en zal dit voornamelijk aan het driverteam zijn om dit voor elkaar te krijgen. Alleen de tijd en driververbeteringen zullen ons leren hoeveel efficientie AMD uit hun super scalar architectuur kan halen. Maar gezien het feit dat ze veel ervaring hebben met Xenos, lijkt het er op dat AMD hier geen problemen mee zal krijgen.

http://www.guildwarsarena.net/ati/atitopic-iq.jpg

De Radeon HD serie zal ook op het gebied van Image Quality weer een sprong voorwaarts zijn ten opzichte van de Radeon X1K serie. De Anisotropic Filtering algoritmes zijn verbeterd en ook zijn er een aantal nieuwe Anti Aliasing Modi te vinden in de nieuwe reeks. Daarnaast maakt de HD serie ook gebruik van "Bicubic Texture Filtering", dit is een verbeterde variant van Bilinear Texture Filtering en geeft een scherper beeld zonder artefacts. Veel techies hadden de optie van Bi-Cubic Texture Filtering als ongeloofwaardig afgeschreven, maar dit is toch door AMD geimplementeerd.

Anisotropic Filtering
Bracht de X1K serie een speciale High Quality AF mode die je zelf aan moest zetten in de drivers, in de HD serie is de High Quality AF mode de standaard AF mode. Dus vanaf de HD serie kunnen alle Radeons standaard genieten van bijna hoekonafhankelijke AF zonder zich zorgen te maken over een grote performancedrop. De filteringmodes zijn geoptimaliseerd om te kunnen concurreren met de zeer sterke high quality AF modi van de G80.

Anti Aliasing
Oftewel het weg werken van kartelrandjes. Ook dit is sterk verbeterd en wel op 2 gebieden:
  • 8x MSAA
  • Custom Filter AA
Naast de standaard 2x, 4x en 6x MSAA introduceert AMD nu ook de 8x MSAA instelling. Dankzij de gigantische sloot aan bandbreedte zal dit (net zoals 6x MSAA) weinig performance impact hebben. Een groot verschil met de G80 serie van nVidia is dat AMD gebruik maakt van programmeerbare AA samples. Dit zorgt voor een enorme flexibiliteit en kan daardoor voor een veel betere beeldkwaliteit zorgen. Via driverupdates is het mogelijk om nieuwe sample patronen en resolve filters te programmeren in de HD kaarten. Na het downloaden van nieuwe filters kan je deze selecteren via het Catalyst Control Center.

In de toekomst zullen developers straks zelf hun eigen AA filters/patronen kunnen programmeren in hun games. Hierdoor kunnen ze zelf kiezen wat het beste bij hun game past. Op dit moment ondersteunt DX10 dit nog niet, maar dit zal in een toekomstige versie van DX10 worden blootgesteld aan developers (waarschijnlijk in DX10.1). Maar met de HD serie brengt AMD deze toekomstige functionaliteit al naar jou toe zodat je er vandaag al van kunt genieten!

Custom Filter AA is het AA wapen dat AMD in de strijd gooit tegen Coverage Sample AA (CSAA) van de G80 serie van nVidia. CFAA werkt als een post-processing filter op elke gerenderde frame. Hier zal ongetwijfeld direct de vergelijking met Quincunx AA van nVidia worden getrokken dat ook een post-processing filter was. In het geval van Quincunx AA trad er vaak een soort van waas over de lijnen op, waardoor veel mensen dit gekscherend "blur AA" noemden. Ongetwijfeld zullen veel 'critici' hier op gaan letten of ze dit ook bij CFAA gaan zien.

AMD lanceert initieel 6 nieuwe CFAA modes:
  • 4x CFAA (2x MSAA + Narrow Tent)
  • 6x CFAA (2x MSAA + Wide Tent of 4x MSAA + Narrow Tent)
  • 8x CFAA (4x MSAA + Wide Tent)
  • 12x CFAA (8x MSAA + Narrow Tent)
  • 16x CFAA (8x MSAA + Wide Tent)
  • 24x CFAA (8x MSAA + Edge Detect)
CFAA biedt een aantal voordelen boven CSAA:
  • CFAA provides better edge quality per sample
  • CFAA can scale to more than 16 samples per pixel
  • CFAA works better on silhouette edges
  • CFAA works on stencil shadows
  • CFAA is not limited to polygon edges
Als laatste zal AMD binnenkort ook een nieuwe vorm van Adaptive AA introduceren. Dit is echter niet gebonden aan de HD serie, maar zal ook op oudere kaarten (vanaf de 9500 serie) werken. Men noemt het Performance AAA en zal een betere kwaliteit AAA brengen met de snelheid van multisample AA, daar waar Quality AAA een grotere performancehit heeft vanwege het gebruik van supersampling AA.

Natuurlijk zijn ook de AA varianten uit de vorige generaties aanwezig. Dwz dat je gebruik kan blijven maken van HDR + AA, Adaptive AA, Temporal AA en SuperAA. Al deze varianten werken met Gamma Correction zoals we dat al gewend zijn vanaf de R300 serie.

http://www.guildwarsarena.net/ati/atitopic-reviews.jpg

Hieronder staan links naar de meeste HD2900XT reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet:

Anandtech
Beyond3D
Bit Tech Score: 7/10
Bjorn3D
Chile Hardware
Computer Base.De
Cubic
Digit Life
Driver Heaven
Elite Bastards
Extreme Tech | Architecture Analysis
Firing Squad
Guru3D
Hardware Info
Hardware Secrets
Hardware Zone Score: 4.5/5
Hexus Award: Good Value
HardOCP
Hot Hardware
Legit Reviews
Neoseeker
OC Workbench
PC Perspective
PC Presence
T-Break
Tech Power Up
The Inquirer
The Tech Lounge
The Tech Report
Tom's Hardware
Trusted Reviews
Tweakers.net
Tweak Town
VR-Zone
X-Bit Labs
http://www.guildwarsarena.net/ati/atitopic-hd2900.jpg

http://www.guildwarsarena.net/ati/hd2900xt.jpg
Retail 9.5" versie van de Radeon HD 2900 XT


Over de R600 chip is al heel wat geschreven (zie ook vorige delen en hierboven). De R600 zal er in eerste instantie alleen komen in XT uitvoeren met 512MB GDDR3. Voor OEMs is er een XT beschikbaar die gebruik maakt van 1GB GDDR4 geheugen. Deze is meteen ook een flink stuk groter uitgevallen. Het ziet er naar uit dat er wel een XTX uitvoering komt, maar wanneer is niet precies bekend.

AMD heeft de X laten vallen ten gunste van de HD-tag. Hier wil men de nadruk leggen op de Avivo HD mogelijkheden van de R6-serie. De GPU loopt op 742Mhz terwijl het geheugen op 825Mhz geklokt is. Fabrikanten kunnen hiervan afwijken. Zo zal HIS de core op 750Mhz laten lopen en het geheugen op 850Mhz klokken. Gebleken is dat de core vrij hoog over te klokken is, dus ook voor de enthousiaste overklokker is er nog genoeg speelruimte om zelf aan de slag te gaan.

Het stroomverbruik lig iets hoger dan die van een GF8800GTX, maar de meeste mensen die voor snel gaan zal dit niet veel uit maken (een Ferrari koop je ook niet omdat-ie zo zuinig is en met 120km over autobahn te rijden). Wat wel voor de koper echter ook interessant is, is dat de cooler zijn werk goed doet en ook nog eens zeer stil is. Volgens de eerste berichten is de kaart zelfs koeler dan de X1950XTX.

De grote verrassing van de R600 is de prijs. De adviesprijs ligt namelijk op $399. In Europa zal de kaart voor onder de €399 beschikbaar zijn. Voor deze prijs krijg je een kaart die over het algemeen met gemak de GF8800GTS640 verslaat die dezelfde adviesprijs heeft en heeft ook nog eens meer features aan boord! En het leuke is dat de HD2900XT voor die prijs ook nog eens zeer dicht bij de GF8800GTX/Ultra komt en er in sommige gevallen zelfs boven uit steekt. Let wel... die twee kaarten hebben een adviesprijs van respectievelijk $549 en $829. Op dit moment schommelen de pre-order prijzen van de HD2900XT tussen de €339 en €380.

Sommige mensen zullen teleurgesteld zijn dat de HD2900XT niet overtuigend de GF8800GTX kan weerstaan en ook dat AMD niet direct een XTX versie uit brengt die dat wel kan. Vergeet daarbij niet het volgende... het gaat hier alleen om DX9 benchmarks en niet om DX10. De eerste tekenen (Crysis, FSX, next gen BF) wijzen er op dat de HD2900XT geen moeite heeft om de GF8800GTX bij te benen (en in te halen) in DX10 applicaties. Vergeet niet dat de R600 gemaakt is voor DX10 (en niet voor DX9) en dat ATI al sinds de Xenos met Microsoft in 1 bed slaapt.... Uiteraard is hier het laatste nog niet over gesproken, want bv drivers kunnen nog veel verschil uitmaken:

http://www.guildwarsarena.net/ati/crysisdemo.jpg


Er komt in eerste instantie geen XTX uit met GDDR4 omdat er wat problemen waren met de 512-bit memory interface en GDDR4. Dit zou opgelost moeten worden in een nieuwe revisie dan wel in de R650. Het probleem was iets waar AMD op het allerlaatste moment achter kwam. Hieruit bleek dat een HD2900XT met 825Mhz GDDR3 geheugen net zo snel was als een HD2900XT met 1.1Ghz GDDR4. Het leek net alsof het niet uit maakte of er GDDR3 of snel GDDR4 op zat en alsof het beide beperkt was tot zo'n 105,6GB/s aan bandbreedte ondanks dat GDDR4 hier flink boven zou moeten gaan zitten. Op de een of andere manier werd dus niet het volle potentieel benut van de 512-bit memory interface in combinatie met GDDR4 en was het dus logisch om retail kaarten in eerste instantie te voorzien van GDDR3 totdat het probleem met GDDR4 is opgelost.

http://www.guildwarsarena.net/ati/atitopic-hd2800.jpg

Over de RV670 is nog niet veel bekend, behalve het kwartaal waarin deze GPU gepland staat, namelijk Kwartaal 3 van 2007. Als we afgaan op de RV570 GPU, dan is de RV670 een GPU die zich in de hogere regionen van de midrange bevindt en dus waarschijnlijk een 256-bit memory interface zal hebben.

Eventueel zou ook een RV660 uit kunnen komen, net zoals er ook een RV560 variant was van de RV570 die identiek was op een aantal uitgeschakelde onderdelen na.

Deze series heten dan waarschijnlijk de Radeon HD 2800 serie en de Radeon HD 2700 serie.

http://www.guildwarsarena.net/ati/atitopic-hd2600.jpg

Launchdate: Computex 2007 (1ste week Juni. Beschikbaarheid 2de of 3de week Juni)

De midrange GPU RV630 heeft de officiele naam HD2600 mee gekregen. Van de RV630 zijn er een drietal PCB modellen bekend. Al deze modellen zijn vernoemd naar diamanten, namelijk Kohinoor, Orloff en Sefadu. In eerste instantie zullen er twee retailversies van de HD2600 leverbaar zijn, namelijk de HD2600Pro en HD2600XT. Al deze modellen zullen gebruik maken van een 128-bit memory interface, net zoals de RV530 en RV560. De die-size van RV630 13.3x11.5mm oftewel ~153mm² op 65nm en is daarmee 10% kleiner dan zijn rechtstreekse concurrent de G84.

Beide HD2600 kaarten zullen de beschikking hebben over 120 streamprocessors.

http://www.guildwarsarena.net/ati/hd2600xt.jpg


Ondanks veelgehoorde geruchten dat de snelste RV630, de HD2600XT, een dubbelslotcooler nodig zou hebben en meer dan 120W zou verbruiken, is gebleken dat dit allemaal wel mee valt. Het stroomverbruik van de HD2600XT ligt rond de 65W en heeft daardoor geen extra stroomvoorziening nodig. Daarnaast gebruikt deze kaart ook een singleslotcooler zoals je kan zien in het plaatje.

De performance zou moeten liggen rond 12000 punten in 3DM05. Een andere bron meldt dat ze een RV630 hebben gezien op 540Mhz core en 700Mhz mem en dat deze zo'n 5000 punten scoorde in 3DM05 en op 3000 punten zat in 3DM06. De eerste was wellicht gebaseerd op Kohinoor, terwijl de tweede misschien wel Sefadu was.

Als alles goed gaat zal de HD2600XT op ongekend hoge kloksnelheden zijn werk doen. 800Mhz core zou haalbaar moeten zijn. Daarnaast wordt er gebruik gemaakt van snel GDDR4 geheugen (en in eerste instantie waarschijnlijk zelfs snel GDDR3 geheugen). Zelfs al wordt het langzaamste GDDR4 geheugen (op dit moment 900Mhz) gekoppeld aan de 128-bit memory interface, dan nog zal deze kaart een geheugenbandbreedte hebben van 28.8GB/s. Dit is dus nog altijd bijna 30% meer dan de X1650Pro en X1650XT. Koppel je dit aan het 1Ghz GDDR4 geheugen waar ook de X1950XTX gebruik van maakt, dan kom je uit op een totaal van 32GB/s wat te vergelijken is met de bandbreedte die bv de X800XT en GF6800GT hadden.

http://www.guildwarsarena.net/ati/hd2600pro.jpg


De HD2600Pro zal waarschijnlijk een populair kaartje worden gezien het vriendelijker prijskaartje. Daarnaast doet deze kaart prima dienst als extra physics GPU. De HD2600Pro maakt uitsluitend gebruik van GDDR3 geheugen.

Het voordeel die de RV630 serie heeft op de G84 serie ligt niet zo zeer op het gebied van performance, maar op het gebied van featureset en IQ. Elke kaart in de RV630 serie biedt bijvoorbeeld HDCP en native HDMI aan, daar waar de G84 en G86 dit niet doen.

RV630 heeft de Universal Video Decoder aan boord. Hiermee wordt hardware H.264 en VC-1 decoding mogelijk zonder al te veel performanceverlies. De G84 ondersteunt geen VC-1! UVD kan rechtstreeks Bitstream Processing/Entropy Decode, Frequency Transform, Pixel Prediction en Deblocking op de GPU uitvoeren waardoor het CPU verbruik enorm omlaag gaat.

Het stroomverbruik is inmiddels ook bekend.
HD 2600 XT -> 65W
HD 2600 PRO -> 55W

http://www.guildwarsarena.net/ati/atitopic-hd2400.jpg

Launchdate: Computex 2007 (1ste week Juni. Beschikbaarheid 2de of 3de week Juni)

De RV610 komt er in eerste instantie in twee varianten, de HD2400Pro en HD2400XT. Deze maken gebruik van PCB met de codenamen: Falcon en Antelope. Beide varianten worden in Mei 2007 gelanceerd en zijn gemaakt op het 65nm productieproces. Dit productieproces zorgt er voor dat de RV610 bijzonder klein is, namelijk 7.7x10.7mm, oftewel ~82mm² op het 65nm productieproces. Ter vergelijking, nVidia's tegenhanger de G86 is 11.5x10mm, oftewel ~115mm² op 80nm.

Beide HD2400 kaarten zullen de beschikking hebben over 40 streamprocessors.

http://www.guildwarsarena.net/ati/hd2400xt.jpg


Antelope is de snelle jongen van de twee. Deze zal gebruik maken van 256MB GDDR3. In combinatie met een andere RV610 kan je gebruik maken van hardwarematige CrossFire, wat je ook ziet op het plaatje.

Over de performance is nog weinig bekend. Het gerucht gaat dat Falcon in ieder geval een 64-bits memorycontroller heeft. Zo'n dusdanig kleine memorycontroller staat er om bekend dat hierdoor de prestaties flink geknepen worden, maar dat mag in de budgetsector geen probleem zijn.

Met enig geluk beschikt Antelope wel over een 128-bit memory interface, dan wel een 64-bit memory interface met zeer snel GDDR3 geheugen. De core van de RV610Pro die op het Antelope PCB geprikt wordt, zou volgens eerste berichten op 700Mhz lopen.

http://www.guildwarsarena.net/ati/hd2400pro.jpg


Falcon is het laagste model en deze zal gemiddeld zo'n 25W verbruiken. Het geheugen dat op dit PCB geprikt zal worden is 128MB GDDR2 geheugen, dat dmv Hypermemory uit te breiden is naar 512MB of meer. CrossFire wordt alleen via software ondersteund. De eerste geruchten wijzen op een core snelheid van 400Mhz voor de RV610LE die op het Falcon PCB geprikt zal worden.

De performance van de RV610LE GPU is twee keer die van de X1300LE volgens AMD. En net als RV630 heeft ook RV610 alle UVD mogelijkheden aan boord.

Over het stroomverbruik is het volgende te melden:
HD 2400 XT -> 20W
HD 2400 PRO -> 18W

Note: Let op. Er zijn laptops in omloop met de Mobility Radeon X2300 en X2400. Dit zijn geen DX10 kaarten, maar gebaseerd op de X1450 (lichtelijk getweakte X1400). Alleen de kaarten met de prefix HD zullen DX10 ondersteunen. Alle kaarten die beginnen met een X zijn dus DX9 kaarten.

http://www.guildwarsarena.net/ati/atitopic-mobility.jpg

Tegelijkertijd met de desktop GPUs zal AMD ook haar nieuwe notebook lineup presenteren. Deze zal bekend staan onder de naam Mobility Radeon HD 2x00. In eerste instantie zullen er 5 Mobility Radeons gelanceerd worden, waarvan er eentje gebaseerd is op DX9.
  • Mobility Radeon HD 2300
  • Mobility Radeon HD 2400 Pro
  • Mobility Radeon HD 2400 XT
  • Mobility Radeon HD 2600 Pro
  • Mobility Radeon HD 2600 XT
De Mobility Radeon HD 2300 is zoals het er nu naar uit ziet de enige uit het rijtje die gebaseerd is op de RV550 core, wat wil zeggen dat dit een DX9 core is met UVD aan boord. De RV550 is op zijn beurt weer gebaseerd op de RV516 (4PS, 2VS).

De 4 overgebleven kaarten zijn wel volledig DX10 compliant en zijn identiek aan hun desktop broertjes op kloksnelheid verschillen na. De eerste scores zijn bekend. HP heeft een notebook met een 256MB versie van de Mobility Radeon HD 2600 XT. Deze scoort iets meer dan 4000 punten in 3DMark06 en rond de 12000 in 3DMark03.

http://www.guildwarsarena.net/ati/atitopic-toekomstigegpus.jpg

Of de opvolger van R600 de naam R650 of R680 krijgt is nog weinig bekend. Wat wel bekend is, is dat AMD op de roadmap een "next generation R600" heeft staan en dat deze gepland is voor het derde kwartaal van 2007. De refresh van de R600 zal hoogst waarschijnlijk gebruik maken van het 65nm productieproces. Dit kan je min of meer afleiden aan de hand van een opmerking gemaakt door Dave Orton, die meldde dat AMD de eerste zou zijn die een high end GPU op het 65nm productieproces zou releasen in 2007.

De voordelen van het 65nm productieproces zijn dat de core veel kleiner kan worden, en dat tegelijkertijd ook de kloksnelheid opgevoerd kan worden. De eerste geruchten over de R600 zeggen dat deze zeer goed meeschaalt met kloksnelheid. Er staat ons dus nog wat te wachten! En als de geruchten kloppen zelfs al in September. Misschien dat we dan de HD 2900 XTX of HD 2950 XTX te zien krijgen op een klok die tegen de 1000Mhz aan ligt.

Wat in ieder geval zeker is, is dat deze kaart 1GB aan GDDR4 krijgt en dat deze kaart pas eind 2007 of begin 2008 concurrentie krijgt van nVidia in de vorm van G90. G90 stond namelijk gepland voor Q3, maar heeft een tapeout gemist waardoor deze verschoven is naar het einde van Q4/begin Q1 '08.

De R650 zal waarschijnlijk al op Computex (Juni) geshowcased achter gesloten deuren net zoals de RV670. Dit duidt er op dat de R600 een kort leven beschoren is en snel vervangen wordt door de opvolger, net zoals de X1900 serie gewoon op schema lag en zich niks aan trok van het uitstel van de X1800.

http://www.guildwarsarena.net/ati/atitopic-prijsoverzicht.jpg
Deze lijst wordt weer geupdate wanneer de HD2K serie gereleased is.


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan prijswijzigingen doorvoeren.

http://www.guildwarsarena.net/ati/atitopic-geruchtenmolen.jpg
http://www.guildwarsarena.net/ati/atilogo.jpg
Gerucht: R600 is laat vanwege technische problemen
Nee.
Waarheidsfactor: 100%
Update: 06-03-2007
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: R600 is achterhaald op het moment van release, nV komt vast met een veel snellere G81 uit
Nee. R600 is niet achterhaald op het moment van release. Weten jullie wat R600 is? Nee? Trek dan ook geen voorbarige conclusies. Degenen onder ons die inmiddels weten wat R600 is, zullen jullie dit ook kunnen vertellen dat de R600 zeker niet achterhaald is. ;)

En de refresh van nVidia? Maakt AMD zich daar zorgen over? Voorlopig komt er geen G81. Als er een snellere variant uit komt van de GF8800GTX, dan is het de GF8800Ultra en deze is nog altijd gebaseerd op de G80 core. Voorlopig ziet het er naar uit dat het niets meer is dan een opgevoerde G80, en daar houdt AMD zeker rekening mee.
Waarheidsfactor: 100%
Update: 06-03-2006
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: CrossFire heeft niet dezelfde 60Hz beperking op R5x0 kaarten
Waar!
Waarheidsfactor: 100%
Update: 02-10-2005


http://www.guildwarsarena.net/ati/sapphirex1900xtx-blizzard.jpg
Sapphire X1900XTX Blizzard Edition - Watergekoelde X1900XTX

http://www.guildwarsarena.net/ati/atitopic-overige.jpg
http://www.guildwarsarena.net/ati/atilogo.jpgATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Het moge duidelijk zijn dat de meeste dingen nog gebaseerd zijn op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd van harte welkom (via mail dan wel in het topic).

CJ wijzigde deze reactie 17-05-2007 13:40 (208%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!
http://www.guildwarsarena.net/ati/atitopiclogo2.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQ
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is 3Dc?

Antwoord: 3Dc is een manier van normal map compressie. Check de firstpost van dit topic [Algemeen] ATi Nieuws & Discussie Topic - Deel 10 om te
zien wat 3Dc precies is. 3Dc is inmiddels opgenomen in de specificatie van DirectX10 en ook de Xbox360 ondersteunt 3Dc. Games zullen dus steeds meer 3Dc ondersteuning bieden (zelfs zonder dat het expliciet vermeld wordt) en nVidia zal 3Dc ook hardwarematig moeten ondersteunen (alhoewel ze het waarschijnlijk anders gaan noemen, aangezien de naam 3Dc waarschijnlijk door ATi is gepatenteerd).
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is CrossFire?

Antwoord: CrossFire is ATi's Multi VPU oplossing waarmee zoals de naam al zegt, meerdere kaarten aan elkaar gekoppeld kunnen worden om de performance te verbeteren. Wil je precies weten wat CrossFire is, kijk dan even in de First Posts van de vorige topics.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Op de nieuwste AMD kaarten, de ATI Radeon X1650XT en X1950Pro, zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! De R600 (en afgeleiden) zullen dit nieuwe systeem ook gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een 70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games ondersteunen 3Dc?

Antwoord: ATi maakt binnenkort een lijst bekend met 3Dc titels.
Op dit moment zijn dit games waarvan bekend is dat ze 3Dc
ondersteunen.

- Far Cry (patch 1.3)
- Half Life 2 (ATi levels)
- Tribes Vengeance
- Sid Meier's Pirates!
- DarkSector
- Project Freedom

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [Algemeen] ATi Nieuws & Discussie Topic - Deel 10 om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
quote:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in Xenos -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200
- Intel 955x
- Intel 975x

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaar geworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Komen er ook AGP versies uit van de X1K serie?

Antwoord: ATi laat het aan AIB (All In Board partners, zoals MSI, Asus, Powercolor etc) over om AGP versies uit te brengen van hun kaarten. ATi heeft aangegeven dat ze AIBs ter zijde willen staan mochten ze hulp nodig hebben bij het ontwikkelen van AGP versies. Op dit moment zijn de volgende kaarten beschikbaar in AGP variant:
  • X1300Pro
  • X1600Pro
  • X1650Pro
  • X1650XT (Powercolor beschikbaar vanaf medio Januari 07)
  • X1950Pro256/512

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes
(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment
bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580 maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik
maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.

ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen
wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van DirectPhysics lijkt dit dan ook te gaan gebeuren. En nu AMD net als nVidia samenwerkt met HavokFX, lijkt Havok vooralsnog de beste kaarten in handen te hebben.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een HD2K kaart bij, dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook
HavokFX onderdeel van is.

CJ wijzigde deze reactie 14-05-2007 13:18 (99%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!
http://www.guildwarsarena.net/ati/pricechart.jpg
Richtprijzen na de lancering van de X1950XTX, X1950Pro, X1650XT, X1650Pro en X1300XT

X1K-serie in de Pricewatch
http://tweakers.net/price...Field=prijs&orderSort=asc

Let er wel op dat de prijzen dagelijks kunnen veranderen en dat deze pricewatch eens in de maand wordt geupdate. De prijzen zijn afgerond in hele euro's. De echte winkelprijzen kunnen dus iets anders zijn.
• Goedkoopste X1300 128MB PCIe: €47,20 >
• Goedkoopste X1300 256MB PCIe: €56,95 <
• Goedkoopste X1300 512MB PCIe: €53,16 >
• Goedkoopste X1300Pro 256MB PCIe: €64,14 <
• Goedkoopste X1300XT 256MB PCIe: €65 << TIP
• Goedkoopste X1300XT 512MB PCIe: €90,00 NEW
• Goedkoopste X1600Pro 256MB PCIe: €73,54 =
• Goedkoopste X1600Pro 256MB AGP AGP: 99,91 <
• Goedkoopste X1600Pro 512MB PCIe: €98,55 >
• Goedkoopste X1600XT 256MB PCIe: €77 <<
• Goedkoopste X1650Pro 256MB PCIe: €76,00 =
• Goedkoopste X1650XT PCIe: €119 <
• Goedkoopste X1800GTO 256MB PCIe: €174,90 =
• Goedkoopste X1800XT 256MB PCIe: link verouderd
• Goedkoopste X1800XT 512MB PCIe: €304,98 >>
• Goedkoopste X1900GT 256MB PCIe: €157,00 >
• Goedkoopste X1950GT 256MB PCIe: €144 NEW
• Goedkoopste X1950Pro 256MB PCIe: €154 < TIP !!!
• Goedkoopste X1950Pro 256MB AGP AGP: €195 NEW AGP TIP !!!
• Goedkoopste X1950Pro 512MB PCIe: €195,23 <<
• Goedkoopste X1900XT 256MB PCIe: €229,00 <<
• Goedkoopste X1900XT 512MB PCIe: €299,00 =
• Goedkoopste X1900XT CrossFire: €374,00 >
• Goedkoopste X1900XTX 512MB PCIe: €299,00 <<
• Goedkoopste X1950XT 256MB PCIe: €198,00 << TIP
• Goedkoopste X1950XTX PCIe: €298,00 <<
• Goedkoopste X1950XTX CrossFire PCIe: €354,80 <<
< lager in prijs tov vorige update (<< meer dan €10 gezakt)
> hoger in prijs tov vorige update (>> meer dan €10 gestegen)
= gelijk gebleven tov vorige update
Last updated: 6 Maart 2007

CJ wijzigde deze reactie 14-05-2007 13:19 (99%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!
Links naar de reviews staan in de first post. Dus controleer eerst of een review al vermeld is in deze lijst voordat je het weer in dit topic post!

Klik HIER

CJ wijzigde deze reactie 14-05-2007 13:21 (23%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • nero355
  • Registratie: februari 2002
  • Nu online

nero355

ph34r my [WCG] Cows :P

quote:
Flying schreef op maandag 14 mei 2007 @ 13:16:
Toen ik net aan een leek vroeg wat er realistischer uit ziet dan koos ze voor DirectX 9. Ze vroeg me of de berg op het tweede plaatje een ijsberg moest voorstellen. De vormen van de berg zien er realistischer uit in DirectX 10, maar daar stopt het ook een beetje imo.
Dan is diegene die je dat hebt gevraagd niet bekend met zo'n soort omgeving denk ik, want dat plaatje is echt veeeeel mooier en het Direct X 9.0 plaatje ziet eruit alsof het een of ander suf stuk klei is met een hele slechte texture erop ... ;)

Ik durf het foto realistisch te noemen in ieder geval !!

Poste dit in het andere Topic kreeg ik een Error ... dat is effe schrikken als je een paar keer stout bent geweest :+

|| DPC GoT WhatPulse Team :) || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0Henk 'm!

  • Tijgertje84
  • Registratie: augustus 2005
  • Laatst online: 12-08-2015
omg laat dit topic is gewoon open tot de 1000 posts ofzo zoals bij SGD. Dit is echt nutteloos zo om elke dag een ander topic in me bookmarks te douwen :P

Intel© Conroe E6600 | Asus P5Q PRO Turbo | Sapphire Vapor-X HD5770 1GB | G.E.I.L. 2 GB DDR2-667 Kit CL4 4-4-12 | WD Caviar SE16 2x250GB (S-ATA2) (Raid0) | Sunbeam Trio | Chaintec CFT-500A | Windows XP Pro SP3 | Samsung Syncmaster S23A350H


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 23-02 20:38

Astennu

-= RX 5700 XT 50th =-

Nou Deel 59 :) die zal ook wel weer zo vol zijn :D.

Ik wil het even hebben over de IQ van de HD2900 XT. Die AA filters vallen me namelijk wat tegen. Alles wordt een beetje waziger. Veel minder scherp. Ik heb dus liever de oude 6x AA mode terug want ik wil scherper beeld hebben en niet waziger.

De HQ AF is ook nauwelijks verbeterd. Dus ik hoop dat AMD daar nog wat aan gaat doen. De laatste hoop is die nieuwe AA mode die nog uit moet komen.

Maar volgens mij zit er echt iets niet goed in die AA en AF driver. Die performance hits zijn veel te groot. Een X1950 XTX doet het veel beter qua performance hit. Ik had verwacht dat die geheugen bus de hit minder zou maken maar er gaat volgens mij iets fout in de Robs van de kaart.

Het potentieel is er alleen het komt er niet uit.....

En wanneer komen de HD2600 reviews nou ? die zou toch gelijk uitkomen maar gewoon later beschikbaar zijn ? Of heeft AMD nu helemaal zitten liegen ? want de drivers zijn niet op orde de XTX komt niet eens meer en de HD2400/2600 zijn niet eens uit en laat staan leverbaar....

Edit:

Voor Edward: Volgens die Frank werkte v-sync met Crossfire wel. Ook hij kon het niet meer testen want zij CF kaart is weg.

Astennu wijzigde deze reactie 14-05-2007 13:27 (5%)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-01 23:51
Prachtig gedaan CJ, maar vervelend om dit te posten, sorry
PCGH heeft net de dx benchmark met r600 erbij online: ...
Plaatje op imageshack (popups!)
http://www.pcgameshardware.de/?article_id=601352

Joepi wijzigde deze reactie 14-05-2007 13:30 (8%)


Acties:
  • 0Henk 'm!

  • Fly-guy
  • Registratie: juni 2000
  • Niet online
quote:
Astennu schreef op maandag 14 mei 2007 @ 13:26:
Of heeft AMD nu helemaal zitten liegen ? want de drivers zijn niet op orde de XTX komt niet eens meer en de HD2400/2600 zijn niet eens uit en laat staan leverbaar....
Daar begint het wel erg sterk op te lijken.....

Als je ziet wat voor verbeteringen de laatste twee drivers (nummers ben ik ff kwijt) brengen, vraag ik me af wat ze al die maanden dat de 2900xt "af" was, gedaan hebben (ze konden die kaart zo shippen was de opmerking van AMD een aantal maanden terug)
quote:
Krijgt de 2900xt zwaar klop...

Fly-guy wijzigde deze reactie 14-05-2007 13:32 (22%)


Acties:
  • 0Henk 'm!

  • Cassius
  • Registratie: januari 2002
  • Niet online

Cassius

Moogles!

Even mijn 2 centjes over het hele energieverbruik gerant hiero ...

De kaart verbruikt vooral meer in 3D modus en dan is het zo'n 70-90 Watt meer als een GTX. Dat is ongeveer 90 euro over 3 jaar ... 30 euro per jaar om lekker te gamen? Sorry, maar dat lijkt me prima.

En als er nu een moraalriddertje zegt dat de videokaart de toekomst van je kind verpest, dan vraag ik wel of hij een auto heeft ... gezeik tegenwoordig. Iedereen lijkt wel vee dat met de media meegaat; alle kleine beetjes helpen, maar het is niet onze 'schuld' dat we in een gezond en welvarend land leven. Ik werk voor mijn centen, net zoals de meeste tweakers; laat ons dat dan ook uitgeven en van genieten zonder je moraal stempel erop te drukken. Overclocken jullie? Niet doen, vreet meer stroom! Gamen jullie vaak? Niet doen, vreet meer stroom :'( !!

Edit --> Ik ben ook voor 1000 posts, anders wordt het moeilijker om delen door te spitten als pagina's.

Cassius wijzigde deze reactie 14-05-2007 13:32 (6%)

Wat is daar het praktisch nut van - System "Deasygn"


Acties:
  • 0Henk 'm!

  • Spacey23
  • Registratie: maart 2007
  • Laatst online: 01-09-2019
Is inderdaad niet leuk om te zien dat ATI zo dik klop krijgt in Lost Planet DX10 demo.

Ik ben trouwens ook voor 1000 posts, anders moet ik telkens mijn bookmarks veranderen (ja ik weet, ik ben lui)!

Why do we fall? So we can learn to pick ourselves up.


Acties:
  • 0Henk 'm!

  • Fly-guy
  • Registratie: juni 2000
  • Niet online
quote:
Cassius schreef op maandag 14 mei 2007 @ 13:31:
Even mijn 2 centjes over het hele energieverbruik gerant hiero ...

De kaart verbruikt vooral meer in 3D modus en dan is het zo'n 70-90 Watt meer als een GTX. Dat is ongeveer 90 euro over 3 jaar ... 30 euro per jaar om lekker te gamen? Sorry, maar dat lijkt me prima.

En als er nu een moraalriddertje zegt dat de videokaart de toekomst van je kind verpest, dan vraag ik wel of hij een auto heeft ... gezeik tegenwoordig. Iedereen lijkt wel vee dat met de media meegaat; alle kleine beetjes helpen, maar het is niet onze 'schuld' dat we in een gezond en welvarend land leven. Ik werk voor mijn centen, net zoals de meeste tweakers; laat ons dat dan ook uitgeven en van genieten zonder je moraal stempel erop te drukken. Overclocken jullie? Niet doen, vreet meer stroom! Gamen jullie vaak? Niet doen, vreet meer stroom :'( !!
De vergelijking met overclocken gaat niet helemaal op, met overclocken verhoog je je energie verbruik, maar ook je prestaties. Met een 2900xt verhoog je je energieverbruik t.o.v. de GTX, maar niet de prestaties.
quote:
Edit --> Ik ben ook voor 1000 posts, anders wordt het moeilijker om delen door te spitten als pagina's.
Mee eens...

Fly-guy wijzigde deze reactie 14-05-2007 13:35 (9%)


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 23-02 20:38

Astennu

-= RX 5700 XT 50th =-

quote:
Cassius schreef op maandag 14 mei 2007 @ 13:31:
Even mijn 2 centjes over het hele energieverbruik gerant hiero ...

De kaart verbruikt vooral meer in 3D modus en dan is het zo'n 70-90 Watt meer als een GTX. Dat is ongeveer 90 euro over 3 jaar ... 30 euro per jaar om lekker te gamen? Sorry, maar dat lijkt me prima.

En als er nu een moraalriddertje zegt dat de videokaart de toekomst van je kind verpest, dan vraag ik wel of hij een auto heeft ... gezeik tegenwoordig. Iedereen lijkt wel vee dat met de media meegaat; alle kleine beetjes helpen, maar het is niet onze 'schuld' dat we in een gezond en welvarend land leven. Ik werk voor mijn centen, net zoals de meeste tweakers; laat ons dat dan ook uitgeven en van genieten zonder je moraal stempel erop te drukken. Overclocken jullie? Niet doen, vreet meer stroom! Gamen jullie vaak? Niet doen, vreet meer stroom :'( !!

Edit --> Ik ben ook voor 1000 posts, anders wordt het moeilijker om delen door te spitten als pagina's.
Die 70 watt klopt niet eens het hoogste verschil dat ik heb gezien is 40 euro. En die kaart gebruikt idle 35 watt minder !!! ik denk dat je meer idle in windows staat dan dat je 3d aan het gamen bent.

En inderdaad als je daar over gaat zeuren gooi dan eerst je auto weg. Maar een beetje opletten mag natuurlijk ook wel. Daar ben ik helemaal voor. Daarom tweak ik nu op performance per watt. En overclocken tot de max vernaggelt je performance per watt helemaal. Een overgeclockte C2D gaat ook van 65 watt naar iets van 120 en die C2D quads naar 180.

Maar Idle gebruik je meer dan load dus vooral daar moet je pc zuinig zijn. En na deze kaart worden de kaarten zuiniger ( heeft ATi gezegd ) De R650 wordt zo i zo 65nm dus dat gaat al veel schelen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • vigilante888
  • Registratie: januari 2004
  • Laatst online: 07-12-2019

vigilante888

The truth is out there.....

Tering die kaart is in het echt veel groter dan dat hij op de foto lijkt. Vanavond ff foto's posten van de CF setup.

Wat zit er allemaal in de doos van de HiS variant:

1x HD2900XT
2x DVI>VGA convertor
1x HDTV Output kabel
1x ViVo kabel
1x DVI>HDMI convertor
1x driver CD
1x Demo CD
1x Valve Blackbox voucher
1x AMD Get all 3 Sticker (zie amd.com/getall3)

vigilante888 wijzigde deze reactie 14-05-2007 13:42 (52%)

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


Acties:
  • 0Henk 'm!
quote:
Joepi schreef op maandag 14 mei 2007 @ 13:29:
Prachtig gedaan CJ, maar vervelend om dit te posten, sorry
PCGH heeft net de dx benchmark met r600 erbij online: ...
[afbeelding]
http://www.pcgameshardware.de/?article_id=601352
Niet vervelend hoor. Integendeel. ;)

Was ook grappig om te vermelden dat nVidia direct een nieuwe driver vrij gaf nadat ze te horen kregen dat AMD aan reviewers de CoJ DX10 demo gaf die de performance net weer iets wist te boosten en allerlei fouten oplostte in die demo. Waarom denk je dat de LP demo nu ook uit komt via nVidia met de nieuwe driver? :P
quote:
Spacey23 schreef op maandag 14 mei 2007 @ 13:34:
Ik ben trouwens ook voor 1000 posts, anders moet ik telkens mijn bookmarks veranderen (ja ik weet, ik ben lui)!
Dat gebeurt niet. De reden dat deze topics ooit eens tot 500 posts beperkt zijn, is omdat het anders voor mensen helemaal niet te doen is om relevante posts terug te vinden.

CJ wijzigde deze reactie 14-05-2007 13:41 (21%)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Mausje
  • Registratie: september 2002
  • Laatst online: 28-02-2012
Hmmmm ik heb zelf nu een X1900XTX kaartje en was van plan een 2900XT kaartje aan te schaffen.
Gezien de hoeveelheid stroom en toch wel wat tegenvallende prestaties ga ik toch maar op de 2950XT wachten.
Maar ja....valt te bezien of die ergens in September beschikbaar is als Ati weer gaat uitstellen!

Core2 6600 @3,6 Ghz, Asus P5B Deluxe, Sapphire 4870 , 2x2 GB Corsair 6400, 620W Enermax, X-Fi Soundblaster, HP w2228h, Thermaltake Armor, Habu mouse.


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 23-02 20:38

Astennu

-= RX 5700 XT 50th =-

quote:
Joepi schreef op maandag 14 mei 2007 @ 13:29:
Prachtig gedaan CJ, maar vervelend om dit te posten, sorry
PCGH heeft net de dx benchmark met r600 erbij online: ...
[afbeelding]
http://www.pcgameshardware.de/?article_id=601352
Ik snap hier niets van. Ik heb dit spel op de Xbox en het loopt daar al super waarom is het dan zo veel trager op de PC ? Volgens mij hebben ze em getweaked op de G80 en de hele Xenos code niet gebruikt zodat de R600 maar 1 pass per clock doet ipv 5 dat zou in ieder geval de performance verklaren......

Ik denk dat er op dit moment maximaal 40% van die core wordt gebruikt in die lost plannet demo. En in far cry misschien 60-70%.

Mja nVidia heeft gewoon de veilige aanpak genomen die werkt gewoon goed. Je hebt geen optimalisatie nodig. ATi wel. Maar als je die dan eenmaal hebt zal de R600 wel sneller zijn. Alleen nu is de vraag wie gaat die moeite nemen ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • Spacey23
  • Registratie: maart 2007
  • Laatst online: 01-09-2019
quote:
Dat gebeurt niet. De reden dat deze topics ooit eens tot 500 posts beperkt zijn, is omdat het anders voor mensen helemaal niet te doen is om relevante posts terug te vinden.
Oke jammer, maar het is inderdaad vervelender om een post niet terug te kunnen vinden dan een nieuwe bookmark aan te maken :)

Why do we fall? So we can learn to pick ourselves up.


Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 23-02 20:38

Astennu

-= RX 5700 XT 50th =-

Ik kwam dit tegen op B3D:
quote:
AMD have embargoed performance analysis of RV610 and RV630 until next month, but we're allowed to talk about those GPUs in terms of architecture and their board-level implementations, so we'll do that later today, after our look at R600, the father of the family. Tank once said, "Damn, it's a very exciting time". Too true, Tank, too true. He also said shortly afterwards, "We got a lot to do, let's get to it". We'll heed his sage advice.
Gaat nog even duren dus. Maar ik ga nu die tech review van hun door lezen. Eens kijken hoe de opbouw van die R600 is.

Edit:

Uit die B3D review lees ik dat de kaart powerplay7 heeft:
quote:
n terms of power management, the chip supports clock throttling, voltage adjust for p-states and entire unit shutdown depending on workload, combined by marketing under the umbrella of PowerPl
Dat zou verklaren waarom hij idle zo zuinig is. Leuk voor de laptops ik wil wel een HD2600 XT in me lappie :D.

En dit waarom hij in 3d zo veel nodig heeft:
quote:
It's a somewhat sad fact, for AMD and the consumer, that TSMC's 80HS process has pretty horrible static power leakage properties. Given the process properties, the die area, clocks for GPU and mem, and the memories themselves, it's no honest surprise to see the fastest launch board based on R600 coming with such a cooler. It's also no real surprise to see it come with a pair of external power input connectors, and one of those is the new 8-pin variant as well. That version of the connector gives the board another +12V input source at just over 6A max current.
En de kaart die hun hebben heeft een core van 0704 dus ik gok april 2007. Dus ze zijn nog geen maanden klaar. of je niet in massaproductie ?

Astennu wijzigde deze reactie 14-05-2007 13:58 (51%)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!
quote:
Spacey23 schreef op maandag 14 mei 2007 @ 13:44:
[...]


Oke jammer, maar het is inderdaad vervelender om een post niet terug te kunnen vinden dan een nieuwe bookmark aan te maken :)
offtopic:
Op zich is het vrij gemakkelijk om posts terug te vinden, mits mensen eens leren om van de Quicksearch gebruik te maken, waarmee je binnen topics kan zoeken. Hehe. Maar helaas.... PC's tweaken kunnen ze als de beste, maar een simpel iets als de search gebruiken.... :P

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Koeitje
  • Registratie: november 2005
  • Laatst online: 11:55

Koeitje

Back-up tiems now?

Ik ben de review met het gemeten stroomverbruik ivm de GTS en GTX kwijt, welke was dat?

Acties:
  • 0Henk 'm!

  • Sluuut
  • Registratie: februari 2003
  • Laatst online: 02-01 13:03
Iemand poste die Cal of Juares DirectX10 demo filmpje.. Moet zeggen dat ik echt totaal niet onder de indruk ben. Dat bos, het water, het gras, de omgeving.. alles zag er gewoon ala UT2004 uit!?

Ik hoop dat wanneer je het speelt het toch stukken beter overkomt. Maar fotorealistisch zijn we nog lang niet imo.. Misschien ligt dat niet zo zeer aan DirectX10 maar meer aan de game ontwikkelaars die er niet genoeg tijd voor nemen of gewoon een zuigende engine hebben (kijk naar Crysys engine.. daar kan menig mens nog wat van leren).


En dan nu ontopic: Ik vind de bencmarks enerzijds jammer; had liever minder stroomverbruik en betere resultaten bij AA + AF gezien. Aangezien ik daar zeker veel gebruik van zou willen maken bij een nieuwe videokaart heb ik het gevoel dat ik dan maar beter gelijk de 8800GTX kan halen. Waarschijnlijk is nVidia nu qua drivers ook een stuk verder dan dat ATi is voor hun X2900XT.

Aan de ene kant is hij leuk geprijs, 350 euro voor een nieuwe "high end" videokaart is niet echt veel (ik was toch wel rond de 600 gewend), maar 500 voor een GTX waarbij je verzekerd bent van de performance en Vista support (?), daar wil ik dan best die 150 euro meer aan uitgeven.

Die Tessalation Unit is natuurlijk ook wel tof.. maar dan moet het wel gelijk effectief zijn, zoals Temp AA dat bijvoorbeeld is. Nu moeten de game fabrikanten nog maar zien of ze daar gebruik van gaan maken.. net zoals Bump Mapping en al die andere features, die er wel waren maar waar maar bar weinig gebruik van werd gemaakt. Later word het natuurlijk een standaard, maar tegen die tijd ondersteund elke game en elke kaart het al wel. Dus ook eventuele nieuwe nVidia kaarten.

En verder, dat hij misschien beter zou zijn in DirectX10, leuk, maar als de GTX nu met AA & AF 50% sneller is in DX9 games en later misschien 10 a 20% langzamer in DX10 games, dan kies ik toch echt liever voor de GTX. Die eerste DX10 games zullen pas over een paar maanden verschijnen en het is nog maar de vraag of ik die ooit ga spelen. Gameplay staat bij mij voorop graphics :)
S.T.A.L.K.E.R. bijvoorbeeld heb ik 30 minuten gespeeld, daarna zit ik weer CNC Zero Hour te doen.. :P

Ik was altijd volop ATi fanboy.. Maar (helaas) word dat nu een stuk neutraler!

57696520646974206c65657374206973206e657264


Acties:
  • 0Henk 'm!

  • WoutF
  • Registratie: maart 2000
  • Laatst online: 09:25

WoutF

Hoofdredacteur

Afwezig tot 18/2

Voorlopig ziet het er naar uit dat de verwachte dominantie in DX10 er niet is. Ik hoop dat er nog heel veel rek in de drivers zit, anders zijn er weinig redenen om deze kaart te verkiezen boven de GTS.

Ik ga hem waarschijnlijk wel kopen (prijs, de gebundelde games, meer vertrouwen in ATI drivers) maar zou niet weten of ik deze kaart aan mensen zou aanraden.

Acties:
  • 0Henk 'm!

  • WoutF
  • Registratie: maart 2000
  • Laatst online: 09:25

WoutF

Hoofdredacteur

Afwezig tot 18/2

quote:
Astennu schreef op maandag 14 mei 2007 @ 13:40:
[...]


Ik snap hier niets van. Ik heb dit spel op de Xbox en het loopt daar al super waarom is het dan zo veel trager op de PC ? Volgens mij hebben ze em getweaked op de G80 en de hele Xenos code niet gebruikt zodat de R600 maar 1 pass per clock doet ipv 5 dat zou in ieder geval de performance verklaren......

Ik denk dat er op dit moment maximaal 40% van die core wordt gebruikt in die lost plannet demo. En in far cry misschien 60-70%.

Mja nVidia heeft gewoon de veilige aanpak genomen die werkt gewoon goed. Je hebt geen optimalisatie nodig. ATi wel. Maar als je die dan eenmaal hebt zal de R600 wel sneller zijn. Alleen nu is de vraag wie gaat die moeite nemen ?
Heb je een bron voor die percentages of is dat gewoon gokwerk?

Acties:
  • 0Henk 'm!

  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-01 23:51

Acties:
  • 0Henk 'm!

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
quote:
WoutF schreef op maandag 14 mei 2007 @ 14:19:


(prijs, de gebundelde games, meer vertrouwen in ATI drivers)
Het zal mij eens benieuwen of ATi net als nV ook gewoon veel driver problemen heeft/ houdt.

Zo te zien wel. De hamvraag is; hoe snel kan ATi het oplossen? :)

nV Heeft er te lang over gedaan iig...

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


Acties:
  • 0Henk 'm!

  • WoutF
  • Registratie: maart 2000
  • Laatst online: 09:25

WoutF

Hoofdredacteur

Afwezig tot 18/2

quote:
RappieRappie schreef op maandag 14 mei 2007 @ 14:22:
[...]


Het zal mij eens benieuwen of ATi net als nV ook gewoon veel driver problemen heeft/ houdt.

Zo te zien wel. De hamvraag is; hoe snel kan ATi het oplossen? :)

nV Heeft er te lang over gedaan iig...
Buiten de kwaliteit gaat het mij ook om de manier van releasen. Bij ATI weet je dat er elke maand een nieuwe Catalyst uitkomt die goed getest is. Nvidia 'lekt' beta drivers op onaangekondigde tijdstippen waar je geen support op krijgt.

Acties:
  • 0Henk 'm!

  • anandus
  • Registratie: februari 2001
  • Niet online
quote:
Even kijken hoe Ruby het op mijn 8800GTS doet :+

"Anti-intellectualism has been a constant thread winding its way through our political and cultural life, nurtured by the false notion that democracy means that 'my ignorance is just as good as your knowledge.'" -Isaac Asimov


Acties:
  • 0Henk 'm!

  • Gold Leader
  • Registratie: februari 2001
  • Laatst online: 27-10-2010

Gold Leader

Powered By Gold Squadron

Hier de nieuws post van DailyTech ;)
http://www.dailytech.com/article.aspx?newsid=7260

Sjoo deze CF setje is vet man haha :D

Sapphire ATI Radeon HD 2900 XT TOXIC
http://images.dailytech.com/nimage/4711_bigwater.jpg

Dat zou mijn HD 2900XT CF keuze zijn.

Gold Leader wijzigde deze reactie 14-05-2007 14:41 (14%)

Dual OpteronDP 2380 C2, 4x 4GB PC2-6400 ECC Reg, Pine XFX HD 4870 XXXE 1GB / EVGA GTX 295 RE 1.72GB Supermico IPMI 2.0 card, AXP 2700+, EPoX EP-8K3A+, 3x 512MB PC3200 Kingston Hyper-X @ PC-2700, 3dfx Voodoo5 5500 AGP 64MB Rev.A 2500, SB Audigy2 Platinum


Acties:
  • 0Henk 'm!

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
quote:
WoutF schreef op maandag 14 mei 2007 @ 14:29:
[...]
Buiten de kwaliteit gaat het mij ook om de manier van releasen. Bij ATI weet je dat er elke maand een nieuwe Catalyst uitkomt die goed getest is. Nvidia 'lekt' beta drivers op onaangekondigde tijdstippen waar je geen support op krijgt.
Nee, dat is zo. Maar ik vind beta drivers altijd wel leuk om mee te klooien en expirimenteren. :)

Maandelijks ZEKER weten dat er een nieuwe komt is echter ook wel erg lekker. LekkerDER eigenlijk. Het heeft beide wel wat. :)

Format-C wijzigde deze reactie 14-05-2007 14:41 (4%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


Acties:
  • 0Henk 'm!

  • vigilante888
  • Registratie: januari 2004
  • Laatst online: 07-12-2019

vigilante888

The truth is out there.....

Ik weet niet of de kaarten van de andere merken ook zo is, maar op de HiS zit Hynix HY5RS573225AFP-1 GDDR3 Geheugen op welke een overclock garanderen van 1000Mhz. Nu nog kijken hoever de core doorgepushed kan worden.

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


Acties:
  • 0Henk 'm!

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
Wel jammer dat de kaart nergens te koop is momenteel. Alleen die Jetway is maar op voorraad, en die geven maar 1 jaar garantie, wat imho weinig is. Met 1 jaar garantie levert de kaart minder op bij de (door)verkoop.

Ik zou iig geen 2e hands kaart zonder garantie kopen. En ik denk anderen liever ook niet.

Ik zou persoonlijk liever een iets duurdere ASUS hebben met 3 jaar garantie. Makkelijker te verkopen na een jaar. :)

Format-C wijzigde deze reactie 14-05-2007 14:45 (10%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


Acties:
  • 0Henk 'm!

  • frankknopers
  • Registratie: december 2003
  • Laatst online: 22-01 10:49

frankknopers

Goud is geen geld

quote:
Obi-Wan Kenobi schreef op maandag 14 mei 2007 @ 14:38:
Hier de nieuws post van DailyTech ;)
http://www.dailytech.com/article.aspx?newsid=7260

Sjoo deze CF setje is vet man haha :D

Sapphire ATI Radeon HD 2900 XT TOXIC
[afbeelding]

Dat zou mijn HD 2900XT CF keuze zijn.
Niet de mijne, dat geklooi met die slangetjes. Volgens mij houdt je dan ook veel hitte in je kast met die bijgeleverde koelinstallatie. Voor de core/ram temp en de geluidsproductie is het misschien wel goed, maar ik heb liever een goedkope HD2900XT met vlammetjes. :P

bij dollarshop hadden ze de Jetway op voorraad voor 360 euro. Ik heb daar gelijk besteld en daarna waren er nog 4 op voorraad!

Kansje dus dat ik hem eind deze week al heb. Ik ga er ook een review van maken waarin ik vergelijk met mijn huidige X1900XTX. Ik ga onder meer kijken naar de PCI-E 8x performance en als die goed is koop ik er een 2e HD2900XT bij en doe ik er een CF review achteraan. :P

Eerst maar eens kijken wat één HD2900XT doet, hopelijk komen de 7.5 Catalyst drivers voor XP al snel...

frankknopers wijzigde deze reactie 14-05-2007 16:27 (20%)

Goud is geen geld


Acties:
  • 0Henk 'm!

  • BlackWolf666
  • Registratie: november 2006
  • Laatst online: 22-11-2019

BlackWolf666

Dawn's Moonlight

Naast de standaard ATi kaart heeft Bjorn3D ook gelijk de Jetway gereviewed:

http://www.bjorn3d.com/read.php?cID=1101

Ik weet echt niet wat ik moet geloven.. De ene review zegt hij is meestal trager dan de 8800GTS 640 en kunnen die kaart niet echt aanraden, en de ander zegt dat het de beste bang for buck is omdat hij constant tussen de GTS640 en de GTX zit.. *zucht*. Zijn er betrouwbare reviews uit kun je er alsnog "niks" mee.

Specs


Acties:
  • 0Henk 'm!

  • roodhoedje
  • Registratie: maart 2003
  • Laatst online: 25-02 19:21
quote:
BlackWolf666 schreef op maandag 14 mei 2007 @ 14:47:
Naast de standaard ATi kaart heeft Bjorn3D ook gelijk de Jetway gereviewed:

http://www.bjorn3d.com/read.php?cID=1101

Ik weet echt niet wat ik moet geloven.. De ene review zegt hij is meestal trager dan de 8800GTS 640 en kunnen die kaart niet echt aanraden, en de ander zegt dat het de beste bang for buck is omdat hij constant tussen de GTS640 en de GTX zit.. *zucht*. Zijn er betrouwbare reviews uit kun je er alsnog "niks" mee.
Lekker handig steeds andere kleurtjes voor de kaarten gebruiken :). Raar dat de jetway in de 3de grafiek minder presteerd terwijl in de eerste 2 juist wat snelheids winst is op de 'gewone' 2900.

Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 23-02 20:38

Astennu

-= RX 5700 XT 50th =-

quote:
WoutF schreef op maandag 14 mei 2007 @ 14:20:
[...]

Heb je een bron voor die percentages of is dat gewoon gokwerk?
Dit is gokwerk. Want je ziet in BV farcry een goede performance en dan zit hij net onder de GTX en in andere games zit hij weer onder de X1950 XTX.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • The Source
  • Registratie: april 2000
  • Laatst online: 04-02 22:42
Dus de R600XT is erg leuke hardware voor een goede prijs maar beschikt op dit moment over zeer brakke drivers. Ik hoor nog iemand van AMD roepen, de R600XT is al lang klaar, we kunnen launch maar we willen voor de full lineup gaan. hahaha sure. WTF heeft AMD al die tijd zitten doen dan kun je je afvragen? Was het driver team op vakantie ofzo?

Daarbij zijn er vandaag enkel reviews en samples van de R600XT beschikbaar, RV610 en RV630 zal pas na Computex worden met shipments eind juni / begin juli. Ach ja, ik verwacht wel veel van die kaarten, die zijn namelijk 65nm en verbruiken erg weinig energie. Daarbij mag ik hopen dat binnen 2 maanden de drivers redelijk mature zijn, dus dat iig de performance voor 90% consistent is, en dat het maximale uit de hardware gehaald wordt. Dan geef ik de RV610 en de RV630 een erg goede kans.

Wel leuk om te zien dat nVidia een Ultra kaart lanceert in de hoop dat deze ook nog in de benchmarks wordt meegenomen en de de gap nog groter maakt, maar ik zie deze in weinig benchmarks terug.

Acties:
  • 0Henk 'm!

  • R-O-Y
  • Registratie: juni 2006
  • Laatst online: 01-07-2019

R-O-Y

Ik maak mijn zinnen nooit

@The Source, wat voor werk doe je eigenlijk? :) Je weet zoveel van Ati en Nvidia spul, werk je voor hun allebei toevallig? :P

Youtube Download ubersnel.nl


Acties:
  • 0Henk 'm!

  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

quote:
R-O-Y schreef op maandag 14 mei 2007 @ 15:09:
@The Source, wat voor werk doe je eigenlijk? :) Je weet zoveel van Ati en Nvidia spul, werk je voor hun allebei toevallig? :P
Het lijkt me dat hij een deftige functie bij een OEM heeft, dat zou mijn gok zijn :)
quote:
The Source schreef op maandag 14 mei 2007 @ 14:57:
Dus de R600XT is erg leuke hardware voor een goede prijs maar beschikt op dit moment over zeer brakke drivers. Ik hoor nog iemand van AMD roepen, de R600XT is al lang klaar, we kunnen launch maar we willen voor de full lineup gaan. hahaha sure. WTF heeft AMD al die tijd zitten doen dan kun je je afvragen? Was het driver team op vakantie ofzo?
Dat viel me dus ook al op. De laatste 5 topics gingen quasi 70% over hoe goed en stabiel de drivers zouden zijn. Nu zie ik zoveel gaten in de performance dat ik me afvraag hoe de situatie er een half jaar geleden uitzag toen hij had moeten uitkomen... Er is nog VEEL werk aan de performance want in de meeste gevallen is het zeker niet overtuigend. Nu, de prijs is ook zeer interessant (340€ bij launch!), but two can play that game...

Ik vermoed dan ook dat de 2900XT vooral voor de fans en voor HTPC doeleinden een betere keuze is, maar toch zal het niet veel neutrale mensen overtuigen deze zomer. De situatie zal in de winter wel veranderen maar nVidia staat ook niet stil, hun opvolger is al lang genoeg in de pipeline. De ATi fans kunnen hopen op een zeer vroege release van de R650 maar mij lijkt me dat erg sterk op wishful thinking. Ach ja, dan blijf ik voorlopig nog bij mijn X1900XT...

Phuncz wijzigde deze reactie 14-05-2007 15:19 (5%)


Acties:
  • 0Henk 'm!
Je kan zeggen wat je wilt, maar de performance onder Vista is nagenoeg gelijk aan de performance onder XP. Weet iemand nog hoe dat was met de G80? ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Avalaxy
  • Registratie: juni 2006
  • Laatst online: 25-02 14:26
quote:
Phuncz schreef op maandag 14 mei 2007 @ 15:17:
De situatie zal in de winter wel veranderen
Inderdaad, dan gaan de mensen op zoek naar een nieuwe kachel })

Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

quote:
The Source schreef op maandag 14 mei 2007 @ 14:57:
..... Daarbij mag ik hopen dat binnen 2 maanden de drivers redelijk mature zijn, dus dat iig de performance voor 90% consistent is, en dat het maximale uit de hardware gehaald wordt ..........
nvidia is nu pas op de goede weg met de drivers (incl. vista). Dat heeft dus 6 maanden geduurd. Daarbij werkte bij hen AA en AF, IIRC, wel meteen goed in alle games wat imo toch wel erg belangrijk is bij een (mid/high end) card.

Ik ben daarom nogal sceptisch op dat vlak. De X2900XT is op zich een leuke kaart als je nu een nieuwe nodig hebt met een behoorlijke kans op prestatieverbeteringen in de toekomst maar je neemt wel een risico qua drivers.
Daarom zou ik vooral even kijken hoe de kaart het doet in je favoriete game

Wat me verder toch nog het meeste tegenvalt, alhoewel ik nog lang niet alles gelezen heb, is dat de IQ (zowel AF als AA) lijkt achter te blijven bij nvidia. Terwijl dit toch altijd ATI's sterke punt was.

Nu de kaarten op tafel liggen lijkt het zo te zijn dat het 80nm proces (warmte/stroomverbruik) niet optimaal is voor ATI. Ik ben nu vooral benieuwd naar de 65nm versie van de R600 hiermee hebben ze hopelijk meer geluk. Tegen die tijd komt DX10 ook meer in zwang en zijn de drivers meer mature. :)

PC Specs-Gallery
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | BenQ XL2730Z 1440p 144Hz| Corsair AX760 |


Acties:
  • 0Henk 'm!

  • Bull
  • Registratie: december 2000
  • Laatst online: 09-02 15:45
quote:
CJ schreef op maandag 14 mei 2007 @ 15:21:
Je kan zeggen wat je wilt, maar de performance onder Vista is nagenoeg gelijk aan de performance onder XP. Weet iemand nog hoe dat was met de G80? ;)
Ik heb nog geen review gevonden waar Vista 64-bit wordt gebruikt. Nou zal dat met de 32-bit versie niet zoveel uitmaken, maar ik ben wel benieuwd of CCC nu wel goed werkt op Vista 64-bit.

https://tweakers.net/gallery/18583/inventaris/


Acties:
  • 0Henk 'm!

  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-01 23:51
Next...
http://www.firingsquad.co...rmance_preview/page12.asp

Nvidia heeft niet stilgezeten: in sept. komt de g90...
daarom heeft ati zowel de hd2950xt als xtx in 65nm ook voor sept. staan volgens yesky-roddel... (8>

Acties:
  • 0Henk 'm!

  • Lennart_1337
  • Registratie: juni 2004
  • Laatst online: 10:28
Van 80nm naar 65nm, kunnen we dan ongeveer 30% minder stroom verbruik in bij zelfde prestaties verwachten? (misschien dat iemand een gok kan doen aan de hand van eerdere die-shrinks van cpu's/gpu's?)
Ik kan niet zo snel vinden wat de 2900XT nou ongeveer gebruikt bij idle. en max. , of zijn deze cijfers niet bekent?

Of ligt het voor de hand dat AMD de kaarten zo hoog klokt dat ze alsnog evenveel gebruiken?
(jaja, ik weet weet dat niet veel mensen een glazenbol thuis hebben :P )

Acties:
  • 0Henk 'm!

  • mieJas
  • Registratie: april 2005
  • Niet online

mieJas

Red!

quote:
Bull schreef op maandag 14 mei 2007 @ 15:30:
maar ik ben wel benieuwd of CCC nu wel goed werkt op Vista 64-bit.
Ik heb er in ieder geval nog geen problemen mee gehad. Al wat mee zitten klooien, maar het leek me best wel stabiel en vlot. Maar verder start het pokketraag op en heeft voor mij geen meerwaarde. Wil geen AA en/of AF forceren op een X1600 die op 1024 vaak al moeite heeft ;(
quote:
En uit het zelfde artikel:

Needless to say, these results shouldn’t be taken too seriously until AMD is able to resolve what’s causing the performance problems.

mieJas wijzigde deze reactie 14-05-2007 15:43 (30%)

4200 RPM


Acties:
  • 0Henk 'm!

  • WoutF
  • Registratie: maart 2000
  • Laatst online: 09:25

WoutF

Hoofdredacteur

Afwezig tot 18/2

quote:
Lennart_1337 schreef op maandag 14 mei 2007 @ 15:40:
Van 80nm naar 65nm, kunnen we dan ongeveer 30% minder stroom verbruik in bij zelfde prestaties verwachten? (misschien dat iemand een gok kan doen aan de hand van eerdere die-shrinks van cpu's/gpu's?)
Ik kan niet zo snel vinden wat de 2900XT nou ongeveer gebruikt bij idle. en max. , of zijn deze cijfers niet bekent?

Of ligt het voor de hand dat AMD de kaarten zo hoog klokt dat ze alsnog evenveel gebruiken?
(jaja, ik weet weet dat niet veel mensen een glazenbol thuis hebben :P )
Deze kaart moet het van hoge clocks hebben. Dus ik denk dat een 65nm versie idd flink harder geklokt gaat worden. Als je ziet dat de R600 de 1ghz al haalt zal de 650 daar misschien standaard al op zitten.

Acties:
  • 0Henk 'm!
quote:
Joepi schreef op maandag 14 mei 2007 @ 15:32:
Next...
http://www.firingsquad.co...rmance_preview/page12.asp

Nvidia heeft niet stilgezeten: in sept. komt de g90...
daarom heeft ati zowel de hd2950xt als xtx in 65nm ook voor sept. staan volgens yesky-roddel... (8>
Zie mijn verzoek hier:
quote:
CJ schreef op maandag 14 mei 2007 @ 13:19:
Links naar de reviews staan in de first post. Dus controleer eerst of een review al vermeld is in deze lijst voordat je het weer in dit topic post!

Klik HIER
G90 is als ik het goed heb gehoord vertraagd. Tape-out gemist. Zou nu gepland staan voor eind 2007/begin 2008 ipv September/Oktober 2007.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!
quote:
Lennart_1337 schreef op maandag 14 mei 2007 @ 15:40:
Van 80nm naar 65nm, kunnen we dan ongeveer 30% minder stroom verbruik in bij zelfde prestaties verwachten? (misschien dat iemand een gok kan doen aan de hand van eerdere die-shrinks van cpu's/gpu's?)
Ik kan niet zo snel vinden wat de 2900XT nou ongeveer gebruikt bij idle. en max. , of zijn deze cijfers niet bekent?

Of ligt het voor de hand dat AMD de kaarten zo hoog klokt dat ze alsnog evenveel gebruiken?
(jaja, ik weet weet dat niet veel mensen een glazenbol thuis hebben :P )
Ter vergelijking, een RV630 heeft 390M transistoren op 65nm, presteert als een X1950GT/Pro en verbruikt 45W. Een R580 heeft 384M transistoren op 90nm en verbruikt rond de 130W (?) en is iets sneller. Dus stroomverbruik per transistor is enorm omlaag gegaan, terwijl de performance per watt flink omhoog is gegaan.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-01 23:51
Sorry - CJ, maar valt je iets op?
uitgerekend Fudo houdt zich aan het NDA :+
... of hij heeft gewoon opgeschept met zijn "OEM" i da hous...

Acties:
  • 0Henk 'm!

  • Bull
  • Registratie: december 2000
  • Laatst online: 09-02 15:45
quote:
mieJas schreef op maandag 14 mei 2007 @ 15:42:
[...]

Ik heb er in ieder geval nog geen problemen mee gehad. Al wat mee zitten klooien, maar het leek me best wel stabiel en vlot. Maar verder start het pokketraag op en heeft voor mij geen meerwaarde. Wil geen AA en/of AF forceren op een X1600 die op 1024 vaak al moeite heeft ;(
Ah, jij werkt met Vista 64-bit?

Schakelt de HD 2900xt wel goed over op de 3d snelheden want, en dat heb ik wel eerder gemeld, ik krijg men 1950xt echt niet op de 3d snelheden onder Vista 64-bit.

https://tweakers.net/gallery/18583/inventaris/


Acties:
  • 0Henk 'm!

  • WoutF
  • Registratie: maart 2000
  • Laatst online: 09:25

WoutF

Hoofdredacteur

Afwezig tot 18/2

quote:
CJ schreef op maandag 14 mei 2007 @ 15:45:
[...]


Zie mijn verzoek hier:


[...]


G90 is als ik het goed heb gehoord vertraagd. Tape-out gemist. Zou nu gepland staan voor eind 2007/begin 2008 ipv September/Oktober 2007.
Hmmm, begin 2008, stond dan ook niet de R700 geplanned? Dan zouden ATI en Nvidia weer redelijk gelijk lopen

Acties:
  • 0Henk 'm!

  • viper83
  • Registratie: maart 2007
  • Laatst online: 03-01 00:35
@ vigilante888

Mag ik vragen waar jij je HIS kaart vandaan hebt? Via een winkel of via via...? Heb 'm namelijk bij Salland gepre-orderd, maar hun kunnen niet zeggen wanneer hij binnenkomt. :'(

Acties:
  • 0Henk 'm!

  • Astennu
  • Registratie: september 2001
  • Laatst online: 23-02 20:38

Astennu

-= RX 5700 XT 50th =-

quote:
CJ schreef op maandag 14 mei 2007 @ 15:45:
[...]


Zie mijn verzoek hier:


[...]


G90 is als ik het goed heb gehoord vertraagd. Tape-out gemist. Zou nu gepland staan voor eind 2007/begin 2008 ipv September/Oktober 2007.
Nu hoop ik dat ATi dan gewoon wel de kaart in september uitbrengt en niet denk van dan gaan wij ook maar later uitbrengen.

Ik weet niet wat de G90 wordt. Maar ik gok op een G80 met wat tweaks eventueel meer stream processors op 65nm met GDDR4 en eventueel dus ook een 512 bit bus.

Wat ik verwacht van de R650: een R600 die op 65nm is gemaakt met wat kleine tweaks heel misschien met meer SPU Clusters maar dat denk ik niet.

Je ziet namelijk nu al dat de R600 makkelijk 1 GHz kan alleen dan gebruikt hij gewoon te veel stroom. Dus 65nm zou er voor kunnen zorgen dat de R600 die speeds wel kan halen. Maar nVidia zit ook niet stil.

ATi moet er voor zorgen dat hun driver compieler optimaal gebruik gaat maken van die 4+1D instructies. Ik las bij B3D dat de driver nu al 5+1D instructies aan de Shaders units stuurt. En dat de kaart zelf heel erg efficiënt werkt:

Maar hier BV wat theoretical performance tests:

8800 GTX vs HD2900 XT vs X1900 XTX
Pixel Fillrate --- 13800 Mpixels/sec - 11872 Mpixels/sec - 10400 Mtexels/sec
Texture Fillrate --- 18400 Mtexels/sec - 11872 Mtexels/sec - 10400 Msamples/sec
Z sample rate --- 110400 Msamples/sec - 23744 Msamples/sec - 10400 Msamples/sec
AA sample rate --- 55200 Msamples/sec - 47488 Msamples/sec - 20800 Msamples/sec
Geometry rate --- 575 MTrianglestris/sec - 742 Mtris/sec - 1300 MTrianglestris/sec
Memory Bandwidth --- 86.4 GB/sec - 105.6 GB/sec - 49.6 GB/sec

Dit is wel Theoretisch maar daar zie je dat de GTX in Textures - Z samples en AA gewoon veel sneller is dan de HD2900 XT. En de oude X1900 XTX daar eigenlijk niet heel erg ver van af zit pixel en texture fillrate. Ik vraag me nu alleen wel af hoe ze aan die Geometry rate van de X1900 komen in vergelijking met de G80 en de R580 misschien moet het 130 zijn ?

En het is duidelijk dat er wel meer AA performance in moet zitten dan er nu uit komt. Maar wat is die Z sample rate ? wat voor een bewerkingen zijn dat ? want daar is de G80 4x zo snel in. En de R600 maar 2x zo snel TOV de X1900.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0Henk 'm!

  • haageII
  • Registratie: oktober 2006
  • Laatst online: 27-01-2008
@Hieronder

Daar komt ook nog BTW boven op.

haageII wijzigde deze reactie 14-05-2007 16:18 (184%)

:)


Acties:
  • 0Henk 'm!

  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-01 23:51
Reken ff mee: :9~
Monday, May 14, 2007

410 US Dollar = 303.254 Euro
http://www.newegg.com/Pro...aspx?Item=N82E16814102095

Acties:
  • 0Henk 'm!

  • mieJas
  • Registratie: april 2005
  • Niet online

mieJas

Red!

quote:
En het staat nog zo schoon in de TS ;(

4200 RPM


Acties:
  • 0Henk 'm!

  • winwiz
  • Registratie: september 2000
  • Laatst online: 10:42
Voor de CF/Sli liefhebbers. Bij hotware (zie startingpost) wordt dus CF/SLI meegenomen.

Ryzen 2700X stock + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016


Acties:
  • 0Henk 'm!

  • vigilante888
  • Registratie: januari 2004
  • Laatst online: 07-12-2019

vigilante888

The truth is out there.....

quote:
viper83 schreef op maandag 14 mei 2007 @ 16:05:
@ vigilante888

Mag ik vragen waar jij je HIS kaart vandaan hebt? Via een winkel of via via...? Heb 'm namelijk bij Salland gepre-orderd, maar hun kunnen niet zeggen wanneer hij binnenkomt. :'(
Ik heb ze direct van HiS gekregen. 2 samples. Vanavond komen de pics online.

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


Acties:
  • 0Henk 'm!

  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-01 23:51
quote:
vigilante888 schreef op maandag 14 mei 2007 @ 16:39:
[...]


Ik heb ze direct van HiS gekregen. 2 samples. Vanavond komen de pics online.
Mail/bel ff HIS voor nieuwste driver... of heb je die al? >:)

Acties:
  • 0Henk 'm!

  • vigilante888
  • Registratie: januari 2004
  • Laatst online: 07-12-2019

vigilante888

The truth is out there.....

quote:
Joepi schreef op maandag 14 mei 2007 @ 16:44:
[...]


Mail/bel ff HIS voor nieuwste driver... of heb je die al? >:)
:Y)

De drivers die op de Cd staan die met de kaart komt is versie 8.361

vigilante888 wijzigde deze reactie 14-05-2007 16:49 (15%)

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


Acties:
  • 0Henk 'm!

  • AllesIsVoorbij
  • Registratie: februari 2007
  • Laatst online: 13:58
En Toms hardware guide heeft ook zijn review geplubiceerd:
http://www.tomshardware.c...dware_from_ati/index.html

Ik vind het toch verbazingwekkend hoe groot de verschillen zijn tussen de verschillende reviews, THG is denk ik wel een van de meer betrouwbare en gezien de onderbouwingen heb ik toch de neiging om deze review te geloven.

Om een lang verhaal kort te maken, het komt erop neer:
- dat de prestaties van de 2900 xt tegen die van de 8800GTX aanzitten
- dat het stroomverbruik van de 2900xt ook iets lager ligt dan dat van de 8800GTX
- dat het prestatie verschil tussen XP en Vista is klein

conclusie: de auteur prefereerd de 2900xt boven de 8800GTS 640 MB met de argumenten dat hij sneller en meer toekomstbestendig is. De nadelen zijn dan weer dat hij relatief heet wordt en vrij lawaaiig is.

edit: ik hoop trouwens dat ze snel weer op voorraad komen, weet iemand toevallig iets over nieuwe lichtingen?

AllesIsVoorbij wijzigde deze reactie 14-05-2007 16:52 (6%)


Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: mei 2000
  • Laatst online: 25-02 23:19

edward2

Schieten op de beesten

Ik vind zowel de AF, als de Tent CFAA modes voorlopig teleurstellend.
Er is bij de X2900XT nog steeds sprake van hoekafhankelijke AF (ook bij de G80 is het niet geheel hoekloos, maar een veel groter bereik).
Vwb de CFAA modes zou edge detection only komen zonder blurr, maar daarvan moet het resultaat nog woreden afgewacht.

The Source, het kan bijna niet anders of de X2900XT is idd pas zeer recent gerealiseerd, anders gaat de perf niet bijna dagelijks omhoog na een halve revisie aan nieuwe drivers. Wat dat betreft ben ik benieuwd waar de X2900XT uiteindelijk op uitkomt.

Edit,en ook géén hardlaunch.

Maximum IQ


Acties:
  • 0Henk 'm!

  • aval0ne
  • Registratie: maart 2004
  • Laatst online: 16-02 00:12
quote:
AllesIsVoorbij schreef op maandag 14 mei 2007 @ 16:46:
En Toms hardware guide heeft ook zijn review geplubiceerd:
http://www.tomshardware.c...dware_from_ati/index.html

Ik vind het toch verbazingwekkend hoe groot de verschillen zijn tussen de verschillende reviews, THG is denk ik wel een van de meer betrouwbare en gezien de onderbouwingen heb ik toch de neiging om deze review te geloven.

Om een lang verhaal kort te maken, het komt erop neer:
- dat de prestaties van de 2900 xt tegen die van de 8800GTX aanzitten
- dat het stroomverbruik van de 2900xt ook iets lager ligt dan dat van de 8800GTX
- dat het prestatie verschil tussen XP en Vista is klein

conclusie: de auteur prefereerd de 2900xt boven de 8800GTS 640 MB met de argumenten dat hij sneller en meer toekomstbestendig is. De nadelen zijn dan weer dat hij relatief heet wordt en vrij lawaaiig is.

edit: ik hoop trouwens dat ze snel weer op voorraad komen, weet iemand toevallig iets over nieuwe lichtingen?
Ik denk dat je de review nog eens moet lezen dan, want het prestatieverschil tussen vista en xp in enorm http://www.tomshardware.c...ware_from_ati/page24.html
en vergeleken met de GTX komt deze niet in de buurt.

De auteur kan niets zeggen over de GTS want die heeft hij helemaal niet getest.
En dat is dan een goede review? 3 games en geen GTS?

Acties:
  • 0Henk 'm!

  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

quote:
CJ schreef op maandag 14 mei 2007 @ 15:21:
Je kan zeggen wat je wilt, maar de performance onder Vista is nagenoeg gelijk aan de performance onder XP. Weet iemand nog hoe dat was met de G80? ;)
Ja idd daar was serieus werk aan de winkel. Maar zij hadden dan toch tenminste een kaart uit tijdens de launch van Vista, ATI is maanden later. Dat verwacht ik toch zoveel maanden later dat het ietwat fatsoenlijk draait :) Ik val ATI dan ook niet aan, maar buiten een lagere prijs en een betere basis (voorlopig ook niet veel meer dan dat) is er niet echt een overtuigende kracht te merken. Zowiezo zie ik nVidia evenzeer een stevig prijsoffensief lanceren wat de situatie alweer moeilijk maakt. OK, het is een kaart gespitst op de toekomst maar wie zegt dat dat ook daadwerkelijk allemaal uitkomt ? Ik hoop dan ook dan de midrange kaarten meer kant gaan schoppen dan de R600 reeks.

Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: mei 2000
  • Laatst online: 25-02 23:19

edward2

Schieten op de beesten

quote:
CJ schreef op maandag 14 mei 2007 @ 15:21:
Je kan zeggen wat je wilt, maar de performance onder Vista is nagenoeg gelijk aan de performance onder XP. Weet iemand nog hoe dat was met de G80? ;)
Dit is dus typisch een half vol glas-kwestie ;)

Maximum IQ


Acties:
  • 0Henk 'm!

  • Valcanus
  • Registratie: juli 2006
  • Laatst online: 19-08-2008
Ik heb alle reviews gelezen die er zijn op het ogenblik en ik word er geen reet wijzer van, zoals eerder aangegeven is, zijn de cijfers bijna overal anders. Ik weet dat er verschillende drivers rond circuleren, maar ik vind de inconsistentie erg groot in sommige benchmarks.

We krijgen getallen te zien van Directx10 benchmarks waarin de ene keer de 2900 XT het goed kan bij houden en in Lost planet bijt die zwaar in het stof, terwijl zoals eerder aangegeven het op de xbox360 het er goed uitziet en dat is ook op een ATI Gpu. Volgens mij worden er her en der smerige spelletjes gespeeld (bewijs heb ik niet, dus is speculatie van mijn kant.)

Wat speel ik graag tegenwoordig CCS, Company of Heroes en natuurlijk kijk ik uit naar World in Conflict en Crysis. Wat hoor ik tot mijn grote verbazing in CCS heeft de ATI 2900 XT problemen, zoals de 8800 serie die ook kende. Dit vind ik eigenlijk toch wel schandalig, heeft ATI/AMD zitten slapen toen er moord en brand geschreeuwd uit het Nv kamp over de problemen in CSS :/ Het minste wat ze hadden kunnen doen was nakijken of die problemen er niet op de 2900 XT waren. Over Company of Heroes ben ik dik tevreden een dikke pluim voor ATI/AMD _/-\o_

Ik vraag me enkel af hoe betrouwbaar is die benchmark van Crysis die in de OP vermeld wordt, want als dat de waarheid blijkt te zijn, dan weet ik welke kaart ik moet kopen. Het is nu even koffiedik kijken. Ik verwacht van de week meer nieuws omtrent drivers enzovoorts. Opmerkelijk is dat ATI betere AA schijnt te hebben en Nv betere AF.

Stroomverbruik boeit me niet. Ik koop geen high-end videokaart en verwacht vervolgens dat die maar 50 watt trekt. Trouwens als ik de Asus bundel in beschouwing neem dan krijg je de blackbox erbij zo'n 40 euro en Stalker 40 euro. Haal dat van je aanschafprijs af €371 bij icomputers - €80 = €291 euro voor een 2900 XT kaart. Dat is toch een mooi bedrag aangezien ik sowieso allebei de games zou kopen. Als ATI/AMD de drivers binnen 2 maanden helemaal op orde heeft dan is dit een aardige killer, zeker als Nv niet meegaat of geen prijsverlagingen gaat doorvoeren. Ik kijk nog heel even de kat uit de boom voordat ik bestel, die 2 weekjes kunnen er nu ook nog wel bij.

Acties:
  • 0Henk 'm!

  • roodhoedje
  • Registratie: maart 2003
  • Laatst online: 25-02 19:21
quote:
Valcanus schreef op maandag 14 mei 2007 @ 17:12:
Ik heb alle reviews gelezen die er zijn op het ogenblik en ik word er geen reet wijzer van.
Zou even wachten totdat de fan bug gefixt is want ik vind het in ieder geval redelijk hinderlijk aangezien ook onder film kijk enzo voluit gaat draaien rond de 20 sec. Dus vind het in ieder geval beetje afdoen aan de ervaring. 8)7

Zijn de demo's al ergens toevallig een mirror want tsja ik krijg ze nie echt binnen met 0.00 kb/sec. Wil natuurlijk wel even kunnen genieten :).

roodhoedje wijzigde deze reactie 14-05-2007 17:16 (60%)


Acties:
  • 0Henk 'm!

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
Mijn voorlopige conclusie (niet bedoeld om te flamen);

-ATi heeft een half jaar langer aan de R600 gewerkt dan nVidia aan de 8800 serie. De performance van de HD2900 ligt tussen de GTS en GTX in. Op zich vind ik dit best zwak. Als je kijkt naar het verleden laat ATi nu een grote steek vallen door NIET sneller te zijn dan de snelste kaart van nVidia. En om dan deze kaart te releasen met de huidige drivers vind ik al helemaal niet slim. In het verleden waren ze altijd een stukje (heel klein) sneller. Nu niet. Dat terwijl ze er nu wel HEEL veel tijd voor hebben genomen. Dan verwacht je juist dat ze gaan ownen, maar dit is niet zo.

Ook op IQ gebied kan ik nu niet echt zeggen dat het nu allemaal bijzonder is. De AF van nVidia is gewoon beter, en de AA van ATi minimaal beter dan nVidia. Bijna niet waarneembaar.

Op zich vind ik het vreemd van ATi dat ze met een kaart op de markt komen die tegenover de 8800GTS gepositioneerd wordt. Ze hebben altijd mee kunnen strijden om de performance crown, maar deze slag hebben ze verloren... Vooralsnog. Ik weet niet hoe ver nVidia is met een eventuele G90, maar als ze hiermee op schema liggen zou het op den duur wel eens zo kunnen zijn dat nVidia gewoon een performance-generatie verder is dan ATi over een jaar. Best link. Ik heb liever concurrentie.

-De ATi drivers zijn erg brak lijkt het. Met AA en AF kakt de zooi in. Het is de vraag wanneer dit opgelost is. Iedereen gaf telkens kritiek op nV, maar dit lijkt toch niet helemaal terecht. Misschien is het gewoon moeilijker om voor unified kaarten drivers te maken. Ik kan gewoonweg niet bevatten dat de kaart niet sneller is dan hij is. Het valt me tegen. Helemaal omdat ze er zoveel tijd voor nodig hebben gehad. Wat ook vreemd is, is dat er geen mid-end is. Ze hebben een tijdje geleden keihard gezegd dat het een full product line lauch zou zijn. Ik zie er niks van terug. Zullen ze zoveel problemen met drivers hebben dat ze het niet aandurven?

Ik zal ongetwijfeld de wind van voren gaan krijgen straks, maar dit is gewoon mijn mening. Ik ben niet écht een ATi man omdat ik veelal nV kaarten heb, maar ik zou me toch kunnen voorstellen dat zelfs een ATi fan dit resultaat allemaal wat tegenvalt. Als deze kaart een stuk sneller dan de GTX was, had ik hem nu al gehad. Of zeer binnennkort gehad.

Het is gewoon een mid/high end kaart, maar geen ECHTE high end kaart imho. Daar is ie net even ta langzaam voor. Vooralsnog. De performance per WATT is ook te laag. Ook is de kaart weer erg heet heb ik hier en daar gelezen. De X1900 serie was al zo heet, en iksnap dan ook niet dat ze weer met zo'n hete kaart komen.

Ik wil niet alleen negatief overkomen, maar dit is toch wel een beetje hoe ik het zie. Ik kan gewoon niet geloven dat ze met een kaart op de markt komen die tegenover de 8800GTS geplaatst wordt enb niet tegenover de snelste van de concurrent. Zoals het hoort!

Waar is die 8800GTX killer?? :(

Format-C wijzigde deze reactie 14-05-2007 17:55 (4%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


Acties:
  • 0Henk 'm!

  • AllesIsVoorbij
  • Registratie: februari 2007
  • Laatst online: 13:58
quote:
aval0ne schreef op maandag 14 mei 2007 @ 16:59:
[...]

Ik denk dat je de review nog eens moet lezen dan, want het prestatieverschil tussen vista en xp in enorm http://www.tomshardware.c...ware_from_ati/page24.html
en vergeleken met de GTX komt deze niet in de buurt.

De auteur kan niets zeggen over de GTS want die heeft hij helemaal niet getest.
En dat is dan een goede review? 3 games en geen GTS?
ja dat er prestatieverschil is in real life daar heb je gelijk in, maar in 3dmark 05 en 06 verschilt het zeer weinig en dat geeft toch wel hoop voor de toekomstige driver releases.

Ze hebben overigens wel een 8800 GTS getest, deze namelijk:
XFX GeForce 8800GTS 640 MB GDDR3 500 MHz Core (zie testsetup en XP benchmarks)

Acties:
  • 0Henk 'm!

  • Cassius
  • Registratie: januari 2002
  • Niet online

Cassius

Moogles!

quote:
aval0ne schreef op maandag 14 mei 2007 @ 16:59:
[...]

Ik denk dat je de review nog eens moet lezen dan, want het prestatieverschil tussen vista en xp in enorm http://www.tomshardware.c...ware_from_ati/page24.html
en vergeleken met de GTX komt deze niet in de buurt.

De auteur kan niets zeggen over de GTS want die heeft hij helemaal niet getest.
En dat is dan een goede review? 3 games en geen GTS?
Mooie icon? Hij test 4 games en 2 3D Mark versies en ook de GTS wordt prima meegenomen ... but keep it up :/ .

Wat is daar het praktisch nut van - System "Deasygn"


Acties:
  • 0Henk 'm!

  • mieJas
  • Registratie: april 2005
  • Niet online

mieJas

Red!

quote:
aval0ne schreef op maandag 14 mei 2007 @ 16:59:
want het prestatieverschil tussen vista en xp in enorm
Doom3 heeft inderdaad een kick in the nuts gekregen, maar Oblivion doet het nagenoeg gelijk en FEAR zelfs beter.

4200 RPM


Acties:
  • 0Henk 'm!

  • SuX DeLuXe
  • Registratie: oktober 2005
  • Laatst online: 12-04-2019
quote:
AllesIsVoorbij schreef op maandag 14 mei 2007 @ 16:46:
En Toms hardware guide heeft ook zijn review geplubiceerd:
http://www.tomshardware.c...dware_from_ati/index.html

Ik vind het toch verbazingwekkend hoe groot de verschillen zijn tussen de verschillende reviews, THG is denk ik wel een van de meer betrouwbare en gezien de onderbouwingen heb ik toch de neiging om deze review te geloven.

Om een lang verhaal kort te maken, het komt erop neer:
- dat de prestaties van de 2900 xt tegen die van de 8800GTX aanzitten
- dat het stroomverbruik van de 2900xt ook iets lager ligt dan dat van de 8800GTX
- dat het prestatie verschil tussen XP en Vista is klein

conclusie: de auteur prefereerd de 2900xt boven de 8800GTS 640 MB met de argumenten dat hij sneller en meer toekomstbestendig is. De nadelen zijn dan weer dat hij relatief heet wordt en vrij lawaaiig is.

edit: ik hoop trouwens dat ze snel weer op voorraad komen, weet iemand toevallig iets over nieuwe lichtingen?
hoe kan het stroomverbruik nu lager liggen dan van een 8800 GTX?
8800 GTX gebruikt misschien 150 watt bij full load...
gister werden er nog dingen geciteerd uit een aTi handleiding waarin stond dat je minimaal een 750 watt voeding moest hebben :|

Acties:
  • 0Henk 'm!

  • DutchDeltaForce
  • Registratie: oktober 2004
  • Laatst online: 02-09-2011
Ik wordt helemaal gek van die reviews. Bij de een komt de 2900XT goed uit bij de ander niet. Welke moet je dan serieus nemen? :(

Acties:
  • 0Henk 'm!

  • Valcanus
  • Registratie: juli 2006
  • Laatst online: 19-08-2008
quote:
RappieRappie schreef op maandag 14 mei 2007 @ 17:14:
Mijn voorlopige conclusie (niet bedoeld om te flamen);

-ATi heeft een half jaar langer aan de R600 gewerkt dan nVidia aan de 8800 serie. De performance van de HD2900 ligt tussen de GTS en GTX in. Op zich vind ik dit best zwak. Als je kijkt naar het verleden laat ATi nu een grote steek vallen door NIET sneller te zijn dan de snelste kaart van nVidia. En om dan deze kaart te releasen met de huidige drivers vind ik al helemaal niet slim. In het verleden waren ze altijd een stukje (heel klein) sneller. Nu niet. Dat terwijl ze er nu wel HEEL veel tijd voor hebben genomen. Dan verwacht je juist dat ze gaan ownen, maar dit is niet zo.

Ook op IQ gebied kan ik nu niet echt zeggen dat het nu allemaal bijzonder is. De AF van nVidia is gewoon beter, en de AA van ATi minimaal beter dan nVidia. Bijna niet waarneembaar.

Ik zal ongetwijfeld de wind van voren gaan krijgen straks, maar dit is gewoon mijn mening. Ik ben niet écht een ATi man omdat ik veelal nV kaarten heb, maar ik zou me toch kunnen voorstellen dat zelfs een ATi fan dit resultaat allemaal wat tegenvalt.
Ik behoor tot geen één kamp maar ik begrijp je mening, omdat in bijna alle testen de GTX wordt meegenomen en dan zie je grote verschillen en dat irriteerde mij ook. automatisch vergelijk je 2900 XT met de GTX. Mede omdat we weten dat er nog geen antwoord is op de GTX laat staan de Ultra.

Over AF en AA tsjah ergens houdt het een keer op. Nv maakte een grote sprong op dat gebied en ATI was altijd al zeer scherp op dat gebied. Het verbaast me niks dat het onderscheidt steeds kleiner wordt. Het resultaat valt me trouwens niet tegen. Er zit veel potentie in de kaart, alleen komt dat e rnog niet uit. Laat Ati en Nv maar een prijsgevecht beginnen dan zijn wij de lachende derden. En waarom zou jij de wind van voren gaan krijgen. Het is jou mening, het is jou mening en hier zitten grote mensen dus waarom zouden we jou mening niet respecteren.

Acties:
  • 0Henk 'm!

  • AllesIsVoorbij
  • Registratie: februari 2007
  • Laatst online: 13:58
quote:
Thrills33ka schreef op maandag 14 mei 2007 @ 17:26:
[...]

hoe kan het stroomverbruik nu lager liggen dan van een 8800 GTX?
ik weet het ook niet maar ze hebben het gemeten, zie op de laatste pagina van de review:
http://www.tomshardware.c...age26.html#final_thoughts

Acties:
  • 0Henk 'm!

  • Legendary1983
  • Registratie: januari 2004
  • Laatst online: 22-01-2009
helaas maar de de r600 lijkt wel de geforce 5 serie van dit moment te zijn :(

Darkmoon Faire [EU] Craoker - Undead Warrior


Acties:
  • 0Henk 'm!

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
Wat mij gewoon opvalt is dat er veel gematigd positieve meningen zijn. Ook van reviewers en die-hard hardwarefanaten. Het is niet zo dat het echt slecht is ofzo, maar het voelt raar... Anders...

Bij zo'n major release moet iedereen uit zijn plaat gaan van verbazing en moet je mond openvallen van de performance van zo'n nieuw produkt.

Dat is nu gewoon niet zo, en dat is jammer. En ja, de drivers zullen nog wel veel beter kunnen, maar dan nóg. Ik snap niet dat die betere drivers er dan niet een week eerder waren/ zijn...

Format-C wijzigde deze reactie 14-05-2007 17:35 (7%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


Acties:
  • 0Henk 'm!

  • Jedi_Pimp
  • Registratie: april 2006
  • Laatst online: 24-02 20:09
Al met al valt het me hartstikke mee :). Kaart presteert op DX 9 vlak zoals ik had verwacht, in zo'n beetje alle games beter dan de 8800GTS. Dat nu iemand een 8800GTX koopt kan ik enigsinds begrijpen, hoewel je je wel moet afvragen of de GTX de 150 euro extra waard is.. Hierbij moet je ook in je achterhoofd houden dat een 2900XT binnen de komende weken zéker weten beter gaat presteren (dan voorheen) door nieuwe drivers.

@ RappieRappie

Ik ben het eigenlijk half met je eens: ATi wist een half jaar geleden heel goed dat ze geen 8800GTX-killer binnen 6 maanden op de markt konden brengen. Het idee/gerucht dat dit wél het geval was, is door een bepaalde lobby gecreëerd * wijst met zijn wijsvinger naar talloze nieuws/geruchtensites. Ze hadden -naarmate de tijd vorderde- duidelijk in gedachten een kaart op de markt te brengen die voor een erg scherpe prijs een lekkere performance zou neerzetten. En, zeg nou eerlijk, heb je ooit een kaart gezien die beter presteert dan de huidige kampioen die 150+ euro minder kost? Dat is te mooi om waar te zijn, de échte high-end kaarten zullen altijd geïntroduceerd worden met een prijskaartje tussen de 450-600 euro, niet lager. Dit is een bevestiging dat ATi de HD 2900XT niet heeft bedoeld als 8800GTX-killer. De échte 8800GTX-killer zal op 65nm verschijnen en in Q3 uitkomen, onder de naam HD 2950XT/XTX :9 ...

(Bij de introductie van een Bugatti Veyron viel menigeen's mond wel open omdat deze alle records brak, maar, bij de introductie van de nieuwe Volkswagen Passat viel menigeen's mond op een andere manier open omdat deze voor zijn prijs uitstekende performance/kwaliteit neerzet :).)

Jedi_Pimp wijzigde deze reactie 14-05-2007 17:41 (9%)

"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990


Acties:
  • 0Henk 'm!

  • X-LimiTed
  • Registratie: december 2005
  • Laatst online: 04-03-2013

X-LimiTed

Muay Thai..

quote:
Legendary1983 schreef op maandag 14 mei 2007 @ 17:34:
helaas maar de de r600 lijkt wel de geforce 5 serie van dit moment te zijn :(
Dat begin ik stilaan ook te denken ja :/
De performance van de 8800GTX bij de launch was :9~
Maar de R600 daarintegen.. :r

Rollen zien er gedraaid uit..
quote:
Jedi_Pimp schreef op maandag 14 mei 2007 @ 17:38:
Al met al valt het me hartstikke mee :). Kaart presteert op DX 9 vlak zoals ik had verwacht, in zo'n beetje alle games beter dan de 8800GTS. Dat nu iemand een 8800GTX koopt kan ik enigsinds begrijpen, hoewel je je wel moet afvragen of de GTX de 150 euro extra waard is.. Hierbij moet je ook in je achterhoofd houden dat een 2900XT binnen de komende weken zéker weten beter gaat presteren (dan voorheen) door nieuwe drivers.

@ RappieRappie

Ik ben het eigenlijk half met je eens: ATi wist een half jaar geleden heel goed dat ze geen 8800GTX-killer binnen 6 maanden op de markt konden brengen. Het idee/gerucht dat dit wél het geval was, is door een bepaalde lobby gecreëerd * wijst met zijn wijsvinger naar talloze nieuws/geruchtensites. Ze hadden -naarmate de tijd vorderde- duidelijk in gedachten een kaart op de markt te brengen die voor een erg scherpe prijs een lekkere performance zou neerzetten. En, zeg nou eerlijk, heb je ooit een kaart gezien die beter presteert dan de huidige kampioen die 150+ euro minder kost? Dat is te mooi om waar te zijn, de échte high-end kaarten zullen altijd geïntroduceerd worden met een prijskaartje tussen de 450-600 euro, niet lager. Dit is een bevestiging dat ATi de HD 2900XT niet heeft bedoeld als 8800GTX-killer. De échte 8800GTX-killer zal op 65nm verschijnen en in Q3 uitkomen, onder de naam HD 2950XT/XTX :9 ...
Die het zal mogen opnemen tegen een gepimpte G80 aka G90 ;)
Een kaart die een jaar , 'generatie' later komt.. en nog geen killer zou zijn zou.. achterlijk zijn.

X-LimiTed wijzigde deze reactie 14-05-2007 17:41 (69%)


Acties:
  • 0Henk 'm!

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
Mijn bedoeling was puur om mijn mening te geven, en niet ATi vs nV te gaan doen. Ik hoop ook dan niet dat de discussie die kant opgaat.

Ik hou die kaart goed in de gaten, en mocht hij in de toekomst gewoon beter gaan worden, op GTX niveau, dan zal ik hem wel vast nog wel een keer gaan proberen.

Format-C wijzigde deze reactie 14-05-2007 17:45 (102%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Tav de drivers is mijn mening dat beide fabrikanten het eigenlijk niet kunnen maken om een kaart met zulke brakke drivers te releasen. :N

Aan de andere kant, als je ziet dat nvidia pas een half jaar later met redelijk goede drivers kwam maar de kaart bij launch in een hoop spellen en in Win XP wel goed presteerde dan is het als consument maar net wat je wilt. Je zult dan goed moeten kijken hoe de kaart het in jouw favoriete spellen doet.

Aangezien ook ATI nu problemen heeft met de drivers lijkt het toch zo te zijn dat het programeren voor een Unified Architectuur icm DX9 (en icm DX10) toch ingewikkelder is dan gedacht.

Op zich lijkt het, alhoewel ik een leek ben op dit gebied, toch wel logisch. De voorgaande non-unified architecturen hebben lang bestaan en daar is dus beetje bij beetje aan de drivers geschaaft gedurende jaren. Nu moet je DX9 (&OGL) ineens voor compleet andere hardware programmeren en tegelijkertijd ook vast DX10 drivers klaarstomen.
Er zijn vast een hoop burnout gevallen bij ATI en nvidia driver teams... :o

Verder valt eea natuurlijk gewoon tegen bij deze ronde, daar moet je ook eerlijk in zijn. Veel mensen hier zitten bijv. gewoon op een G80 killer te wachten. Ook kan ik me niet voorstellen dat ze bij ATI echt tevreden zijn over de gang van zaken.

Echter als je nu in de markt bent voor een kaart dan is de HD2900XT, als je het hele pakket aan features bekijkt incl gebundelde spelen, HDMI, prijs etc dan is hij imo zeker het overwegen waard maar het zal meer dan ooit afhangen van wat je belangrijk vindt en hoeveel vertrouwen je hebt in de toekomstige prestatiewinsten via drivers.

Zelf blijf ik wel vertrouwen houden in de toekomst, de 65nm versie zal vast veel beter zijn en ook de integratie met AMD zal zijn vruchten wel af gaan werpen. Vergeet niet dat de overnameperikelen van het afgelopen 1.5 jaar toch vaak voor veel ineffectiviteit zorgen.

Help!!!! wijzigde deze reactie 14-05-2007 17:54 (29%)

PC Specs-Gallery
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | BenQ XL2730Z 1440p 144Hz| Corsair AX760 |


Acties:
  • 0Henk 'm!

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
quote:
Mja, programmeren voor een 360 zal dan toch nog wel even heel wat anders (stabieler) zijn dan voor Windows, waar je te maken kan hebben met duizenden verschillende configs.

Ik weet niet wat het is. Maar als ik zie dat ATi dezelfde Source bug als nV heeft, dan hebben ze gewoon beide hetzelfde probleem qua programmeren... Alleen is nV daar al doorheen. En ATi zal daar ook wel doorheen komen. Het is te hopen dat ze dit snel doen, anders krijgen we nbet ziulke taferelen als met de 8800 serie; dat mensen rechtzaken willen aanspannen voor drivers... :$

Format-C wijzigde deze reactie 14-05-2007 17:51 (104%)

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


Acties:
  • 0Henk 'm!

  • R-O-Y
  • Registratie: juni 2006
  • Laatst online: 01-07-2019

R-O-Y

Ik maak mijn zinnen nooit

quote:
RappieRappie schreef op maandag 14 mei 2007 @ 17:43:
Mijn bedoeling was puur om mijn mening te geven, en niet ATi vs nV te gaan doen. Ik hoop ook dan niet dat de discussie die kant opgaat.

Ik hou die kaart goed in de gaten, en mocht hij in de toekomst gewoon beter gaan worden, op GTX niveau, dan zal ik hem wel vast nog wel een keer gaan proberen.
Ochja, het maakt toch niet zoveel uit. Ikzelf kan niet echt een 8800GTX kopen. Of tenminste, dat vind ik echt zonde van m'n centen. Een kaartje van 340euro vind ik nog wel te doen. De GTX zou er dus zowiezo nooit inkomen bij mij. Of ik dan een gts640 haal of de x2900xt maakt eigenlijk niet zoveel uit. Aangezien ik met m'n vorige Ati kaarten hele goede ervaringen heb ik er liever weer een. Ook denk ik dat de prestaties van de 2900xt best mee gaan vallen. (met nieuwere drivers that is :P )

De 8800GTX kan dan wel beter zijn maar die is ook gelijk een stuk duurder. Dus dat is denk ik voor mensen eigenlijk geen optie.

Het stroomverbruik is wel een beetje jammer maar daar kan ik ook wel mee leven. De kaart is best zuinig als ie idle staat. Af en toe gamen zal echt niet meteen je stroomrekening verdubbelen ;)

R-O-Y wijzigde deze reactie 14-05-2007 17:53 (21%)

Youtube Download ubersnel.nl


Acties:
  • 0Henk 'm!

  • Format-C
  • Registratie: maart 2005
  • Laatst online: 23-02 10:07
quote:
R-O-Y schreef op maandag 14 mei 2007 @ 17:51:
[...]


Ochja, het maakt toch niet zoveel uit. Ikzelf kan niet echt een 8800GTX kopen. Of tenminste, dat vind ik echt zonde van m'n centen. Een kaartje van 340euro vind ik nog wel te doen. De GTX zou er dus zowiezo nooit inkomen bij mij. Of ik dan een gts640 haal of de x2900xt maakt eigenlijk niet zoveel uit. Aangezien ik met m'n vorige Ati kaarten hele goede ervaringen heb heb er liever weer een. Ook denk ik dat de prestaties van de 2900xt best mee gaan vallen.

De 8800GTX kan dan wel beter zijn maar die is ook gelijk een stuk duurder. Dus dat is denk ik voor mensen eigenlijk geen optie.

Het stroomverbruik is wel een beetje jammer maar daar kan ik ook wel mee leven. De kaart is best zuinig als ie idle staat. Af en toe gamen zal echt niet meteen je stroomrekening verdubbelen ;)
Nou, wat jij nu zegt klopt precies. Voor iemand met een budget van 300 tot 400 euro moet je gewoon de ATi hebben. Das zo klaar als een klontje.

ik wilde gewoon mijn algehele mening ff ventileren. :D

XBOX LIVE: Vale46 NL -- PSN: Vale46--NL


Acties:
  • 0Henk 'm!

  • Jedi_Pimp
  • Registratie: april 2006
  • Laatst online: 24-02 20:09
quote:
RappieRappie schreef op maandag 14 mei 2007 @ 17:43:
Mijn bedoeling was puur om mijn mening te geven, en niet ATi vs nV te gaan doen. Ik hoop ook dan niet dat de discussie die kant opgaat.

Ik hou die kaart goed in de gaten, en mocht hij in de toekomst gewoon beter gaan worden, op GTX niveau, dan zal ik hem wel vast nog wel een keer gaan proberen.
Imo gaat de discussie helemaal niet die kant uit hoor. Alleen opmerkingen als "Die moet het dan opnemen tegen een gepimpte G80 aka G90 ;)" klinken inderdaad als nV vs ATi. Daarom is het misschien handig om je mening een beetje te nuanceren (@ X-LimiTed) ;).

"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990


Acties:
  • 0Henk 'm!

  • sewer
  • Registratie: november 2000
  • Laatst online: 13:27
Is het de verwachting dat UVD op de r610 hetzelfde presteert als op de r600, of zal door de lagere kloksnelheden (of de 128-bits memory interface of het minder aantal steamprocessor) de processor minder ontlast kunnen worden?

Op zich lijkt me een passief gekoelde r610 ideaal voor een HD-htpc. :)

sewer wijzigde deze reactie 14-05-2007 17:57 (4%)


Acties:
  • 0Henk 'm!

  • R-O-Y
  • Registratie: juni 2006
  • Laatst online: 01-07-2019

R-O-Y

Ik maak mijn zinnen nooit

De midrange kaartjes mogen wat mij betreft ook wel gereleased worden :P volgens mij zijn dat best leuke kaarten die erg weinig stroom verbruiken :)

Zijn de x2900xt kaarten eigenlijk wel echt uitgeleverd? van Azerty heb ik nog niks gehoord. Zijn er al mensen die bevestiging hebben dat hun kaart onderweg is? (gewoon van een shop )

Youtube Download ubersnel.nl


Acties:
  • 0Henk 'm!

  • Cyberblizzard
  • Registratie: februari 2003
  • Niet online
Waarom staat in de TS enkel een grafiek waarin de R600 het beter doet dan de 8800GTX?

Acties:
  • 0Henk 'm!

  • Apoca
  • Registratie: november 2001
  • Laatst online: 25-02 18:55

Apoca

Array Technology Industry

Na 15 reviews en verschillende persberichten te hebben gelezen ben ik toch een beetje gaan twijfelen. Ik heb der ergens alle vertrouwen in dat de 2900XT een fatsoenlijk kaart is, voor wat ik er mee wil doen. Maar alle verschillende berichten en kleine problemen die opduiken overal doet me een beetje denken aan de X1800 serie. En ik weet niet of het misschien wel beter is om te wachten op de R650 die in Sept reeds weer op het toneel zou moeten verschijnen als ik het goed heb.

Asus C6E / Ryzen 7 3700X / Noctua NH-U12A / G.Skill Flare X F4-3200C14D-16GFX / Sapphire Radeon RX Vega 56


Acties:
  • 0Henk 'm!

  • Zonereaver
  • Registratie: februari 2007
  • Laatst online: 12:45
quote:
Cyberblizzard schreef op maandag 14 mei 2007 @ 17:57:
Waarom staat in de TS enkel een grafiek waarin de R600 het beter doet dan de 8800GTX?
^^met hierboven, die benchmark is onderhand wel een beetje erg achterhaald, op niks gebaseerd en geeft een verkeerd beeld.

Acties:
  • 0Henk 'm!

  • Joepi
  • Registratie: december 1999
  • Laatst online: 28-01 23:51
Is de Juarez DX10 Demo al opgedoken?
Het D3D10 tijdperk moet op de x2900 ingeluidt worden O-)

Acties:
  • 0Henk 'm!

  • hapSnap
  • Registratie: maart 2007
  • Laatst online: 21-01 07:06
quote:
Joepi schreef op maandag 14 mei 2007 @ 18:04:
Is de Juarez DX10 Demo al opgedoken?
Het D3D10 tijdperk moet op de x2900 ingeluidt worden O-)
Hier is een bench te vinden ervan:

http://www.computerbase.d...nitt_call_of_juarez_d3d10

/edit

Na je post nogmaals je lezen zie ik dat je waarschijnlijk de demo zelf bedoelt, my bad :X

hapSnap wijzigde deze reactie 14-05-2007 18:26 (12%)


Acties:
  • 0Henk 'm!

  • MaxBlast_NL
  • Registratie: december 2004
  • Laatst online: 19-08-2018
Ik heb in december toch wat voorbarig m'n 1900XT verkocht en een nieuw systeem rond e6700 gebouwd. Het enige wat ik nog moet is een videokaart en een 22" tft.
Ik zit nu dus al 5 maanden met een leen X1600 te wachten op de GROTE opvolger van de 1900-serie.
In april werd het al billen knijpen met wat gelekte benches en dan blijkt in mei dat het gewoon een flop is. iedereen die begint over " het valt wel mee " had ik in maart wel willen horen. Dan had het forum te klein geweest. Ik wil Gamen met een hoofdletter op een 22" scherm met alles op " High " dus na jaren Ati kaarten wordt het nu een 8800GTX. Had ik 5 maanden eerder moeten doen.

Acties:
  • 0Henk 'm!

  • sewer
  • Registratie: november 2000
  • Laatst online: 13:27
anandtech heeft hem nu ook online :)

Acties:
  • 0Henk 'm!

  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
quote:
RappieRappie schreef op maandag 14 mei 2007 @ 17:14:
ATi heeft een half jaar langer aan de R600 gewerkt dan nVidia aan de 8800 serie. De performance van de HD2900 ligt tussen de GTS en GTX in. Op zich vind ik dit best zwak. ...
tjah, maar is dat wel relevant? De kaart is nu uit en als er voldoende beschikbaarheid is is er geen reden om nog een gts640 te kopen.
quote:
Ook op IQ gebied kan ik nu niet echt zeggen dat het nu allemaal bijzonder is. De AF van nVidia is gewoon beter, en de AA van ATi minimaal beter dan nVidia. Bijna niet waarneembaar.
Ik durf zelf zover te gaan dat beiden identiek zijn (zowel AA als aniso) tenzij je specifieke situaties gaat opzoeken. Qua performance is bv 4x AA + kleine tent filter voor de HD2900 ideaal, minimale performance hit en een erg goede kwaliteit (met zeer weinig blurring). Vanaf 8x aa zijn alle karteltjes al weg, het zou interessanter zijn om betere AA voor alpha textures te hebben.
quote:
Op zich vind ik het vreemd van ATi dat ze met een kaart op de markt komen die tegenover de 8800GTS gepositioneerd wordt. Ze hebben altijd mee kunnen strijden om de performance crown, maar deze slag hebben ze verloren...
ATi is genekt door zijn warmteproductie, misschien hadden ze niet zoveel lekstroom verwacht bij het 80nm HS proces in ieder geval moeten ze snel overgaan naar een 65nm variant. De performance crown niet pakken is een probleem... en eigenlijk ook niet, het zit tussen je oren weetjewel.
quote:
De ATi drivers zijn erg brak lijkt het. Met AA en AF kakt de zooi in. Het is de vraag wanneer dit opgelost is. Iedereen gaf telkens kritiek op nV, maar dit lijkt toch niet helemaal terecht. Misschien is het gewoon moeilijker om voor unified kaarten drivers te maken. Ik kan gewoonweg niet bevatten dat de kaart niet sneller is dan hij is. Het valt me tegen. Helemaal omdat ze er zoveel tijd voor nodig hebben gehad. Wat ook vreemd is, is dat er geen mid-end is. Ze hebben een tijdje geleden keihard gezegd dat het een full product line lauch zou zijn. Ik zie er niks van terug. Zullen ze zoveel problemen met drivers hebben dat ze het niet aandurven?
De drivers zijn stabiel! dat kan zelf nu niet van nvidia gezegd worden, ik heb een kotgenoot met een gts320 en vista, hij krijgt nog steeds een paar bsod's per week ten gevolge van de fameuze vista drivers en aero renderfouten. Het zal nog lang duren voordat de R600 en g80 helemaal uitgeoptimaliseerd zijn. De R600 heeft een nieuwe geheugencontroller en het duurt meestal een eindje voor de ingenieurs bij ati de precieze instellingen ervoor gevonden hebben, dat kan al snel 20-30% schelen met aa en af. De R600 heeft ook een lastigere shaderarchitectuur om dan nog niet te spreken over de nieuwe caches & de command processor. Over een maand of 6 zouden we de prestaties van de R600 moeten herevaluren, niemand gaat dat doen natuurlijk.
quote:
Het is gewoon een mid/high end kaart, maar geen ECHTE high end kaart imho.
4 jaar geleden was het normaal de de hi-end 400 dollar koste, dat was toen extreme hi-end... tjah misschien wordt ik oud (en toen wilde ik er ook nog voor betalen)
quote:
Ik wil niet alleen negatief overkomen
grapjas :+

Acties:
  • 0Henk 'm!

  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
[H]ardOCP boort de kaart gewoon de grond in, noemt het een flop. Ik sta hier toch wel van te kijken hoor. :/

Hun reviews heb/had ik altijd héél hoog zitten, omdat zij de enige zijn die de maximaal speelbare IQ settings opzoeken, geen andere reviewer doet dat. En hier bijt de 2900XT veelal in het stof vs de 8800GTS 640. Tel daarbij het flink hogere verbruik, de slechtere AF en hogere temps bij op en volgens hen is zo een flop geboren.

Apple|IA wijzigde deze reactie 14-05-2007 18:29 (5%)


Acties:
  • 0Henk 'm!

  • anandus
  • Registratie: februari 2001
  • Niet online
quote:
Anandtech is vooral blij dat de kaart er eindelijk is :)
quote:
Maybe that's a lot to digest, but the bottom line is that R600 is not perfect nor is it a failure. The HD 2900 XT competes well with the 640MB 8800 GTS, though the 8800 GTS 320MB does have a price/performance advantage over both in all but the highest resolutions and AA settings under most current games. There are features we like about the hardware and we would love to see exploited. There is potential there

[...]

For now, R600 is a good starting place for AMD's DX10 initiative, and with a bit of evolution to their unified shader hardware it could eventually rise to the top. We aren't as excited about this hardware as we were about G80, and there are some drawbacks to AMD's implementation, but we certainly won't count them out of the fight. Power efficiency on 65nm remains to be seen, and there is currently a huge performance gap NVIDIA has left between the 8600 GTS and the 8800 GTS 320MB. If AMD is able to capitalize here with the HD 2600 series, they will certainly still have a leg to stand on. We will have to wait to see those performance results though.
Overigens wederom AA+AF = baaaaaad.
Van mij mag dat echt op plek numer 1 op de bughuntinglijst.

anandus wijzigde deze reactie 14-05-2007 18:32 (36%)

"Anti-intellectualism has been a constant thread winding its way through our political and cultural life, nurtured by the false notion that democracy means that 'my ignorance is just as good as your knowledge.'" -Isaac Asimov


Acties:
  • 0Henk 'm!

  • achtbaanfreak
  • Registratie: oktober 2006
  • Laatst online: 21-11-2019
Jullie zeggen nagenoeg allemaal dat het een "prut" kaart is. Oke, hij is wat aan de late kant, en de performance vergeleke die 8800GTX/Ultra is wat lager, maar deze kaarten zijn dan ook 150 en 300 euro duurder. Verder levert hij leuke prestaties in DX9 maar hij is echt voor DX 10 gemaakt. Hoe hij hier in presteert weten we niet. Misschien wel veel beter dan de geforce 8 serie.
Ook moeten de drivers nog geoptimaliseert worden wat zeker een aantal % extra performance eruit kan krijgen.

Acties:
  • 0Henk 'm!

  • Sluuut
  • Registratie: februari 2003
  • Laatst online: 02-01 13:03
Ik ben in ieder geval blij dat ATi nu van AMD is en dat het daarom -lijkt mij- zullen ze als ze slim zijn en naar de consumenten kijken veel efford stoppen in de volgende generatie.. althans zo zou ik het doen.. Maar het is natuurlijk 100.000x makkelijker gezegd dan gedaan ;)
quote:
achtbaanfreak schreef op maandag 14 mei 2007 @ 18:33:
Jullie zeggen nagenoeg allemaal dat het een "prut" kaart is. Oke, hij is wat aan de late kant, en de performance vergeleke die 8800GTX/Ultra is wat lager, maar deze kaarten zijn dan ook 150 en 300 euro duurder. Verder levert hij leuke prestaties in DX9 maar hij is echt voor DX 10 gemaakt. Hoe hij hier in presteert weten we niet. Misschien wel veel beter dan de geforce 8 serie.
Ook moeten de drivers nog geoptimaliseert worden wat zeker een aantal % extra performance eruit kan krijgen.
Wel lezen he.. daarop zeggen mensen weer: nVidia was bij de launch wel een "killer" en DX10 games zijn er nog (lang) niet. Tegen de tijd dat DX10 games ingeburgert raken zijn we alweer 2 a 3 generaties verder :P

Maar ik hou m'n mond nou hierover want we belanden in een visuele cirkel.

Sluuut wijzigde deze reactie 14-05-2007 18:41 (61%)

57696520646974206c65657374206973206e657264

Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.

Let op:
Klinkt kinderachtig, maar blijkt iedere keer weer nodig:
- geen Ati vs nVidia geflame (of onnodige vergelijkingen)
- niet op de man spelen - een ander voor fanboy uitmaken = OW wegens flamen
- geen slowchat
- het 1001 keer herhalen van zelfde 'nieuws' (R600 vertraagd...) is geen nieuws, dus offtopic.
- als je iets beweert, onderbouw het. Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid

Wat dan wel? Goed onderbouwde nieuwtjes over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True