[Algemeen] ATi Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 ... 6 Laatste
Acties:
  • 4.896 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atitopiclogo.jpg
 
Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de Canadese fabrikant ATi kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten.

Note In Oktober 2006 is de deal tussen ATI en AMD helemaal voltooid. Vanaf die tijd is ATI een onderdeel geworden van AMD. AMD heeft er echter voor gekozen om de naam ATI in stand te houden voor de GPU afdeling. Videokaarten die AMD produceert zullen bekend staan als "ATI RADEON". Daarom zal dit topic dus "ATI Nieuwsdiscussie Topic" blijven heten.

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

TOPIC REGELS
Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laaste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic!!!!!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic.

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders.
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Heb ik een nieuwe voeding nodig voor m'n X1800XT?", "Kan ik mijn X800GTO2 modden naar een X850XT PE?", "Klopt mijn 3DMark score wel?". "Hoe kan ik HDR + AA activeren in games?". "Welke tool moet ik gebruiken om te overclocken?". "Werkt CrossFire op een SLi mobo?". "Welke drivers kan ik het beste gebruiken?". Gebruik de search. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Continue melden dat een kaart niet beschikbaar is of te laat is. Het melden in dit topic HELPT de beschikbaarheid NIET verbeteren. En na 1x weten we het wel. Wacht gewoon, check de pricewatch, bel wat winkels, eet wat uit je neus... maar meldt het hier niet aangezien de discussiewaarde nihil is en niets bij draagt aan dit topic!
  • Probeer mensen niet continue te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


TOPIC GESCHIEDENIS


Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de voorgaande topics en hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
De laatste topics over elke kaart zullen altijd het meest uptodate zijn. Zo vind je de meest complete informatie over de R580 in topic 47.



NAVIGATIE
HUIDIGE VPUs
ATi's huidige line-up is bestaat uit de X1K serie. Deze serie is opgedeeld in verschillende segmenten:
  • X1950XT & XTX - R580+ (PCIe & AGP)
  • X1950Pro & GT - RV570 (PCIe & AGP)
  • X1650XT & GT - RV560 (PCIe & AGP)
  • X1650Pro - RV535 (PCIe & AGP)
  • X1300XT - RV530 (PCIe & AGP)
  • X1300Pro - RV516 (PCIe & AGP)
  • X1300 - RV505 (PCIe & AGP)
  • X1050 - RV370 (PCIe & AGP)
De vetgedrukte GPUs zijn de GPUs die op dit moment nog in productie zijn. Op de R580+ na is alles gefabriceerd op het 80nm proces. Wil je meer weten over deze GPUs, dan kan je daarvoor terecht in de first posts van Topic 40-50. Vanaf 52 gaat het voornamelijk over R600 en aanverwanten in de first post.
ATI Division - GPU Teams
Voor de fusie met AMD, werkte ATi met drie verschillende GPU teams die afzonderlijk aan aparte projecten werkten. Deze teams waren het "Westcoast Team" in Santa Clara (Silicon Valley - California) op enkele meters afstand van het nVidia hoofdkwartier, een team aan de Oostkust in Marlborough (Massachusets) en een team in Orlando Florida. Deze drie teams zijn ook weer onder te verdelen in een groep voor de high end en een groep voor de mainstream en lowend.

R200 (Radeon 8500) -> East Coast Team
R300 & R350 & R360 (Radeon 9x00) -> West Coast Team
R420 & R480 (Radeon X8x0) -> West Coast Team
R520 & R580 (Radeon X1xx0) -> West Coast Team

Waar waren dan al die jaren het Orlando team en het East Coast Team na R200 mee bezig? Dat varieerde van special projects (Xenos/Hollywood) en het assisteren van de overige teams tot aan andere projecten zoals handhelds, digital TV etc (Orlando). ATI werkte normaal gesproken met een ping-pong systeem, waar eerst het ene team een GPU lanceerde inclusief refreshes, en dat in de tussentijd een ander GPU team werkte aan een volledig nieuwe generatie inclusief refreshes. R400 werd dan ook oorspronkelijk ontwikkeld door het East Coast Team, maar dit project werd op halt gezet. De reden was dat het project van unified shader engines op dat moment (in 2002) technisch te hoog gegrepen was.

Om toch niet met lege handen te staan aan het einde van de levenscyclus van de R300, besloot men om het op de goedkope tour te gooien en simpelweg de R300 te nemen, deze te krimpen en te verdubbelen. Het resultaat was de zeer goedkoop te produceren R420.

Rond deze tijd kreeg ATI ook het Xbox360 contract met Microsoft. Deze waren zeer geinteresseerd in de unified architecture ideeen van ATI en daarmee werd het R400 project nieuw leven ingeblazen, dit maal onder de codenaam C1, die wij later als Xenos / R500 leerden kennen. Het East Coast Team richtte zich dus specifiek op de Xbox360. Dit team slaagde er in om een unified shader architecture in elkaar te flansen die samen zo'n 300M transistoren telde op het 90nm proces en Free 4xAA te voorschijn weet te toveren op je TV scherm. De ontwikkeling van de C1 was natuurlijk een goede proefperiode voor ATI om te testen met een desktop unified architectuur, die inmiddels omgedoopt was naar R600.

Natuurlijk moest er ook een opvolger komen van de R4x0 reeks. En ook hier werd het West Coast Team weer geraadpleegd. Deze zouden verder bouwen op de R3x0 en R4x0 reeks en er volledig Shadermodel 3 support aan toe voegen, een compleet nieuwe memory controller te integreren en enkele nieuwigheden als HDR + AA te introduceren. Dit gebeurde allemaal als basis voor de aankomende R600 GPU.

Nadat de R5x0 reeks ontwikkeld was, ging een gedeelte van West Coast Team zich richten op R700, terwijl een groot gedeelte zich op de verdere ontwikkeling van de R600 stortte samen met het team uit Orlando.

R600 is dan ook de eerste GPU die door alle drie teams gezamenlijk wordt ontwikkeld. Het hart van de ontwikkeling lag in Silicon Valley (West Coast Team).

R800 is de allereerste GPU die door alle drie teams samen vanaf de bodem is opgebouwd. Dit werd gezegd door Dave Orton in 2004, waardoor men misschien zou kunnen opmaken dat R700 een soort van refresh is van R600.

Interessante feitjes om te weten zijn dat ATI zowel Bitboys als XGI overnam voor de fusie met AMD. Dus AMD bezit nu de kennis van zowel ATI, XGI als de Bitboys. En daarnaast hebben ze al een hele tijd wat S3 mensen in dienst (waaronder de mensen die DXTC hebben ontwikkeld die ook 3Dc ontwikkelden) als veel ex-nV personeel.
High End: R600 - Radeon HD 2900 Serie
Afbeeldingslocatie: http://img.album.pchome.net/00/77/03/51/4fe986dcd47ba6afe2517393f36002ac.jpg
OEM 12" versie van de Radeon HD 2900 XT


Over de R600 chip is al heel wat geschreven (zie ook vorige delen en hierboven). Wat is de R600 precies? Wat weten we nu allemaal zeker van deze GPU?

Hieronder wat dingen die vast staan:
  • GPU: R600
  • Naam: Radeon HD 2900
  • Transistors: 720M
  • Second Generation Unified Shader Architecture
  • Geometry Shader Units zijn veel sneller dan de GS Units in de G80 aldus Microsoft FSX team en DICE (BF - Frostbyte Engine)
  • EA gebruikt de R600 als ontwikkelplatform voor de nieuwe BF game
  • 320 Multiply Accumulative Units
  • 500+ Gflops
  • 80nm high speed proces
  • In eerste instantie 1 variant: XT, later evt ook de XTX, XL en GT
  • PCB lengte voor retailkaarten: 9,5" (ter vergelijking, een X1950XTX is 9", dus de R600 is zo'n 1.3 cm langer)
  • PCB lengte voor OEM kaarten: 12" (verlengde cooler met bevestigingsbracket voor OEMs als HP en Dell)
  • Enhanced CrossFire
  • 200W Stroomverbruik
  • 1x 8 Pins + 1x 6 Pins stroomaansluiting, 8 Pins is backwards compatible met 6 Pins connectors
  • 24xAA
Het meest interessante zijn de 320 Multiply Accumulative Units en de 500+ Gflops voor een enkele R600. 320 MADD units zou het volgende kunnen betekenen:
  • R600 heeft 320 Scalar ALUs
  • R600 heeft 160 Scalar ALUs die Dual Issue kunnen doen
  • R600 heeft 64 ALUs die elk een Vec4 bewerking en Scalar bewerking kunnen doen
Om die 500+ Glops te halen voor een enkele R600, zouden de shaders op 800Mhz of sneller moeten lopen. Bij nVidia lopen de shaders op 1350Mhz om zo'n 340Gflops te halen (met een maximum theoretisch haalbare van ongeveer 440 als de extra MUL zou werken). De core loopt zelf op 575Mhz bij de G80.

Het is onduidelijk of AMD nu ook gaat werken met clockdomains, maar als we uitgaan van het verleden dan zou dit niet het geval zijn en zouden zowel de shaders op 800Mhz moeten werken als ook de rest van de core (bv de ROPs). Hier zou de R600 zeker zijn voordeel uit moeten halen in combinatie met de veel hogere geheugenbandbreedte.

De naam is zoals bekend "Radeon HD 2900". AMD heeft de X laten vallen ten gunste van de HD-tag. Hier wil men de nadruk leggen op de Avivo HD mogelijkheden van de R6-serie. In eerste instantie zal alleen de Radeon HD 2900 XT uit komen. Of de XTX variant tegelijkertijd gelanceerd wordt is niet bekend.

Het stroomverbruik lig hoger dan die van een GF8800GTX, maar de meeste mensen die voor snel gaan zal dit niet veel uit maken (een Ferrari koop je ook niet omdat-ie zo zuinig is en met 120km over autobahn te rijden). Wat wel voor de koper echter ook interessant is, is dat de cooler zijn werk goed doet en ook nog eens zeer stil is. Volgens de eerste berichten is de kaart zelfs koeler dan de X1950XTX.

Upper Midrange: RV670


Over de RV670 is nog niet veel bekend, behalve het kwartaal waarin deze GPU gepland staat, namelijk Kwartaal 3 van 2007. Als we afgaan op de RV570 GPU, dan is de RV670 een GPU die zich in de hogere regionen van de midrange bevindt en dus waarschijnlijk een 256-bit memory interface zal hebben.

Eventueel zou ook een RV660 uit kunnen komen, net zoals er ook een RV560 variant was van de RV570 die identiek was op een aantal uitgeschakelde onderdelen na.

Deze series heten dan waarschijnlijk de Radeon HD 2800 serie en de Radeon HD 2700 serie.

Lower Midrange: RV630 - Radeon HD 2600 Serie


Van de RV630 zijn er een drietal PCB modellen bekend. Al deze modellen zijn vernoemd naar diamanten, namelijk Kohinoor, Orloff en Sefadu. Al deze modellen zullen gebruik maken van een 128-bit memory interface, net zoals de RV530 en RV560.

De die-size van RV630 13.3x11.5mm oftewel ~153mm² op 65nm.

De eerste indicaties wijzen er op dat de snelste RV630 gebruik maakt van een dubbelslot cooler die veel weg heeft van de X1950XTX cooler. De performance zou moeten liggen rond 12000 punten in 3DM05. Een andere bron meldt dat ze een RV630 hebben gezien op 540Mhz core en 700Mhz mem en dat deze zo'n 5000 punten scoorde in 3DM05 en op 3000 punten zat in 3DM06. De eerste was wellicht gebaseerd op Kohinoor, terwijl de tweede misschien wel Sefadu was.

Afbeeldingslocatie: http://www.pcgameshardware.de/screenshots/medium/Imgp5549.jpg
Bron: http://www.pcgameshardware.de

Kohinoor
Kohinoor is de snelste van de drie en verbruikt met 125W ook gelijk het meest. Deze zal namelijk gekoppeld worden aan snel GDDR4 geheugen. Zelfs al wordt het langzaamste GDDR4 geheugen (op dit moment 900Mhz) gekoppeld aan de 128-bit memory interface, dan nog zal deze kaart een geheugenbandbreedte hebben van 28.8GB/s. Dit is dus nog altijd bijna 30% meer dan de X1650Pro en X1650XT. Koppel je dit aan het 1Ghz GDDR4 geheugen waar ook de X1950XTX gebruik van maakt, dan kom je uit op een totaal van 32GB/s wat te vergelijken is met de bandbreedte die bv de X800XT en GF6800GT hadden.

Orloff
Orloff zal waarschijnlijk de meest verkochtte worden van de drie. Orloff maakt gebruik van het ruim voor handen zijnde GDDR3 geheugen. Je kan verwachten dat hier minimaal 700Mhz GDDR3 op zit en deze kaarten dus een vergelijkbare bandbreedte hebben als de X1650XT en X1650Pro.

Sefadu
Sefadu zal vooral in veel OEM PCs de weg naar binnen weten te vinden. Het lage stroomverbruik (75W) en het niet nodig hebben van een externe stroomvoorziening, maken deze ideaal voor gebruik in een HP of Dell machine, die net iets meer juice in huis moet hebben dan een low-end GPU kan bieden.

De naamgeving van de RV630 is inmiddels ook bekend. De laatste tijd gaan er geruchten rond over een renaming naar Radeon HD 2400. Hiermee wordt ook meteen aangegeven dat de RV630 niet als tegenstander is bedoeld van nVidia's G84. Dit zouden dan de RV660 en RV670 moeten worden. De performance van de RV630 ligt dan zeer waarschijnlijk lager dan die van de GF8600GTS, GF8600GT en GF8500GS. Maar inmiddels weten we dat de RV630 de naam Radeon HD 2600 gaat krijgen.

Het voordeel die de RV630 serie heeft op de G84 serie moet dan ook niet gezocht worden in de performance, maar in de featureset en IQ. Elke kaart in de RV630 serie biedt bijvoorbeeld HDCP en native HDMI aan, daar waar de G84 en G86 dit niet doen. Daarnaast is de RV630 serie gemaakt op het 65nm productieproces en de G84/G86 op het 80nm productieproces. Dit zou je kunnen merken in het stroomverbruik.

RV630 heeft de Universal Video Decoder aan boord. Hiermee wordt hardware H.264 en VC-1 decoding mogelijk zonder al te veel performanceverlies.

UVD kan rechtstreeks Bitstream Processing/Entropy Decode, Frequency Transform, Pixel Prediction en Deblocking op de GPU uitvoeren waardoor het CPU verbruik enorm omlaag gaat.
Budget: RV610 - Radeon HD 2400 Serie


De RV610 komt er in eerste instantie in twee varianten. Deze maken gebruik van PCB met de codenamen: Falcon en Antelope. Beide varianten worden in Mei 2007 gelanceerd en zijn gemaakt op het 65nm productieproces. Dit productieproces zorgt er voor dat de RV610 bijzonder klein is, namelijk 7.7x10.7mm, oftewel ~82mm² op het 65nm productieproces. Ter vergelijking, nVidia's tegenhanger de G86 is 11.5x10mm, oftewel ~115mm² op 80nm.

Afbeeldingslocatie: http://www.pcgameshardware.de/screenshots/medium/Imgp5545.jpg
Bron: http://www.pcgameshardware.de

Falcon
Falcon is het laagste model en deze zal gemiddeld zo'n 25W verbruiken. Het geheugen dat op dit PCB geprikt zal worden is 128MB GDDR2 geheugen, dat dmv Hypermemory uit te breiden is naar 512MB of meer. CrossFire wordt alleen via software ondersteund. De eerste geruchten wijzen op een core snelheid van 400Mhz voor de RV610LE die op het Falcon PCB geprikt zal worden.

Antelope
Antelope is de snelle jongen van de twee. Deze zal gebruik maken van 256MB GDDR3. In combinatie met een andere RV610 kan je gebruik maken van hardwarematige CrossFire.

Over de performance is nog weinig bekend. Het gerucht gaat dat Falcon in ieder geval een 64-bits memorycontroller heeft. Zo'n dusdanig kleine memorycontroller staat er om bekend dat hierdoor de prestaties flink geknepen worden, maar dat mag in de budgetsector geen probleem zijn.

Met enig geluk beschikt Antelope wel over een 128-bit memory interface, dan wel een 64-bit memory interface met zeer snel GDDR3 geheugen. De core van de RV610Pro die op het Antelope PCB geprikt wordt, zou volgens eerste berichten op 700Mhz lopen.

De performance van de RV610LE GPU is twee keer die van de X1300LE volgens AMD. En net als RV630 heeft ook RV610 alle UVD mogelijkheden aan boord. De naam van de RV610 wordt: Radeon HD 2400

TOEKOMSTIGE VPUs (Lange Termijn) - R650/R680/R700

Of de opvolger van R600 de naam R650 of R680 krijgt is nog weinig bekend. Wat wel bekend is, is dat AMD op de roadmap een "next generation R600" heeft staan en dat deze gepland is voor het derde kwartaal van 2007. De refresh van de R600 zal hoogst waarschijnlijk gebruik maken van het 65nm productieproces. Dit kan je min of meer afleiden aan de hand van een opmerking gemaakt door Dave Orton, die meldde dat AMD de eerste zou zijn die een high end GPU op het 65nm productieproces zou releasen in 2007.

De voordelen van het 65nm productieproces zijn dat de core veel kleiner kan worden, en dat tegelijkertijd ook de kloksnelheid opgevoerd kan worden. De eerste geruchten over de R600 zeggen dat deze zeer goed meeschaalt met kloksnelheid. Er staat ons dus nog wat te wachten!

Prijsoverzicht na lancering X1K serie
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/pricechart.jpg


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan prijswijzigingen doorvoeren.

DE GERUCHTENMOLEN
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpg
Gerucht: R600 is laat vanwege technische problemen
Nee.
Waarheidsfactor: 100%
Update: 06-03-2007
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: R600 is achterhaald op het moment van release, nV komt vast met een veel snellere G81 uit
Nee. R600 is niet achterhaald op het moment van release. Weten jullie wat R600 is? Nee? Trek dan ook geen voorbarige conclusies. Degenen onder ons die inmiddels weten wat R600 is, zullen jullie dit ook kunnen vertellen dat de R600 zeker niet achterhaald is. ;)

En de refresh van nVidia? Maakt AMD zich daar zorgen over? Voorlopig komt er geen G81. Als er een snellere variant uit komt van de GF8800GTX, dan is het de GF8800Ultra en deze is nog altijd gebaseerd op de G80 core. Voorlopig ziet het er naar uit dat het niets meer is dan een opgevoerde G80, en daar houdt AMD zeker rekening mee.
Waarheidsfactor: 100%
Update: 06-03-2006
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: CrossFire heeft niet dezelfde 60Hz beperking op R5x0 kaarten
Waar!
Waarheidsfactor: 100%
Update: 02-10-2005


Afbeeldingslocatie: http://www.guildwarsarena.net/ati/sapphirex1900xtx-blizzard.jpg
Sapphire X1900XTX Blizzard Edition - Watergekoelde X1900XTX

OVERIGE ZAKEN
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Het moge duidelijk zijn dat de meeste dingen nog gebaseerd zijn op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd
van harte welkom (via mail dan wel in het topic).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atitopiclogo.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQ
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is 3Dc?

Antwoord: 3Dc is een manier van normal map compressie. Check de firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te

zien wat 3Dc precies is. 3Dc is inmiddels opgenomen in de specificatie van DirectX10 en ook de Xbox360 ondersteunt 3Dc. Games zullen dus steeds meer 3Dc ondersteuning bieden (zelfs

zonder dat het expliciet vermeld wordt) en nVidia zal 3Dc ook hardwarematig moeten ondersteunen (alhoewel ze het waarschijnlijk anders gaan noemen, aangezien de naam 3Dc

waarschijnlijk door ATi is gepatenteerd).
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is CrossFire?

Antwoord: CrossFire is ATi's Multi VPU oplossing waarmee zoals de naam al zegt, meerdere kaarten aan elkaar gekoppeld kunnen worden om de performance te verbeteren. Wil je

precies weten wat CrossFire is, kijk dan even in de First Posts van de vorige topics.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of Dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het

ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale

compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Op de nieuwste AMD kaarten, de ATI Radeon X1650XT en X1950Pro, zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor

is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een

X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! De R600 (en afgeleiden) zullen dit nieuwe systeem ook

gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op

high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een

70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games ondersteunen 3Dc?

Antwoord: ATi maakt binnenkort een lijst bekend met 3Dc titels.
Op dit moment zijn dit games waarvan bekend is dat ze 3Dc
ondersteunen.

- Far Cry (patch 1.3)
- Half Life 2 (ATi levels)
- Tribes Vengeance
- Sid Meier's Pirates!
- DarkSector
- Project Freedom

Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games vallen onder het Get In The Game

programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de

firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de

Catalyst Control Center!
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass

through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since

you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met

vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in R500 -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan

kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden

idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden

ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6

maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet

opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had

last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met

cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken

van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi

roadmap is niet veel veranderd.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt

ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers

geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200
- Intel 955x
- Intel 975x

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten

werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas

grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter

beschikbaargeworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Komen er ook AGP versies uit van de X1K serie?

Antwoord: ATi laat het aan AIB (All In Board partners, zoals MSI, Asus, Powercolor etc) over om AGP versies uit te brengen van hun kaarten. ATi heeft aangegeven dat ze AIBs ter zijde

willen staan mochten ze hulp nodig hebben bij het ontwikkelen van AGP versies. Op dit moment zijn de volgende kaarten beschikbaar in AGP variant:
  • X1300Pro
  • X1600Pro
  • X1650Pro
  • X1650XT (Powercolor beschikbaar vanaf medio Januari 07)
  • X1950Pro256/512

Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat

ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores

gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de

X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een

paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit

voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven

kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller

de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas

nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn

dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller

kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had

toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten,

maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken

of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij

realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een

zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes

(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar

ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet

je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken

om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met

alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten

uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar

Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van

dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een

X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet

meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment

bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint

berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580

maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik

maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die

het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de

development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.

ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi

biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen

wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van

DirectPhysics lijkt dit dan ook te gaan gebeuren.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan

eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main

graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik

al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een X2K kaart bij,

dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers

wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook

HavokFX onderdeel van is.

[ Voor 99% gewijzigd door CJ op 13-04-2007 09:58 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/pricechart.jpg
Richtprijzen na de lancering van de X1950XTX, X1950Pro, X1650XT, X1650Pro en X1300XT

X1K-serie in de Pricewatch
http://tweakers.net/price...Field=prijs&orderSort=asc

Let er wel op dat de prijzen dagelijks kunnen veranderen en dat deze pricewatch eens in de maand wordt geupdate. De prijzen zijn afgerond in hele euro's. De echte winkelprijzen kunnen dus iets anders zijn.
• Goedkoopste X1300 128MB PCIe: €47,20 >
• Goedkoopste X1300 256MB PCIe: €56,95 <
• Goedkoopste X1300 512MB PCIe: €53,16 >
• Goedkoopste X1300Pro 256MB PCIe: €64,14 <
• Goedkoopste X1300XT 256MB PCIe: €65 << TIP
• Goedkoopste X1300XT 512MB PCIe: €90,00 NEW
• Goedkoopste X1600Pro 256MB PCIe: €73,54 =
• Goedkoopste X1600Pro 256MB AGP AGP: 99,91 <
• Goedkoopste X1600Pro 512MB PCIe: €98,55 >
• Goedkoopste X1600XT 256MB PCIe: €77 <<
• Goedkoopste X1650Pro 256MB PCIe: €76,00 =
• Goedkoopste X1650XT PCIe: €119 <
• Goedkoopste X1800GTO 256MB PCIe: €174,90 =
• Goedkoopste X1800XT 256MB PCIe: link verouderd
• Goedkoopste X1800XT 512MB PCIe: €304,98 >>
• Goedkoopste X1900GT 256MB PCIe: €157,00 >
• Goedkoopste X1950GT 256MB PCIe: €144 NEW
• Goedkoopste X1950Pro 256MB PCIe: €154 < TIP !!!
• Goedkoopste X1950Pro 256MB AGP AGP: €195 NEW AGP TIP !!!
• Goedkoopste X1950Pro 512MB PCIe: €195,23 <<
• Goedkoopste X1900XT 256MB PCIe: €229,00 <<
• Goedkoopste X1900XT 512MB PCIe: €299,00 =
• Goedkoopste X1900XT CrossFire: €374,00 >
• Goedkoopste X1900XTX 512MB PCIe: €299,00 <<
• Goedkoopste X1950XT 256MB PCIe: €198,00 << TIP
• Goedkoopste X1950XTX PCIe: €298,00 <<
• Goedkoopste X1950XTX CrossFire PCIe: €354,80 <<
< lager in prijs tov vorige update (<< meer dan €10 gezakt)
> hoger in prijs tov vorige update (>> meer dan €10 gestegen)
= gelijk gebleven tov vorige update
Last updated: 6 Maart 2007

[ Voor 99% gewijzigd door CJ op 13-04-2007 10:37 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • vigilante888
  • Registratie: Januari 2004
  • Laatst online: 18-12-2023

vigilante888

The truth is out there.....

Alle games die gebaseerd zijn op de HavokFX Physics engine zullen waarschijnlijk vertraagd worden. De reden hiervoor is dat de Engine op dit moment compleet herschreven wordt. Waarschijnlijk zal AMD de drivers ook aanpassen.

[ Voor 12% gewijzigd door vigilante888 op 13-04-2007 10:06 ]

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Even een korte samenvatting van wat er tot nu toe bekend is (uit de FP gepakt):
  • GPU: R600
  • Naam: Radeon HD 2900
  • Transistors: 720M
  • Second Generation Unified Shader Architecture
  • Geometry Shader Units zijn veel sneller dan de GS Units in de G80 aldus Microsoft FSX team en DICE (BF - Frostbyte Engine)
  • EA gebruikt de R600 als ontwikkelplatform voor de nieuwe BF game
  • 320 Multiply Accumulative Units
  • 500+ Gflops
  • 80nm high speed proces
  • In eerste instantie 1 variant: XT, later evt ook de XTX, XL en GT
  • PCB lengte voor retailkaarten: 9,5" (ter vergelijking, een X1950XTX is 9", dus de R600 is zo'n 1.3 cm langer)
  • PCB lengte voor OEM kaarten: 12" (verlengde cooler met bevestigingsbracket voor OEMs als HP en Dell)
  • Enhanced CrossFire
  • 200W Stroomverbruik
  • 1x 8 Pins + 1x 6 Pins stroomaansluiting, 8 Pins is backwards compatible met 6 Pins connectors
  • 24xAA
Daar kan aan worden toegevoegd dat de core op een zeer hoge snelheid draait (tussen de 700-800Mhz) en dat de architectuur zeer goed meeschaalt met kloksnelheid. Dwz dat een hogere core kloksnelheid zorgt voor een goede performanceboost.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
Eindelijk begint er wat meer duidelijkheid te komen. Hopelijk ook snel wat scores met cat 7.3 driver hebben we een kleine indicatie van hoe het kan worden. Maar volgens mij was de 7.5 driver de release drivers.

Zouden ze ook een nieuwe AF mode hebben ? Als in 24x AF ? of 32x ? of misschien een verbeterde HQ AF ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:13

XanderDrake

Build the future!

http://www.fudzilla.com/i...ask=view&id=507&Itemid=34
R600 XT GDDR3 is faster than 8800 GTX
In some of the tests


AMD is planning a stunt with R600XT and it looks like that the R600XT chips might actually be faster than G80 GTX. From what we learned even the $/€399 should beat Geforce 8800 GTX at default clocks. We don’t know does this apply for all cases but at least in most of the games and benchmarks ATI part should win.


Radeon HD/X2900 XT with 512 MB should end up beating Nvidia after all. We know that ATI has better and faster driver especially in OpenGL and the new driver and 512 bit memory interface will help this card win the race.


From what we know the R600XT with 512 MB might have very similar speed to the R600XTX with DDR4 and 1024 MB but just at cheaper price.


Does this sound like a hope for ATI? It does to us.
toon volledige bericht
Jaaah wat goed! *O*

Hoewel iedereen weet dat ik een die-hard lid ben van het (donker) groene kamp, kan ik dit met heel mijn hart aanmoedigen d:)b Goedkoper maar toch sneller, dat is de énige manier die ik kan bedenken om een achterstand van 6 maanden te compenseren. Erg slim van AMD om als eerste de 512mb DDR3 te lanceren, dankzij de lage prijs kan je de concurrent nog net wat klappen verkopen.
Maar volgens mij wachten de echte fans totdat de 2900XTX gereleased wordt ;)

(nu es kijken wat nVidia gaat doen :> )

Verder, 24x AA... euhm, ik denk dat het erg moeilijk wordt om het verschil te gaan zien tussen nV's 16x SAA en deze 24x AA. Zie je het verschil tussen een TFT scherm met 5ms en met 2ms :P ?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 23-04 10:52
Even een typo uit de startpost gehaald.

"Prijsovergezicht na lancering X1K serie"

Wordt:

"Prijsoverzicht na lancering X1K serie"

Althans ik neem aan dat je dat niet express hebt gedaan ;)
XanderDrake schreef op vrijdag 13 april 2007 @ 10:29:
http://www.fudzilla.com/i...ask=view&id=507&Itemid=34

[...]
tekst

Verder, 24x AA... euhm, ik denk dat het erg moeilijk wordt om het verschil te gaan zien tussen nV's 16x SAA en deze 24x AA. Zie je het verschil tussen een TFT scherm met 5ms en met 2ms :P ?
Ik zie in Supreme Commander geen eens het verschil tussen 8xAA of 4xAA of 0xAA (0xAA miss een beetje).
Vraag me dus af of dit niet een beetje overkill is...
Maar goed Supreme Commander is dan ook wel grafisch perfect afgewerkt. Met 24xAA kun je een lelijke game nog iets maken zeg maar :P

[ Voor 64% gewijzigd door Gurneyhck op 13-04-2007 10:37 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het zou wel wat zijn als ATI inderdaad beter is in OpenGL nu....

24AA is leuk maar alleen als het ook toepasbaar is. 16AA op de 8800gtx is imo meestal al te zwaar en het verschil met 8AA is niet zo groot. Maar mss is dat op echt grote schermen anders.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
XanderDrake schreef op vrijdag 13 april 2007 @ 10:29:
Verder, 24x AA... euhm, ik denk dat het erg moeilijk wordt om het verschil te gaan zien tussen nV's 16x SAA en deze 24x AA. Zie je het verschil tussen een TFT scherm met 5ms en met 2ms :P ?
Ik denk dat je dat dan ook vooral als marketing moet beschouwen. Net zoals die 320 streamprocessors. Het is gewoon een kwestie van e-penis verlenging. The bigger the better.

Het zou me niets verbazen als AMD nu gewoon SuperAA toepast op 1 enkele GPU. De HD 2900 heeft er in ieder geval genoeg bandbreedte voor. Het lijkt er op dat AMD nu gaat voor full speed IQ. De sloot aan bandbreedte zou ook met HDR goed van toepassing moeten komen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
XanderDrake schreef op vrijdag 13 april 2007 @ 10:29:
http://www.fudzilla.com/i...ask=view&id=507&Itemid=34

[...]

Jaaah wat goed! *O*

Hoewel iedereen weet dat ik een die-hard lid ben van het (donker) groene kamp, kan ik dit met heel mijn hart aanmoedigen d:)b Goedkoper maar toch sneller, dat is de énige manier die ik kan bedenken om een achterstand van 6 maanden te compenseren. Erg slim van AMD om als eerste de 512mb DDR3 te lanceren, dankzij de lage prijs kan je de concurrent nog net wat klappen verkopen.
Maar volgens mij wachten de echte fans totdat de 2900XTX gereleased wordt ;)

(nu es kijken wat nVidia gaat doen :> )

Verder, 24x AA... euhm, ik denk dat het erg moeilijk wordt om het verschil te gaan zien tussen nV's 16x SAA en deze 24x AA. Zie je het verschil tussen een TFT scherm met 5ms en met 2ms :P ?
toon volledige bericht
Ze zeggen hier min of meer dat de 512 MB versie net zo snel is als de 1024 MB XTX. Dat zou niet echt goed zijn imo. Zo i Zo denk ik dat dat 900 MHz GDDR 3 het aardig goed doet TOC dat 2200 MHz GDDR4. En dat GDDR 4 pas interessant wordt bij 2400 MHz en hoger. Misschien is dat geheugen wel leuk voor de overclockers onder ons :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:13

XanderDrake

Build the future!

BTW, CJ, ik mis nog een kaartje in de line up: De X1550 PCI-E en AGP
PCI-E: http://tweakers.net/price...1550-ED-128C-prijzen.html
AGP: http://tweakers.net/price...I)-CGA-1556A-prijzen.html

Erg geinig kaartje, we verkopen em al een maand ofzo. Goedkoop, toch degelijke game prestaties én beschikbaar voor AGP.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Volgens mij zeggen ze dat niet ... ze zeggen dat de 512MB GDDR3 goed kan concurreren door én goede prestatie én goede prijs. Stel nou dat de 512MB versie een 700/1600 model is en de 1024 (de XTX?) wordt een 800/2200 (GDDR4) denk ik dat ze daar nog wel even mee verder kunnen :) . Ben erg benieuwd, mocht ATi nu de OpenGL hard gaan pakken, dan hebben ze en de liefde D3D en de Open Graphics Library als schop kindje eindelijk over de knie. Interesting times.

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
Cassius schreef op vrijdag 13 april 2007 @ 10:59:
Volgens mij zeggen ze dat niet ... ze zeggen dat de 512MB GDDR3 goed kan concurreren door én goede prestatie én goede prijs. Stel nou dat de 512MB versie een 700/1600 model is en de 1024 (de XTX?) wordt een 800/2200 (GDDR4) denk ik dat ze daar nog wel even mee verder kunnen :) . Ben erg benieuwd, mocht ATi nu de OpenGL hard gaan pakken, dan hebben ze en de liefde D3D en de Open Graphics Library als schop kindje eindelijk over de knie. Interesting times.
Nja ik ga een beetje af op de volgende zin:
From what we know the R600XT with 512 MB might have very similar speed to the R600XTX with DDR4 and 1024 MB but just at cheaper price.
Maar eerst even afwachten wat de de betrouwbare reviewsites straks zeggen/laten zien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
Leuk R600 aan je notebook :P:
Catch the R600 stud


We have already mentioned that R600 will get its external version. The external R600 card is meant for multi Crossfire, the marchitecture that involves more than just two cards rendering your game.

Some of these cards can be internal while some of them can be external. We know you can connect more than two cards, we heard that odd number of five is also possible, some of them internal some external, all R600.


We learned that external R600 codenamed Lasso connects via an external PCIe port. The connection itself is done via big cable that connects Lasso system with a PC, all via PCIe port.


We still lack a lot of details about it, but we know it's real and up and running. There have been some of these cards at Cebit but only for super VIP people.
toon volledige bericht

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Renegade!
  • Registratie: Augustus 2005
  • Laatst online: 24-01-2022
Denk er net zo over, maar het is toch mooi meegenomen ;)

Het wordt een aardige zomer wat hardware betreft, mensen die dan een nieuwe pc gaan kopen zullen goed varen :)

The best argument against democracy is a five-minute conversation with the average voter.


Acties:
  • 0 Henk 'm!

Anoniem: 202399

"Beste AMD,

Mijn kwijl is op, release die kaart!

Hoogachtend,

ATI-FaN"

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
XanderDrake schreef op vrijdag 13 april 2007 @ 10:58:
BTW, CJ, ik mis nog een kaartje in de line up: De X1550 PCI-E en AGP
PCI-E: http://tweakers.net/price...1550-ED-128C-prijzen.html
AGP: http://tweakers.net/price...I)-CGA-1556A-prijzen.html

Erg geinig kaartje, we verkopen em al een maand ofzo. Goedkoop, toch degelijke game prestaties én beschikbaar voor AGP.
idd: de oude x1300pro heet nu x1550
leuke review:
http://www.bjorn3d.com/read.php?cID=1056

Acties:
  • 0 Henk 'm!

  • vigilante888
  • Registratie: Januari 2004
  • Laatst online: 18-12-2023

vigilante888

The truth is out there.....

Joepi schreef op vrijdag 13 april 2007 @ 13:25:
[...]


idd: de oude x1300pro heet nu x1550
leuke review:
http://www.bjorn3d.com/read.php?cID=1056
De X1550 en de X1050 zijn resp. de X1300 en de Radeon 9600. Zijn in feite dezelfde kaarten, alleen met een andere ASCI erin. AMD is bezig alle ouwe ATi ASCI te veranderen. The 9600 is al op dit moment vervangen door de 9550. De 9550 gaat EOL in een maand ong.

En volgens mij testen performed de X1550 en de X1050 nog slechter de voorgangers.

[ Voor 8% gewijzigd door vigilante888 op 13-04-2007 13:41 ]

Specs PS3 PSN ID: Vigilante888 (Azie)- VigilanteUSA (USA) - JusticeFreedom (Euro)


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:13

XanderDrake

Build the future!

Ik heb het gelezen ja, infeite een rebrand. Intressant dat de X1550 wel continue 2-10% beter presteert dan de X1300, hoewel de specs identiek zijn...?

Andere naam + Betere prestaties = Andere kaart :Y) ?

(eigenlijk vind ik rebranden niet zo'n goede zaak. Je belazert klant die denkt dat ie een betere kaart koopt... En als ze het doorkrijgen zijn wij, de verkopers, de sjaak :( )

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Best belangrijk/handig voor HTPC's enz. dat die x1550 ook met hdmi verkrijgbaar is.
Kabeltjes zo simple mogelijk houden scheelt alweer en: in de prijs! (rijst de pan uit bij hdmi/dvi :( )
BTW: heeft die dan ook HDCP?

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 24-04 14:34

edward2

Schieten op de beesten

Zoals CJ al zei, de 8.361 driver doet het aanmerkelijk beter :

http://www.fudzilla.com/i...task=view&id=525&Itemid=1

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:13

XanderDrake

Build the future!

Joepi schreef op vrijdag 13 april 2007 @ 14:27:
Best belangrijk/handig voor HTPC's enz. dat die x1550 ook met hdmi verkrijgbaar is.
Kabeltjes zo simple mogelijk houden scheelt alweer en: in de prijs! (rijst de pan uit bij hdmi/dvi :( )
BTW: heeft die dan ook HDCP?
Niet de X1550 die ik verkocht...

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Anoniem: 162692

We only know a few examples as in Need for Speed Carbon R600XT scores 10 to 17 percent better than Geforce 8800 GTX

Is dat alles :/
Een 8800GTX OC is al 20% beter in Carbon.. :|

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Anoniem: 202399 schreef op vrijdag 13 april 2007 @ 13:01:
"Beste AMD,

Mijn kwijl is op, release die kaart!

Hoogachtend,

ATI-FaN"
Ik zou nog het volgende toevoegen :

"Tevens zal ik zodra ThermalRight een Speciale HR-600 (HR-600 snap je hem :P ) uitbrengt met 8 heatpipes (ik noem maar wat, als dat ding maar lekker groot is >:) ) waarop 2 120 mm. Papst Fans op kunnen wegens religieuze redenen de originele Fan achteraan erop laten zonder deze daadwerkelijk aan te sluiten." :Y)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • MelvinB
  • Registratie: Oktober 2002
  • Laatst online: 29-09-2023
Anoniem: 162692 schreef op vrijdag 13 april 2007 @ 17:15:
[...]


We only know a few examples as in Need for Speed Carbon R600XT scores 10 to 17 percent better than Geforce 8800 GTX

Is dat alles :/
Een 8800GTX OC is al 20% beter in Carbon.. :|
En OC is wat anders dan een performance-boost middels een leuke driver.

| DELL XPS 15 Haswell QHD | APPLE iPhone X Silver | APPLE iPad Air |


Acties:
  • 0 Henk 'm!

  • Sluuut
  • Registratie: Februari 2003
  • Laatst online: 25-04 14:20
Anoniem: 162692 schreef op vrijdag 13 april 2007 @ 17:15:
[...]


We only know a few examples as in Need for Speed Carbon R600XT scores 10 to 17 percent better than Geforce 8800 GTX

Is dat alles :/
Een 8800GTX OC is al 20% beter in Carbon.. :|
Carbon zuigt dan ook gelukkig zwaar.

57696520646974206c65657374206973206e657264


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
Tja ik vind die 10-17% ook tegen vallen. Aan de andere kant is het wel de XT en niet de XTX. Mocht de XT op 700 MHz lopen of zelfs iets minder en de XTX op 800+ kan het nog wel leuk worden. Maar ik gok dat die 8800 Ultra ook wel iets van 10-15% sneller zal zijn.

En 20% extra voor een 8800 GTX lijkt me wat veel. Want een 20% stijging in clock speeds hoeft niet eens te betekenen dat de kaart ook 20% sneller wordt. En dat hebben we het zelfs over geheugen 20% sneller en core ook. Die oc kaart zou dan dus 690-2160 lopen en dan denk ik dat je meestal iets van 10%-15% sneller zal zijn maximaal kun je 20% halen maar dat haal je in de praktijk niet.

Ik vraag me af wat nVidia wil doen qua geheugen er is geen sneller GDDR3 dan 1800 MHz. En ik denk dat 2000 MHz GDDR4 langzamer zal zijn door de timings. Dus dan zouden ze qua geheugen niet veel vooruit gaan en alleen de core een boost kunnen geven. En de vraag is of die wel boven de 700 uit kan komen.

[ Voor 57% gewijzigd door Astennu op 13-04-2007 18:28 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 23009

CJ schreef op vrijdag 13 april 2007 @ 09:57:
Afbeeldingslocatie: http://img.album.pchome.net/00/77/03/51/4fe986dcd47ba6afe2517393f36002ac.jpgOEM 12" versie van de Radeon HD 2900 XT
Is dat niet de ATi Radeon HD 2900 XTX 1GB GDDR4 OEM kaart ipv de XT versie?

Acties:
  • 0 Henk 'm!

Anoniem: 168987

Als ik me niet vergis is carbon Dx9
en de 8800 series is meer geoptimaliseerd voor Dx9 dan de R600.
Zo heb ik het toch al op verschillende plaatsen gelezen.
Je zal de echt kracht van de R600 pas zien bij Dx10 spellen.
Volgens mij gaat die kracht echt monsterlijk groot zijn.

Acties:
  • 0 Henk 'm!

Anoniem: 23009

Anoniem: 168987 schreef op vrijdag 13 april 2007 @ 18:31:
Als ik me niet vergis is carbon Dx9
en de 8800 series is meer geoptimaliseerd voor Dx9 dan de R600.
Zo heb ik het toch al op verschillende plaatsen gelezen.
Je zal de echt kracht van de R600 pas zien bij Dx10 spellen.
Volgens mij gaat die kracht echt monsterlijk groot zijn.
heh hoe weet je dat de 8800GTX beter is dan in DX9 als een R600, waar heb je het echte bewijs gevonden dat dat echt zo is??

Alles wat men leest hoeft men niet als ware feiten te herzien! :+

[ Voor 16% gewijzigd door Anoniem: 23009 op 13-04-2007 18:34 ]


Acties:
  • 0 Henk 'm!

Anoniem: 168987

Anoniem: 23009 schreef op vrijdag 13 april 2007 @ 18:32:
[...]


heh hoe weet je dat de 8800GTX beter is dan in DX9 als een R600, waar heb je het echte bewijs gevonden dat dat echt zo is??

Alles wat men leest hoeft men niet als ware feiten te herzien! :+
Het is hier al meerdere keren gezegt :).
maar wat ik zeg zou ook kunnen of niet?
Ik weet dat wat ik zeg niet waar kan zijn.
Maar het kan evengoed wel zijn. En volgens mij is het zo omdat ATI eigenlijk al hun 2de generatie nu heeft. En wat maakt het nu uit of je nu 200 fps haalt of 300 je spel zal bij alletwee de framerates vloeiend spelen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 162692 schreef op vrijdag 13 april 2007 @ 17:15:
[...]


We only know a few examples as in Need for Speed Carbon R600XT scores 10 to 17 percent better than Geforce 8800 GTX

Is dat alles :/
Een 8800GTX OC is al 20% beter in Carbon.. :|
Tja al scoort de R600 straks qua FPS ongeveer gelijk met de 8800(ultra) dan is hij nog niet mislukt of tegenvallend hoor.
Een (high-end) grafische kaart wordt wat mij betreft toch op nogal wat meer punten beoordeeld dan alleen de hoogste FPS. Ik noem even een reeks factoren op die een totaalbeeld van een kaart schetsen:

- Hoogste FPS
- Hoe is het FPS verloop. Hoog Laag Hoog Laag dus veel framedrops of enigzins constant
- Minimum FPS
- IQ kwaliteit/mogelijkheden en gevolg voor FPS
- Drivers XP 32 & 64 bits in DX9
- Drivers XP 32 & 64 bits in OGL
- Drivers Vista 32 & 64 bits in DX9
- Drivers Vista 32 & 64 bits in DX10
- Drivers Vista 32 & 64 bits in OGL
- Drivers in Linux (volledigheidshalve)
- Aantal Driverupdates per jaar
- Regelmatigheid Driverupdates
- Physics support
- Lawaai Fan
- Stroomverbruik
- Prijs
- Leverbaarheid
- Videoacceleratieondersteuning
- Controlpanel
- Enthousiasme Devs over de kaart
- Aantal games die op de kaart gedeved worden
- SLI/Crossfire mogelijkheden/werkbaarheid
- + wat ik vergeten ben. :)

De uitkomst van al deze dingen bepaald imho de uitkomst welke kaart de topper is. Persoonlijk heb ik er meer vertrouwen in dat ATI zodirekt op het merendeel van deze punten beter zal scoren ondanks een 8800ultra.
Het feit dat de 8800 al een tijd op de markt is, is zodirekt niet meer van belang omdat de koper nu eindelijk een keuze heeft.

Pas als we uitgebreidde reviews hebben, zullen we het zeker weten maar ik kan me niet aan de indruk ontrekken dat als zodirekt de keuze tussen de 8800ultra en de HD 2900 XT/X gemaakt moet worden dat deze in het voordeel van ATI zal uitvallen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 23009

Anoniem: 168987 schreef op vrijdag 13 april 2007 @ 18:37:
[...]


Het is hier al meerdere keren gezegt :).
maar wat ik zeg zou ook kunnen of niet?
Ik weet dat wat ik zeg niet waar kan zijn.
Maar het kan evengoed wel zijn. En volgens mij is het zo omdat ATI eigenlijk al hun 2de generatie nu heeft. En wat maakt het nu uit of je nu 200 fps haalt of 300 je spel zal bij alletwee de framerates vloeiend spelen.
Ja dat is zo maar goed ik ga iets pas echt geloven als er echt materieel wordt neergesmeten ;)
Maar hey dat gaat wel hopelijk binnen 3 a 4 weekjes komen dus ja all we can do is wait haha, dat zijn we toch al gewend heh! :X

Maare idd het verschil tussen 80fps en 180 is ook niet zichtbaar omdat de minimum fps boven de 30 fps ligt :+ ik heb dan liever een snelle VGA kaart met Super Image Quallity dan een snellere met mindere Image Quallity en daarop heb ik meer vertrouwen in ATi dan nVidia wat wel kan verschillen voor anderen ofcourse ;)

[ Voor 18% gewijzigd door Anoniem: 23009 op 13-04-2007 19:20 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Als de prijsindicatie van $399 voor de Radeon HD 2900 XT klopt, dan heeft AMD hiermee echt een briljante zet gedaan. Ze hebben redelijk veel enthusiast zieltjes verloren aan nVidia in de afgelopen tijd en door de kaart zo te positioneren dat deze zowel goedkoper is als sneller als ook nog eens een betere IQ en meer features heeft.... tja, dan kan je er gewoon niet meer om heen als enthusiast.

nVidia leeft zoals al vaker gezegd van de goede winstmarges. Maar ik verwacht niet dat ze de prijs van de GF8800GTX onder de $399 laten zakken. Dan snijden ze zichzelf waarschijnlijk enorm in de vingers. Misschien evenaren ze de prijs, maar dan krijg je alsnog meer waar voor je geld bij AMD.

VR Zone meldt trouwens dat de core van de HD 2900 XT op 750Mhz loopt en het geheugen op 820 Mhz geklokt is. Mijn voorspelling is dat de HD 2900 XTX op 800Mhz geklokt is en het geheugen dus op 1050 Mhz geklokt is (wat al min of meer bevestigd is).

Aangezien de R600 dus 64 shaders heeft (zie first post met de verschillende mogelijke samenstellingen) die elk een stuk complexer zijn dan de shaders van de G80, zou de R600 veel beter met kloksnelheden moeten meeschalen. 50Mhz overklok zou dan al tot een leuke performance boost moeten leiden.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
Ik ben het met Help!!! eens. Voor iedereen ziet dat lijstje er weer anders uit. Voor mij zijn drivers-IQ-Min FPS en Performance op max IQ settings + stroomverbruik en geluid productie belangrijk. De andere dingen zijn mooi mee genomen :)
CJ schreef op vrijdag 13 april 2007 @ 19:19:
Als de prijsindicatie van $399 voor de Radeon HD 2900 XT klopt, dan heeft AMD hiermee echt een briljante zet gedaan. Ze hebben redelijk veel enthusiast zieltjes verloren aan nVidia in de afgelopen tijd en door de kaart zo te positioneren dat deze zowel goedkoper is als sneller als ook nog eens een betere IQ en meer features heeft.... tja, dan kan je er gewoon niet meer om heen als enthusiast.

nVidia leeft zoals al vaker gezegd van de goede winstmarges. Maar ik verwacht niet dat ze de prijs van de GF8800GTX onder de $399 laten zakken. Dan snijden ze zichzelf waarschijnlijk enorm in de vingers. Misschien evenaren ze de prijs, maar dan krijg je alsnog meer waar voor je geld bij AMD.

VR Zone meldt trouwens dat de core van de HD 2900 XT op 750Mhz loopt en het geheugen op 820 Mhz geklokt is. Mijn voorspelling is dat de HD 2900 XTX op 800Mhz geklokt is en het geheugen dus op 1050 Mhz geklokt is (wat al min of meer bevestigd is).

Aangezien de R600 dus 64 shaders heeft (zie first post met de verschillende mogelijke samenstellingen) die elk een stuk complexer zijn dan de shaders van de G80, zou de R600 veel beter met kloksnelheden moeten meeschalen. 50Mhz overklok zou dan al tot een leuke performance boost moeten leiden.
Klinkt goed. Maar wat moet die XTX dan gaan kosten ? En ik mag hopen dat die HD2900 XT dan gelijk gaat scoren met de 8800 Ultra. En de XTX in die prijs classe komt. Anyway. Ik vraag me af hoeveel sneller de XTX zou zijn zonder core overclock dus alleen door het GDDR4 geheugen op iets hogere clock speeds. Ik gok niet veel door de timings. Enige voordeel van de XTX is 1024 MB alleen is vraag me af hoeveel nut het heeft. En hoeveel duurder die kaart wordt. Zelf zit ik ook nog met het stroomverbruik. Mijn X1900 heb ik nu underclocked om het stroomverbruik te verminderen met 40%. Performance is maar 15% lager meestal minder. Dus ik denk dat een XTX daar niet veel helpt omdat niet niet de optimale V/MHz verhouding heeft net als de X1900 kaarten. Die konden ook wel 650 MHz halen op 1.250v ipv 1.4. En ik draai nu zelfs 575 met 1.075v. Dit wil ik met die HD2900 kaarten ook weer gaan doen. Wat voorlopig zijn ze snel genoeg.

En over die min FPS verschil tussen 50 en 60 kan ik nog zien. Ik denk 60-70 ook nog net. 30 is redelijk 40 is beter en 60 zou optimaal zijn maar 70 is het beste. Loopt voor mijn gevoel net wat soepeler. Echter is 60 min FPS met max iq settings al heel moeilijk te halen. En het is ook afhankelijk van de games die je speeld. Een shooter of race game heeft baat bij 60 maar een strategie spel heeft genoeg aan 40.

[ Voor 85% gewijzigd door Astennu op 13-04-2007 19:32 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 162692

CJ schreef op vrijdag 13 april 2007 @ 19:19:
Als de prijsindicatie van $399 voor de Radeon HD 2900 XT klopt, dan heeft AMD hiermee echt een briljante zet gedaan. Ze hebben redelijk veel enthusiast zieltjes verloren aan nVidia in de afgelopen tijd en door de kaart zo te positioneren dat deze zowel goedkoper is als sneller als ook nog eens een betere IQ en meer features heeft.... tja, dan kan je er gewoon niet meer om heen als enthusiast.

nVidia leeft zoals al vaker gezegd van de goede winstmarges. Maar ik verwacht niet dat ze de prijs van de GF8800GTX onder de $399 laten zakken. Dan snijden ze zichzelf waarschijnlijk enorm in de vingers. Misschien evenaren ze de prijs, maar dan krijg je alsnog meer waar voor je geld bij AMD.

VR Zone meldt trouwens dat de core van de HD 2900 XT op 750Mhz loopt en het geheugen op 820 Mhz geklokt is. Mijn voorspelling is dat de HD 2900 XTX op 800Mhz geklokt is en het geheugen dus op 1050 Mhz geklokt is (wat al min of meer bevestigd is).

Aangezien de R600 dus 64 shaders heeft (zie first post met de verschillende mogelijke samenstellingen) die elk een stuk complexer zijn dan de shaders van de G80, zou de R600 veel beter met kloksnelheden moeten meeschalen. 50Mhz overklok zou dan al tot een leuke performance boost moeten leiden.
Dat een R600 beter is lijk me logisch daarom is die ook 6 maanden later.
Wat een enorme tijd is in de pc-wereld. Tja.. Welke beter is? Maakt mij infeite niks meer uit..
Ik zie het de laatste tijd niet meer zitten in de Pc wereld.. Je koopt een dure vga zoals een G80 en R600 dan zijn er nog geen games uit.. Je betaald 400 euro.. Maar uiteindelijk heb je niks?
Als ik iets nieuw koop word het een Xbox360 of PS3 en geen VGA meer. Ik hou het wel gewoon bij
HL2 en UT3 als het uitkomt. Waarvoor zowel G80 & R600 genoeg power hebben.

Acties:
  • 0 Henk 'm!

Anoniem: 23009

voor R580/R580+ CrossFire sets hetzelfde, die kunnen het ook nog met gemak aan in DX9.0c modus als OpenGL 2.0+

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Was deze CeBit-presentatie al langs gekomem?
http://www.pcpop.com/doc/App/181184/000435091.html
Begint helaas pas bij sheet 24... iemand soms een link naar allen?

Acties:
  • 0 Henk 'm!

  • MaxBlast_NL
  • Registratie: December 2004
  • Laatst online: 07-06-2021
Dit vond ik via 3Dgameman.com. http://www.hardspell.com/.../showcont.asp?news_id=361


Today we saw FX57.net disclosed the R600 3DMark06 test results in VISTA.

Test platform:

Processor: Intel Core 2 Extreme X6800 2.93GHz
Mainboard: Intel i975X
Memory: DDR2-800 2GB
OS: Windows Vista
Driver: Catalyst 7.1(8.33), ForceWare 97.44

The score of R600XTX 1GB is about 12000 while NVIDIA 8800GTX 10500. R600XTX is higher than 8800GTX about 15%. R600XT reached 10000 but 8800GTS is 9000.

Acties:
  • 0 Henk 'm!

  • MelvinB
  • Registratie: Oktober 2002
  • Laatst online: 29-09-2023
Toch wel een Realtek audio-chip op de R600?
http://www.fudzilla.com/i...task=view&id=528&Itemid=1
Realtek has a cool driver that is simply named "ATI HDMI Audio Device". The driver is version R1.62 and dated of 16th of March 2007. It is a 15023k in size.


We opened the driver and found out that " HDMI Device WHQL Support: ATI HDMI Devices"

There is even more


[AzaliaManufacturerID]

"ATI HDMI Audio" = RtAzAudModel, HDAUDIO\FUNC_01&VEN_1002&DEV_791A

"ATI HDMI Audio" = RtAzAudModel, HDAUDIO\FUNC_01&VEN_1002&DEV_793C

"ATI HDMI Audio" = RtAzAudModel, HDAUDIO\FUNC_01&VEN_1002&DEV_AA01

"ATI HDMI Audio" = RtAzAudModel, HDAUDIO\FUNC_01&VEN_1002&DEV_AA09

"ATI HDMI Audio" = RtAzAudModel, HDAUDIO\FUNC_01&VEN_1002&DEV_AA11

"ATI HDMI Audio" = RtAzAudModel, HDAUDIO\FUNC_01&VEN_1002&DEV_AA19


We only wonder is this Graphics or motherboard stuff. Until it's taken down the driver is available here or here.
toon volledige bericht

| DELL XPS 15 Haswell QHD | APPLE iPhone X Silver | APPLE iPad Air |


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Het lijkt me eerder onderdeel van de AMD 690 chipset.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Aca heeft gelijk. Het werd ook al in het vorige topic gezegd. Fudo haalt hier wat dingen door elkaar. Dit gaat over een chipset en dit is ook al bevestigd door iemand van AMD.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Viss
  • Registratie: September 2004
  • Laatst online: 30-03 20:00
Ben benieuwd of GDDR4 op de XTX beter te overclocken valt dan met de 1950XTX aangezien ik nog niemand die kaart over de 1143 heb zien krijgen. Waarschijnlijk bios/software probleem maar het is te hopen dat het inderdaad alleen een X1950 probleem is.

Acties:
  • 0 Henk 'm!

Anoniem: 107626

Viss schreef op vrijdag 13 april 2007 @ 22:58:
Ben benieuwd of GDDR4 op de XTX beter te overclocken valt dan met de 1950XTX aangezien ik nog niemand die kaart over de 1143 heb zien krijgen. Waarschijnlijk bios/software probleem maar het is te hopen dat het inderdaad alleen een X1950 probleem is.
Dat was Kinc met zijn 900+ MHz GPU clock. En met een 256b bus, tja dan wordt t geheugen wel een bepalende factor. Maar daarom heeft de R600 een 512b bus. Met GDDR3 heeft t al BW voordeel en dat laat zich al zien in de voorlopige benchmarks. GDDR4 zal dit gat alleen maar groter maken.

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
R600XT will be officially known as Radeon HD 2900 XT when it launches in May. It seems that R600XT will be available first followed the XTX. According to DailyTech, the Radeon HD 2900 series features 320 stream processors and supports 128-bit HDR rendering, 24xAA, physics processing. Other features include integrated HDMI output capabilities with 5.1 surround sound. Although the wait for R600 is unbearable but the consoling part is that R600XT stood up well against NVIDIA GeForce 8800 series. Using a Core 2 Extreme QX6700 processor, R600XT scored 12K in 3DMark06, slightly better than a GeForce 8800 GTX. It is benched on the latest 8.361-RC4 drivers, quite an improvement over the older sets of drivers. The core clock of R600XT stood at 750MHz while the memory is at 820MHz. It looks all decent for a US$399 card.
http://vr-zone.com/index.php?i=4898

Acties:
  • 0 Henk 'm!

  • Cartman!
  • Registratie: April 2000
  • Niet online
Nu ik dit zo lees wacht ik toch even met t kopen van een 8800GTS 640MB.... als die ATi kaart ook rond de 400e komt te zitten is ie belachelijk beter lijkt t...

Acties:
  • 0 Henk 'm!

Anoniem: 202399

Zijn er al officiele data waar ATI zegt de lijn uit te brengen?
Ik denk dat ze nu al een redelijke voorraad hebben om naar de klant te brengen....

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Die voorraad die zou voor de retail wel eens belachelijk laag kunnen zijn als de berichten kloppen dat Dell alles weer eens heeft opgekocht. Hierdoor kan AMD dan wel een prijsadvies geven van $399, maar de kaart bij launch voor veel meer geld over de toonbank gaan in de reguliere (web)shops.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Googolplex
  • Registratie: Maart 2007
  • Laatst online: 27-01 23:23
Anoniem: 23009 schreef op vrijdag 13 april 2007 @ 18:30:
[...]


Is dat niet de ATi Radeon HD 2900 XTX 1GB GDDR4 OEM kaart ipv de XT versie?
ALLEMACHTIG!!! Dat ding lijkt wel een kilometer lang man!

Acties:
  • 0 Henk 'm!

  • -Eraser-
  • Registratie: Maart 2005
  • Laatst online: 19:17
EleanorNL schreef op zaterdag 14 april 2007 @ 10:31:
[...]


ALLEMACHTIG!!! Dat ding lijkt wel een kilometer lang man!
is dat niet de oem versie? als je goed kijkt zie je dat de koeler langer (naar achteren) is dan de kaart zelf ;)

Acties:
  • 0 Henk 'm!

  • Sluuut
  • Registratie: Februari 2003
  • Laatst online: 25-04 14:20
- + wat ik vergeten ben. :)
Ik vind Temporal Anti Aliasing een heel erg belangrijke.

Je kunt het niet benches maar ze zeggen dat 2xAA + 2xTempAA resulteert in 4xAA. Mijn ogen zien (persoonlijk) hetzelfde :)

Stel;
ATi 4xAA + 4xTempAA = 8xAA effectief, maar maar 4xAA power van de kaart nodig.
nVidia = 8xAA = ook 8xAA zien maar ook 8xAA nodig van de kaart.

Alleen voor deze geweldige AA oplossing zal ik zeer waarschijnlijk bij ATi blijven.

Trouwens wel grappig misschien.. mijn history:
S3 Trio 4MB
Voodoo Monster 3D 4mb
Matrox G400 16mb
nVidia TNT2 1 week gehad, doorverkocht en G400 er terug in
nVidia Geforce MX440 (toen GTA3 uitkwam, kon dat echt niet spelen op de G400)
ATi Radeon 9700Pro (509,- euro destijds)
ATi Radeon X800XT (409,- euro)
ATi Radeon X1900XTX (609,- bij launch)

Volgende word denk ik die R600 XT :)
XTX gaat me toch iets te ver voor dat kleine beetje verschil maar relatief grote prijsverschil.

57696520646974206c65657374206973206e657264


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:13

XanderDrake

Build the future!

CJ schreef op zaterdag 14 april 2007 @ 09:21:
Die voorraad die zou voor de retail wel eens belachelijk laag kunnen zijn als de berichten kloppen dat Dell alles weer eens heeft opgekocht. Hierdoor kan AMD dan wel een prijsadvies geven van $399, maar de kaart bij launch voor veel meer geld over de toonbank gaan in de reguliere (web)shops.
Jah, dat zou typisch zijn.
Sowieso vind ik $399 ontzettend goedkoop. Gezien de grootte van de kaart en het pcb, de grootte van de koeler en heatsink, de 720 miljoen transistors (ok op 80nm, maar dat is maar een mask shrink), de jaren research die erachter zit, ook nog die 6 maanden van verkopen die ATi/AMD is mis gelopen... Ik bedoel, 399€ voelt een beetje als een dumpprijs, om toch nog marketshare terug te krijgen.
Nou hoor je me niet klagen hoor, ik vind het prima d:)b . Maar deze toekomstige prijs oorlog, inclusief de oorlog met Intel (die ze helaas aan het verliezen zijn las ik ergens) zal AMD echt niet ten goede komen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Googolplex
  • Registratie: Maart 2007
  • Laatst online: 27-01 23:23
Ik vind het prima, ik bedoel, het is toch 100% absurd om een "videokaart" voor meer dan 500 of 600 euro te verkopen, ik hoop dat dit het begin is van een periode van supersnelle videokaarten voor een leuke prijs! Nu kan ook de middenmoot een echte high end kaart kopen, oh wat een lol!

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Ik denk dat de HD2900XTX nog best wel duur kan gaan worden. Als die kaart sneller is dan de 8800Ultra, wat ik eerlijk gezegd wel verwacht, dan winnen ze de top van de enthousiast markt voor zich. En die zijn echt wel bereid om een hogere prijs te betalen dan waar de 8800GTX (en straks ook de Ultra) voor in de winkel liggen.

En daarmee compenseren ze een beetje het verlies van de relatief lage introductieprijs van de HD2900XT. Als je voor 399 euro echt een videokaart kunt verkopen met 512bits bus, 720M transistors en 24x AA die sneller is dan de 8800GTX krijg je wel een stevige voet in de highend markt.

Hopelijk komt er ook nog een singleslot versie van de 2900 series, want dan kan ik Crossfire combineren met mijn bestaande X1900XTX en dan houd ik nog een PCI-E slot over voor een raidcontroller of iets dergelijks.. (Asus P5W64WS Pro, Quad PCI-E 16x ftw! :P)

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 13-04 09:06
The Inq komt met meer informatie over de RV610 en RV630.

RV610LE zal de HD 2400 Pro zijn, zal 64-bits zijn, met maximum van 720P support. Zal ook gebruik maken van DDR2-800, dezelfde chipjes als op normaal systeemgeheugen zit.

RV610Pro zal de HD 2400 XT zijn, met GDDR3 geheugen, 128-bit bus (of 256?), speelt 1080P af, en heeft blijkbaar een interessante gehugencontroller die The Inq nog niet mag laten zien.

RV630XT zal de HD 2600 XT zijn, zal met zowel GDDR3 als GDDR4 komen.

Dan was er ook nog informatie over de HD 2900 XTX, deze zal schaars worden. Gelanceerd rond computex, en blijkbaar moeten er minstens 100 kaarten besteld worden voor deze geleverd wordt, en dan nog zal deze in gelimiteerde oplage komen....

Deze info lijkt redelijk betrouwbaar (vrij uitgebreid allemaal, geen rare voorspelling oid ertussen), maar het is en blijft The Inq. Misschien kan iemand hier wat meer licht op schijnen?

Acties:
  • 0 Henk 'm!

  • PieterAelse
  • Registratie: Februari 2007
  • Laatst online: 06-04 16:14
ben van plan over een paar maanden een nieuwe pc samen te stellen, maar zou ik dan gelijk de R600XT kopen, of nu even een dx9 kaartje, en pas een dx10 als ook echt de spellen er zijn?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
Sluuut schreef op zaterdag 14 april 2007 @ 10:51:
[...]

Ik vind Temporal Anti Aliasing een heel erg belangrijke.

Je kunt het niet benches maar ze zeggen dat 2xAA + 2xTempAA resulteert in 4xAA. Mijn ogen zien (persoonlijk) hetzelfde :)

Stel;
ATi 4xAA + 4xTempAA = 8xAA effectief, maar maar 4xAA power van de kaart nodig.
nVidia = 8xAA = ook 8xAA zien maar ook 8xAA nodig van de kaart.

Alleen voor deze geweldige AA oplossing zal ik zeer waarschijnlijk bij ATi blijven.

Trouwens wel grappig misschien.. mijn history:
S3 Trio 4MB
Voodoo Monster 3D 4mb
Matrox G400 16mb
nVidia TNT2 1 week gehad, doorverkocht en G400 er terug in
nVidia Geforce MX440 (toen GTA3 uitkwam, kon dat echt niet spelen op de G400)
ATi Radeon 9700Pro (509,- euro destijds)
ATi Radeon X800XT (409,- euro)
ATi Radeon X1900XTX (609,- bij launch)

Volgende word denk ik die R600 XT :)
XTX gaat me toch iets te ver voor dat kleine beetje verschil maar relatief grote prijsverschil.
toon volledige bericht
Tja ik vind het geen super belangrijke feature. Want als de FPS te laag wordt ziet het er niet uit dan kun je het beeld zien verspringen. En de driver schakeld de TAA dan ook uit. Ik heb dus liever die 6x AA oplossing van ATi die werkt ook goed en de performance hit valt mee. En die CSAA ziet er nog beter uit. En ik vraag me ook af hoe ATi aan die 24x AA komt.
EleanorNL schreef op zaterdag 14 april 2007 @ 11:19:
Ik vind het prima, ik bedoel, het is toch 100% absurd om een "videokaart" voor meer dan 500 of 600 euro te verkopen, ik hoop dat dit het begin is van een periode van supersnelle videokaarten voor een leuke prijs! Nu kan ook de middenmoot een echte high end kaart kopen, oh wat een lol!
Tja jij wel zo veel mensen toch niet :) Ik denk dat 90% van de pc gebruikers genoeg heeft aan een IGP of een low end RV610 kaartje. Maar er zijn aardig wat mensen die toch van die high end kaarten kopen. Eerst dacht ik ook zo maar nu doe ik het zelf ook alleen maar een tijd terug had ik er zelfs 2 van 550 euro in zitten :). Ik zeg ook altijd sommige kopen een dure Auto zoals ene Porsche of een Ferrarie, Of een Audi van 150.000 euro en slurpen er 6x zo veel brandstof door heen door die dikke V8 turbo motor. En sommige kopen voor 1000 euro aan vga kaarten en nog eens 1000 en 500 voor de cpu en het werkgeheugen :). Het is je hobby of het is het niet.

Je kunt het ook met minder doen maar sommige willen gewoon het beste van het beste. Je kunt ook voor een Xbox360 of PS3 gaan die geven nu hele mooie plaatjes maar met de R600 en DX10 loopt de PC al weer een heel stuk voor. En over een jaar is de Xbox 360/PS3 niets meer las je kijkt naar IQ.


Of over DX9 of DX10. Als je echt nu een PC wil moet je een DX9 ATi of nVidia DX10 kopen. Kun je nog een maand wachten kun je voor die R600 XT gaan. Ik zou zeker even wachten. Wat is een Maand nou ? Voor de mensen die nu nog met een 9700 / 9800 werken halen die extra maand ook wel. En de mensen die al iets snellers hebben hebben voorlopig meer dan genoeg power die kunnen makkelijk nog een half jaar verder :) Maar hebben liever iets snellers :) (Ik ben er een van :P)

[ Voor 7% gewijzigd door Astennu op 14-04-2007 13:57 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • PieterAelse
  • Registratie: Februari 2007
  • Laatst online: 06-04 16:14
hoe wist je dat ik een 9800pro heb :P

Acties:
  • 0 Henk 'm!

  • Googolplex
  • Registratie: Maart 2007
  • Laatst online: 27-01 23:23
hehe en dat ik een 9700 pro heb ;), zal het vast wel een paar keer gezegd hebben. MAar je hebt gelijk, er zijn mensen die er heel veel geld voor over hebben. Zelf wacht ik liever tot het juiste moment (hoewel... er is altijd wel een beter moment), om zo het best uit de bus te komen. Helemaal top zal ik niet kopen, maar liever een klasse eronder. Dat zou op dit moment een GTS zijn, hopelijk kan het straks een kaart zijn met GTX performance ;)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
Veel mensen hebben een 9700 of 9800 kaart. Het waren toen gewoon ook de beste. En moet je zien hoe lang je er mee doet. Is het dan te veel om er 400 euro voor uit te geven ? of 500 ? Ik heb zelf een 9700 Pro gekocht toen hij net uit was, Voor 430 euro en heb er 1,5 jaar mee gedaan. Ik heb volgens mij nog nooit zo lang dezelfde kaart gehad :D. Anyway er zijn mensen die die kaart nu nog hebben en nu dus gaan vervangen. Dan vind ik 600 euro niet veel. Dat is 200 euro per jaar. Voor dat je mid range kaarten hebt die zo snel zijn ben je 1,5-2 jaar verder. En als je dus nu een mid range kaart koopt kun je over een jaar weer een nieuwe kopen omdat hij niet echt snel is.

Ik zeg ook niet dat je voor de XTX moet gaan maar de XT is zeker een goede keuze. Het verschil tussen de XT en de XTX is wat kleiner. Maar de XTX heeft wel 1024mb dus is wel future proof. Dus als je echt 3 jaar met een kaart wil doen zou ik het er wel voor over hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • K-Wulf
  • Registratie: Juni 2002
  • Laatst online: 03-04 22:44
Een beetje zoals mijn laatste vraag (die trouwens onbeantwoord bleef), maar wat heeft AMD tegenover de 8800GTS 320mb staan? :)

Acties:
  • 0 Henk 'm!

  • Googolplex
  • Registratie: Maart 2007
  • Laatst online: 27-01 23:23
Ik heb mijn Radeon 9700Pro nu 3 en een half jaar, destijds gekocht voor 250 euro. Ik dacht nu voor de GTS 640 te gaan, met een twijfel naar de 320. Echter met deze aankondigingen wacht ik nog even. Misschien wordt het een GTX (als die ipv boven de 500 euro rond de 400 euro komt te liggen), of misschien de XT, als die betere prestaties levert. Hoeveel mb geheugen heeft deze kaart trouwens? En, dat is toch GDDR4 geheugen? Moet dat nou merkbaar beter gaan zijn dan het GDDR3 geheugen op de GTS/GTX?

Acties:
  • 0 Henk 'm!

  • __Deathscythe__
  • Registratie: December 2005
  • Laatst online: 26-04 21:06
EleanorNL schreef op zaterdag 14 april 2007 @ 15:56:
Ik heb mijn Radeon 9700Pro nu 3 en een half jaar, destijds gekocht voor 250 euro. Ik dacht nu voor de GTS 640 te gaan, met een twijfel naar de 320. Echter met deze aankondigingen wacht ik nog even. Misschien wordt het een GTX (als die ipv boven de 500 euro rond de 400 euro komt te liggen), of misschien de XT, als die betere prestaties levert. Hoeveel mb geheugen heeft deze kaart trouwens? En, dat is toch GDDR4 geheugen? Moet dat nou merkbaar beter gaan zijn dan het GDDR3 geheugen op de GTS/GTX?
xt heeft gddr3 en 512mb geheugen

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 24-04 14:34

edward2

Schieten op de beesten

Probably fake, of anders met oude drivers?


Afbeeldingslocatie: http://www.bilgiustam.com/resimler/donanim/test1.jpg
Afbeeldingslocatie: http://www.bilgiustam.com/resimler/donanim/test2.jpg

http://www.bilgiustam.com/?p=125#more-125

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 16-04 16:35
jaja, crysis demo ...

Acties:
  • 0 Henk 'm!

  • Googolplex
  • Registratie: Maart 2007
  • Laatst online: 27-01 23:23
Ik denk niet dat dat representatief is, alsof de Crysis code al geoptimaliseerd is... Jammer trouwens dat de 2900XT (maar) 512 MB geheugen heeft, de GTX en zelfs GTS hebben al meer :S. Nou ja, ik hoop gewoon dat de GTX straks te krijgen is voor de prijs van de GTS nu :D

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

TI heeft ook weer een bericht. m.n. het stukje over de XTX is wel interessant.

http://uk.theinquirer.net/?article=38923
AMD preps lineup including 1024 HD baby

Five models at launch, HD Audio and HDMI supported all the way



By Theo Valich: Saturday 14 April 2007, 08:32

AMD MADE a mess of its own naming conventions, because it has already launched rebranded RV510 and RV530/560 products as Radeon X2300
. So it decided to ditch the "X" prefix, which was introduced to mark the introduction of the PCI Express standard, even though many cards were shipped with an AGP interface.

The HD models really have a reason to be called that, since from RV610LE chip to R600 boards, the HD Audio codec is present, and HDMI support is native. However, there are some video processing differences, such as a repeat of RV510/530 vs. R580 scenario, albeit with a different GPU mix.

First of all, we have received a lot of e-mails from readers asking us about HDMI support and how that's done, since leaked pictures of OEM designs do not come with HDMI connectors, rather dual-link DVIs only. Again, we need to remind you of our R600 HDMI story, and that story is about elementary maths.

A single dual-link DVI connector has enough bandwidth to stream both video and audio in 1280x720 and 1920x1080 onto HDMI interface by using a dongle. On lower-end models, it is possible that the dongle will be skipped and that a direct HDMI connector will be placed onto the bracket.

The RV610LE will be known to the world as Radeon HD 2400 Pro, and will support 720p HD playback. If you want 1080p HD playback, you have to get a faster performing part. In addition, the HD2400Pro will be paired with DDR2 memory only, the very same chips many of enthusiasts use as their system memory - DDR2-800 or PC2-6400, 800 MHz memory. The reason for the 720p limitation is very simple - this chip heads against G86-303 chip with 64-bit memory interface, the 8300 series. It goes without saying that the RV610LE is a 64-bit chip as well.

The second in line is RV610Pro chip, branded Radeon HD 2400 XT. This pup is paired with GDDR3 memory and is the first chip able to playback Full HD video (1920x1080), thanks to the fact that this is a fully-fledged RV610 GPU, no ultra-cheap-64-bit-only-PCB. RV630 Pro is an interesting one. Formally named Radeon HD 2600 Pro, it sports the very same DDR2 memory used on HD 2400Pro and GeForce 8500GTs we have, but there are some memory controller differences that will be revealed to you as soon as we get permission to put the pictures online.

The RV630XT - the Radeon HD 2600 XT - is nearly identical to the Pro version when it comes to the GPU, but this board is a monster when it comes to memory support, just like its predecessor, the X1600XT. However, this is the only product in the whole launch day line-up that has support for both GDDR-3 and GDDR-4 memory types. Both GDDR-3 and GDDR-4 memory will end up clocked to heavens high, meaning the excellent 8600GTS will have a fearsome competitor.

The R600 512MB is the grand finale. R600 is HD 2900 XT, as our Wily already disclosed. This board packs 512MB of GDDR-3 memory from Samsung, and offers same or a little better performance than 8800GTX, at a price point of 8800GTS. R600 GPU supports two independent video streams, so even a dual-link DVI can be done, even though we doubt this was high on AMD's priority list. This product is nine months late, and a refresh is around the corner, unless AMD continues to execute as ATi did.

The R600 1GB is very interesting. Originally, we heard about this product as a GDDR-4 only, and it is supposed to launch on Computex. We heard more details, and now you need to order at least 100 cards to get it, it will be available in limited quantities only. We expect that ATi will refrain from introduction until a dual-die product from nV shows up, so that AMD can offer CrossFire version with 2GB of video memory in total, for the same price as Nvidia's 1.5GB. Then again, in the war of video memory numbers, AMD is now losing to Nvidia flat-out.

AMD compromised its own product line-up with this 512MB card being the launch one, and no amount of marketing papers and powerpointery can negate the fact that AMD is nine months late and has 256MB of memory less than a six month old flagship product from the competitor. µ
toon volledige bericht

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
EleanorNL schreef op zaterdag 14 april 2007 @ 16:12:
Ik denk niet dat dat representatief is, alsof de Crysis code al geoptimaliseerd is... Jammer trouwens dat de 2900XT (maar) 512 MB geheugen heeft, de GTX en zelfs GTS hebben al meer :S. Nou ja, ik hoop gewoon dat de GTX straks te krijgen is voor de prijs van de GTS nu :D
De R600 XT zou even duur zijn als de 8800 GTS maar beter presteren dan de GTX. Dus het is eigenlijk de Concurent van de GTS maar kan de GTX ook aan.

En ik denk dat die 768 mb niet echt veel helpt TOV 512. Ik vraag me af of dat wel voor geoptimaliseerd gaat worden. Aangezien de mid range kaarten van nVidia gewoon weer 256 mb hebben en geen andere vage getallen.

Het lijkt er alleen op dat de XTX met 1 GB dus voorlopig niet meer komt. Wel jammer want hier hebben we dus eigenlijk 9 maanden op moeten wachten. De vraag is natuurlijk of het waar is. Maar als die XTX 1GB niet meteen komt vind ik dat een kwalijke zaak.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Astennu schreef op zaterdag 14 april 2007 @ 17:45:
[...]


De R600 XT zou even duur zijn als de 8800 GTS maar beter presteren dan de GTX. Dus het is eigenlijk de Concurent van de GTS maar kan de GTX ook aan.

En ik denk dat die 768 mb niet echt veel helpt TOV 512. Ik vraag me af of dat wel voor geoptimaliseerd gaat worden. Aangezien de mid range kaarten van nVidia gewoon weer 256 mb hebben en geen andere vage getallen.

Het lijkt er alleen op dat de XTX met 1 GB dus voorlopig niet meer komt. Wel jammer want hier hebben we dus eigenlijk 9 maanden op moeten wachten. De vraag is natuurlijk of het waar is. Maar als die XTX 1GB niet meteen komt vind ik dat een kwalijke zaak.
Als de prijsstelling van de XT klopt dan is het imo nog steeds erg goed. De hoeveelheid geheugen zal ongetwijveld voldoende zijn om de toekomstige games goed te runnen, want de resolutie waarop meer dan 512 nodig is, zal ws toch te hoog zijn voor de snelheid van dit soort kaarten.
Imo is ook de 768 van de GTX en de 640 van de GTS, alhoewel een gevolg van de nvidia designkeus, voornamelijk nuttig als een marketingfeature.
Aan de andere kant, ik zeg altijd: "liever mee verlegen dan om verlegen!" :p

Natuurlijk zie ik dit bericht over de XTX, mits waar, ook als een teleurstelling echter de opvolger van de R600 staat denk ik al te trappelen en het zou me niks verbazen als deze snel volgt. Hier zal ongetwijveld wel 1024mb op zitten en de kaart zal vermoedelijk dankzij het 65nm proces ook de snelheid hebben om die 1024 op een nuttige manier te gebruiken.

Overigens, de hele toestand rondom de R600 doet toch erg sterk denken aan het X1800 / X1900 verhaal.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • BlackWolf666
  • Registratie: November 2006
  • Laatst online: 29-06-2022

BlackWolf666

Dawn's Moonlight

Volgensmij willen ze gewoon de XTX achter de hand houden om wanneer nVidia wat beters uitbrengt er gelijk bovenop te springen.

Specs


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
Ja inderdaad het is nu een 2e X1800/X1900. De X1800 was ook net iets sneller dan de 7800 GTX. En vlak daar na kwam de X1900 die wel een stuk sneller was maar die moest het dan ook opnemen tegen de 7900.

Nu hebben we eigenlijk hetzelfde verhaal. Veel te laat. En de vraag is nog hoeveel sneller. Maar de opvolger zal wel bijna af zijn en die zal er dan voor kerst moeten zijn. Als niet eerder.
BlackWolf666 schreef op zaterdag 14 april 2007 @ 18:42:
Volgensmij willen ze gewoon de XTX achter de hand houden om wanneer nVidia wat beters uitbrengt er gelijk bovenop te springen.
Dat is misschien wel zo. Maar dan moeten ze ook niet zeuren dat ze de R600 uitstellen omdat ze een Full launch willen doen want die doen ze dan dus niet.

[ Voor 33% gewijzigd door Astennu op 14-04-2007 18:46 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 21:19

SG

SG surft naar info hardewaren

Full launch houd hier in RV610 RV630 R600.
Exreem PE XTX Ultra is allemaal counter spull.
Die 1GB vond ik wel interresant. Daar wacht ik eigenlijk ook op.

Ik wacht tot begin juni wat er allemaal is en wanneer die backorder aan 1GB kaarten komen.

[ Voor 11% gewijzigd door SG op 14-04-2007 19:55 ]

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • TheRyzenDude
  • Registratie: Februari 2005
  • Laatst online: 25-04 15:15
ben benieuwd wat deze nieuwe kaarten voor kwaliteit laten zien in crysis en in flightsim x met dx10
zit nu nog met een 1950pro werkt ook lekker daarom niet.
maar als de nieuwe kaart van ati straks soepel loopt in crysis dan teken ik er voor(neem ik meteen nieuwe pc :-)

amd

[ Voor 5% gewijzigd door TheRyzenDude op 14-04-2007 20:30 ]

je leeft maar 1 x maak er dan ook in 1x wat van en maak geen half werk.


Acties:
  • 0 Henk 'm!

Anoniem: 38733

SG schreef op zaterdag 14 april 2007 @ 19:54:
Full launch houd hier in RV610 RV630 R600.
Full launch houdt voor mij in dat ik niet 6 weken later m'n kaart weer moet verkopen omdat er een snellere uit is, á la X1800>1900. Heel vervelend voor de early adaptors. ;)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
Anoniem: 38733 schreef op zaterdag 14 april 2007 @ 22:41:
[...]


Full launch houdt voor mij in dat ik niet 6 weken later m'n kaart weer moet verkopen omdat er een snellere uit is, á la X1800>1900. Heel vervelend voor de early adaptors. ;)
Voor mij ook niet eens dat er een week of 2-3 later ineens een XTX komt. Gewoon meteen een full lineup. Dus ook inc XT en XTX. Zoals altijd. Je had vroeger ook de 9700 en de 9700 pro later de X800 Pro en de X800 XT. En laatst de X1900 XT en de X1900 XTX. Dus waarom nu niet ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
8x R600 met Lasso :P
External R600 Lasso x 8

You can plug four to eight Lasso external R600 cards and make them render all together. We found a few details about the external R600 Lasso system. You can connect them via external PCIe. R600 lasso works with uses external PCIe and my old folk on the inq wrote about it here.


ATI is also thinking about separate housing for more R600 cards to render in Crossfire. We heard the number of four to eight cards is possible.


Our sources confirm that you will be able to connect the cards via External PCIe. The part we don’t understand is where you plug such a card. The closest to a reasonable explanation Is Nvidia's Quadro Plex box with bunch of cards. You can take a look Nvidia's PDF here.


You still end up with an internal PCIe interface card that will connect the Lasso cards. Lasso interface card should let you plug four to eight R600 cards in its own housing, just as Nvidia did with Quadro Plex box but this is only for the rendering market and it is very expensive.
Dat is wel heel veel power maar ik heb wel interesse in een kaart in een doosje zodat ik die aan me laptop kan hangen :P Hoef ik geen super dure laptop te kopen. Het enige wat je dan nodig zou hebben is een express slot. Vraag me wel af hoe de prestatie dan is ivm bandbreedte van dat express slot.

En even iets heel anders: Ik vind dat ATi het echt 100x beter doet qua drivers dan nvidia. Ik heb me notebook al een half jaar en heb nog steeds dezelfde 93.71 drivers. Er is wel een 100.65 uit maar dat is Vista only. Er is geen official WHQL meer geweest voor XP :( diep triest ( Ik moet er wel bij zeggen dat ik alleen kijk naar de drivers die nvidia beschikbaar steld op de website. De 8800 heeft wel nieuwere drivers maar waarom geen updates meer voor de GF7 serie ? ). Hopelijk komen er snel laptops met een RV630 of R600 mobility dan gooi ik deze 7600 Go er meteen uit.

[ Voor 17% gewijzigd door Astennu op 15-04-2007 11:19 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • SI4live
  • Registratie: Januari 2003
  • Laatst online: 12-09-2024
offtopic:
Er is ook al heel wat maanden geen nieuwe WHQL drivers voor XP voor de 8800 uit hoor...
*SI4live wacht nog steeds op fatsoenlijke drivers waar alles gewoon werkt...


Ben heel erg benieuwd hoe de drivers voor de R600 gaan zijn ter vergelijking met de drivers voor de G80.

[ Voor 3% gewijzigd door SI4live op 15-04-2007 13:29 ]

http://www.swfemedia.com


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
PC Inlife heeft een screenshot van een "R600 Series" kaart op standaard kloksnelheden met een Intel E6600 op standaard kloksnelheden met de oude 8.351 drivers in 3DM06. De kaart - zoals het er naar uit ziet een HD2900XT - scoort 9685 punten. Zoals al bekend is gemaakt geven de 8.361 drivers een leuke boost om over de GF8800GTX heen te gaan.

De score van rond de 10K voor de XT klopt met eerder gelekte scores die vermelden dat de R600XT rond de 10K zou scoren en de R600XTX rond de 12.5K zou zitten. Beide scores zouden dus met 8.351 gemaakt zijn en niet met 8.361, waardoor het alleen maar hoger uit kan vallen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 162692

CJ schreef op zondag 15 april 2007 @ 13:29:
PC Inlife heeft een screenshot van een "R600 Series" kaart op standaard kloksnelheden met een Intel E6600 op standaard kloksnelheden met de oude 8.351 drivers in 3DM06. De kaart - zoals het er naar uit ziet een HD2900XT - scoort 9685 punten. Zoals al bekend is gemaakt geven de 8.361 drivers een leuke boost om over de GF8800GTX heen te gaan.

De score van rond de 10K voor de XT klopt met eerder gelekte scores die vermelden dat de R600XT rond de 10K zou scoren en de R600XTX rond de 12.5K zou zitten. Beide scores zouden dus met 8.351 gemaakt zijn en niet met 8.361, waardoor het alleen maar hoger uit kan vallen.
Volgens mij als we denken dat de G80 drivers al gelijk van kwaliteit met de 8.351 zitten dan denk ik dat we al te goed denken voor de G80.. Want ik vind het idd ook super brakke drivers en het doet me zwaar twijfelen soms om hem door te verkopen.

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
CJ schreef op zondag 15 april 2007 @ 13:29:
PC Inlife heeft een screenshot van een "R600 Series" kaart op standaard kloksnelheden met een Intel E6600 op standaard kloksnelheden met de oude 8.351 drivers in 3DM06. De kaart - zoals het er naar uit ziet een HD2900XT - scoort 9685 punten. Zoals al bekend is gemaakt geven de 8.361 drivers een leuke boost om over de GF8800GTX heen te gaan.

De score van rond de 10K voor de XT klopt met eerder gelekte scores die vermelden dat de R600XT rond de 10K zou scoren en de R600XTX rond de 12.5K zou zitten. Beide scores zouden dus met 8.351 gemaakt zijn en niet met 8.361, waardoor het alleen maar hoger uit kan vallen.
Dus: het plaatje klopt helemaal ;)
Afbeeldingslocatie: http://aycu30.webshots.com/image/12469/2002732634296194804_rs.jpg

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
En hoeveel scoorde de 8800 GTX stock dan ? was dat niet 10500 ?

Edit:

CJ had een post gemaakt in het NV topic over de 8800 Ultra. Deze zou een 702 MHz core krijgen en volgens the inc zouden er eerder 0 beschikbaar zijn voor de mensen thuis dan 100. Dus de gaan het zelfde doen als met de 7800 GTX 512. Hopelijk prikken de review sites er dit keer door heen en tellen ze de kaart niet mee als echte kaart als hij niet verkrijgbaar is.

[ Voor 82% gewijzigd door Astennu op 15-04-2007 15:38 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Astennu schreef op zaterdag 14 april 2007 @ 22:52:
[...]


Voor mij ook niet eens dat er een week of 2-3 later ineens een XTX komt. Gewoon meteen een full lineup. Dus ook inc XT en XTX. Zoals altijd. Je had vroeger ook de 9700 en de 9700 pro later de X800 Pro en de X800 XT. En laatst de X1900 XT en de X1900 XTX. Dus waarom nu niet ?
Nee hoor, de 9700 pro was eerst, de x800 pro en XT PE op hetzelfde moment x1900 weet ik niet

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
CJ schreef op zondag 15 april 2007 @ 13:29:
PC Inlife heeft een screenshot van een "R600 Series" kaart op standaard kloksnelheden met een Intel E6600 op standaard kloksnelheden met de oude 8.351 drivers in 3DM06. De kaart - zoals het er naar uit ziet een HD2900XT - scoort 9685 punten. Zoals al bekend is gemaakt geven de 8.361 drivers een leuke boost om over de GF8800GTX heen te gaan.

De score van rond de 10K voor de XT klopt met eerder gelekte scores die vermelden dat de R600XT rond de 10K zou scoren en de R600XTX rond de 12.5K zou zitten. Beide scores zouden dus met 8.351 gemaakt zijn en niet met 8.361, waardoor het alleen maar hoger uit kan vallen.
Als dat de scores zijn valt me dit dik tegen in directx9

Een 8800 GTS haalt stock 8500-9000 de overclocked retail versies 9500-10 000 De gtx versies 10 500 tot 11 000 en de retail overclokced 11 500 - 12 000 .

Dan zo een eventueel ultra versie even snel als de snelste R600 zijn :/

Hopelijk is het in directx10 dan beter .

Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 27-04 12:23

Krizzie

Progressive Music \o/

k995 schreef op zondag 15 april 2007 @ 17:33:
[...]


Nee hoor, de 9700 pro was eerst, de x800 pro en XT PE op hetzelfde moment x1900 weet ik niet
Was de X800XT (PE) niet pas later verkrijgbaar?

Geluidswolk


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
k995 schreef op zondag 15 april 2007 @ 17:51:
[...]


Als dat de scores zijn valt me dit dik tegen in directx9

Een 8800 GTS haalt stock 8500-9000 de overclocked retail versies 9500-10 000 De gtx versies 10 500 tot 11 000 en de retail overclokced 11 500 - 12 000 .

Dan zo een eventueel ultra versie even snel als de snelste R600 zijn :/

Hopelijk is het in directx10 dan beter .
Tja, voor jou zou het misschien tegen kunnen vallen. Ik denk voor veel kopers niet. De prijs / performance verhouding is zeer hoog.

Een stock 2900XT zou al sneller zijn dan een stock GTX voor €399 terwijl een GTX nog altijd voor rond de €499 over de toonbank gaat. Je betaald dus €100 minder voor een kaart die iets beter presteert, meer IQ opties heeft en meer andere leuke features heeft, zonder dat je een gigantisch lawaaibeest in je computer krijgt.

Zelfs als zou de 2900XT gelijk presteren als een GF8800GTX, dan nog is de prijs /performance verhouding enorm goed. Daarnaast is de GF8800GTX niet de enige kaart die je kan overklokken. De R600 heeft ook nog wat speelruimte en schaalt wat betreft performance volgens de laatste berichten heel goed mee met de kloksnelheid.

- Edit - De laatst gelekte scores spreken trouwens van 12K met een stock QX6700 in 3DM06 met 8.361-RC4 drivers voor de HD2900XT. De boel OC-en zou ook hier dus voor een boost moeten zorgen.

Over DX10 performance valt nog niets te zeggen, behalve dan dat Microsoft en DICE hebben aangegeven dat de R600 veel betere geometryshader performance heeft dan de G80 in hun DX10 engines. Misschien dat er meer duidelijk wordt wanneer 3DM07 uit komt?

[ Voor 5% gewijzigd door CJ op 15-04-2007 18:32 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 22:46
3Dmark is zo i zo een slechte test. Maar goed had wel iets meer van die R600 verwacht. Maar eerst even echte reviews afwachten voordat we een conclusie trekken. Die 8800 Ultra @ 702 MHz zou iets van 13k halen als je de scores een beetje doortrekt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Overclocken met de huidige highend is volgensmij sowieso meer geluk dan wijsheid. Nu is het vandaag wel echt zomers warm maar mijn standaardgeklokte GTX had ineens artifacts in BF2. :'(

Nu heb ik een ruime kast met
- 2*80mm voedingfans
- 1*80mm aan de bovenkant kast
- 2*120mm voorkant
- 1*120mm achterkant
- 1* 80mm die frisse wind direkt naar de GPU blaast.

Heb er nog maar een 120mm bijgezet naast de GPU. :o

Ik denk dat je al blij mag zijn als je een highend op stockspeeds probleemloos kan draaien bij hoge buitenlucht temperaturen die we steeds vaker in NL zien.

Verder werken de huidige kaarten steeds meer met verschillende klokdomeinen voor verschillende onderdelen van de chip wat de boel nog ondoorzichtiger maakt. Ook gaan de fabrikanten zelf al redelijk tot de max met de std. clockspeeds. Volgensmij had nvidia ook behoorlijk veel RMA met de fabrikant overklokte GF7 series. Zeker met GPU's ben ik daarom wat voorzichter met overklokken. :)
Het blijven toch kaarten van 5 a 600 EUR en ik heb itt tot sommige anderen wel wat schroom om een kaart die door mijn eigen schuld kaduuk is gegaan te RMA'en..

[ Voor 54% gewijzigd door Help!!!! op 15-04-2007 18:53 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
[b][message=27858544,noline]


Tja, voor jou zou het misschien tegen kunnen vallen. Ik denk voor veel kopers niet. De prijs / performance verhouding is zeer hoog.

Een stock 2900XT zou al sneller zijn dan een stock GTX voor €399 terwijl een GTX nog altijd voor rond de €499 over de toonbank gaat. Je betaald dus €100 minder voor een kaart die iets beter presteert, meer IQ opties heeft en meer andere leuke features heeft, zonder dat je een gigantisch lawaaibeest in je computer krijgt.
gigantisch lawaaibeest ? Ik heb een GTS (zelfde koeler) en dat is allesbehalve lawaai, mijn x800pro ervoor maakte veel meer lawaai.

En een overclockte GTS haalt evenveel als een 2900XT en kost 300€, wat dus 100€ minder is. Als de 2900XT 399€ kost.
Als over de meer IQ opties? Zoals? Niet echt iets belangrijk tussen dacht ik.
Zelfs als zou de 2900XT gelijk presteren als een GF8800GTX, dan nog is de prijs /performance verhouding enorm goed. Daarnaast is de GF8800GTX niet de enige kaart die je kan overklokken. De R600 heeft ook nog wat speelruimte en schaalt wat betreft performance volgens de laatste berichten heel goed mee met de kloksnelheid.
Ik sprak over XTX vs GTX en XT vs PRO, een GFX haalt stock (volgens de cijfers hier gepost)een stuk meer dan een XT
- Edit - De laatst gelekte scores spreken trouwens van 12K met een stock QX6700 in 3DM06 met 8.361-RC4 drivers voor de HD2900XT. De boel OC-en zou ook hier dus voor een boost moeten zorgen.
? Daarjuist was het nog XT 9500 en XTX 12500
Over DX10 performance valt nog niets te zeggen, behalve dan dat Microsoft en DICE hebben aangegeven dat de R600 veel betere geometryshader performance heeft dan de G80 in hun DX10 engines. Misschien dat er meer duidelijk wordt wanneer 3DM07 uit komt?
We zullen zien tot de echte benchmarks uit zijn zou ik niet durven verder gaan op uitspraken.

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Astennu schreef op zondag 15 april 2007 @ 18:30:
3Dmark is zo i zo een slechte test.
Waarom? 3dmark had wel voorspelt dat de 9700 pro goed en de 5800ultra slecht zou zijn in directx9, de nvidia liefhebbers en nvidia zelf kraakte toen 3emark af maar 3dmark had gewoon gelijk, vanaf de eerste spelletjes kon je zien dat de 5800 bagger was en de 9700pro een superkaart.
Maar goed had wel iets meer van die R600 verwacht. Maar eerst even echte reviews afwachten voordat we een conclusie trekken. Die 8800 Ultra @ 702 MHz zou iets van 13k halen als je de scores een beetje doortrekt.
Ja dus ik hoop toch echt dat de R600 daarboven zit

Acties:
  • 0 Henk 'm!

  • SpaceMarine
  • Registratie: April 2003
  • Laatst online: 13-04 16:22
k995 schreef op zondag 15 april 2007 @ 19:00:
[...]

Waarom? 3dmark had wel voorspelt dat de 9700 pro goed en de 5800ultra slecht zou zijn in directx9, de nvidia liefhebbers en nvidia zelf kraakte toen 3emark af maar 3dmark had gewoon gelijk, vanaf de eerste spelletjes kon je zien dat de 5800 bagger was en de 9700pro een superkaart.


[...]

Ja dus ik hoop toch echt dat de R600 daarboven zit
je moet natuurlijk het hele plaatje bekijken en als je de uitgelekte "benchmark"moet geloven is de 2900XT even snel danniet sneller als de 8800GTX.

Ook ik wilde de GTX kopen maar als je kijkt wat een belachelijke prijs (naar mijn mening) ze daar voor durven te vragen wil ik best even afwachten tot de 2900XT uit is en dan pas een vergelijking maken.

Nu zijn er mensen die echt pro nvidea (:+) zijn en mensen die echt pro ATI zijn maar de waarheid is dat met iedere generatie 1 van de 2 de betere kaart had en de ander het kijken na liet, maar dit wel zowat iedere generatie een ander was.

je hoeft de GTS/GTX dus niet te verdedigen want die hebben zich al lang bewezen, laten we gewoon wachten op het antwoord van ATI.

nope geen signature


Acties:
  • 0 Henk 'm!

  • Googolplex
  • Registratie: Maart 2007
  • Laatst online: 27-01 23:23
AWl dit gespeculeer... begrijp me niet verkeerd, maar ik zit nu al zo lang op een nieuwe PC te wachten maar door dit gedoe stel ik het steeds weer uit... dus ATi, please release die kaart!!! ;) :D

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
k995 schreef op zondag 15 april 2007 @ 18:58:
[...]


gigantisch lawaaibeest ? Ik heb een GTS (zelfde koeler) en dat is allesbehalve lawaai, mijn x800pro ervoor maakte veel meer lawaai.
Sorry ik had iets duidelijker moeten zijn. Ik had het over de verwachting dat de cooler van de R600 luidruchtig zou zijn net zoals de X1800 en X1900. De HD2900 cooler is nog stiller dan de GF8800 cooler voor zover dat mogelijk is.
En een overclockte GTS haalt evenveel als een 2900XT en kost 300€, wat dus 100€ minder is. Als de 2900XT 399€ kost.
Daar gaan we weer. Nadruk op overclockte in je zin. Daarom zei ik ook dat de G80 niet de enige kaart is die je kan overklokken. Jij overklokt een GTS om die score te halen. Anderen overklokken hun HD2900XT om nog een hogere score te halen. Wel appels met appels vergelijken.
Als over de meer IQ opties? Zoals? Niet echt iets belangrijk tussen dacht ik.
Betere AA, betere AF, UVD engine om maar een aantal te noemen. En wat belangrijk is, dat is voor ieder voor zich om uit te maken wat belangrijk is. Wat jij belangrijk vindt vind een ander misschien wel heel belangrijk. Dit topic heeft bewezen dat er genoeg "IQ whores" rond lopen. En daarnaast zal er ook een versie van de HD2900 komen die in een lager prijsklassement zit.
Ik sprak over XTX vs GTX en XT vs PRO, een GFX haalt stock (volgens de cijfers hier gepost)een stuk meer dan een XT[

? Daarjuist was het nog XT 9500 en XTX 12500
Die 9500 scores waren met de oude drivers... en niet met de releasedrivers. Volgens meerdere bronnen was er een enorme jump te zien bij de overgang van 3.851 naar 3.861-RC, zoals je kan zien aan de melding van bv VR-Zone:
R600XT will be officially known as Radeon HD 2900 XT when it launches in May. It seems that R600XT will be available first followed the XTX. According to DailyTech, the Radeon HD 2900 series features 320 stream processors and supports 128-bit HDR rendering, 24xAA, physics processing. Other features include integrated HDMI output capabilities with 5.1 surround sound. Although the wait for R600 is unbearable but the consoling part is that R600XT stood up well against NVIDIA GeForce 8800 series. Using a Core 2 Extreme QX6700 processor, R600XT scored 12K in 3DMark06, slightly better than a GeForce 8800 GTX. It is benched on the latest 8.361-RC4 drivers, quite an improvement over the older sets of drivers. The core clock of R600XT stood at 750MHz while the memory is at 820MHz. It looks all decent for a US$399 card.
http://www.vr-zone.com/?i=4898

Vandaar dat ik er ook zo op hamer dat mensen moeten opletten op zgn gelekte benchmarks. Als het al echte benchmarks zijn, dan zijn deze vaak gedaan met een 8.341 of 8.351 driver. De 8.361 driver brengt in vergelijking met die oudere versies echt een enorme verbetering. Misschien heeft AMD met opzet de oude drivers ge-gimped, zodat gelekte benchmarks niets zeggen.

Wat scoort een stock GF8800GTX eigenlijk op een stock E6600? Volgens de Orb van Futuremark zit dan dan tegen de 10.000 punten aan.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • -krekel-
  • Registratie: Mei 2002
  • Laatst online: 02-03 17:41
Poging nummer 2 :)

Wellicht een hele noobie vraag, ik kom er toch niet helemaal uit. In de openingspost staat dat crossfire in theorie niet chipset afhankelijk is, en aangezien ik een Nforce4 pro chipset heb op m'n Tyan K8WE beschik ik over 2 fysieke 16x PCI-e slots (die dus ook echt op 16x werken.... geen gare 2 keer 8x opstelling ofzo). Maar werkt crossfire daar nu ook op? Het wordt niet direct tegengesproken, maar ook niet echt bevestigd. Zijn er mensen die crossfire op een nforce4 bordje aan de gang hebben gekregen?

Acties:
  • 0 Henk 'm!

Anoniem: 23009

-krekel- schreef op zondag 15 april 2007 @ 22:48:
Poging nummer 2 :)

Wellicht een hele noobie vraag, ik kom er toch niet helemaal uit. In de openingspost staat dat crossfire in theorie niet chipset afhankelijk is, en aangezien ik een Nforce4 pro chipset heb op m'n Tyan K8WE beschik ik over 2 fysieke 16x PCI-e slots (die dus ook echt op 16x werken.... geen gare 2 keer 8x opstelling ofzo). Maar werkt crossfire daar nu ook op? Het wordt niet direct tegengesproken, maar ook niet echt bevestigd. Zijn er mensen die crossfire op een nforce4 bordje aan de gang hebben gekregen?
Theoretisch moet het wel kunnen werken, je zou het via Software CrossFire mode kunnen testen dat zal wel gaan werken lijkt me, maar idd er was sprake over dat het niet meer uit maakte van wat voor chipset men heeft met een AMD CPU setup.

jou bord heeft namelijk de NForce 2200 Pro chipset ;)

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 16-04 16:35
-krekel- schreef op zondag 15 april 2007 @ 22:48:
Poging nummer 2 :)

Wellicht een hele noobie vraag, ik kom er toch niet helemaal uit. In de openingspost staat dat crossfire in theorie niet chipset afhankelijk is, en aangezien ik een Nforce4 pro chipset heb op m'n Tyan K8WE beschik ik over 2 fysieke 16x PCI-e slots (die dus ook echt op 16x werken.... geen gare 2 keer 8x opstelling ofzo). Maar werkt crossfire daar nu ook op? Het wordt niet direct tegengesproken, maar ook niet echt bevestigd. Zijn er mensen die crossfire op een nforce4 bordje aan de gang hebben gekregen?
nee, het werkt niet, nvidia ondersteunt het niet, dit kon je trouwens uit de 'second post' afleiden.
Basic questions zoals "Welke kaart kan ik het beste kopen?", "Heb ik een nieuwe voeding nodig voor m'n X1800XT?", "Kan ik mijn X800GTO2 modden naar een X850XT PE?", "Klopt mijn 3DMark score wel?". "Hoe kan ik HDR + AA activeren in games?". "Welke tool moet ik gebruiken om te overclocken?". "Werkt CrossFire op een SLi mobo?". "Welke drivers kan ik het beste gebruiken?". Gebruik de search. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op zondag 15 april 2007 @ 20:04:
Daar gaan we weer. Nadruk op overclockte in je zin. Daarom zei ik ook dat de G80 niet de enige kaart is die je kan overklokken. Jij overklokt een GTS om die score te halen. Anderen overklokken hun HD2900XT om nog een hogere score te halen. Wel appels met appels vergelijken.
Overclockability en de marge daarin is iets dat zeker wel meeweegt.
Mijn GTS doet bijvoorbeeld zo'n 660/2050 gamestabiel met de stock cooling op stock snelheid.
Dat is een marge van 32% op core en 28% op geheugen. Als de HD 2900 serie maar enkele procenten kan overklokken (X1950XTX deed bijv. ~10% max @stock cooling) dan is dit wel degelijk iets om rekening mee te houden. Ik zie ATi de afgelopen 1,5 jaar hun kaarten toch vrij dicht tegen hun maximum aanklokken om nV voorbij te komen. Als de betreffende nV kaarten echter nog een ruime overklokmarge hebben neem ik dit zeerzeker mee in de afweging. Voor een beetje tweakers zijn de stock snelheden die een fabrikant officieel aan z'n hardware hangt alles behalve een beperking.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Liever een kaart die van zichzelf al snel is dan m moeten overclocken met alle risico's van dien.

Argument van overclockability is een erg leuk verkooppraatje maar men vergeet toch wel dat de koper er voor opdraait als t misgaat. :X En tja factory overclockt kaartjes zijn wel aardig, maar daar betaal je natuurlijk wel wat meer voor.

Acties:
  • 0 Henk 'm!

Anoniem: 156281

Cheetah schreef op maandag 16 april 2007 @ 00:55:
[...]
Overclockability en de marge daarin is iets dat zeker wel meeweegt.
Mijn GTS doet bijvoorbeeld zo'n 660/2050 gamestabiel met de stock cooling op stock snelheid.
Dat is een marge van 32% op core en 28% op geheugen. Als de HD 2900 serie maar enkele procenten kan overklokken (X1950XTX deed bijv. ~10% max @stock cooling) dan is dit wel degelijk iets om rekening mee te houden. Ik zie ATi de afgelopen 1,5 jaar hun kaarten toch vrij dicht tegen hun maximum aanklokken om nV voorbij te komen. Als de betreffende nV kaarten echter nog een ruime overklokmarge hebben neem ik dit zeerzeker mee in de afweging. Voor een beetje tweakers zijn de stock snelheden die een fabrikant officieel aan z'n hardware hangt alles behalve een beperking.
Jij bent dan ook de norm niet, vergeet dat niet. De grote meerderheid van de gamers laat hun kaartjes mooi @ stock lopen, zij het owv onwetendheid of (naïeve) voorzichtigheid. Je zegt 't zelf, voor tweakers zijn de stock snelheden geen beperking, maar hoeveel procent is er tweaker? :)

Besides, 3dmark scores daargelaten, in games levert 't overclocken vaak nauwelijks verschil op. En net daar denk ik dat de R600 z'n brute kracht zal laten zien. Alle technische gegevens wijzen erop dat ie een stuk krachtiger moet zijn dan de 8800, dat zal zich wel ergens in prestatie vertalen lijkt me.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Anoniem: 107626 schreef op maandag 16 april 2007 @ 02:19:
Liever een kaart die van zichzelf al snel is dan m moeten overclocken met alle risico's van dien.

Argument van overclockability is een erg leuk verkooppraatje maar men vergeet toch wel dat de koper er voor opdraait als t misgaat. :X En tja factory overclockt kaartjes zijn wel aardig, maar daar betaal je natuurlijk wel wat meer voor.
Ik heb nog nooit een videokaart gehad die stuk is gegaan van een overklokje. Ik zie daar dan ook geen probleem mee mits geen extreme methoden als voltmods en dergelijke worden gebruikt en de kaart niet constant op z'n absolute maximum wordt gedraaid...
Anoniem: 156281 schreef op maandag 16 april 2007 @ 04:04:
Jij bent dan ook de norm niet, vergeet dat niet. De grote meerderheid van de gamers laat hun kaartjes mooi @ stock lopen, zij het owv onwetendheid of (naïeve) voorzichtigheid. Je zegt 't zelf, voor tweakers zijn de stock snelheden geen beperking, maar hoeveel procent is er tweaker? :)
We zitten hier op gathering.tweakers.net... welkom ;)
Wat ik stel is wel degelijk norm voor een goed deel van de bezoekers van dit forum, en daar ga ik dan ook van uit. Is hetzelfde als dat de gemiddelde tweaker die nu een systeem koopt liever een E6400 haalt dan een A64-5200+. Stock is de A64 misschien wat sneller, maar de E6400 haalt bijna gegarandeerd 3ghz of meer en loopt daarmee een overklokte 5200+ finaal voorbij. Ik zie niet in waarom dit principe van overklokpotentieel meenemen in de afweging bij GPU's plots anders zou worden...
Besides, 3dmark scores daargelaten, in games levert 't overclocken vaak nauwelijks verschil op. En net daar denk ik dat de R600 z'n brute kracht zal laten zien. Alle technische gegevens wijzen erop dat ie een stuk krachtiger moet zijn dan de 8800, dat zal zich wel ergens in prestatie vertalen lijkt me.
Een 25+% verschil in clockspeeds levert volgens jou nauwelijks verschil op in games :?

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

Pagina: 1 2 ... 6 Laatste

Dit topic is gesloten.

Let op:
Klinkt kinderachtig, maar blijkt iedere keer weer nodig:
- geen Ati vs nVidia geflame (of onnodige vergelijkingen)
- niet op de man spelen - een ander voor fanboy uitmaken = OW wegens flamen
- geen slowchat
- het 1001 keer herhalen van zelfde 'nieuws' (R600 vertraagd...) is geen nieuws, dus offtopic.
- als je iets beweert, onderbouw het. Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid

Wat dan wel? Goed onderbouwde nieuwtjes over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)