Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 52 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1
Acties:
  • 3.717 views sinds 30-01-2008
http://www.guildwarsarena.net/ati/atitopiclogo.jpg
 
Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de Canadese fabrikant ATi kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten.

Note In Oktober 2006 is de deal tussen ATI en AMD helemaal voltooid. Vanaf die tijd is ATI een onderdeel geworden van AMD. AMD heeft er echter voor gekozen om de naam ATI in stand te houden voor de GPU afdeling. Videokaarten die AMD produceert zullen bekend staan als "ATI RADEON". Daarom zal dit topic dus "ATI Nieuwsdiscussie Topic" blijven heten.

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

TOPIC REGELS
Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laaste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic!!!!!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic.

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders.
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Heb ik een nieuwe voeding nodig voor m'n X1800XT?", "Kan ik mijn X800GTO2 modden naar een X850XT PE?", "Klopt mijn 3DMark score wel?". "Hoe kan ik HDR + AA activeren in games?". "Welke tool moet ik gebruiken om te overclocken?". "Werkt CrossFire op een SLi mobo?". "Welke drivers kan ik het beste gebruiken?". Gebruik de search. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Continue melden dat een kaart niet beschikbaar is of te laat is. Het melden in dit topic HELPT de beschikbaarheid NIET verbeteren. En na 1x weten we het wel. Wacht gewoon, check de pricewatch, bel wat winkels, eet wat uit je neus... maar meldt het hier niet aangezien de discussiewaarde nihil is en niets bij draagt aan dit topic!
  • Probeer mensen niet continue te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


TOPIC GESCHIEDENIS


Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de voorgaande topics en hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
De laatste topics over elke kaart zullen altijd het meest uptodate zijn. Zo vind je de meest complete informatie over de R580 in topic 47.



NAVIGATIE
HUIDIGE VPUs
ATi's huidige line-up is bestaat uit de X1K serie. Deze serie is opgedeeld in verschillende segmenten:
  • X1950XT & XTX - R580+ (PCIe & AGP)
  • X1950Pro & GT - RV570 (PCIe & AGP)
  • X1650XT & GT - RV560 (PCIe & AGP)
  • X1650Pro - RV535 (PCIe & AGP)
  • X1300XT - RV530 (PCIe & AGP)
  • X1300Pro - RV516 (PCIe & AGP)
  • X1300 - RV505 (PCIe & AGP)
  • X1050 - RV370 (PCIe & AGP)
De vetgedrukte GPUs zijn de GPUs die op dit moment nog in productie zijn. Op de R580+ na is alles gefabriceerd op het 80nm proces. Wil je meer weten over deze GPUs, dan kan je daarvoor terecht in de first posts van Topic 40-50. Vanaf 52 gaat het voornamelijk over R600 en aanverwanten in de first post.
ATI Division - GPU Teams
Voor de fusie met AMD, werkte ATi met drie verschillende GPU teams die afzonderlijk aan aparte projecten werkten. Deze teams waren het "Westcoast Team" in Santa Clara (Silicon Valley - California) op enkele meters afstand van het nVidia hoofdkwartier, een team aan de Oostkust in Marlborough (Massachusets) en een team in Orlando Florida. Deze drie teams zijn ook weer onder te verdelen in een groep voor de high end en een groep voor de mainstream en lowend.

R200 (Radeon 8500) -> East Coast Team
R300 & R350 & R360 (Radeon 9x00) -> West Coast Team
R420 & R480 (Radeon X8x0) -> West Coast Team
R520 & R580 (Radeon X1xx0) -> West Coast Team

Waar waren dan al die jaren het Orlando team en het East Coast Team na R200 mee bezig? Dat varieerde van special projects (Xenos/Hollywood) en het assisteren van de overige teams tot aan andere projecten zoals handhelds, digital TV etc (Orlando). ATI werkte normaal gesproken met een ping-pong systeem, waar eerst het ene team een GPU lanceerde inclusief refreshes, en dat in de tussentijd een ander GPU team werkte aan een volledig nieuwe generatie inclusief refreshes. R400 werd dan ook oorspronkelijk ontwikkeld door het East Coast Team, maar dit project werd op halt gezet. De reden was dat het project van unified shader engines op dat moment (in 2002) technisch te hoog gegrepen was.

Om toch niet met lege handen te staan aan het einde van de levenscyclus van de R300, besloot men om het op de goedkope tour te gooien en simpelweg de R300 te nemen, deze te krimpen en te verdubbelen. Het resultaat was de zeer goedkoop te produceren R420.

Rond deze tijd kreeg ATI ook het Xbox360 contract met Microsoft. Deze waren zeer geinteresseerd in de unified architecture ideeen van ATI en daarmee werd het R400 project nieuw leven ingeblazen, dit maal onder de codenaam C1, die wij later als Xenos / R500 leerden kennen. Het East Coast Team richtte zich dus specifiek op de Xbox360. Dit team slaagde er in om een unified shader architecture in elkaar te flansen die samen zo'n 300M transistoren telde op het 90nm proces en Free 4xAA te voorschijn weet te toveren op je TV scherm. De ontwikkeling van de C1 was natuurlijk een goede proefperiode voor ATI om te testen met een desktop unified architectuur, die inmiddels omgedoopt was naar R600.

Natuurlijk moest er ook een opvolger komen van de R4x0 reeks. En ook hier werd het West Coast Team weer geraadpleegd. Deze zouden verder bouwen op de R3x0 en R4x0 reeks en er volledig Shadermodel 3 support aan toe voegen, een compleet nieuwe memory controller te integreren en enkele nieuwigheden als HDR + AA te introduceren. Dit gebeurde allemaal als basis voor de aankomende R600 GPU.

Nadat de R5x0 reeks ontwikkeld was, ging een gedeelte van West Coast Team zich richten op R700, terwijl een groot gedeelte zich op de verdere ontwikkeling van de R600 stortte samen met het team uit Orlando.

R600 is dan ook de eerste GPU die door alle drie teams gezamenlijk wordt ontwikkeld. Het hart van de ontwikkeling lag in Silicon Valley (West Coast Team).

R800 is de allereerste GPU die door alle drie teams samen vanaf de bodem is opgebouwd. Dit werd gezegd door Dave Orton in 2004, waardoor men misschien zou kunnen opmaken dat R700 een soort van refresh is van R600.

Interessante feitjes om te weten zijn dat ATI zowel Bitboys als XGI overnam voor de fusie met AMD. Dus AMD bezit nu de kennis van zowel ATI, XGI als de Bitboys. En daarnaast hebben ze al een hele tijd wat S3 mensen in dienst (waaronder de mensen die DXTC hebben ontwikkeld die ook 3Dc ontwikkelden) als veel ex-nV personeel.
High End: R600 - X2900 Serie
Over de R600 chip is al heel wat geschreven (zie ook vorige delen en hierboven). Wat is de R600 precies? Wat weten we nu allemaal zeker van deze GPU?

Hieronder wat dingen die vast staan:
  • GPU: R600
  • Transistors: 720M
  • Second Generation Unified Shader Architecture
  • Geometry Shader Units zijn veel sneller dan de GS Units in de G80 aldus Microsoft FSX team
  • EA gebruikt de R600 als ontwikkelplatform voor de nieuwe BF game
  • 320 Multiply Accumulative Units
  • 500+ Gflops
  • 80nm high speed proces
  • In eerste instantie 2 varianten: XTX en XT, later ook de XL en GT
  • PCB lengte voor retailkaarten: 9,5" (ter vergelijking, een X1950XTX is 9", dus de R600 is zo'n 1.3 cm langer)
  • PCB lengte voor OEM kaarten: 12" (verlengde cooler met bevestigingsbracket voor OEMs als HP en Dell)
  • Enhanced CrossFire
  • 200W Stroomverbruik
  • 1x 8 Pins + 1x 6 Pins stroomaansluiting, 8 Pins is backwards compatible met 6 Pins connectors
Het meest interessante zijn de 320 Multiply Accumulative Units en de 500+ Gflops voor een enkele R600. 320 MADD units zou het volgende kunnen betekenen:
  • R600 heeft 320 Scalar ALUs
  • R600 heeft 160 Scalar ALUs die Dual Issue kunnen doen
  • R600 heeft 64 ALUs die elk een Vec4 bewerking en Scalar bewerking kunnen doen
Om die 500+ Glops te halen voor een enkele R600, zouden de shaders op 800Mhz of sneller moeten lopen. Bij nVidia lopen de shaders op 1350Mhz om zo'n 340Gflops te halen (met een maximum theoretisch haalbare van ongeveer 440 als de extra MUL zou werken). De core loopt zelf op 575Mhz bij de G80.

Het is onduidelijk of AMD nu ook gaat werken met clockdomains, maar als we uitgaan van het verleden dan zou dit niet het geval zijn en zouden zowel de shaders op 800Mhz moeten werken als ook de rest van de core (bv de ROPs). Hier zou de R600 zeker zijn voordeel uit moeten halen in combinatie met de veel hogere geheugenbandbreedte.

Upper Midrange: RV670


Over de RV670 is nog niet veel bekend, behalve het kwartaal waarin deze GPU gepland staat, namelijk Kwartaal 3 van 2007. Als we afgaan op de RV570 GPU, dan is de RV670 een GPU die zich in de hogere regionen van de midrange bevindt en dus waarschijnlijk een 256-bit memory interface zal hebben.

Eventueel zou ook een RV660 uit kunnen komen, net zoals er ook een RV560 variant was van de RV570 die identiek was op een aantal uitgeschakelde onderdelen na.

Deze series heten dan waarschijnlijk de X2800 serie en de X2700 serie.

Lower Midrange: RV630 - X2400 Serie of X2600 Serie


Van de RV630 zijn er een drietal PCB modellen bekend. Al deze modellen zijn vernoemd naar diamanten, namelijk Kohinoor, Orloff en Sefadu. Al deze modellen zullen gebruik maken van een 128-bit memory interface, net zoals de RV530 en RV560.

De die-size van RV630 13.3x11.5mm oftewel ~153mm² op 65nm.

De eerste indicaties wijzen er op dat de snelste RV630 gebruik maakt van een dubbelslot cooler die veel weg heeft van de X1950XTX cooler. De performance zou moeten liggen rond 12000 punten in 3DM05. Een andere bron meldt dat ze een RV630 hebben gezien op 540Mhz core en 700Mhz mem en dat deze zo'n 5000 punten scoorde in 3DM05 en op 3000 punten zat in 3DM06. De eerste was wellicht gebaseerd op Kohinoor, terwijl de tweede misschien wel Sefadu was.

http://www.pcgameshardware.de/screenshots/medium/Imgp5549.jpg
Bron: http://www.pcgameshardware.de

Kohinoor
Kohinoor is de snelste van de drie en verbruikt met 125W ook gelijk het meest. Deze zal namelijk gekoppeld worden aan snel GDDR4 geheugen. Zelfs al wordt het langzaamste GDDR4 geheugen (op dit moment 900Mhz) gekoppeld aan de 128-bit memory interface, dan nog zal deze kaart een geheugenbandbreedte hebben van 28.8GB/s. Dit is dus nog altijd bijna 30% meer dan de X1650Pro en X1650XT. Koppel je dit aan het 1Ghz GDDR4 geheugen waar ook de X1950XTX gebruik van maakt, dan kom je uit op een totaal van 32GB/s wat te vergelijken is met de bandbreedte die bv de X800XT en GF6800GT hadden.

Orloff
Orloff zal waarschijnlijk de meest verkochtte worden van de drie. Orloff maakt gebruik van het ruim voor handen zijnde GDDR3 geheugen. Je kan verwachten dat hier minimaal 700Mhz GDDR3 op zit en deze kaarten dus een vergelijkbare bandbreedte hebben als de X1650XT en X1650Pro.

Sefadu
Sefadu zal vooral in veel OEM PCs de weg naar binnen weten te vinden. Het lage stroomverbruik (75W) en het niet nodig hebben van een externe stroomvoorziening, maken deze ideaal voor gebruik in een HP of Dell machine, die net iets meer juice in huis moet hebben dan een low-end GPU kan bieden.

De naamgeving van de RV630 is nog niet helemaal duidelijk. Vanaf het begin gingen de meeste mensen uit van de X2600 naam. De laatste tijd gaan er geruchten rond over een renaming naar X2400. Hiermee wordt ook meteen aangegeven dat de RV630 niet als tegenstander is bedoeld van nVidia's G84. Dit zouden dan de RV660 en RV670 moeten worden. De performance van de RV630 ligt dan zeer waarschijnlijk lager dan die van de GF8600GTS, GF8600GT en GF8500GS.

Het voordeel die de RV630 serie heeft op de G84 serie moet dan ook niet gezocht worden in de performance, maar in de featureset en IQ. Elke kaart in de RV630 serie biedt bijvoorbeeld HDCP en native HDMI aan, daar waar de G84 en G86 dit niet doen. Daarnaast is de RV630 serie gemaakt op het 65nm productieproces en de G84/G86 op het 80nm productieproces. Dit zou je kunnen merken in het stroomverbruik.

RV630 heeft de Universal Video Decoder aan boord. Hiermee wordt hardware H.264 en VC-1 decoding mogelijk zonder al te veel performanceverlies.

UVD kan rechtstreeks Bitstream Processing/Entropy Decode, Frequency Transform, Pixel Prediction en Deblocking op de GPU uitvoeren waardoor het CPU verbruik enorm omlaag gaat.
Budget: RV610 - X2200 Serie


De RV610 komt er in eerste instantie in twee varianten. Deze maken gebruik van PCB met de codenamen: Falcon en Antelope. Beide varianten worden in Mei 2007 gelanceerd en zijn gemaakt op het 65nm productieproces. Dit productieproces zorgt er voor dat de RV610 bijzonder klein is, namelijk 7.7x10.7mm, oftewel ~82mm² op het 65nm productieproces. Ter vergelijking, nVidia's tegenhanger de G86 is 11.5x10mm, oftewel ~115mm² op 80nm.

http://www.pcgameshardware.de/screenshots/medium/Imgp5545.jpg
Bron: http://www.pcgameshardware.de

Falcon
Falcon is het laagste model en deze zal gemiddeld zo'n 25W verbruiken. Het geheugen dat op dit PCB geprikt zal worden is 128MB GDDR2 geheugen, dat dmv Hypermemory uit te breiden is naar 512MB of meer. CrossFire wordt alleen via software ondersteund. De eerste geruchten wijzen op een core snelheid van 400Mhz voor de RV610LE die op het Falcon PCB geprikt zal worden.

Antelope
Antelope is de snelle jongen van de twee. Deze zal gebruik maken van 256MB GDDR3. In combinatie met een andere RV610 kan je gebruik maken van hardwarematige CrossFire.

Over de performance is nog weinig bekend. Het gerucht gaat dat Falcon in ieder geval een 64-bits memorycontroller heeft. Zo'n dusdanig kleine memorycontroller staat er om bekend dat hierdoor de prestaties flink geknepen worden, maar dat mag in de budgetsector geen probleem zijn.

Met enig geluk beschikt Antelope wel over een 128-bit memory interface, dan wel een 64-bit memory interface met zeer snel GDDR3 geheugen. De core van de RV610Pro die op het Antelope PCB geprikt wordt, zou volgens eerste berichten op 700Mhz lopen.

De performance van de RV610LE GPU is twee keer die van de X1300LE volgens AMD. En net als RV630 heeft ook RV610 alle UVD mogelijkheden aan boord.

TOEKOMSTIGE VPUs (Lange Termijn) - R650/R680/R700

Of de opvolger van R600 de naam R650 of R680 krijgt is nog weinig bekend. Wat wel bekend is, is dat AMD op de roadmap een "next generation R600" heeft staan en dat deze gepland is voor het derde kwartaal van 2007. De refresh van de R600 zal hoogst waarschijnlijk gebruik maken van het 65nm productieproces. Dit kan je min of meer afleiden aan de hand van een opmerking gemaakt door Dave Orton, die meldde dat AMD de eerste zou zijn die een high end GPU op het 65nm productieproces zou releasen in 2007.

De voordelen van het 65nm productieproces zijn dat de core veel kleiner kan worden, en dat tegelijkertijd ook de kloksnelheid opgevoerd kan worden. De eerste geruchten over de R600 zeggen dat deze zeer goed meeschaalt met kloksnelheid. Er staat ons dus nog wat te wachten!

Prijsovergezicht na lancering X1K serie
http://www.guildwarsarena.net/ati/pricechart.jpg


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan prijswijzigingen doorvoeren.

DE GERUCHTENMOLEN
http://www.guildwarsarena.net/ati/atilogo.jpg
Gerucht: R600 is laat vanwege technische problemen
Nee.
Waarheidsfactor: 100%
Update: 06-03-2007
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: R600 is achterhaald op het moment van release, nV komt vast met een veel snellere G81 uit
Nee. R600 is niet achterhaald op het moment van release. Weten jullie wat R600 is? Nee? Trek dan ook geen voorbarige conclusies. Degenen onder ons die inmiddels weten wat R600 is, zullen jullie dit ook kunnen vertellen dat de R600 zeker niet achterhaald is. ;)

En de refresh van nVidia? Maakt AMD zich daar zorgen over? Voorlopig komt er geen G81. Als er een snellere variant uit komt van de GF8800GTX, dan is het de GF8800Ultra en deze is nog altijd gebaseerd op de G80 core. Voorlopig ziet het er naar uit dat het niets meer is dan een opgevoerde G80, en daar houdt AMD zeker rekening mee.
Waarheidsfactor: 100%
Update: 06-03-2006
http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: CrossFire heeft niet dezelfde 60Hz beperking op R5x0 kaarten
Waar!
Waarheidsfactor: 100%
Update: 02-10-2005


http://www.guildwarsarena.net/ati/sapphirex1900xtx-blizzard.jpg
Sapphire X1900XTX Blizzard Edition - Watergekoelde X1900XTX

OVERIGE ZAKEN
http://www.guildwarsarena.net/ati/atilogo.jpgATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Het moge duidelijk zijn dat de meeste dingen nog gebaseerd zijn op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd
van harte welkom (via mail dan wel in het topic).

[Voor 206% gewijzigd door CJ op 17-03-2007 13:47. Reden: Updated RV610 en RV630 info]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.guildwarsarena.net/ati/atitopiclogo.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQ
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is 3Dc?

Antwoord: 3Dc is een manier van normal map compressie. Check de firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te zien wat 3Dc precies is. 3Dc is inmiddels opgenomen in de specificatie van DirectX10 en ook de Xbox360 ondersteunt 3Dc. Games zullen dus steeds meer 3Dc ondersteuning bieden (zelfs zonder dat het expliciet vermeld wordt) en nVidia zal 3Dc ook hardwarematig moeten ondersteunen (alhoewel ze het waarschijnlijk anders gaan noemen, aangezien de naam 3Dc waarschijnlijk door ATi is gepatenteerd).
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is CrossFire?

Antwoord: CrossFire is ATi's Multi VPU oplossing waarmee zoals de naam al zegt, meerdere kaarten aan elkaar gekoppeld kunnen worden om de performance te verbeteren. Wil je precies weten wat CrossFire is, kijk dan even in de First Posts van de vorige topics.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of Dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Op de nieuwste AMD kaarten, de ATI Radeon X1650XT en X1950Pro, zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! De R600 (en afgeleiden) zullen dit nieuwe systeem ook gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een 70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games ondersteunen 3Dc?

Antwoord: ATi maakt binnenkort een lijst bekend met 3Dc titels.
Op dit moment zijn dit games waarvan bekend is dat ze 3Dc
ondersteunen.

- Far Cry (patch 1.3)
- Half Life 2 (ATi levels)
- Tribes Vengeance
- Sid Meier's Pirates!
- DarkSector
- Project Freedom

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in R500 -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200
- Intel 955x
- Intel 975x

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaargeworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Komen er ook AGP versies uit van de X1K serie?

Antwoord: ATi laat het aan AIB (All In Board partners, zoals MSI, Asus, Powercolor etc) over om AGP versies uit te brengen van hun kaarten. ATi heeft aangegeven dat ze AIBs ter zijde willen staan mochten ze hulp nodig hebben bij het ontwikkelen van AGP versies. Op dit moment zijn de volgende kaarten beschikbaar in AGP variant:
  • X1300Pro
  • X1600Pro
  • X1650Pro
  • X1650XT (Powercolor beschikbaar vanaf medio Januari 07)
  • X1950Pro256/512

http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers. Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes (C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580 maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU. Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn. ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van DirectPhysics lijkt dit dan ook te gaan gebeuren.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt. Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een X2K kaart bij, dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook HavokFX onderdeel van is.

[Voor 99% gewijzigd door CJ op 06-03-2007 19:47]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.guildwarsarena.net/ati/pricechart.jpg
Richtprijzen na de lancering van de X1950XTX, X1950Pro, X1650XT, X1650Pro en X1300XT

X1K-serie in de Pricewatch
http://tweakers.net/price...Field=prijs&orderSort=asc

Let er wel op dat de prijzen dagelijks kunnen veranderen en dat deze pricewatch eens in de maand wordt geupdate. De prijzen zijn afgerond in hele euro's. De echte winkelprijzen kunnen dus iets anders zijn.
• Goedkoopste X1300 128MB PCIe: €47,20 >
• Goedkoopste X1300 256MB PCIe: €56,95 <
• Goedkoopste X1300 512MB PCIe: €53,16 >
• Goedkoopste X1300Pro 256MB PCIe: €64,14 <
• Goedkoopste X1300XT 256MB PCIe: €65 << TIP
• Goedkoopste X1300XT 512MB PCIe: €90,00 NEW
• Goedkoopste X1600Pro 256MB PCIe: €73,54 =
• Goedkoopste X1600Pro 256MB AGP AGP: 99,91 <
• Goedkoopste X1600Pro 512MB PCIe: €98,55 >
• Goedkoopste X1600XT 256MB PCIe: €77 <<
• Goedkoopste X1650Pro 256MB PCIe: €76,00 =
• Goedkoopste X1650XT PCIe: €119 <
• Goedkoopste X1800GTO 256MB PCIe: €174,90 =
• Goedkoopste X1800XT 256MB PCIe: link verouderd
• Goedkoopste X1800XT 512MB PCIe: €304,98 >>
• Goedkoopste X1900GT 256MB PCIe: €157,00 >
• Goedkoopste X1950GT 256MB PCIe: €144 NEW
• Goedkoopste X1950Pro 256MB PCIe: €154 < TIP !!!
• Goedkoopste X1950Pro 256MB AGP AGP: €195 NEW AGP TIP !!!
• Goedkoopste X1950Pro 512MB PCIe: €195,23 <<
• Goedkoopste X1900XT 256MB PCIe: €229,00 <<
• Goedkoopste X1900XT 512MB PCIe: €299,00 =
• Goedkoopste X1900XT CrossFire: €374,00 >
• Goedkoopste X1900XTX 512MB PCIe: €299,00 <<
• Goedkoopste X1950XT 256MB PCIe: €198,00 << TIP
• Goedkoopste X1950XTX PCIe: €298,00 <<
• Goedkoopste X1950XTX CrossFire PCIe: €354,80 <<
< lager in prijs tov vorige update (<< meer dan €10 gezakt)
> hoger in prijs tov vorige update (>> meer dan €10 gestegen)
= gelijk gebleven tov vorige update
Last updated: 6 Maart 2007

[Voor 102% gewijzigd door CJ op 06-03-2007 21:10]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

First Post Change Log:

- Alle oude X1K info weg gehaald en ruimte gecreeerd voor de R600 generatie.

Tevens wil ik iedereen graag ook even doorverwijzen naar dit topic over het beleid in dit topic en dan met name de reactie van Dion_b: dion_b in "Het beleid in het ATi Nieuwsdiscussie to..."

Laten we het hier netjes en zakelijk houden. Dan zouden we een heel eind moeten komen hier. :>




Dan nog iets anders, de hele converence call van AMD is online te beluisteren. Zoals verwacht heeft Fudo de hele boel weer uit zijn context gerukt in zijn stukje "R600 disappoints Hector. :P

Hier is wat Hector Ruiz zei:
Well, any time you're late with a product you are disappointed, and you do obviously suffer from it. But it's such an outstanding product, you can see when people begin to see the very high end capability of that technology - I think it's going to find a home pretty readily, and we're very bullish about what it can do, and we're pretty excited about what we're going to be able to offer our customers and partners.
Effe onderstreept wat nou de clue was van het hele verhaal van Hector. Luister zelf maar: http://www.corporate-ir.n...icker=AMD&item_id=1473686

Het punt bij Fudo is dat je moet leren ontdekken wanneer hij de waarheid spreekt en wanneer hij dingen uit z'n achterwerk haalt. ;) Heerlijk hoe hij soms dingen totaal uit z'n verband rukt.

[Voor 57% gewijzigd door CJ op 06-03-2007 20:32]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Cheetah schreef op dinsdag 06 maart 2007 @ 21:48:
[...]
Dit is wat Fudo schreef:
[...]
Een nogal schreeuwerige kop ok ("R600 releasedate dissapoints..." was beter), maar verder zie ik niet direct wat uit zijn verband is gerukt? De algemene toon van Hector wordt vrij goed weergegeven.

NoFi verder maar ik zie Fudo absoluut niet meer vrij interpreteren dan ik ook van bijv. jou gewend ben ;)
Het verschil zit hem in de oorsprong van de bronnen tussen Fudo en mij, en daarmee samenhangend de wijze van interpreteren. Als ik iets toegespeeld krijg van een voor mij betrouwbare bron, dan interpreteer ik die info niet zo vrij als Fudo dat doe, maar post ik het hier vaak "as is" (voor zover dat mogelijk is ivm het anoniem willen blijven van die bronnen). Ik durf bijna met 100% zekerheid te zeggen dat mijn bronnen betrouwbaarder zijn dan de -tig mailtjes met nieuwtjes die Fudo per dag krijgt.

Ik geef toe dat ik ook wel eens informatie heb opgestuurd naar Fudo omdat ik nieuwsgierig was of hij het zou posten. En ja, dit was dan wel eens expres foutieve info (anoniem verstuurd) wat wonder boven wonder ook nog eens binnen de kortste keren op zijn site verscheen. :*) Dus van dubbelchecken heeft Fudo nog niet echt gehoord. De eerste keer dat het gebeurde met fake nieuws wat ik had gemaild naar hem, was meteen elk greintje vertrouwen weg en komt de zak zout meteen weer uit de keuken.

En het verschil zit hem ook in de wisselvalligheid van interpreteren. De ene keer is R600 veel sneller dan G80, de andere keer dan is-ie maar net ietsje sneller dan de G80. Dan is er weer een kaart geschrapt om een maand later toch weer op te duiken. En telkens na een paar maanden is het "we were the first to bring you the news months ago" of "we told you so". Da's niet moeilijk als je alle mogelijkheden gehad hebt.

Daarnaast dienen koppen de lading van een artikel te dekken. De negatieve ondertoon van de kop dekt absoluut niet het communicatiedoel dat Hector Ruiz voor ogen had met zijn commentaar. De nadruk wordt in het artikel dan ook gelegd op het "disappointed" zijn, terwijl dit vrijwel geheel wordt opgeheven door het andere commentaar van Hector. Daarnaast wordt er een leuk uitstapje gemaakt naar de wijze waarop Hector praat. Allemaal relevant natuurlijk.

Nieuws van The Inq moet je gewoon nemen zoals het is en er verder niet te diep op ingaan. Beschouw het als de Privé, Story, Party of Shownieuws ipv het als het NRC of het NOS Journaal te behandelen. Of nemen de lezers van dit topic die roddelbladen ook serieus? :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ik denk dat ieder weldenkend mens de info die van Fuad dan wel The Inq komt, op zijn juiste waarde weet te schatten. Zeker in vergelijking tot andere sites als Dailytech en EETimes, die beide niet perfect zijn, maar zeker betrouwbaarder dan een Fuad/L'Inq. Dit heeft niets te maken met ATI/AMD PR, maar des te meer met roddelpraktijken en achterklap.

Welk nieuws ik serieus neem? Het nieuws die ik van mijn bronnen krijg en die zijn tot nu toe altijd vrij betrouwbaar gebleken. En in geval van twijfel werd dit er altijd netjes bij gezegd. Wie tot die bronnen behoort zal voor jou altijd een vraag blijven. Misschien is het wel ATI/AMD PR, misschien ben ik zelf wel werkzaam voor AMD, misschien komt het van een AIB of van iemand bij de pers of misschien wel van allemaal. Ik weet in ieder geval wel hoe ik de nieuwtjes die ik binnen krijg op z'n waarde moet schatten en post niet alles blindelings hier in dit topic zoals bv The Inq en Fudo doen zonder alles eerst te controleren.

En je hebt misschien gelijk. Sommige mensen zullen hier nooit weten wat de echte redenen zijn waarom de R600 launch is uitgesteld, ook al staat de waarheid recht voor z'n neus en/of is het hier al meerdere malen verteld. Die willen gewoon sappige details en vette roddels horen. Gelukkig is niet iedereen zo.

Zucht. Ik heb geen zin om deze discussie met je aan te gaan in dit topic. Op de een of andere manier denk ik niet dat we er hier uit komen en dat dit topic weer eens onnodig vervuild wordt... En de discussie over de betrouwbaarheid van roddelsites hoort hier niet gevoerd te worden. Dus bij deze hou ik er over op. Via mail sta ik altijd open voor verdere discussie omtrend dit topic.

Iemand nog vers AMD/ATI/R600 nieuws?

[Voor 68% gewijzigd door CJ op 07-03-2007 02:31]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Reken maar dat de aandeelhouders de ware redenen te horen krijgen tijdens de conference-calls die elk kwartaal gehouden worden en waarvan wij later de transcripts te zien krijgen dan wel het live kunnen beluisteren. Jan Modaal mag je misschien voor de gek houden met vage redenen die doordrenkt zijn met PR materiaal, maar de aandeelhouders nemen hier geen genoegen mee. Voor hen is R600 'laat', verliezen ze hierdoor geld en willen ze weten waarom.

En hier op het forum zijn al een aantal mensen die precies weten wat de R600 in houdt, hoe hij presteert en waarom hij is uitgesteld. ;) En die mensen zouden je ongetwijfeld zeggen dat de reden hier ook al een keer is voorbij gekomen en dat Fuad het ongetwijfeld ook al een keertje heeft genoemd in alle duizenden mogelijke redenen die hij bij elke situatie verzint. Just so he can say "I told you so". ;)




Edit: Dan iets geheel anders en meer ontopic... Meet Natalya Tatarchuk. De vrouw die verantwoordelijk is voor de Fur (Bear) demo op de R9700 en voor Toyshop op de X1K serie:

http://www.ixbt.com/editorial/kri2004/natalia-ati2.jpg

Ze geeft vandaag een lezing tijdens GDC waar ze ook nieuwe demo's zal laten zien op de R600 en waar ook Battlefield: Bad Company, die gebruik maakt van de nieuwe Frostbyte Engine, geshowcased gaat worden op de R600.

Ik verwacht de komende dag(en) wat leuke 'leaks'.

[Voor 22% gewijzigd door CJ op 07-03-2007 03:50]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

aca schreef op woensdag 07 maart 2007 @ 12:16:
De eerste X1950XT die niet met de reference cooler wordt geleverd:

GeCube X1950XT X-series. Haha Marketting.. :+

[afbeelding]
De GeCube X1950XT - X is ook verkrijgbaar in AGP uitvoering. Dus voor degenen die het snelste van het snelste willen hebben op AGP gebied is de X1950XT het snelste wat er te krijgen is. AMD is daar heer en meester.

Eigenlijk was deze de eerste X1950XT die geen reference cooler gebruikte. Deze gebruikt namelijk de TEC (Thermal Electric Cooler) cooler die ook al op een X1950Pro versie van GeCube is verschenen. En alhoewel de naam "XT - X" misleidend is, draait de core wel op 650Mhz ipv 625Mhz.

http://www.gecube.com/cms_file.php?id=2484

GeCube heeft trouwens best wel hele interessante producten in hun line-up, zoals bv deze X1650XT Gemini2 Dual:

http://www.gecube.com/cms_file.php?id=2465

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Astennu schreef op woensdag 07 maart 2007 @ 13:52:
[...]
Maar die X1950 Serie van GeCube gebruikt toch overgeclockte RV570 chips en dus geen R580 chips ? Want sommige denken dat nu volgens mij. Je krijgt volgens mij 36 shaders op een hoge clockspeed. Maar geen 48 die de R580 core heeft. Dat verklaart denk ik ook het PCB ontwerp.
De X1950XT-X van GeCube gebruikt een R580+ core en heeft dus 48 pixelshader processors en 16 ROPs en is daardoor dus identiek aan de X1950XT256 voor het PCIe platform. De GeCube X1950XT-X draait echter default op 648Mhz en heeft een Overdrive instelling naar 675Mhz (wat gelijk ook bijna de limiet is van ATI's eigen Overdrive).

Daarnaast heeft GeCube ook een X1950Pro op zowel AGP als PCIe. Maar deze staat helemaal los van de X1950XT-X AGP die ik hierboven gelinkt had. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Hier een link naar een review omschrijving, pics en een benchmark van de AGP X1950XT-X: http://www.pcgameshardware.de/?article_id=560961 Hieruit blijkt dat het geheugen dus niet op 900Mhz loopt, maar op 700Mhz.

Met dank aan het AGP X1950Pro Topic waar ik de link spotte. :)

[Voor 26% gewijzigd door CJ op 07-03-2007 14:39]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

De GeCube X1950XT-X AGP gebruikt GDDR3 geheugen net zoals de PCIe express versie van de X1950XT256.

Op de AGP versie is het geheugen schijnbaar tot zo'n 850Mhz over te klokken. Dus dat is bijna net zo veel als de PCIe versie die op 900Mhz GDDR3 draait (en ook met gemak de grens van Overdrive van 950Mhz haalt met overklokken waarschijnlijk vanwege betere timings).

De GeCube X1950XT-X AGP gaat voor zo'n €219 over de toonbank in Duitsland.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Astennu schreef op woensdag 07 maart 2007 @ 12:11:
[...]
RV410(110nm), R520(90nm), R580(90nm), R600(80nm), RV630(65nm)

Leuke verzameling. En die R630 is toch erg groot. Ondanks hij op 65 nm is gemaakt. Dus als ik mag gokken gok ik op iets van 425-475 Miljoen transistors voor de RV630 en dan ga ik er een beetje van uit dat hij ongeveer de helft van de shaders heeft die de R600 heeft.
De RV630 is inderdaad heel erg groot als je uit gaat van die plaatjes.

RV410 had zo'n 105M transistoren (bijna net zoveel als R300 had met 110M). Deze is bijna net zo groot op 110nm als de RV630 op 65nm. Wat betreft oppervlakte is de RV630 bijna de helft van R600, dus zou je inderdaad zeggen dat het aantal transistoren in ieder geval hoger ligt dan de R600 (+/- 720M) vanwege de grootte en het kleiner productieproces. 400-450M zou dan een goede inschatting zijn.

Interessant om te zien is hoe ATI in het verleden gewerkt heeft met mainstream en high end chips. De ene keer is de mainstreamchip precies de helft van de high end chip. Een andere keer is het wat groter wat betreft transistoraantal. En sinds de R5x0 serie heeft ATI de mainstream in twee segmenten ingedeeld. Kijk maar naar het volgende lijstje van midrange chips in verhouding tot elkaar en de high end chips:

R200: 60M - RV250: 36M
R300: 110M - RV350: 75M
R420: 160M - RV410: 120M
R520: 320M (R580: 384M) - RV530/RV535: 160M - RV560/RV570: 330M
R600: 720M

R580 bestaat theoretisch gezien uit 4x een RV530 en toch bestaat de core niet 4x zo veel transistoren ondanks de grotere geheugenbus, maar slechts uit 2.5x zo veel transistoren. Logisch lijkt het dat RV630 ongeveer 50% van R600 is, RV670 ongeveer 75% is en RV610 ongeveer 25% van R600. Daarmee zouden ze dus moeten uitkomen op resp. 360M, 540M en 180M.

Trouwens, AMD zou problemen hebben met RV630 volgens VR-Zone. Het zou te groot zijn, te veel stroom vreten en er zouden bugs in zitten aldus een insider. Dit zou verholpen moeten worden met een respin. Vreemd is echter dat de AIBs al wel samples zouden hebben en samples geef je pas weg als een GPU volledig gedebugged is.

Het schijnt overigens ook dat AMD veel terug gaat pakken in het OEM segment en mobiele markt, omdat veel fabrikanten huiverig zijn om een nVidia kaart in te bakken in hun Vista systemen. Ze zouden liever voor AMD gaan omdat de drivers stabieler en beter zijn onder Vista.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Astennu schreef op donderdag 08 maart 2007 @ 10:15:
[...]
Dit is wel een kompleet ramp geworden :'(.
Drama queen. :P Je hoort iets dat door een onbekend persoon op een forum is gepost en neemt het meteen voor waarheid aan? Je zou nu toch inmiddels wel beter moeten weten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Astennu schreef op donderdag 08 maart 2007 @ 11:12:
[...]


Nee dat is waar. Maar ik acht de kans op zig nog best wel groot. Aangezien het niet de eerste keer is dat het gebeurt.
Het zou inderdaad niet de eerste keer zijn dat het gebeurt is. Maar.... de situatie is nu geheel anders. Het is nu niet meer het ATI management die de beslissingen neemt, het is nu AMD die aan het roer staat.
+ de R600 zelf ook nog gerespinned wordt.
Dat was een gerucht. Er gingen zo veel geruchten rond over respins van A13 tot A18.
Misschien had de RV630 ook een kapotte quad of zo. Want ze worden op ongeveer dezelfde manier gemaakt alleen de RV630 is ook nog eens op 65nm.
Ik vraag me af in hoeverre je nog van quads kan praten bij de R6 serie. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Phuncz schreef op donderdag 08 maart 2007 @ 11:59:
[...]

Zover ik weet is 2x 6-pins ook voldoende. CJ ?
Zou voldoende moeten zijn. De 8-pins aansluiting is backwards compatible met een 6 pins aansluiting. Of het gerucht waar is dat je echt een 8-pins nodig hebt om maximaal te kunnen overklokken, weet ik niet.

Overigens had ook de eerste versie van de G80 zowel een 6-pins als een 8-pins aansluiting. nVidia had deze versie toendertijd geschrapt omdat ze bang waren dat mensen de verkeerde 8-pins in de videokaart probeerden te stoppen en het daarmee dus zouden slopen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Apple schreef op donderdag 08 maart 2007 @ 13:51:
[...]


Ik vind dat toch wel knap om nu al te bepalen dat AMD stabielere/betere drivers onder Vista zou hebben. Bugs komen namelijk pas goed aan het licht wanneer (tien)duizenden mensen er mee aan het werk gaan, en niet een handjevol medewerkers danwel andere mensen die even met de kaart aan de gang zijn geweest.

Laten ze eerst de kaarten maar eens bij het grote publiek brengen, daar heeft AMD al genoeg moeite mee. ;)
Je haalt hier volgens mij wat dingen door elkaar. Het gaat hier niet om DX10 kaarten. Het gaat hier om kaarten die Vista in Aero-mode kunnen laten draaien.

DX9 kaarten voldoen dus prima en die heeft AMD al genoeg aan de man gebracht. Bijna alle DX9 kaarten kunnen de Aero interface draaien. Zelfs een GPU als de RV370 krijgt al een rating van rond tussen de 3 en 4.

Er zijn genoeg mensen die al met Vista werken op bv laptops. Ik zie hier bij de RuG wekelijks mensen aan de servicedesk met laptops en ik sta verbaasd van het feit hoeveel Vista laptops er al zijn. Maar ja, wat wil je ook... alle laptops die in de afgelopen twee maanden verkocht zijn, hebben Vista aan boord of bieden de optie om gratis op te waarderen.

En die mensen willen natuurlijk wel dat alles stabiel blijft en alles goed functioneert. Dat AMD stabielere drivers heeft onder Vista voor haar huidige serie kaarten dan nVidia heeft voor haar vorige DX9 reeks, is uit wel meer reviews van websites gebleken. De conclusie was daarin steevast dat AMD een streepje voor heeft op nVidia. Dus als een fabrikant moet kiezen tussen een laptop met een Mobility Radeon X1600 of GeForceGo 7600, dan kan ik me voorstellen dat ze liever voor een X1600 gaan ivm stabiteit. Ze zouden anders veel meer geld kwijt zijn aan de afterservice.

Ongetwijfeld komt hier in de loop van het jaar verandering in, maar dit schijnt dus een tendens te zijn die op dit moment heerst bij laptopfabrikanten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Bloodbanger1970 schreef op donderdag 08 maart 2007 @ 15:52:
Als ze tenminste nu eens afkwamen mer ECHTE specificaties,zodat we tenminste gesust worden en WETEN waar we ons aan kunnen verwachten...waardoor het wachten wat minder frustrerend word |:(
En de concurrentie de gelegenheid geven om precies te weten wat je in huis hebt zodat ze daar perfect op kunnen anticiperen? Dacht het niet. Dan nog liever te laat.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Krizzie schreef op donderdag 08 maart 2007 @ 18:03:
@CJ


[...]


Vind ik dan toch raar dat me X1600(Mobile) een 3.3 scoort voor Aero. (Tevens de laagste score, de rest zit allemaal boven de 4.2) Of bedoel je de Videokaart score zelf? Die zit namelijk op 4.5.
Dus die 3.3 is je eindscore in de Windows Performance Rating? Volgens mij is er dan iets niet goed, want mijn notebook met Mobility Radeon X1400 scoort een 3.4 (voor Aero Experience en dus ook meteen het eindcijfer, want de laagste score) en voor gaming een 3.6. En ik heb bij een oom van me een X550 (dus RV370 core) gezien die 4.1 scoorde voor de totale Performance Rating. Zelfs een Intel 945GM scoort een 3.1 voor gaming en een 3.3 voor graphics.

Een Mobility Radeon X1600 zou dus zeker meer moeten kunnen scoren. Zeker dicht bij de graphicsscore in de buurt (4.5).
Bloodbanger1970 schreef op donderdag 08 maart 2007 @ 18:09:
[...]
Waarom waren de eerste ECHTE specs van de C2D wel al een hele tijd op voorhand (dacht ergens gelezen te hebben,een half jaar van te voren)bekend?Ja ja ik weet het wel een processor op zich is waarschijnlijk iets moeilijker dan een graka maar toch...De eerste geruchten van de AMD barcelona steken nu ook al de kop op,en die zou pas na de zomer verschijnen...
Een GPU vergelijken met een CPU is toch eigenlijk wel appels met peren vergelijken. Zeker wanneer het gaat om het ontwerpproces. Ondanks dat GPUs veel meer transistoren bevatten dan CPUs, zijn GPUs veel gemakkelijker aan te passen door de wijze waarop ze zijn opgebouwd, terwijl je daar bij CPUs veel meer tijd voor nodig hebt.

Daarnaast kan je in de first post lezen dat AMD met drie GPU teams werkt. Bij nVidia hebben ze er geloof ik zelfs 5. Als elk afzonderlijk team bezig is met een GPU, dan kan het laten uitlekken van de specifieke data van een GPU dodelijk zijn. Zo kan een project - zonder dat de consument dat door heeft - afgevoerd worden en er extra vaart gezet worden achter een ander project.

Een half jaartje van te voren je GPU details bekend maken, is vragen om problemen. GPU van Team A niet snel genoeg? Hoppa, schrappen en meteen door naar Team B (de refresh) of misschien wel Team C (met nog een veel sneller product).

En voor zover ik weet heeft AMD zelf weinig verwachtingen gecreeerd omtrend R600. Ze zijn er eigenlijk best wel vrij stil over geweest tot aan vorige week toe. En meer dan het aantal Gflops en de 320 Multiply Accumulative Units is er niets 'officieel' bekend. Wat er 'onofficieel' bekend is, is tot nu toe niet bevestigd en niet ontkend door AMD. De tweaker/techwereld creeert de hype omtrend de kaart waardoor verwachtingen hoog gespannen zijn.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

The Source schreef op donderdag 08 maart 2007 @ 19:16:
Beetje relevant aangezien ATI en nvidia bezig zijn met Psychics.
Dit is een demo van een nieuwe starwarsgame op Nvidia hardware met de havox engine.

http://www.youtube.com/watch?v=3bKphYfUk-M
Kleine aanvulling/correctie. Het eerste stuk is Indiana Jones. En eigenlijk is het een showcase van de Euphoria Engine van Natural Motion en in samenwerking met Havok Physics (niet zeker of dit Havok FX is). Star Wars maakt ook gebruik van Euphoria in combinatie met Havok.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Krizzie schreef op donderdag 08 maart 2007 @ 22:32:
[...]
Ik heb wel AA en AF aanstaan in CCC geen idee of dat ook in de Aero modus gebruikt wordt?

Wel een beetje offtopic maar goed. :X
Zou me niets verbazen aangezien je aero-desktop nu ook flink gebruik maakt van je GPU. Ik kan me dan voorstellen dat de drivers dit zien als een 3D applicatie, zodat dus je CCC instellingen wat betreft AA/AF ook toegepast worden. Of 't er ook mooier van wordt? Geen idee. Zet 't eens uit en draai de test nog eens zou ik zeggen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

The Source schreef op vrijdag 09 maart 2007 @ 18:55:
Nieuwe launch date van R600 is gezet in timeframe van 27 maart / early may.
Wordt nog hard gewerkt aan de driver, final launch driver nummer heb ik ook gezien, maar ben ik vergeten... 8.6.3.1 ofzo?
Ja. 8.361. Eerst stond 8.351 als launchdriver gepland. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Arrigi schreef op vrijdag 09 maart 2007 @ 20:13:
[...]

Uh... Of dat ding heeft ook een 256-bit bus, wat me zou verbazen voor een snellere core.. Of ze zijn ATi gevolgd en hebben opeens een 512-bit bus. Anders kunnen ze toch niet aan dat getal komen?
Volgens mij ook. :) Zie mijn post hier: CJ in "[Algemeen] nVidia Nieuws & Discussie Top..."

Ik heb het expres daar gepost om te voorkomen dat dit topic nog verder vervuild wordt aangezien het hier voornamelijk om AMD/ATI gaat en nV chips in het andere topic horen. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

aca schreef op maandag 12 maart 2007 @ 15:14:
VR-zone:


[...]


3DMark05 scores van 2k zijn voor een X2300LE niet echt indrukwekkend. Niet veel beter dan de X1300. Was natuurlijk te verwachten met een 64b bus. Features zijn an sich wel interessant, nu hopen op een nette prijs. :)
AMD had zelf al aangegeven dat de scores van de RV610LE ongeveer 2x de score zou zijn van de X1300HM. Zie ook de first post: RV610 details

En dat klopt dus blijkbaar ook. De score van de RV610Pro zal dus iets hoger liggen, zeker als je weet dat RV610LE op 400Mhz core loopt en GDDR2 gebruikt, terwijl de RV610Pro volgens de geruchten op 700Mhz core loopt en sneller GDDR3 gebruikt. Dit is bijna een verdubbeling van de clocksnelheid en de 3000 punten moet zeker haalbaar zijn voor de RV610Pro.

Wat duidelijk is, is dat de performance in de low-end dus verdubbelt ten op zichte van de vorige generatie, maar dat dit dus niet per se sneller hoeft te zijn dan de vorige mid-range (wat sommige mensen dus verwacht hadden).

[Voor 10% gewijzigd door CJ op 12-03-2007 15:49]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ik ben benieuwd welke kaarten er naar het AGP platform worden gebridged. Er gaan geruchten over de RV610. Maar ik denk dat de RV630 daar misschien ook nog wel bij past, aangezien AMD op dit moment ook de meest complete (en snelste) AGP lineup heeft met de X1300, X1650GT, X1650XT, X1950GT, X1950Pro en X1950XT. En ook al zien sommige mensen liever dat de AGP markt snel afsterft, het blijft toch een grote upgrade markt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Obi-Wan Kenobi schreef op dinsdag 13 maart 2007 @ 00:44:
hmm wordt de M78 zeker de nieuwe high end Mobile chip van ATi.AMD? net als de M18 aka MR9800 dat was voor de AGP mobile chips?
Da's een beetje vragen naar de bekende weg... Je zegt het zelf al, M18 was de MR9800. M28 was de MRX800, M58 was de MRX1800, M68 was de MRX1900. Daar zit toch echt een patroon in. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Obi-Wan Kenobi schreef op dinsdag 13 maart 2007 @ 14:26:
[...]


Ja oke dat is idd zo :D
Maare wat is met M38 en M48 gebeurd dan? -O-
Geen idee... Maar ATI heeft toendertijd de hele reeks namen aangepast. Eerst volgde alles nog netjes de M1, M2, M3 tot aan M11 serie. Daarna werd het ineens M18 voor de MR9800, daar waar de MR9700 nog de M11 was. De overstap van AGP naar PCIe werd gemaakt met M28 naar M58.
The Source schreef op dinsdag 13 maart 2007 @ 00:28:
Kwam vandaag nieuwe roadmap tegen van AMD mobile GPU's voor Q1 2008 met DX10.2? support
Moet dat niet DX10.1 zijn? De R700 heeft waarschijnlijk native ondersteuning voor DX10.1 en Shadermodel 5.0. En die stonden voor begin 2008 gepland te samen met het 55nm productieproces.

Ook nVidia is al bezig met shadermodel 5 omdat in de laatste DX10 SDK verwijzingen zijn gevonden naar Fragment50, Vertex50, Geometry50. Dus er zit een grote kans in dat je in 2008 (of misschien zelfs wel eind dit jaar met nV's G90) de eerste SM5.0 kaarten ziet verschijnen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Interessant artikel die zeker de moeite waard is om te lezen! :)

Even wat highlights:

Problemen worden vaak aan de drivers toegeschreven terwijl dit niet zo hoeft te zijn.
Zie bv Windows Vista waar bepaalde functies (nog) niet in zijn geimplementeerd waar de IHVs wel om hadden gevraagd, maar door het snelle release schema dus niet in de final Vista versie zijn verschenen. Hierdoor moeten IHVs dus workarounds in de driver aanbieden, terwijl dit eigenlijk niet de bedoeling was. IHVs krijgen echter wel vaak de schuld ("het zal wel aan de drivers liggen").

Ook XP en Linux krijgen de nieuwe OpenGL driver.
De OpenGL driver in Vista is geheel vanuit het niets opgebouwd. Wel worden gedeeltes van de oude shadercompiler gebruikt, maar voor de rest is het geheel nieuw. ATI heeft hier al 3 jaar lang aan gewerkt. Het had geen zin om de oude XP OpenGL driver om te zetten, naar Vista, dus is de focus gelegd op de Vista OpenGL driver. Deze zal dit jaar ook naar XP en Linux komen.

Catalyst Control Center voor CPU, GPU en chipsets
Interessant is ook dat het Catalyst Control Center straks zowel de GPU zaken als ook de CPU en chipset zaken regelt. Alles vanuit het centrale controle paneel. Dit is een langetermijn project omdat het alles omvat en er dus veel tijd in gaat zitten om het goed voor elkaar te krijgen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Graag! Het verbaasde me echter wel dat al dat onnodige vergelijk (zie "Waarschuwing:" bij het replyen) niet leidde tot een enorme e-peen contest. ;) Maar nu dus weer back ontopic, want er is weer wat nieuws te vermelden.

CeBit is begonnen en er is tenminste 1 fabrikant die achter gesloten deuren de R600 laat zien aan genodigden die een vette NDA hebben ondertekend: GeCube!

GeCube laat behalve hun X-Turbo serie, de AGP X1950XT-X en de X1650XT Gemini2 ook de R600 in een achterkamertje zien. Het staat zelfs vermeldt in hun persbericht:
Apart from these products, GECUBE will also be unveiling its full series ultimate 3D graphics card using the latest chipsets from ATI with support for the new generation DX10 technology to its VIP business partners in its confidential (NDA) room. Don't miss out on this unique opportunity from GECUBE at CeBIT!

*Exclusive GECUBE Product with the ATI World’s most powerful Chipset
GECUBE will be unveiling at CeBIT its secret weapon (NDA) for the second quarter of 2007. Using the latest ATI core with support for the new generation DX10 technology, don’t miss this chance to witness its jaw-dropping performance for yourself at CeBIT!
http://www.gecube.com/press-release-detail.php?id=65433

Edit:

Ook HIS laat de R600 achter gesloten deuren zien:
„Wir planen eine R600 Live-Demo für Redakteure, die vorher eine Verschwiegenheitserklärung unterschrieben haben. Leider dürfen wir diese außergewöhnlich leistungsstarken Grafikkarten noch nicht frei in der Öffentlichkeit zeigen. Doch ich darf versprechen, ein Besuch des HIS CeBIT Standes lohnt sich in diesem Jahr besonders.“
http://www.k-hardware.de/...b17970bbc49b&news_id=6364

[Voor 27% gewijzigd door CJ op 15-03-2007 11:37]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

edward2 schreef op donderdag 15 maart 2007 @ 13:40:
[...]


Je hebt een direct Message ;)

Btw, nog 2 maanden?! Dan zitten we op half mei, dan hoop ik voor ATI (en mezelf) dat er heel wat meer performance dan die, 10-30% meer dan een 8800GTX, in zit, anders denk ik dat veel mensen de opvolger van de 8800GTX eerst afwachten, aangezien het dan ruim een jaar geleden is dat nVidia zijn 8800GTX lanceerde en een opvolger zeker geen 6 maanden, gerekend vanaf die datum, op zich zal laten wachten.
Nog twee maanden is wel heel globaal. AMD heeft als releasewindow "27 maart - early May" genoemd. :) Dus het kan varieren van 2 weken tot 2 maanden.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Binnen 2.5 week dus een tech-day over R600 en lancering binnen 6 weken. Dat is dus op z'n laatst inderdaad begin Mei.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

CeBit 07 News: RV610 en RV630 shots

RV610:

http://www.pcgameshardware.de/screenshots/medium/Imgp5547.jpg

http://www.pcgameshardware.de/screenshots/medium/Imgp5545.jpg

RV630:

http://www.pcgameshardware.de/screenshots/medium/Imgp5541.jpg

http://www.pcgameshardware.de/screenshots/medium/Imgp5526.jpg

Bron: http://www.pcgameshardware.de/?article_id=571589

Launch: Waarschijnlijk midden April (net als G84/G86 op 17 April misschien? :P )

[Voor 14% gewijzigd door CJ op 15-03-2007 15:09]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

CeBit News: Sapphire toont Quad CrossFire!

De titel zegt het helemaal. Gebaseerd op de X1950Pro, en waarschijnlijk een uitprobeersel voor het echte werk (Quad R600 / RV670).

http://www.pcgameshardware.de/screenshots/medium/DSC02759.JPG

http://www.pcgameshardware.de/screenshots/medium/DSC02758.JPG

Meer pics: http://www.pcgameshardware.de/?article_id=571527

[Voor 15% gewijzigd door CJ op 15-03-2007 15:10]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Yep. Maar volgens mij is dat RV630. Wel vreemd dat ze voor de midrange dezelfde cooler gebruiken als de X1950XTX. En volgens meldingen van CeBit zou de retail R600 bijna exact dezelfde cooler gebruiken als de X1950XTX en ongeveer net zo lang zijn. Dus misschien is het 'm wel. :P

Anyway, AMD begint nu de hype machine te activeren. Wel grappig om te zien hoe de marketingmachine van AMD nu de GPU producten de markt op brengt:

http://images.tweaktown.com/imagebank/news_amdr600update_03.jpg

Bron: http://www.tweaktown.com/...ails_confirmed/index.html

Hopelijk kunnen ze het waar maken.

Edit: Neem de data in het Tweaktown artikel wel met een korrel zout. Voor zover ik weet zijn dat de oude data.

[Voor 11% gewijzigd door CJ op 15-03-2007 15:24]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Leuk discussiepunt naar aanleiding van het gerucht dat de R600 nu op 65nm zou komen vanwege problemen op 80nm (leakage etc). Even een kleine poll:

1) - Wie denkt dat dit waar is?
2) - Wie denkt dat AMD R600 geschrapt heeft en dat we meteen door gaan naar R650?
3) - Wie denkt dat R600 nog steeds op 80nm gemaakt is en dat deze versie gewoon uit komt?
Astennu schreef op donderdag 15 maart 2007 @ 15:24:
Echter zag ik dat die RV630 een dual slot cooler heeft.
Niet elke RV630 heeft een dual slot cooler. Kijk naar de plaatjes en naar de bevestigingsplaten. Met cooler is het een dual slot. De nudies hebben een single slot bevestiging.

[Voor 45% gewijzigd door CJ op 15-03-2007 15:28]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

dreee schreef op donderdag 15 maart 2007 @ 16:28:
Bij die R630 foto's; lijkt die met dualslot cooler toch echt wel een andere kaart als je naar de ordening van componenten kijkt en ook lijkt ie langer dan de eerste. Ik zie een pci-e powerconnector op de tweede foto, op de eerste niet. Best kans het een R600/R650 is.
Ik weet nu bijna zeker dat dit de R600/R650 niet is.

Vergeet niet wat hier allemaal al gepost is en wat er in de first post staat. Er zijn 3 verschillende soorten PCB voor de RV630. 2 daarvan hebben een externe powerconnector en eentje niet. Grote kans dat de dual slot versie dus de RV630Pro is. En het artikel laat ook duidelijk zien dat het hier gaat om de RV630 en maakt melding van het feit dat de versie met cooler een ander PCB gebruikt.

Oh ja, en de cooler op de XTX ziet er anders uit. Je hebt er al eens pics van bij zien komen op dit forum in dit topic. Het was een versie van een prototype en leek op de GF8800GTX cooler.

[Voor 10% gewijzigd door CJ op 15-03-2007 20:57]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Joepi schreef op donderdag 15 maart 2007 @ 17:15:
Dit zou UFO zijn: de klijnste R600: een XL
[afbeelding]

Verband:
[afbeelding]
Dat kan bijna UFO niet zijn. Bekijk de cooler eens goed. Het ziet er uit als de cooler van de X1950XTX, maar is het niet. De heatpipes missen bijvoorbeeld. En een dusdanig grote core als de R600 heeft niet genoeg aan een simpele cooler.

En zoals al gezegd, het artikel zegt zelfs dat het RV630 is...

Voor de mensen die de snapshots gemist hebben van de nieuwe R600 Ruby demo gemist hebben: http://4um.ocguru.cz/showpost.php?p=698142&postcount=197

[Voor 16% gewijzigd door CJ op 15-03-2007 18:03]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Het is jammer dat de FP weer eens niet de gegevens checked alvorens iets te plaatsen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Obi-Wan Kenobi schreef op donderdag 15 maart 2007 @ 20:11:
hmm dit zal best een X2900 XTX kunnen zijn waarom niet ?
Sorry hoor.. maar dit moet effe...

LEES EENS WAT HIERVOOR GEPOST IS!

Dit geldt niet alleen voor jou, maar voor meerderen in dit topic. Alle redenen waarom dit geen XTX is, zijn al eens gepost. De fan is anders (te licht), het staat zelfs in het artikel dat dit een RV630 is, er zijn verschillende varianten van de RV630 en wellicht heeft het topmodel nu een dual slot en deze heeft maar 1x een 2x3 powerconnector. Ik sta hier gewoon voor noppes te posten lijkt het wel...

[Voor 14% gewijzigd door CJ op 15-03-2007 20:29]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Obi-Wan Kenobi schreef op donderdag 15 maart 2007 @ 20:41:
[...]
Het kan idd een R630 XT [ik noem maar effe wat] zijn maar het kan ook idd een R600 zijn wat mij een meer logisch ontwerp er voor lijkt 8)
Nee, dat is dus wat ik je probeer duidelijk te maken. Het kan niet. Het is geen R600. Met de nadruk op de .

[Voor 3% gewijzigd door CJ op 15-03-2007 20:48]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ik hoorde net dat R600 pas rond Computex massaal te krijgen zal zijn. Dat is dus pas in Juni. Aan het einde van April/begin Mei zal de officiele presentatie zijn alleen voor de pers en natuurlijk onder NDA. AMD heeft verder officieel ontkend dat er problemen waren met GDDR4 en dat R600 gewoon goed functioneert. AMD geeft nu verder aan dat het inderdaad een top-to-bottom launch wordt met second generation unified shaders die "one step up" zijn in vergelijking tot de Xbox360.

Wat betreft performance ten opzichte van G80 zegt AMD "You will be suprised! ;) .".

AMD wijst er verder op dat er al meer dan 10 miljoen mensen een ATI unified shader GPU in huis hebben en dat honderden developers hier al voor ontwikkelen. Volgens hen zal ze dit veel profijt opleveren bij de eerste DX10 games op hun eigen desktop GPUs.

[Voor 18% gewijzigd door CJ op 15-03-2007 23:31]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

NinteX schreef op donderdag 15 maart 2007 @ 23:29:
[...]

In Juni pas... Dan heeft Nvidia waarschijnlijk al de G90 op stapel staan.
Wie weet. Maar het gaat hier over R600 (voordat we hier weer onnodige vergelijkingen krijgen, zie topicregels/waarschuwing bij het posten). ;)

R600 heeft verder UVD aan boord net zoals elke GPU uit de R6x0 reeks. En daarnaast zit in elke R6x0 kaart niet alleen HDMI support, maar ook Fully Integrated HD-Audio support.

De Notebook DX10 kaarten komen er ook aan halverwege 2007. Al deze chips zijn gemaakt op het 65nm productieproces en zullen zeer spaarzaam omgaan met de accu van de notebooks.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Slides. Get them while they're hot (en voordat ze verwijderd worden):

http://www.rage3d.com/boa...1334851342&postcount=3637

@ Apple, ze noemden G80 niet echt. Ze hadden het over "nVidia's solution". Dit kan G80 zijn, maar ook iets anders. En misschien is "de verrassing" wel de reden van de geruchten dat nVidia de G81 in de doofpot heeft gestopt en vaart wilde zetten achter G90.

[Voor 47% gewijzigd door CJ op 15-03-2007 23:41]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Er gaan op dit moment veel verhalen de ronde. En de ene spreekt de ander weer tegen. Het leuke is dat er toch best wel wat verhalen tussen staan die kloppen. Maar welke is waar en welke niet? Geweldig he? ;)

Hier nog een verhaaltje van VR-Zone. Ze claimen dat de RV630XT ongeveer 12000 punten scoort in 3DM05. Dat is ongeveer net zoveel als mijn X1950XT.... als het waar is tenminste. :+ Wat zou R600 dan wel niet scoren... als het waar is tenminste? :9

RV610LE scoort volgens hen maar 2000 in 3DM05, maar wel met een 64-bit memory interface en op 400Mhz core. De RV610Pro loopt op 700Mhz core, dus de score zal daar wel iets hoger liggen (3000 moet lukken). Ik vraag me dan af wat een RV610LE met 128-bit mem interface zou scoren. Maar dan nog lijkt 12K me best veel voor een RV630XT... alhoewel, je weet maar nooit natuurlijk.

Bron van de 12K in 3DM05 voor RV630XT: http://www.vr-zone.com/?i=4795

[Voor 7% gewijzigd door CJ op 15-03-2007 23:59]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Obi-Wan Kenobi schreef op vrijdag 16 maart 2007 @ 00:08:
voor jou CJ ik heb ze op imagehosting.com gezet, voordat ze verwijderd worden op die andere site 8)
8) Kewl :)
Ok, en nu deze er bij... De GF8800GTS.

http://www.firingsquad.com/hardware/geforce_8800_gts_320mb_roundup/images/02.jpg

Welke lijkt nu meer op het conceptmodel cooler van de R600? De cooler op de X1950XTX/RV630XT of die op de GF8800?

Edit: Ik zag net dat Fuad ook de R600XTX heeft gezien en die schreef wonder boven wonder ook dat de cooler lijkt op die van de GF8800.... Bron: http://www.fudzilla.com/i...task=view&id=147&Itemid=1

[Voor 13% gewijzigd door CJ op 16-03-2007 00:29]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Pine Mangoes schreef op vrijdag 16 maart 2007 @ 00:32:
Als de R600 maar dubbel zo snel is als een X1950XTX denk ik dat ATi een serieuze klap zal krijgen. nVidia is al tijdje heer en meester op de mid/mid-high end (met de X1950pro als enige uitz), als ATi ook op de high-end 't pleit verliest - want voor zover ik weet scoort de 8800GTX makkelijk dubbel zo goed als een X1950XTX - kunnen ze ook deze reeks (na de R400/R520) op hun buik schrijven.
Ik vind dat zo'n onzin he wanneer mensen zeggen dat het een teleurstelling is als de R600 'maar' 2x zo snel is als een X1950XTX. Hebben jullie wel door wat jullie dan eigenlijk zeggen en wat jullie verwachten van een kaart?? :? 8)7

Ik denk het namelijk niet.

Ok... ik heb even een goede review van de GF8800GTX er bij gepakt, en wel die van Xbit Labs: http://www.xbitlabs.com/a...display/gf8800-games.html

Hier is de GF8800GTX echt bijna nergens 100% sneller dan de X1950XTX. Als een R600 twee keer zo snel is als de X1950XTX... dan gaat het er als volgt uit zien... alles op 1600x1200 met 4xAA/16xAF.

Battlefield 2
GF8800GTX is 43% sneller dan een X1950XTX
R600 is dan 34% sneller als een GF8800GTX

Battlefield 2142
GF8800GTX is 46% sneller dan een X1950XTX
R600 is dan 36% sneller als een GF8800GTX

CoD2
GF8800GTX is 89% sneller dan een X1950XTX
R600 is dan 5% sneller dan een GF8800GTX

Far Cry
GF8800GTX is hier 10% sneller dan een X1950XTX
R600 is dus 80% sneller dan een GF8800GTX

Far Cry HDR
GF8800GTX is 61% sneller dan een X1950XTX
R600 is 23% sneller dan een GF8800GTX

F.E.A.R
GF8800GTX is 47% sneller dan een X1950XTX
R600 is 35% sneller dan een GF8800GTX

GRAW
GF8800GTX is 53% sneller dan een X1950XTX
R600 is 27% sneller dan een GF8800GTX

HL2: EP1
GF8800GTX is 23% sneller dan een X1950XTX
R600 is 57% sneller dan een GF8800GTX

Prey
GF8800GTX is 64% sneller dan een X1950XTX
R600 is 21% sneller dan een GF8800GTX

Quake 4
GF8800GTX is 30% sneller dan een X1950XTX
R600 is 52% sneller dan een GF8800GTX

SS2
GF8800GTX is 40% sneller dan een X1950XTX
R600 is 42% sneller dan een GF8800GTX

SC:CT
GF8800GTX is 13% sneller dan een X1950XTX
R600 is 75% sneller dan een GF8800GTX

Tomb Raider: Legends
GF8800GTX is 81% sneller dan een X1950XTX
R600 is 11% sneller dan een GF8800GTX

Gothic 3
GF8800GTX is 41% sneller dan een X1950XTX
R600 is 26% sneller dan een GF8800GTX

NWN2
GF8800GTX is 83% sneller dan een X1950XTX
R600 is 11% sneller dan een GF8800GTX

Oblivion HDR Dungeon
GF8800GTX is 27% sneller dan een X1950XTX
R600 is 56% sneller dan een GF8800GTX

Oblivion HDR Outdoors
GF8800GTX is 54% sneller dan een X1950XTX
R600 is 32% sneller dan een GF8800GTX

Titan Quest
GF8800GTX is 90% sneller dan een X1950XTX
R600 is 7% sneller dan een GF8800GTX

X3: Reunion
GF8800GTX is 3% langzamer dan een X1950XTX
R600 is 104% sneller dan een GF8800GTX

Age of Empires 3: The Warchiefs
GF8800GTX is 14% sneller dan een X1950XTX
R600 is 76% sneller dan een GF8800GTX

Company of Heroes
Geen goede vergelijking, nieuwere drivers geven AMD een 30-40% performance boost

Rise of Nations: Rise of Legends
GF8800GTX is 28% sneller dan een X1950XTX
R600 is 58% sneller dan een GF8800GTX

Is het een beetje duidelijk wat ik hier probeer uit te leggen? Als de R600 inderdaad 2x zo snel is (in de meeste gevallen) als een X1950XTX, dan is dat volgens mij helemaal niet iets om ontevreden over te zijn. Volgens mij zouden dan zelfs de meeste mensen hier met een GF8800GTX met de bovenstaande resultaten, waar de R600 dus theoretisch 2x een X1950XTX is wat betreft performance, nog de deur uit gaan om een R600 te kopen... Of zie ik dat verkeerd?

Ik ga er zelf niet van uit dat de R600 over het algemeen 2x zo snel is als een R580... maar je weet maar nooit.
Joepi schreef op vrijdag 16 maart 2007 @ 01:01:
Het wordt nou echt gek: wat een dag zeg!
AMD reveal RV6xx is a sound card too >:)
http://www.beyond3d.com/content/news/127
Had ik al gepost. ;) En wel iets hierboven: CJ in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Obi-Wan Kenobi schreef op vrijdag 16 maart 2007 @ 01:31:
dus CJ als ik je redenering belees dan zou een enkele X2900 XTX even snel zijn als een X1950 XTX + X1950 XTX CFE CrossFire setup?
Nee. Dat is niet mijn redenering, maar de redenering of beter gezegd "verwachting" van enkelen hier over de performance van R600. Die mensen zeggen dat ze teleurgesteld zouden zijn als de R600 "maar slechts" 2x de performance van een X1950XTX zou geven.

De bedoeling van mijn lijstje was om aan te geven dat een G80 echt niet vaak 2x zo snel is als een X1950XTX. En ook om aan te geven hoe snel de R600 dan zou zijn in vergelijking tot de G80 als deze inderdaad 2x de performance heeft van een X1950XTX. Dan blijkt dat de performance van 2x een R580 (dus niet CrossFire, want CF geeft nooit een volledige 2x boost behalve dan bij SC:CT) helemaal niet zo slecht is.

Pakken we het gerucht van de RV630XT er bij en de score van 12000 punten in 3DM05, dan zien we dat "als dit gerucht klopt", de RV630XT zelfs meer dan 2x zo snel is als een RV530XT. De X1600XT scoort namelijk zo'n 5700 punten in 3DM05.

Misschien zit er wel een patroon in.

We horen dat RV610LE 2x zo snel is als RV515LE (2000 punten in 3DM05 vs 1000 punten)
We horen dat RV630XT meer dan 2x zo snel is als RV530XT (12000 punten vs 5700 punten)
We horen dat R600 2x zo snel is als een R580

Maar ja, deze geruchten kwamen van VR-Zone. En het zou me niets verbazen als het de concurrent was die met opzet geruchten aan het lekken is over AMD met zgn performance cijfers (gewoon lekker om de boel te hypen zodat het straks tegenvalt). Dit is al eens eerder gebeurd. Maar ik zal het binnenkort eens even aan Visionary voorleggen als-ie terug is van CeBit.

[Voor 32% gewijzigd door CJ op 16-03-2007 01:40]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

primusz schreef op vrijdag 16 maart 2007 @ 10:00:
[...]


Hij zegt alleen maar ALS de R600 2x zo snel is als een x1950xtx dat de snelheid t.o.v. de 8800gtx helemaal niet slecht is. Hiermee probeert hij aan te duiden dat 'maar 2x zo snel' helemaal geen slechte prestatie is.
Dank je. Dat is precies wat ik bedoel.
Astennu schreef op vrijdag 16 maart 2007 @ 10:12:
Ik moet dit allemaal nog zien hoor. 240 watt stroomverbruik. 65nm Chip. Een van die 2 is zo i zo al niet waar. Ik denk niet dat ene 720 Miljoen transistor tellende chip op 65nm 240 watt gebruikt. De G80 met 680 Mil doet het met 180 watt op 90nm. Maar we zullen wel zien.
AMD gaf zelf aan tijdens het "1 TeraFlop in a Box" presentatie dat de PC gebruik maakte van 2x R600s die elk 200W verbruikten. Zouden ze dan met opzet verkeerde getallen hebben gebruikt?
Clockspeeds enz zijn niet bekend. En 2x Zo snel als de R580 vind ik tegen vallen. Vooral als je in je achterhoofd houd dat hij veel te laat is. De opvolger van ATi en nVidia beide al bijna klaar zullen zijn. ( denk ook aan de R520 en de R580. De R580 kwam er vrij snel achteraan. )

Of dit is inderdaad de R650 op 65nm. En blaast hij alles weg. Of AMD heeft de R650 er uit gehaald. Of we hebben over 2 maanden de opvolger op de plank liggen.

Ik ben nu wel erg benieuwd wat er waar is. We hebben alle opties gehoord. BV. Lauch dates: 30 Maart - Tussen eind maart begin Mei - Begin Juni. Whats next ? And Whats True ?
"Als" de R600 inderdaad twee keer zo snel is als R580, dan vind ik dat helemaal niet tegenvallen eigenlijk. Dan nog is-ie gemiddeld 30-40% sneller als een G80 met uitschieters naar 70-80%. En dan heb ik het alleen nog over DX9 applicaties. Dat is dus vaak sneller dan een CrossFire combinatie van twee R580+ GPUs. En als-ie echt 30-40% sneller is dan een G80, dan kan ik me voorstellen dat een opgevoerde G80 het niet zou bolwerken en deze dan maar in de doofpot is gestopt door nV. Een refresh is doorgaans 15-30% sneller dan het origineel.

Misschien weet AMD iedereen te verrassen op het gebied van performance en is dit een nieuwe R9700, die massaal over de voorganger R8500 heen ging. Misschien is-ie niet veel sneller dan een G80 en zal het voor een aantal mensen tegenvallen. Maar wat ik wel weet is dat R600 veel meer functionaliteit biedt dan een G80 en dat zal ook zeker ook een grote doelgroep aanspreken.

[Voor 13% gewijzigd door CJ op 16-03-2007 10:42]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ik heb nog eens even zitten nadenken over de performance van RV630. AMD kan het niet maken om deze langzamer te laten zijn dan de huidige kaarten in het lower midrange segment, dus de RV560.

RV560 scoort zo'n 7700 punten in 3DM05 voor zo'n €140,- met een 128-bit memory interface. RV570 scoort zo'n 10000 punten in 3DM05, maar deze heeft 12 pixelshaderengines meer en een 256-bit memory interface.

Als de unified shader architecture van AMD echt zo snel is, dan zou 12000 punten voor de snelste RV630 inderdaad mogelijk moeten zijn. Het zou eerder vreemd zijn als ze een nieuwe generatie kaart voor bv €199 zouden lanceren die langzamer zou zijn dan de vorige generatie midrange kaarten.

Edit:

Hier de nieuwste Arctic Cooling Accelero Extreme. Ook geschikt voor de R600. ;)

http://www.pcgameshardware.de/screenshots/medium/arcticcooling3.jpg

En in tegenstelling tot nVidia heeft AMD laten weten dat ook de R6x0 reeks kan werken met de Rialto bridge. nV liet gisteren weten dat er geen AGP versies van hun DX10 kaarten gepland stonden. AMD heeft laten weten dat ze het ook dit keer van hun boardpartners af zouden laten hangen en dat alle R6x0 chips met de Rialto bridgechip kunnen samenwerken.

[Voor 27% gewijzigd door CJ op 16-03-2007 11:05]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Een Tflop of 500 Gflop zegt op zich zelf staand inderdaad weinig als je verder niets weet van de architectuur.

Maar we weten dat R580 zo'n 360Gflops er uit weet te persen met 48 shaderunits en dat de R600 320 Multiply Accumalative Units heeft om die 500 Glops er uit te persen. En een logische gedachtengang is het om er van uit te gaan dat R600 niet langzamer is dan R580. Je hebt nu dus wel wat meer houvast over de performance van R600 in games die minimaal 509 Gflops aan berekening kan doen, omdat je ook weet hoe R580 het doet met 360Gflops aan processingpower.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

aca schreef op vrijdag 16 maart 2007 @ 12:16:
[...]


Als er een hogere resolutie gekozen wordt, wordt een procentuele verschil ook groter tussen de R580 en de G80. Kijk maar eens naar de 25x16 reso's. Als je bijv Inq's review neemt, dan komt er bij Fear een "17% sneller" uit voor de R600. Opeens is die 2x zo snel als dan R580 niet zo indrukwekkend meer. :+
Ja, klopt. En wat is op hoge resoluties belangrijk? Bandbreedte.

En wat heeft de G80 meer dan de X1950XTX? Bandbreedte. Het is nog altijd 384-bits vs 256-bits. Straks is het 384-bits vs 512-bits. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Nog een gerucht van CeBit. De X2900XT (dus niet de XTX) zou 17xxx scoren in 3DM05 en 11xxx scoren in 3DM06.

http://forums.ocworkbench.com/bbs/showthread.php?t=60799

Dan nog wat andere dingen:

RV610 (65nm) = 7.7x10.7mm
RV630 (65nm) = 13.3x11.5mm

Ter vergelijking: G86 (80nm) de low-end van nVidia is 11.5x10mm

[Voor 31% gewijzigd door CJ op 16-03-2007 17:42]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

leonpwner1 schreef op vrijdag 16 maart 2007 @ 17:38:
[...]


Valt tegen imho, dubbele van mijn 7900gt. Dus laten we zeggen anderhalf keer zo snel als een x1950xtx.
Mijn X1950XT (OC naar 650/925) scoort 6200 in 3DM06, dus voor mij zou de X2900XT dus minstens 77% sneller zijn dan mijn huidige kaart. In 3DM05 is het verschil al kleiner, daar is het minstens zo'n 42%. Als dit gerucht klopt, dan zou de X2900XTX wel eens echt twee keer sneller kunnen zijn dan de X1950XTX.
RappieRappie schreef op vrijdag 16 maart 2007 @ 17:45:
[...]


Niet echt interessant aangezien we niet weten met wat voor CPU de benches gedraaid zijn. Als het met een Quad core Intel is is het niet echt hoog, als het met een X2 AMD is, is het echter wel hoog.

Een Intel CPU lijkt me in ieder geval uitgesloten dus het zal wel op een Quad AMD zijn (2xFX70) of op een X2, en dan is de score niet onaardig lijkt me... :)
Waarom zou het geen Intel CPU zijn? AMD wil graag Intel chipsets blijven leveren en doet dat net zolang er vraag naar is van de fabrikanten. En laatst dook er ook weer een Intel mobo op met een AMD RS690/RS600 chipset, dus ik denk niet dat AMD er veel problemen mee heeft om een Intel CPU te gebruiken. Het gaat immers om de hoogste score als een C2D dat bezorgt, dan gebruiken ze die gewoon.

En Intels nieuwe P35 chipset zal ook CrossFire blijven ondersteunen. Dus AMD heeft genoeg mogelijkheden om het beste uit de R600 te halen.

Ook gespot:

Nieuwe Zalman cooler:

http://www.pcgameshardware.de/screenshots/medium/Imgp5472.jpg

En de nieuwe Accelero Extreme van dichtbij:

http://www.pcgameshardware.de/screenshots/medium/1Imgp5584.jpg

Meer coolers: http://www.pcgameshardware.de/?article_id=571767

[Voor 57% gewijzigd door CJ op 16-03-2007 17:59]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Vergeet niet dat je niet 'zo maar' even van 80nm naar een 65nm proces gaat zoals je dat wel kan doen met 90nm naar 80nm. M.a.w. je springt niet zo maar van een full node naar een andere full node, terwijl je dat wel kan doen met een full node naar half node. Als het waar is, dan moet er veel meer veranderd zijn binnen de chip.

En ergens betwijfel ik het of AMD echt chips de markt op brengt die last hebben van leakage...

Dan iets anders... MSI heeft de eerste laptop met een mobiele RV630 gepresenteerd:

http://uk.theinquirer.net/images/articles/MSI_GX710_RV630M.jpg

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

ecteinascidin schreef op vrijdag 16 maart 2007 @ 21:35:
Ik snap iets in dit topic niet.

Als de ATi-kaarten 200 Watt gebruiken is dat veel. En AMD vindt dat vast ook veel. Die respin die ze blijkbaar hebben gedaan om gelijk ALLE kaarten op 65 nm te bakken is natuurlijk gedaan om het energieverbruik omlaag te trekken en wel met zo'n 30% (oid).
Mij lijkt het vrij logisch dat de 200 Watt gebaseerd zijn op de oude kaarten en de te verwachten kaarten (op 65 nm) daarom op 140 Watt gaan trekken (30% minder), waarmee de kaarten al een enorm veel beter zijn.

Maar niemand pikt dat op? Die krengen komen vrijwel zeker niet boven de 150 Watt uit.
Ik denk dat 150W misschien iets te optimistisch is, zeker als je bedenkt dat RV630XT volgens de geruchten 125W verbruikt en die is ook gemaakt op het 65nm proces en bijna twee keer zo klein als R600. En het opkrikken van de snelheid lijkt me ook logisch, zeker als de R600 zo goed meeschaalt met snelheid zoals de verhalen vertellen die er over gaan.

Overigens schijnt ook The Inq onder de indruk te zijn van de Ruby demo. Ze maken melding van het feit dat vooral de sneeuw en het bont er indrukwekkend uit zien. Maar wat mij nog het meeste opviel is dat volgens The Inq het haar gebruik maakt van Physics, dus niet simpelweg gegenereerd wordt door de vertexshaders. Als (weer dat woordje 'als') het waar is dan is de R600 dus ook in staat om tegelijkertijd Physics als graphics renderen net zoals de G80.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Thermaltake R600 watercooler:

http://img106.imageshack.us/img106/2270/15255187re2.jpg

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

DaannO schreef op zaterdag 17 maart 2007 @ 00:54:
[...]


Ga ik nog even achteraan. :)

3007 met 3dmark06. Volgens mij is dat erg weing voor een Core2Duo @ 3GHZ en een X1650pro, of mis ik wat?
Dat is precies de goede score voor een X1650Pro in 3DM06. Een X1650Pro op een niet overgeklokt syseem haalt zo'n 2700 punten.

Ter vergelijking, een X1650XT scoort 3300, een X1950GT zit rond de 4700, een X1950Pro haalt zo'n 5200 punten en een X1950XT zit rond de 6200 punten in 3DM06.

Oh trouwens.... Dit topic is niet voor dit soort vragen. De nieuwswaarde is ver te zoeken (zie de first post en de vette waarschuwing die je te zien krijgt als je op "post reply" klikt.) ;)

Volgens de laatste meldingen op CeBit wordt inderdaad eerst alleen de 512MB versie gelanceerd (X2900XT). Deze zou zo'n €500,- moeten kosten. Voor geruchten over de performance, zie een van m'n eerdere posts hierboven. :)

Laatste gerucht over een RV630 op 540Mhz core en 700Mhz mem is dat deze 5000 punten scoort in 3DM05 en op 3000 punten zit in 3DM06. Een stuk lager dan de geruchten over 12K in 3DM05. Dit gerucht komt van iXBT. Maar het zou dus niet de snelste RV630 moeten zijn aangezien deze volgens de hardnekkigste geruchten een stuk hoger is geklokt en gebruik maakt van GDDR4 (het is dus overkill om GDDR4 te gebruiken en deze maar op 700Mhz te klokken. Andere geluiden zeggen dat het hier om de RV610Pro gaat.

Ter vergelijking: de 8600GT zou zo'n 94xx moeten scoren in 3DM05 en 46xx in 06. De snelste G84, de 8600GTS zou rond de 114xx halen in 05 en 55xx in 06.

[Voor 38% gewijzigd door CJ op 17-03-2007 12:05]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Newsflash: AMD & Havok showcase HavokFX

Op CeBit heeft AMD een nieuwe Physicsdemo laten zien. Dit keer is de physicsdemo ontwikkeld in samenwerking met Havok en maakt dus gebruik van de HavokFX engine. Het eerste spel die gebruik maakt van Havok FX komt in Juni uit en is Hellgate: London (tegelijkertijd ook een van de eerste echte DX10 games).

Het berekenen van dezelfde scene door de CPU resulteerde in een framerate van 3-10fps. Werd de X1900XTX CrossFire opstelling gebruikt, dan schoot de FPS omhoog naar 40-100fps.

http://www.pcgameshardware.de/screenshots/medium/Physik7_resize.JPG

Zoals het er nu naar uit ziet zal R600 dus op tijd zijn voor de eerste grote DX10 titel, die tegelijkertijd ook gebruik maakt van Havok FX.

Bron: http://www.pcgameshardware.de/?article_id=571782




Newsflash: AMD gaat nauwer samenwerken met gamedevelopers

Daarnaast vertelde Lars Weinand, voorheen werkzaam bij Tom's Hardware, maar nu Technical Program Manager bij ATI/AMD, dat AMD nu meer dan voorheen nauw zal samenwerken met gamesdevelopers. Hij wilde geen namen noemen, maar de verwachting is dat tijdens de launch van de R600 een hele waslijst aan developers genoemd wordt die samenwerken met AMD. AMD heeft al een tijd lang R600 samples aan developers uitgeleverd zodat ze hun DX10 applicaties kunnen testen.

PC Games Hardware vermoedt dat AMD in ieder geval nauw samenwerkt met Valve voor een update aan de Source engine naar DX10 dan wel een speciale DX10 level van Half Life 2. Men vermoedt dit omdat Valve zich angstvallig stil heeft gehouden over hun visie op DX10.

Bron: http://www.pcgameshardware.de/?article_id=571781




Newsflash: VR-Zone laat twee nieuwe shots zien van de retail R600

http://resources.vr-zone.com/newspics/Mar07/17/R600-vrzone1.jpg

http://resources.vr-zone.com/newspics/Mar07/17/R600-vrzone.jpg

http://forums.vr-zone.com/showthread.php?t=136434

[Voor 8% gewijzigd door CJ op 17-03-2007 14:11]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

k995 schreef op zaterdag 17 maart 2007 @ 23:17:
[...]


Hopelijk niet waar een 8800 GTS met een niet superoverclockte C2D haalt al zoveel
Ja en? Wel appels met appels vergelijken. Als je een 8800GTS op een OC C2D draait, draai dan ook even die X2900XT op hetzelfde systeem. Wat haalt een X2900XT dan met een niet superoverclockte C2D?

En die nieuwe demo... tja, ze overtreffen zichzelf weer. Wanneer komen er eens games uit die er zo uit zien? De hardware kan het blijkbaar aan...

The Inq bericht trouwens over de 'grootste launch aller tijden'. AMD zou bijna 100M 65nm producten richting de winkels verschepen.

Ergens denk ik dat ze weer de klok hebben horen luiden. Maar die klepel he? Zou lullig zijn als AMD de huidige 65nm CPUs bedoelt. En of de R600 echt op 65nm komt... het schijnt dat daar ook nog wat misverstanden over bestaan. Ja, hij komt er... maar of dat de versie is die straks in de winkel ligt...

http://uk.theinquirer.net/?article=38300

[Voor 45% gewijzigd door CJ op 18-03-2007 02:24]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Op de een of andere manier denk ik alleen maar aan "realistic bouncing boobies" als ik de titel "Dead or Alive" hoor. :P

Dan wat ander nieuws:

Newsflash: OCZ wants in on R600
In a discussion with representatives from OCZ Technology, the company revealed that it has plans to launch at least one graphics card based on AMD's upcoming R600 graphics processor.

Earlier this year, the company re-entered the graphics market with a GeForce 8800 GTX that's backed up with a lifetime warranty.

We asked OCZ's reps if the company had any exclusivity deals in place with Nvidia as a result of its GeForce 8800 GTX launch.

The spokesperson was quick to state that it has no exclusivity deals in place and that the company also has a very strong working relationship with ATI (and now AMD), mainly thanks to the CrossFire certification programme on some of its memory modules.

OCZ hopes to make full use of this relationship in order to start shipping products based on the eagerly anticipated and somewhat delayed R600 GPU.

We think there's a very high chance of this happening, as OCZ's relationship with Nvidia (before its re-entry into the graphics market) was largely based on its SLI certified memory modules.

In related news, we managed to get a sneak peek at an almost final working version of a card based on R600 on another stand at the show. We weren't allowed to take photos, and I'm fairly sure that we weren't even supposed to see it (based on the fact there were 'no press' signs all over the place). However, we can say that it's looking like the retail card will be considerably smaller than the prototype pictured earlier in the month.
http://www.bit-tech.net/n.../16/ocz_wants_in_on_r600/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

The Source schreef op zondag 18 maart 2007 @ 17:07:
Dus niemand heeft de R600 op de Cebit gehad, afgezien van AMD zelf welke aan geselecteerde partijen de Rudy R600 demo heeft laten zien.
Omg, ze heeft een sex change ondergaan. :o
Kortom op Cebit was er officieel niets te melden mbt de DX10 parts van AMD.
Dat is niet helemaal waar. Er is toch vrij veel bekend gemaakt over het aanwezig zijn van de UVD engine binnen elke R6x0 core en de voordelen er van. Maar dat is dan verder ook het enige wat officieel over de DX10 parts is gepresenteerd. Zie alle slides HIER.
Ik betwijfel of de R600 op korte termijn komt, want anders waren de samples wel uitgeleverd, en anders hadden de fabrikanten al leveringen moeten hebben. Aangezien dit nog steeds niet het geval is, zal het nog zeker een maand duren voordat de kaart in de winkels ligt. Als de geruchten van een 65nm R600 kloppen dan is het of een erg goed bewaard geheim, of het zal nog lang duren voordat de R600 te verkrijgen is.
Ik gok nog steeds op de eerste helft van Mei de officiele launch en goede verkrijgbaarheid met Computex waar alle AIBs hun R600s in volle glorie kunnen showen. En over zo'n kleine twee weken zal AMD de pers eindelijk op de hoogte stellen van wat R600 precies is en hoe die presteert.
Ik geloof niet dat een product dat voor 80nm ontwikkelt is erg snel in 65nm te produceren is en afgezien van het design proces zal een nieuw productieproces ook nog een lange debug periode nodig hebben.
Ik denk niet dat de R600 er op 65nm komt. Tenminste niet de R600 die we als eerste te zien krijgen. Ik denk dat iemand iets verkeerd heeft begrepen.

Wat je zegt, schreef ik hier ook al. De stap van 90nm naar 80nm is gemakkelijk omdat dit gewoon een optische die-shrink is. nVidia kan bijvoorbeeld simpelweg gebruik maken van het 80nm HS proces voor haar G80. Maar een chip die voor het 80nm (of 90nm) proces is ontworpen, zet je niet zo maar even om naar een compleet andere proces node (dus 65nm)... tenzij er een chip is die al vanaf het begin is ontworpen voor dit proces.
Het voordeel van AMD's productie faciliteiten is dat ze enorm veel ervaring hebben met 65nm op het gebied van CPU's, wellicht een voordeel op concurrent nvidia. Echter weet ik niet of dit zomaar toe te passen is op de GPU's.
Het is zeker niet zo maar toe te passen op GPUs. ATI's GPUs zijn ontworpen op de processen van TSMC die werken met Low-K en X-Architecture. Dat zijn TSMC specifieke toepassingen. AMD werkt op het 65nm proces met SOI wat voor CPUs is geoptimaliseerd. En er komen vaak ook veel problemen bij kijken. Zie bv ook nVidia die een uitstapje maakte naar IBM voor de NV40. Dit werkte ook niet naar behoren (men had hogere kloksnelheden verwacht) en voor opvolgers ging men snel weer terug naar TSMC.
En de R600 wordt ook niet in Dresden gemaakt, maar bij UMC en TSMC, hoe is hun ervaring met 65nm?
TSMC heeft al een jaar ervaring met het 65nm proces, maar vooral met kleinere chips. En de RV610 en RV630 schijnen goed te gedijen op het 65nm proces, net zoals nVidia nieuwste chip met eDRAM. Bij UMC had eind zomer 2006 al 11 producten hun tape-out bereikt op het 65nm proces. Vanaf die tijd is de productiecapaciteit op het 65nm proces bij UMC als maar opgevoerd. (Info van de sites van TSMC en UMC).
Dan ook de vraag waarom? Als het waar is dan verbruikt de R600 teveel stroom op 80nm en wordt deze te warm zodat koeling niet goed mogelijk is, iets dat volgens de geruchten en opgedoken foto's wel lijkt te kloppen. En dit is dus zo serieus dat AMD misschien niet eens overweegt om een 80nm R600 op de markt te brengen. 65nm heeft wel een groot kost, hitte en snelheids voordeel, maar ik betwijfel of het snel te implementeren is.
Tja, zoals ik al zei, het kan zijn dat ze al vanaf het begin rekening hebben gehouden met een mogelijk tegenwerkend productieproces en ook al vanaf het begin een 65nm versie van de R600 hadden ontworpen. Na de laatste tapeout A13, is er eigenlijk weinig meer gehoord over de R600 behalve wat 'nep' berichten. En dat was al in het derde kwartaal van 2006. In die tussentijd is er vast nog wel het een en ander gebeurd.

Maar gelukkig horen we nu van veel mensen dat ze de R600 gezien hebben en dat-ie veel kleiner en compacter is dan de OEM versie van 12".
Ik zag CJ al ergens posten over beschikbaarheid in Juni, ik heb hier niets van gehoord, maar als 65nm blijkt te kloppen dan is juni erg optimistisch. Maar dan ook, het kan ook een goed bewaard geheim zijn dat AMD al maanden geleden begonnen is met 65nm maar dan las je niet last minute een press event af.
Juni komt rechtstreeks van AMD zelf en wel van Vijay Sharma (wel in de gare vertaling):
Q: And for us will people of the press, when be you he visible?
A: He will be presented at the press at the end of April/during May at the time of an official presentation under NDA. The date and the exact place of this event are not defined yet, but that will not be in Amsterdam.

Q: And for the public?
A: The public will see with blow on of R600 everywhere in Computex which will take place in June since it will be launched during May.
Bron: http://www.xtremesystems....p?p=2071080&postcount=134

Dus tenzij AMD stiekem een 65nm versie van R600 had ontwikkeld, denk ik dat het nog steeds de 80nm versie is die we te zien krijgen in Mei.
Als ik naar de 3d marks van de X1550 kijk en naar de prijs dan zal dit een een succes worden voor AMD.
Maar dat is gewoon een gerenamede X1300. Typisch budget succes weer en daar deed AMD het toch eigenlijk al best wel goed?

Heb je verder nog iets gehoord en gezien over RV610 en RV630? Want die waren daar toch wel duidelijk te zien.
Als het waar is dan is het nog steeds de 80nm versie en niet de 65nm versie. Maar elke site zegt wel weer wat anders de laatste paar dagen. En sommige sites spreken zichzelf gewoon na een paar dagen weer tegen.

Als R600 gewoon op 80nm gemaakt blijkt te zijn dan slaat bv ook de FP van Tweakers weer een flater door het nieuws van The Inq voor heilige waarheid aan te nemen, terwijl hier in dit topicwaarschuwing nog een waarschuwing over The Inq staat. :P Alleen jammer dat de mensen die alleen de frontpage lezen, het nieuws ook als heilige waarheid nemen.

Overigens zullen binnenkort ook de ATI GDC Techpapers online komen. Je kan ze dan hier downloaden:

http://ati.amd.com/developer/techpapers.html

Er staan nu nog wat oudere, maar die zijn zeker niet minder interessant om te lezen zoals deze:
http://ati.amd.com/develo...05_FX_Physics_ATI_2nd.ppt
http://ati.amd.com/develo...mes_for_Windows_Vista.pdf
http://ati.amd.com/develo..._Graphics_Performance.pdf

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Dan wat anders... Het schijnt dat de naam van een van de developers bekend is geworden die nu nauwer samen werkt met AMD. Het schijnt dat AMD bij de R600 een bepaalde game gaat bundelen waar veel graphics whores op zitten te wachten.... Je kan wel raden welke dat dan is denk ik.

Daarnaast schijnen AIBs ook de DX10 versies van Just Cause en Call of Juarez bij de R600 te kunnen bundelen. De developers werken hard aan de DX10 patches die voor de launch van R600 klaar moeten zijn.

Van een andere developer (MS) was al bekend dat ze voor de DX10 upgrade van FSX de voorkeur gaven aan de R600 omdat deze veel sneller was met geometryshaders dan de G80.

Edit: Bundeling van de eerste bedoelde game is onzeker. Van de twee andere games is het vrijwel zeker dat ze alleen of misschien zelfs wel samen gebundeld gaan worden.

Mijn mening... dat is dan een zeer goede stap van AMD. G80 bezitters dienen ofwel zelf de games te kopen mochten ze die nog niet bezitten om de eerste DX10 pracht en praal te mogen aanschouwen. R600 kopers krijgen direct al 1 (of misschien zelfs 2) DX10 games bij aankoop. Het lijkt er op dat de marketing afdeling van AMD er toch nog wel verstand van heeft.

[Voor 47% gewijzigd door CJ op 19-03-2007 00:47]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Mr. Detonator schreef op maandag 19 maart 2007 @ 00:51:
[...]
Zit er ook al Vista bij dan ? :)
:?

Moet dat dan?

Je kan er van uit gaan dat de koper van een DX10 kaart ook Vista heeft dan wel van plan is om aan te schaffen.

Of zijn alle G80 bezitters van plan om bij DX9 te blijven, ook al komen straks Crysis, Hellgate London, Alan Wake en alle patches die bepaalde huidige DX9 games naar DX10 upgraden uit?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Gespot op CeBit, een X1950Pro met GDDR4 dat op 1.1Ghz werkt!

http://www.guru3d.com/admin/imageview.php?image=9855

Bron: http://www.guru3d.com/article/article/422/22/

Dat is meer dan 70GB/s voor deze midrange kaart. :o




Newsflash: Eerste OEM R600 gespot op eBay!

Raar maar waar! En het ziet er authentiek uit!

http://i9.ebayimg.com/06/i/000/91/b1/92b6_1.JPG

http://i4.ebayimg.com/05/i/000/91/b1/93d4_1.JPG

http://i22.ebayimg.com/02/i/000/91/b1/9340_1.JPG

http://i2.ebayimg.com/06/i/000/91/b1/9443_1.JPG

http://cgi.ebay.ca/ws/eBa...iewItem&item=160095063471

Het grappige is dat de gozer die 'm verkoopt dus waarschijnlijk geen flauw idee heeft wat voor juweeltje hij daar in handen heeft! Dat kan je zien aan de omschrijving:
CONDITION: UNKNOWN MODEL. CARD HAS JUMBO SIZE (12 INCH/30 cm. LONG AND 3 LB/1.5 Kg. WEIGHT, ALL COVERED BY HUGE COOLING SINK AND FAN. USED, NOT TESTED. WE DID NOT HAVE CONDITIONS TO TEST THIS TYPE OF CARD. SEE ACTUAL PICTURES. MISSING METAL COVER ON THE CONNECTOR SIDE OF THE CARD. NO CABLES. MEMORY SIZE UNKNOWN BUT LOOKS LIKE HI-END CARD WITH 256 OR 512 MB OF MEMORY.
:P

[Voor 90% gewijzigd door CJ op 19-03-2007 05:17]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Help!!!! schreef op maandag 19 maart 2007 @ 11:08:
[...]
Zelf heb ik vista in dualboot op een aparte Harddisk draaien maar ga pas definitief over als de eerste DX10 games er zijn.
Het ging me eigenlijk om het onderstreepte en wat AMD nu probeert te doen. De discussie over het al dan niet goed werken van Vista in combinatie met bepaalde applicaties hoort eigenlijk niet in dit topic thuis.

Er zijn nog geen DX10 games op de markt en AMD probeert dus duidelijk de DX10 games markt te pushen door 1 (of zelfs 2) games met de R600 te leveren die wel gebruik maken van DX10, ook al is het door middel van van een patch. Dit is duidelijk als stimulans bedoelt voor de koper en ik denk dat het een hele slimme zet is.

Zelfs zonder DX10 games is de R600 gewoon een hele snelle DX9 kaart (en ja dat weet ik zeker en is geen speculatie ;) ). Maar AMD wil de R600 vooral pushen als snelle DX10 kaart. Ik denk dat daar namelijk het verschil tussen de G80 en R600 goed duidelijk wordt. En ik denk dat je e van uit kan gaan dat de games die speciaal voor Vista in een DX10 versie uit komen (of worden geupdate) zoals Crysis, FSX, Alone In The Dark 4, Hellgate London, Alan Wake, Age of Conan, Call of Juarez, Company of Heroes, Just Cause, daar wel gewoon goed out-of-the-box zullen werken.

Het is juist goed dat IHVs games proberen te leveren die gebruik maken van de nieuwste technieken. Daardoor blijft de software eens een keer niet gigantisch achter op de techniek en blijven de mensen met de nieuwste kaarten niet eens alleen maar opgezadeld met een tech-demo. Ook al zien die er 'leuk uit', het blijven toch niet meer dan showcases waar je niet echt mee kan spelen..

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Yep. Het is gewoon R600 namelijk. :)

En hier een interessant linkje: http://www.gearlive.com/news/article/159-amd-press-qa En let dan ook even op wat Orton zegt rond 2:55 over het verbruik van de R600 GPU. Daarna zegt Orton dat in R700 en R800 je pas echt de invloed van AMD gaat zien op de techniek van de GPU. Hij heeft het verder ook over de "next generation of R600, we call 'm R650 or whatever. The midlife kicker" en het feit dat deze minder stroom zullen verbruiken omdat ze dan pas de tools tot hun beschikking hebben die het stroomverbruik nog verder omlaag zullen kunnen persen. Maar pas vanaf R700 zal je een 'significant improvement' zien.

Orton vertelt verder dat de GPU teams zullen profiteren van de technieken die CPU teams gebruiken, want er zijn veel interessante technieken die de CPU teams gebruiken die nog nooit gebruikt zijn op GPUs. Dit zal in de toekomst dus wel het geval zijn bij AMD GPUs.

Een ander persoon vertelt dat er ook een heel systeem dat maximaal 30dB geluid zal maken en dat gebruik maakt van multiple CPUs en GPUs (hij mag nog niet zeggen welke GPU aangezien AMD nooit spreekt over 'unannounced products'). Wat hij wel vertelt is dat we er van onder de indruk zullen zijn.

[Voor 96% gewijzigd door CJ op 19-03-2007 15:30]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

In het stuk wordt trouwens ook melding gemaakt van het feit dat het XGI R&D team (ATI nam vorig jaar zowel XGI als Bitboys over) mee werkt aan de SB700 southbridge die gekoppeld wordt aan de RD790.
Astennu schreef op maandag 19 maart 2007 @ 15:31:
[...]
Whoot :D Dit bevalt me wel. Ben ook benieuwd of technieken die bij de GPU's gebruikt worden ookj in de Refresh van de K10 gebruikt gaan worden om de clockspeeds hoger te maken. Of het verbruik nog lager. Ik ben dan wel benieuwd naar die R700. En ook naar die R650 die blijkbaar toch nog komt. Dus ik gok R650 65nm R600 toch 80nm.
CPUs gaan ook gebruik maken van bepaalde technieken die GPUs gebruiken. Dat werd zelfs in het stuk gezegd, vlak nadat Orton zei dat de GPUs bepaalde CPU technieken zou gebruiken in de toekomst. ;)
En dat systeem waar je het overhad. Zou dat misschien de Terraflop in a Box zij die je bijna niet hoort :D
Nee. Zelf even naar het stuk luisteren en dan weet je het antwoord. Het gaat over een high end gamers systeem van een bepaalde OEM.

Het schijnt trouwens dat dit plaatje hieronder Just Cause is... Linker kolom = DX9. Rechter kolom = DX10. En gerendered op een R600.

http://bbs.souyo.com/uploadimage/igdbol_2007319_2776.jpg

[Voor 77% gewijzigd door CJ op 19-03-2007 15:59]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Tijgertje84 schreef op maandag 19 maart 2007 @ 16:33:
[...]

patch voor elke game? denk niet dat dat gaat gebeuren...
Patch voor Just Cause (van de screens) in ieder geval wel, want deze game wordt gepatched naar DX10 en gebundeld bij de R600 in de DX10 versie. En ook een DX10 patch voor Call of Juarez (ook kans op bundeling bij R600).

En gepimped... ja daar heb je veel kans op. De extras die je ziet zijn zeer goed te doen dankzij bijvoorbeeld de nieuwe Geometry Shaders om het beeld er mooier uit te laten zien.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Tijdens CeBit zijn er veel geruchten te horen geweest over de R600. Een klein gedeelte van wat je gehoord hebt is echter waar. Er is veel aan mis-information gedaan. En vaak komt het niet uit het AMD kamp. ;)

[Voor 23% gewijzigd door CJ op 19-03-2007 18:18]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ook ik weet niet altijd zeker wat waar is en niet waar. Soms weet ik heel zeker dat iets waar is of niet waar. Soms ook niet en moet ik dat eerst nog even checken bij een aantal bronnen. En in het meest uitzonderlijke geval dan kan ik bepaalde dingen gewoon nog niet verklappen, bevestigen of ontkennen, gewoonweg om een bron te beschermen. Dan hoop ik vaak dat de info op een andere manier uitlekt. ;)

Vaak kan je als lezer zelf wel een goed idee krijgen van wat waar is en wat niet waar is, door bepaalde sites gewoon goed op hun waarde te schatten. Op het internet is het helaas vaak het geval dat je last hebt van een sneeuwbal effect. Een site zegt iets, een andere site interpreteerd het weer helemaal anders en voor je het weet barst de bom.

Mijn 1 april grap van vorig jaar was daarvoor een heel goed voorbeeld, waarbij veel grote techsites gigantisch op hun bek gingen en 'mijn 1 april nieuws' als 'waarheid' te verkondigen. Sindsdien weet ik wel wie ik wel en niet moet vertrouwen wat betreft techsites. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Hexus heeft een betere video online gezet van "Ruby: Whiteout" inclusief geluid. Dit is wat Hexus.net er over zegt:
ATi Whiteout... a video of the fantastic new 'Ruby' technology demo which AMD is showcasing the power and technology of its much anticipated next-gen flagship graphics accelerator 'R600'.

Watch it and weep NV fan-bois... the HD version is utterly awesome and even more so when seen rendered in real-time!

Highlights to us are the highly realistic textures on Ruby's leather jump-suit, the motion-blur and other cinematic effects plus the final, massively detailed frame of everyone's favourite red-head smiling wryly at the camera.

Whilst woefully late, the ATi 'R600' looks like it could well be worth the wait and we can only imagine how cool the ATi Whiteout demo would look on an R600 CrossFire rig at even higher resolutions!
http://www.hexus.tv/show.php?show=66

Als je goed oplet dan zie je dat naast de vele shader effecten er ook gebruik wordt gemaakt van Physics berekeningen op de GPU. Van het haar van Ruby was al bekend dat dit dus met behulp van physicsberekeningen gedaan werd, maar overduidelijk zijn ook de explosies en ijsschotsen die alle kanten op vliegen. Alles werd dus gerenderd met HDR en 4xAA op hoge detail.

En over de informatie op VR-Zone over de lage yields.... misinformation dus... waarschijnlijk door een andere IHV bedrijf verspreid, net zoals dat gebeurde met de R520, toen VR-Zone bekend maakte dat de R520 24 pipelines had en dat de yieldrate daarvan maar 2% was. En we weten allemaal nu dat de R520 nooit 24 pipes heeft gehad, maar altijd maar 16 had. :P

En ook heeft Hexus de eerste shot gepost van de nieuwe ATI Physics demo op de R600....

http://img.hexus.net/v2/news/ati_physics/sloshed.jpg

Bron: http://www.hexus.net/content/item.php?item=8013

Mijn eerste reactie was... da's gewoon een foto... maar blijkbaar is het een R600 physicsdemo... water heeft er voor mij nog nooit zo realistisch uit gezien op een PC.... _/-\o_

[Voor 22% gewijzigd door CJ op 20-03-2007 04:19]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Als je de closeup shots van Ruby ziet, moet je maar eens letten op het "fur" van de muts van haar jas. Dat ziet er zelfs op een lage resolutie filmpje zeer realistisch uit, zeker als je je bedenkt dat het in real time berekend wordt en daarnaast de R600 ook nog eens de physics aan het berekenen is van het haar en andere dingen in de omgeving. Graphics zijn dus absoluut niet het enige dat hier gerenderd wordt door de videokaart en dat is wat velen vergeten.

Daarnaast is het natuurlijk een hele persoonlijke mening wat je van Ruby: Whiteout vindt. De een is er van onder de indruk, de ander niet. Alhoewel ik meer de indruk heb dat er meer mensen zijn die er van onder de indruk waren op de Cebit dan mensen die er minder van onder de indruk waren, als ik af ga op de positieve berichten van mensen die er geweest zijn en het gezien hebben op de verschillende fora.

Trouwens schijnt dat de demo niet eens op de snelste R600 heeft gedraaid. ;)

Ben trouwens benieuwd wat jullie van de physics-shot vonden van het water? Ooit zulk realistisch water gerenderd zien worden in realtime door een GPU?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

De X1950Pro Dual is van Sapphire. En zou ook in CrossFire moeten kunnen werken. Helaas was de Quad CrossFire opstelling op CeBit een mock-up. Hij deed het dus niet.

De X1650XT Gemini2 is volgens mij op dit moment alleen interessant voor degenen die 4 schermen aan willen sturen, aangezien je 4 DVI uitgangen hebt.

Ik denk dat je de X1650XT Gemini2 van GeCube vooral moet zien als het voorbereidende werk. Ze hebben nu een goed werkende Radeon Dual kaart op 1 PCB, wat niet al te groot is, en ook nog eens een efficiente single slot cooler heeft.

Deze kennis komt ze mooi van pas bij de RV630 variant die ze ook gaan uitbrengen. Ze hebben al aangegeven dat deze er komt... dus ik denk niet dat deze versie niet zo lang op zich laat wachten en snel komt wanneer de RV630 eenmaal gelanceerd is ;)

[Voor 21% gewijzigd door CJ op 20-03-2007 13:39]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Bloodbanger1970 schreef op dinsdag 20 maart 2007 @ 13:52:
weet er eigenlijk al iemand welke voedingen we voor de R600 moeten gaan gebruiken?Ik meen ergens te hebben gelezen dat we 2x 8-pins connectors nodig gaan hebben om deze kaarten ten volle te kunnen benutten
R600 voedingsaansluiting:

http://www.pcgameshardware.de/screenshots/medium/1174220580601.jpg

Gewoon een 2x3 en 2x4 aansluiting dus. En de 2x4 aansluiting zou backwards compatible moeten zijn met een 2x3 pin.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Kijk eens aan... Fudzilla is alweer op een andere trein gesprongen, precies zoals ik had verwacht. :P

Nu zeggen ze dat de R600 geen 65nm is, maar 80nm. Ook zeggen ze dat het overschakelen van een 80nm kaart naar 65nm kaart veel meer werk vergt dan een simpele die-shrink, aangezien het hier gaat om omschakeling van een full process node.... Gossie, waar heb ik dat nou eerder gehoord. O-)

http://www.fudzilla.com/i...ask=view&id=221&Itemid=34

En over de VR-Zone benchmark, je moet het een beetje op z'n waarde schatten. De benchmark wordt gepost door een site die ook nog eens officiele nV SLI Blog site host op http://sliblog.vr-zone.com/enter.html host in samenwerking met nVidia's http://sg.slizone.com/page/home.html Dus een beetje voorzichtigheid kan geen kwaad. Het valt me op dat velen hier meteen vanuit gaan dat iets waar is als het op een andere site gepost wordt.

En als er al een benchmark is gedaan, dan is dat niet gedaan met de launch driver 8.361, maar met een eerdere driver. AMD heeft voor zover ik weet geen enkele geoptimaliseerde driver de deur uit gegooid.

[Voor 3% gewijzigd door CJ op 20-03-2007 21:22]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Pak nu eens een foto er bij van een kale X1650XT Gemini 2 van GeCube die nu gewoon leverbaar is voor zo'n €290 en pas je punten er weer eens op toe?

http://images.tweaktown.com/imagebank/gecube-gemini21650xt_01.jpg

http://images.tweaktown.com/imagebank/gecube-gemini21650xt_03.jpg

1) PCB is niet hoger dan een normaal PCB. Het is iets langer, maar vergelijkbaar met een highend kaart.
4) Je verliest geen uitgangen. De X1650XT Gemini2 is in staat om 4 DVI schermen aan te sturen via 2 DMS59 kabels

http://images.tweaktown.com/imagebank/gecube-gemini21650xt_04.jpg

5) Dat elke chip gebruik maakt van 8 lanes is niet echt een noemenswaardig iets. Op 975x chipsets gebeurd het ook, evenals op de RD480 en RD600. Performance verschillen zijn nihil in vergelijking met een echte 2x 16xPCIe
6) Cooler is special ontwikkeld door een bekende in de coolerwereld en is maar single slot
7) Er zijn al wel Quad CrossFire drivers. Er zijn zelfs al drivers die standaard 256 Radeons aansturen. Dus 4 moet een eitje zijn.

En dit gaat dus over de X1650XT Gemini2 die gebruik maakt van de RV560, wat niets meer is dan gecastreerde RV570. Ze zouden er bij wijze van spreken ook een RV570 op kunnen prikken. Toch dezelfde core. Het enige nadeel dat ik kan bedenken is dat het PCB misschien iets dikker zou worden vanwege de 256-bit memory interface.

Belangrijk is dat het niet ATI is die de kaarten en drivers verder ontwikkeld. ATI rijkt ze een model uit en de AIBs mogen zelf aan de slag met de dit soort producten en driverondersteuning. Dus het is allemaal voor eigen risico van de AIB. Het is niet meer zoals vroeger met de befaamde....

http://i.frazpc.pl/pliki/FuryMAXXKarta.jpg
Rage Fury Maxx

Ik kan dit soort projecten eigenlijk alleen maar toejuichen, hoe nutteloos het ook mag lijken voor sommige mensen. Er gebeurt tenminste iets anders dan de geeikte kaarten die allemaal gebaseerd zijn op het reference design.

Overigens ondersteunt de X1650XT Gemini2 geen Quad CrossFire voor zover ik weet.




Voor de leukigheid hier even een aantal andere dual kaarten met Radeons:

Een pic van de Asus X1600XT Dual wat wel weer een bakbeest is geworden:

http://img.presence-pc.com/news/e/a/eax1600xt_dual_s.jpg

http://www.hardinfo.com/art/site/pic/articles/computex_taipei_2006/dag1/asus_radeon1600xt_dual_gemini.jpg

HIS Dual X1600XT:

http://tweakers.net/ext/i.dsp/1151325399.jpg

En hier een nude pic van de vorige Gemini van GeCube, ook gebaseerd op de X1600XT net als bij Asus:

http://www.overclockers.ru/images/news/2006/03/26/gemini_02.jpg

Valt nog wel mee kwa grootte.

Sapphire Radeon 9800Pro Dual sample:

http://forum.hwsw.hu/uploads/post-10-1100979587.jpg

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ik ben het helemaal met je eens over het prijsverschil en dat het verstandiger is om een CF opstelling te kopen dan een Dual kaart. Maar je geeft hier ook al meteen aan waar het om gaat bij dit soort constructies:
The Source schreef op dinsdag 20 maart 2007 @ 23:53:
[...]
Sorry ik zie zoiets meer als technische showcase en voor marketing. Zelfde als de nVidia 7950GX2 kaart.
Als je de snelste kaart hebt (single core of dual core) dan verkoop je ook meer in de midrange en lowend omdat de grote massa ziet dat *willekeurige IHV* de snelste kaart heeft op high end gebied. De 7950GX2 heeft het volgens mij helemaal niet zo slecht gedaan in de verkoop ondanks dat niet iedereen er later blij mee was.

En AMD vind het allemaal maar best als AIBs zelf aan de slag gaan, want mochten ze iets leuks ontwikkelen, dan verkopen ze nog altijd 2 GPUs ipv 1 en het kost ze geen cent aan R&D.

Overigens kan ik het wel begrijpen dat er dual GPU kaarten komen die gemiddeld sneller zijn dan de snelste singlecore videokaart, zeker als alles in orde is wat betreft drivers. Maar dat er dualcore opstellingen komen van midrange kaarten vind ik een beetje vreemd, aangezien vaak 1 enkele high end GPU al sneller is dan 2 midrange kaarten samen. Dat zijn verder eigenlijk alleen maar kaarten die je voor de 'heb' koopt, of omdat je maar 1 enkele PCIe 16x slot hebt en toch 4 TFTs wil aansluiten of toch ook physics wil doen (GPU 1 rendering, GPU 2 physics).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Begin Mei X2900XT met GDDR3, midden Mei X2900XTX met GDDR4 aldus Behardware. Met een kans dat de XTX misschien niet eens uit komt. Zou het hoge snelheids GDDR4 dan toch slecht beschikbaar zijn? De X1950XTX maakt gebruik van 1.1Ghz GDDR4 net zoals de X1950Pro die ik een paar posts hier heb geplaatst, dus dat is er wel.
CeBIT: release date of the R600?

One of the brand selling ATI's products gave us more information regarding the release of R600, or X2900, if we use the commercial name.

According to the documents that we saw, the evaluation samples of the Catseye 102-B600 delivered to ATI's clients and corresponding to the X2900 XT with 512 MB of GDDR3 memory, are scheduled to be released in March 22 (even if ATI has already sent demonstration computers to each manufacturer to show them to their own clients).

As usual now for high end models, ATI will deliver cards produced by subcontractors and the first deliveries of the final product are scheduled for the 21rst of April. The availability for end users will be at the same time as the product release, early May, the time for manufacturers to stick their logos, put the cards in boxes, and ship them.

The same document speaks of the Dragonshead 2 102-B007, or X2900 XTX, featuring 1 GB of DDR4 memory. Release dates are similar to the samples, 22nd of March, but the final products are expected April 1rst and mass availability mid-May. However, as another manufacturer told us that this card might not even be released, we don’t know really who is right and who isn't!
http://www.behardware.com...ase-date-of-the-r600.html

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Nog even een teaser en dan zit dit topic ook weer bijna vol...

http://images.tweaktown.com/imagebank/r600inthewild_02l.jpg

http://images.tweaktown.com/imagebank/r600inthewild_03l.jpg
http://www.tweaktown.com/...photos_immerge/index.html

Dus nog maar eens de vraag... lijkt dit op een X1950XTX cooler of lijkt dit op een GF8800GTX cooler wat betreft vorm? ;)

[Voor 52% gewijzigd door CJ op 22-03-2007 11:17]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Het nieuwe topic komt er aan. Nog eventjes geduld aub. :>

Edit: Deel 53 staat hier: CJ in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."

Deze mag dus dicht. :)

Edit 2: Oh ja en of de mods de waarschuwing van dit topic even willen kopieren naar deeltje 53. :)

[Voor 69% gewijzigd door CJ op 22-03-2007 11:41]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Pagina: 1

Dit topic is gesloten.

Let op:
Klinkt kinderachtig, maar blijkt iedere keer weer nodig:
- geen Ati vs nVidia geflame (of onnodige vergelijkingen)
- niet op de man spelen - een ander voor fanboy uitmaken = OW wegens flamen
- geen slowchat
- het 1001 keer herhalen van zelfde 'nieuws' (R600 vertraagd...) is geen nieuws, dus offtopic.
- als je iets beweert, onderbouw het. Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid

Wat dan wel? Goed onderbouwde nieuwtjes over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Bekijk de onderstaande instellingen en maak je keuze. Meer informatie vind je in ons cookiebeleid.

Functionele en analytische cookies

Deze cookies helpen de website zijn functies uit te voeren en zijn verplicht. Meer details

janee

    Cookies van derden

    Deze cookies kunnen geplaatst worden door derde partijen via ingesloten content en om de gebruikerservaring van de website te verbeteren. Meer details

    janee