[Algemeen] ATi Nieuwsdiscussietopic - Deel 55 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 ... 6 Laatste
Acties:
  • 3.846 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atitopiclogo.jpg
 
Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de Canadese fabrikant ATi kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten.

Note In Oktober 2006 is de deal tussen ATI en AMD helemaal voltooid. Vanaf die tijd is ATI een onderdeel geworden van AMD. AMD heeft er echter voor gekozen om de naam ATI in stand te houden voor de GPU afdeling. Videokaarten die AMD produceert zullen bekend staan als "ATI RADEON". Daarom zal dit topic dus "ATI Nieuwsdiscussie Topic" blijven heten.

De meest gestelde vragen kan je vinden in de second post. Klik HIER om er meteen naar toe te gaan. De Pricewatch vind je HIER in de derde post.

TOPIC REGELS
Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laaste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic!!!!!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic.

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders.
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Heb ik een nieuwe voeding nodig voor m'n X1800XT?", "Kan ik mijn X800GTO2 modden naar een X850XT PE?", "Klopt mijn 3DMark score wel?". "Hoe kan ik HDR + AA activeren in games?". "Welke tool moet ik gebruiken om te overclocken?". "Werkt CrossFire op een SLi mobo?". "Welke drivers kan ik het beste gebruiken?". Gebruik de search. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Continu melden dat een kaart niet beschikbaar is of te laat is. Het melden in dit topic HELPT de beschikbaarheid NIET verbeteren. En na 1x weten we het wel. Wacht gewoon, check de pricewatch, bel wat winkels, eet wat uit je neus... maar meldt het hier niet aangezien de discussiewaarde nihil is en niets bij draagt aan dit topic!
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


TOPIC GESCHIEDENIS


Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de voorgaande topics en hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
De laatste topics over elke kaart zullen altijd het meest uptodate zijn. Zo vind je de meest complete informatie over de R580 in topic 47.



NAVIGATIE
HUIDIGE VPUs
ATi's huidige line-up is bestaat uit de X1K serie. Deze serie is opgedeeld in verschillende segmenten:
  • X1950XT & XTX - R580+ (PCIe & AGP)
  • X1950Pro & GT - RV570 (PCIe & AGP)
  • X1650XT & GT - RV560 (PCIe & AGP)
  • X1650Pro - RV535 (PCIe & AGP)
  • X1300XT - RV530 (PCIe & AGP)
  • X1300Pro - RV516 (PCIe & AGP)
  • X1300 - RV505 (PCIe & AGP)
  • X1050 - RV370 (PCIe & AGP)
De vetgedrukte GPUs zijn de GPUs die op dit moment nog in productie zijn. Op de R580+ na is alles gefabriceerd op het 80nm proces. Wil je meer weten over deze GPUs, dan kan je daarvoor terecht in de first posts van Topic 40-50. Vanaf 52 gaat het voornamelijk over R600 en aanverwanten in de first post.
ATI Division - GPU Teams
Voor de fusie met AMD, werkte ATi met drie verschillende GPU teams die afzonderlijk aan aparte projecten werkten. Deze teams waren het "Westcoast Team" in Santa Clara (Silicon Valley - California) op enkele meters afstand van het nVidia hoofdkwartier, een team aan de Oostkust in Marlborough (Massachusets) en een team in Orlando Florida. Deze drie teams zijn ook weer onder te verdelen in een groep voor de high end en een groep voor de mainstream en lowend.

R200 (Radeon 8500) -> East Coast Team
R300 & R350 & R360 (Radeon 9x00) -> West Coast Team
R420 & R480 (Radeon X8x0) -> West Coast Team
R520 & R580 (Radeon X1xx0) -> West Coast Team

Waar waren dan al die jaren het Orlando team en het East Coast Team na R200 mee bezig? Dat varieerde van special projects (Xenos/Hollywood) en het assisteren van de overige teams tot aan andere projecten zoals handhelds, digital TV etc (Orlando). ATI werkte normaal gesproken met een ping-pong systeem, waar eerst het ene team een GPU lanceerde inclusief refreshes, en dat in de tussentijd een ander GPU team werkte aan een volledig nieuwe generatie inclusief refreshes. R400 werd dan ook oorspronkelijk ontwikkeld door het East Coast Team, maar dit project werd op halt gezet. De reden was dat het project van unified shader engines op dat moment (in 2002) technisch te hoog gegrepen was.

Om toch niet met lege handen te staan aan het einde van de levenscyclus van de R300, besloot men om het op de goedkope tour te gooien en simpelweg de R300 te nemen, deze te krimpen en te verdubbelen. Het resultaat was de zeer goedkoop te produceren R420.

Rond deze tijd kreeg ATI ook het Xbox360 contract met Microsoft. Deze waren zeer geinteresseerd in de unified architecture ideeen van ATI en daarmee werd het R400 project nieuw leven ingeblazen, dit maal onder de codenaam C1, die wij later als Xenos / R500 leerden kennen. Het East Coast Team richtte zich dus specifiek op de Xbox360. Dit team slaagde er in om een unified shader architecture in elkaar te flansen die samen zo'n 300M transistoren telde op het 90nm proces en Free 4xAA te voorschijn weet te toveren op je TV scherm. De ontwikkeling van de C1 was natuurlijk een goede proefperiode voor ATI om te testen met een desktop unified architectuur, die inmiddels omgedoopt was naar R600.

Natuurlijk moest er ook een opvolger komen van de R4x0 reeks. En ook hier werd het West Coast Team weer geraadpleegd. Deze zouden verder bouwen op de R3x0 en R4x0 reeks en er volledig Shadermodel 3 support aan toe voegen, een compleet nieuwe memory controller te integreren en enkele nieuwigheden als HDR + AA te introduceren. Dit gebeurde allemaal als basis voor de aankomende R600 GPU.

Nadat de R5x0 reeks ontwikkeld was, ging een gedeelte van West Coast Team zich richten op R700, terwijl een groot gedeelte zich op de verdere ontwikkeling van de R600 stortte samen met het team uit Orlando.

R600 is dan ook de eerste GPU die door alle drie teams gezamenlijk wordt ontwikkeld. Het hart van de ontwikkeling lag in Silicon Valley (West Coast Team).

R800 is de allereerste GPU die door alle drie teams samen vanaf de bodem is opgebouwd. Dit werd gezegd door Dave Orton in 2004, waardoor men misschien zou kunnen opmaken dat R700 een soort van refresh is van R600.

Interessante feitjes om te weten zijn dat ATI zowel Bitboys als XGI overnam voor de fusie met AMD. Dus AMD bezit nu de kennis van zowel ATI, XGI als de Bitboys. En daarnaast hebben ze al een hele tijd wat S3 mensen in dienst (waaronder de mensen die DXTC hebben ontwikkeld die ook 3Dc ontwikkelden) als veel ex-nV personeel.
High End: R600 - Radeon HD 2900 Serie
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/hd2900xt.jpg
Retail 9.5" versie van de Radeon HD 2900 XT. Img source: http://www.dailytech.com


Over de R600 chip is al heel wat geschreven (zie ook vorige delen en hierboven). Wat is de R600 precies? Wat weten we nu allemaal zeker van deze GPU?

Hieronder wat dingen die vast staan:
  • GPU: R600
  • Naam: Radeon HD 2900
  • Transistors: 720M
  • Second Generation Unified Shader Architecture
  • Geometry Shader Units zijn veel sneller dan de GS Units in de G80 aldus Microsoft FSX team en DICE (BF - Frostbyte Engine)
  • EA gebruikt de R600 als ontwikkelplatform voor de nieuwe BF game
  • Superscalar Architecture
  • 320 Multiply Accumulative Units
  • 500+ Gflops
  • 80nm high speed proces
  • In eerste instantie 1 variant: XT, later evt ook de XTX, XL en GT
  • PCB lengte voor retailkaarten: 9,5" (ter vergelijking, een X1950XTX is 9", dus de R600 is zo'n 1.3 cm langer)
  • PCB lengte voor OEM kaarten: 12" (verlengde cooler met bevestigingsbracket voor OEMs als HP en Dell)
  • Enhanced CrossFire
  • 200W Stroomverbruik
  • 1x 8 Pins + 1x 6 Pins stroomaansluiting, 8 Pins is backwards compatible met 6 Pins connectors
  • 24x Custom Filter AA
  • EATM AA
  • 128-bit HDR
  • Dynamic Geometry Acceleration
  • Built in HDMI & 5.1 surround audio
Het meest interessante zijn de 320 Multiply Accumulative Units en de 500+ Gflops voor een enkele R600. 320 MADD units zou het volgende kunnen betekenen:
  • R600 heeft 320 Scalar ALUs
  • R600 heeft 160 Scalar ALUs die Dual Issue kunnen doen
  • R600 heeft 64 ALUs die elk een Vec4 bewerking en Scalar bewerking kunnen doen
De eerste optie valt af aangezien AMD het heeft over een "superscalar architecture" itt tot een "scalar architecture".

Om die 500+ Glops te halen voor een enkele R600, zouden de shaders op 800Mhz of sneller moeten lopen. Bij nVidia lopen de shaders op 1350Mhz om zo'n 340Gflops te halen (met een maximum theoretisch haalbare van ongeveer 440 als de extra MUL zou werken). De core loopt zelf op 575Mhz bij de G80.

Het is onduidelijk of AMD nu ook gaat werken met clockdomains, maar als we uitgaan van het verleden dan zou dit niet het geval zijn en zouden zowel de shaders op 800Mhz moeten werken als ook de rest van de core (bv de ROPs). Hier zou de R600 zeker zijn voordeel uit moeten halen in combinatie met de veel hogere geheugenbandbreedte.

De naam is zoals bekend "Radeon HD 2900". AMD heeft de X laten vallen ten gunste van de HD-tag. Hier wil men de nadruk leggen op de Avivo HD mogelijkheden van de R6-serie. In eerste instantie zal alleen de Radeon HD 2900 XT uit komen. Of de XTX variant tegelijkertijd gelanceerd wordt is niet bekend.

Het stroomverbruik lig hoger dan die van een GF8800GTX, maar de meeste mensen die voor snel gaan zal dit niet veel uit maken (een Ferrari koop je ook niet omdat-ie zo zuinig is en met 120km over autobahn te rijden). Wat wel voor de koper echter ook interessant is, is dat de cooler zijn werk goed doet en ook nog eens zeer stil is. Volgens de eerste berichten is de kaart zelfs koeler dan de X1950XTX.

Upper Midrange: RV670


Over de RV670 is nog niet veel bekend, behalve het kwartaal waarin deze GPU gepland staat, namelijk Kwartaal 3 van 2007. Als we afgaan op de RV570 GPU, dan is de RV670 een GPU die zich in de hogere regionen van de midrange bevindt en dus waarschijnlijk een 256-bit memory interface zal hebben.

Eventueel zou ook een RV660 uit kunnen komen, net zoals er ook een RV560 variant was van de RV570 die identiek was op een aantal uitgeschakelde onderdelen na.

Deze series heten dan waarschijnlijk de Radeon HD 2800 serie en de Radeon HD 2700 serie.

Lower Midrange: RV630 - Radeon HD 2600 Serie


Van de RV630 zijn er een drietal PCB modellen bekend. Al deze modellen zijn vernoemd naar diamanten, namelijk Kohinoor, Orloff en Sefadu. Al deze modellen zullen gebruik maken van een 128-bit memory interface, net zoals de RV530 en RV560.

De die-size van RV630 13.3x11.5mm oftewel ~153mm² op 65nm.

De eerste indicaties wijzen er op dat de snelste RV630 gebruik maakt van een dubbelslot cooler die veel weg heeft van de X1950XTX cooler. De performance zou moeten liggen rond 12000 punten in 3DM05. Een andere bron meldt dat ze een RV630 hebben gezien op 540Mhz core en 700Mhz mem en dat deze zo'n 5000 punten scoorde in 3DM05 en op 3000 punten zat in 3DM06. De eerste was wellicht gebaseerd op Kohinoor, terwijl de tweede misschien wel Sefadu was.

Afbeeldingslocatie: http://www.pcgameshardware.de/screenshots/medium/Imgp5549.jpg
Bron: http://www.pcgameshardware.de

Kohinoor
Kohinoor is de snelste van de drie en verbruikt met 125W ook gelijk het meest. Deze zal namelijk gekoppeld worden aan snel GDDR4 geheugen. Zelfs al wordt het langzaamste GDDR4 geheugen (op dit moment 900Mhz) gekoppeld aan de 128-bit memory interface, dan nog zal deze kaart een geheugenbandbreedte hebben van 28.8GB/s. Dit is dus nog altijd bijna 30% meer dan de X1650Pro en X1650XT. Koppel je dit aan het 1Ghz GDDR4 geheugen waar ook de X1950XTX gebruik van maakt, dan kom je uit op een totaal van 32GB/s wat te vergelijken is met de bandbreedte die bv de X800XT en GF6800GT hadden.

Orloff
Orloff zal waarschijnlijk de meest verkochtte worden van de drie. Orloff maakt gebruik van het ruim voor handen zijnde GDDR3 geheugen. Je kan verwachten dat hier minimaal 700Mhz GDDR3 op zit en deze kaarten dus een vergelijkbare bandbreedte hebben als de X1650XT en X1650Pro.

Sefadu
Sefadu zal vooral in veel OEM PCs de weg naar binnen weten te vinden. Het lage stroomverbruik (75W) en het niet nodig hebben van een externe stroomvoorziening, maken deze ideaal voor gebruik in een HP of Dell machine, die net iets meer juice in huis moet hebben dan een low-end GPU kan bieden.

De naamgeving van de RV630 is inmiddels ook bekend. De laatste tijd gaan er geruchten rond over een renaming naar Radeon HD 2400. Hiermee wordt ook meteen aangegeven dat de RV630 niet als tegenstander is bedoeld van nVidia's G84. Dit zouden dan de RV660 en RV670 moeten worden. De performance van de RV630 ligt dan zeer waarschijnlijk lager dan die van de GF8600GTS, GF8600GT en GF8500GS. Maar inmiddels weten we dat de RV630 de naam Radeon HD 2600 gaat krijgen.

Het voordeel die de RV630 serie heeft op de G84 serie moet dan ook niet gezocht worden in de performance, maar in de featureset en IQ. Elke kaart in de RV630 serie biedt bijvoorbeeld HDCP en native HDMI aan, daar waar de G84 en G86 dit niet doen. Daarnaast is de RV630 serie gemaakt op het 65nm productieproces en de G84/G86 op het 80nm productieproces. Dit zou je kunnen merken in het stroomverbruik.

RV630 heeft de Universal Video Decoder aan boord. Hiermee wordt hardware H.264 en VC-1 decoding mogelijk zonder al te veel performanceverlies. UVD kan rechtstreeks Bitstream Processing/Entropy Decode, Frequency Transform, Pixel Prediction en Deblocking op de GPU uitvoeren waardoor het CPU verbruik enorm omlaag gaat.

Het stroomverbruik is inmiddels ook bekend.
HD 2600 XT -> 65W
HD 2600 PRO -> 55W

Hierdoor zal de HD2600XT waarschijnlijk geen externe stroomvoorziening nodig hebben.
Budget: RV610 - Radeon HD 2400 Serie


De RV610 komt er in eerste instantie in twee varianten. Deze maken gebruik van PCB met de codenamen: Falcon en Antelope. Beide varianten worden in Mei 2007 gelanceerd en zijn gemaakt op het 65nm productieproces. Dit productieproces zorgt er voor dat de RV610 bijzonder klein is, namelijk 7.7x10.7mm, oftewel ~82mm² op het 65nm productieproces. Ter vergelijking, nVidia's tegenhanger de G86 is 11.5x10mm, oftewel ~115mm² op 80nm.

Afbeeldingslocatie: http://www.pcgameshardware.de/screenshots/medium/Imgp5545.jpg
Bron: http://www.pcgameshardware.de

Falcon
Falcon is het laagste model en deze zal gemiddeld zo'n 25W verbruiken. Het geheugen dat op dit PCB geprikt zal worden is 128MB GDDR2 geheugen, dat dmv Hypermemory uit te breiden is naar 512MB of meer. CrossFire wordt alleen via software ondersteund. De eerste geruchten wijzen op een core snelheid van 400Mhz voor de RV610LE die op het Falcon PCB geprikt zal worden.

Antelope
Antelope is de snelle jongen van de twee. Deze zal gebruik maken van 256MB GDDR3. In combinatie met een andere RV610 kan je gebruik maken van hardwarematige CrossFire.

Over de performance is nog weinig bekend. Het gerucht gaat dat Falcon in ieder geval een 64-bits memorycontroller heeft. Zo'n dusdanig kleine memorycontroller staat er om bekend dat hierdoor de prestaties flink geknepen worden, maar dat mag in de budgetsector geen probleem zijn.

Met enig geluk beschikt Antelope wel over een 128-bit memory interface, dan wel een 64-bit memory interface met zeer snel GDDR3 geheugen. De core van de RV610Pro die op het Antelope PCB geprikt wordt, zou volgens eerste berichten op 700Mhz lopen.

De performance van de RV610LE GPU is twee keer die van de X1300LE volgens AMD. En net als RV630 heeft ook RV610 alle UVD mogelijkheden aan boord. De naam van de RV610 wordt: Radeon HD 2400.

Over het stroomverbruik is het volgende te melden:
HD 2400 XT -> 20W
HD 2400 PRO -> 18W

TOEKOMSTIGE VPUs (Lange Termijn) - R650/R680/R700

Of de opvolger van R600 de naam R650 of R680 krijgt is nog weinig bekend. Wat wel bekend is, is dat AMD op de roadmap een "next generation R600" heeft staan en dat deze gepland is voor het derde kwartaal van 2007. De refresh van de R600 zal hoogst waarschijnlijk gebruik maken van het 65nm productieproces. Dit kan je min of meer afleiden aan de hand van een opmerking gemaakt door Dave Orton, die meldde dat AMD de eerste zou zijn die een high end GPU op het 65nm productieproces zou releasen in 2007.

De voordelen van het 65nm productieproces zijn dat de core veel kleiner kan worden, en dat tegelijkertijd ook de kloksnelheid opgevoerd kan worden. De eerste geruchten over de R600 zeggen dat deze zeer goed meeschaalt met kloksnelheid. Er staat ons dus nog wat te wachten!

Prijsoverzicht na lancering X1K serie
Deze lijst wordt weer geupdate wanneer de HD2K serie gereleased is.


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan prijswijzigingen doorvoeren.

DE GERUCHTENMOLEN
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpg
Gerucht: R600 is laat vanwege technische problemen
Nee.
Waarheidsfactor: 100%
Update: 06-03-2007
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: Alle GPUs van de R6x0 generatie hebben Enhanced CrossFire
Bijna allemaal hebben ze het. Alleen het langzaamste model gebaseerd op de RV610 icm GDDR2 bieden alleen software matige CrossFire aan.
Waarheidsfactor: 100%
Update: 06-03-2007
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: R600 is achterhaald op het moment van release, nV komt vast met een veel snellere G81 uit
Nee. R600 is niet achterhaald op het moment van release. Weten jullie wat R600 is? Nee? Trek dan ook geen voorbarige conclusies. Degenen onder ons die inmiddels weten wat R600 is, zullen jullie dit ook kunnen vertellen dat de R600 zeker niet achterhaald is. ;)

En de refresh van nVidia? Maakt AMD zich daar zorgen over? Voorlopig komt er geen G81. Als er een snellere variant uit komt van de GF8800GTX, dan is het de GF8800Ultra en deze is nog altijd gebaseerd op de G80 core. Voorlopig ziet het er naar uit dat het niets meer is dan een opgevoerde G80, en daar houdt AMD zeker rekening mee.
Waarheidsfactor: 100%
Update: 06-03-2006
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgGerucht: CrossFire heeft niet dezelfde 60Hz beperking op R5x0 kaarten
Waar!
Waarheidsfactor: 100%
Update: 02-10-2005


Afbeeldingslocatie: http://www.guildwarsarena.net/ati/sapphirex1900xtx-blizzard.jpg
Sapphire X1900XTX Blizzard Edition - Watergekoelde X1900XTX

OVERIGE ZAKEN
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Het moge duidelijk zijn dat de meeste dingen nog gebaseerd zijn op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd
van harte welkom (via mail dan wel in het topic).

[ Voor 200% gewijzigd door CJ op 28-04-2007 00:28 . Reden: Typos ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atitopiclogo.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQ
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is 3Dc?

Antwoord: 3Dc is een manier van normal map compressie. Check de firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te
zien wat 3Dc precies is. 3Dc is inmiddels opgenomen in de specificatie van DirectX10 en ook de Xbox360 ondersteunt 3Dc. Games zullen dus steeds meer 3Dc ondersteuning bieden (zelfs zonder dat het expliciet vermeld wordt) en nVidia zal 3Dc ook hardwarematig moeten ondersteunen (alhoewel ze het waarschijnlijk anders gaan noemen, aangezien de naam 3Dc waarschijnlijk door ATi is gepatenteerd).
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is CrossFire?

Antwoord: CrossFire is ATi's Multi VPU oplossing waarmee zoals de naam al zegt, meerdere kaarten aan elkaar gekoppeld kunnen worden om de performance te verbeteren. Wil je precies weten wat CrossFire is, kijk dan even in de First Posts van de vorige topics.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Ondersteunen alle kaarten CrossFire zonder Mastercard of dongle?

Antwoord: Trick question... lees het volgende maar...

AMD ondersteunt nu 3 soorten CrossFire:
  1. Software CrossFire
  2. Hardware CrossFire dmv een Mastercard + normale kaart
  3. Hardware CrossFire dmv een dubbele bridgechip zgn Enhanced CrossFire
1) Over Software CrossFire
Vanaf Catalyst 6.11 ondersteunt AMD Software CrossFire voor de volgende kaarten:
  • X1300
  • X1300Pro
  • X1300XT
  • X1600Pro
  • X1600XT
  • X1650Pro
  • X1800GTO
  • X1900GT
  • X1900XT256/512
  • X1900XTX
  • X1950XT256
  • X1950XTX
Het enige dat je nodig hebt is een moederbord met twee fysieke PCIe 16x sloten dat multi-GPU configuraties ondersteunt. Check de website van je moederbord fabrikant om te zien of het ondersteunt wordt als je het niet zeker bent.

2) Over Hardware CrossFire dmv een Mastercard + normale kaart
Dit is CrossFire in z'n eerste incarnatie. Om CrossFire hier aan de gang te krijgen had je een zgn Mastercard Edition (ook wel CrossFire Edition) nodig die voorzien was van een speciale compositing engine die het beeld van kaart 1 en kaart 2 samenvoegde tot 1 geheel. Dit geheel werd aan elkaar gekoppeld door een externe kabel buiten je systeemkast.

De volgende CrossFire Edition Mastercards zijn beschikbaar:
  • X1950XTX CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1900 CrossFire te koppelen aan: X1950XTX, X1950XT, X1900XTX, X1900XT, X1900GT
  • X1800 CrossFire te koppelen aan: X1800XT, X1800XL, X1800GTO
  • X850XT CrossFire te koppelen aan: X850XT PE, X850XT, X850Pro
  • X800 CrossFire te koppelen aan: X800XT PE, X800XT, X800XL, X800GTO, X800GT, X800
Vanaf Catalyst 6.11 maakt AMD het dus echter mogelijk om ook de high end X1K kaarten in CrossFire aan elkaar te koppelen zonder mastercard (nog onduidelijk of X1800 ook werkt).

3) Over Enhanced CrossFire
Op de nieuwste AMD kaarten, de ATI Radeon X1650XT en X1950Pro, zit een nieuw CrossFire systeem verwerkt. Alle GPUs hebben de beschikking over een interne Compositing Chip. Hierdoor is de noodzaak voor een Mastercard volledig komen te vervallen. Enhanced CrossFire maakt het mogelijk om elke willekeurige X1650XT aan een andere X1650XT te koppelen of om een X1950Pro aan een andere X1950Pro te koppelen, dmv een dubbele interne bridge connector. Geen draden dus meer buitenom! De R600 (en afgeleiden) zullen dit nieuwe systeem ook gebruiken.

Important: Wat wel van belang is, is dat je moet weten dat Hardware CrossFire op de high end kaarten tot zo'n 50% sneller kan zijn dan Software CrossFire! Daar waar Software CrossFire op high end kaarten vanaf de X1900GT een boost kan opleveren van 40 a 50% (in enkele gevallen zoals SC:CT tot 80-90%), levert Hardware CrossFire in dezelfde gevallen bijna altijd een 70-90% performanceboost op!

Dus: Hardware CrossFire > Software CrossFire


Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games ondersteunen 3Dc?

Antwoord: ATi maakt binnenkort een lijst bekend met 3Dc titels.
Op dit moment zijn dit games waarvan bekend is dat ze 3Dc
ondersteunen.

- Far Cry (patch 1.3)
- Half Life 2 (ATi levels)
- Tribes Vengeance
- Sid Meier's Pirates!
- DarkSector
- Project Freedom

Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars, Guild Wars: Factions
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Brothers In Arms: Earned In Blood
- Brothers In Arms: Hells Highway *UE3 Engine
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake *DX10

Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in Xenos -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom komt de R580 al 3 maanden na de R520 op de markt?

Antwoord: De R580 werd gelanceerd op 24 Januari 2006! Doordat R520 laat was lijkt het alsof R580 heel snel op de markt komt en R520 maar een korte levensduur heeft. Aan de ATi roadmap is niet veel veranderd.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom loopt mijn X1900 op 500Mhz core en 600Mhz mem?

Antwoord: Dat zijn de 2D speeds lieve schat. Wanneer je geen 3D applicatie draait zoals een game, klokt de X1900XT(X) zich terug naar 500Mhz core en 600Mhz mem. De VGPU wordt ook automatisch gedownclocked in 2D naar 1.175V (van 1.425V). Hierdoor verbruikt je kaart veel minder stroom en kan de cooler ook een tikkeltje langzamer draaien.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200
- Intel 955x
- Intel 975x

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaar geworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Komen er ook AGP versies uit van de X1K serie?

Antwoord: ATi laat het aan AIB (All In Board partners, zoals MSI, Asus, Powercolor etc) over om AGP versies uit te brengen van hun kaarten. ATi heeft aangegeven dat ze AIBs ter zijde willen staan mochten ze hulp nodig hebben bij het ontwikkelen van AGP versies. Op dit moment zijn de volgende kaarten beschikbaar in AGP variant:
  • X1300Pro
  • X1600Pro
  • X1650Pro
  • X1650XT (Powercolor beschikbaar vanaf medio Januari 07)
  • X1950Pro256/512

Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig (of niet complexe) shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Wat zijn Z & Stencil Buffers?

Antwoord: Dit zijn stukjes geheugen waarin data wordt opgeslagen over pixels. Bij Z Buffers worden er diepte waardes (depth value) van alle gerenderde pixels. Dit gebeurt om te kijken of een pixel wel of niet gerenderd moet worden (bv objecten die voor elkaar staan die dus niet allemaal helemaal gerenderd hoeven te worden). Bij Stencil Buffers lijkt het veel op Z-Buffers.

Ook hier wordt informatie opgeslagen, maar de developer mag nu zelf weten wat voor informatie hij/zij hier op slaat. Het is een soort van kladblokje. Het meeste gebruikt wordt stencilbuffers bij realtime schaduweffecten zoals in Doom3. In de stencilbuffer wordt dan bijgehouden op welke objecten schaduwen vallen door met lichtbronnen (ook bewegende) te werken.

Dit kost veel rekenkracht en nVidia heeft al sinds de FX de mogelijkheid om een ROP op dubbele snelheid te laten werken wanneer er gewerkt werd met Z Stencils. In een nV ROP zit een zogenaamde Z Compare unit en een C(olour) Compare unit. Die C Compare Unit kan zowel Z-Compares doen als C Compares. Dus wanneer er niet gewerkt hoeft te worden met kleurwaardes
(C-Compare), dan houdt die unit zich ook bezig met Z-compares en kan-ie een Z/Stencil waarde per clockcycle outputten naast de Z/Stencil waarde van de Z-Compare unit.


1 ROP: 1 kleur + z/stencil per clockcycle OF 2 z/stencils per clockcycle
16 ROPs: 16 kleur + z/stencil per clockcycle OF (maximaal) 32 z/stencils per clockcycle

Zoals je ziet heeft een NV kaart dus veel voordeel bij games als Doom3. Maar er zit ook 1 nadeel aan het geheel bij NV. De maximale MSAA mode is daardoor op dit moment maar 4x, maar daar ga ik nu maar niet op in. Bij ATi heeft alleen de RV530 een verdubbelde Z/Stencil, dus 4 ROPs, maar 8 Z/Stencils per clockcycle.
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/atilogo.jpgVraag: Physics acceleratie op GPUs. Wat houdt dit in?

Antwoord: In hoeverre verschilt physics acceleratie op GPUs van physics acceleratie op dedicate physics processors (PPU) zoals de Ageia PhysX kaart? Om het verschil te weten moet je eerst het volgende weten...

Je kan Physics indelen in twee groepen:

1) Gameplay Physics
2) Effects Physics

Gameplay Physics beinvloed hoe je op elk moment een game speelt. Je duwt bv een ton omver en die rolt weg of je schiet op een benzine tank en deze ontploft zodat allerlei brokstukken om je oren vliegen. De game-interactie zoals je zelf al zegt.

Effects Physics ligt dicht bij de grafische effecten die nu door je GPU worden berekent. Je moet hier denken aan de ontploffingenseffecten, de brokstukken die je om de oren vliegen met alle explosies/effecten er om heen, de lawine van stenen die naar beneden komt rollen en ondertussen een flinke stofwolk genereren etc. Met effects physics kan je dus dingen er mooier laten uitzien (visuals).

Gameplay Physics wordt door Ageia hardwarematig gedaan, Effects Physics kan Ageia's oplossing niet. Effects Physics is waar Havok zich op richt met HavokFX dmv Shadermodel 3. Havok laat de gameplay physics over aan HydraCore, wat wil zeggen dat HydraCore gebruik maakt van dualcore CPUs om gameplay physics te bereken. Aldus Havok is een dualcore CPU snel genoeg en heb je daar geen extra dure hardware van €300 voor nodig.

Wat doet ATi nu... ATi doet beide. Ze doen zowel Gameplay Physics als Effects Physics.

Gameplay Physics is namelijk een vorm van General Processing, wat CPUs dus altijd doen. En ATi is daar enorm goed in (tot zelfs 1400% sneller dan nVidia in bepaalde situaties. Zelfs een X1600XT verslaat een G71). Met de komst van de R580 is hun GP-capaciteit nog meer toegenomen. En Effects Physics dat ligt al dicht tegen normale graphics processing aan, dus het is niet meer dan logisch dat GPUs dit goed kunnen.

Volgens ATi zijn gameplay physics sterk afhankelijk van floatingpoint berekeningen en dynamic branching die een item testen om te zien of er iets mee gebeurd (bv een botsing). Op elk moment
bedenkt een item zich 'bots ik tegen iets aan'. Dynamic branching helpt hiermee om te voorspellen wanneer en/of er iets gebeurt. Ter vergelijking, een CPU kan zo'n 10 Gflops aan floatingpoint berekening aan, terwijl een R580 zo'n 375 Gflops aan kan.

ATi claimt dat wanneer in HL2 de physics door de GPU zouden worden uitgevoerd ipv door de CPU dat ze voor een boost van 20 a 30% kunnen zorgen. Ze zeggen dat zelfs al zou een R580 maar 25 Gflop wijden aan physics, dan nog zou er voldoende over zijn voor graphics.

Het lijkt er op dat ATi al vanaf het begin van de ontwikkeling van de R5x0 architectuur physics in hun achterhoofd heeft gehouden. ATi was al jaren goed bezig op het gebied van GP-GPU.

Door in elke pixelshaderengine een dedicated branching unit te installeren in combinatie met de threading architectuur, maakt zich dit niet alleen geschikt voor games die een overvloedig gebruik
maken van dynamic branching en pixelshading, maar ook zeer geschikt voor het berekenen van physics shading.

Dus hebben we nu 3 verschillende mogelijkheden wat betreft physics? Ja:
a- Ageia's PhysX (hardwarematig)
b- HavokFX (softwarematig, werkt op alle SM3.0 hardware, dus ook op ATi kaarten)
c- ATi Physics
En er komt waarschijnlijk nog een vierde bij:
d- DirectPhysics van Microsoft (de grote concurrent van HavokFX)

Theoretisch gezien heeft ATi dus al 3 mogelijkheden voor het doen van Physics.

ATi pakt het echter slim aan. Ze maken hun physics versie open voor iedereen. ATi is bezig met het ontwikkelen van een Data Parallel Processing Architecture Abstraction laag in de drivers die het gamedevs mogelijk maakt om een GPU voor physics te gebruiken zonder dat er een API als OpenGL of DirectX nodig is of dat men een dure license moet nemen op HavokFX. ATi geeft de development software voor niks aan developers en ze mogen zelf weten hoe ze het gebruiken. Natuurlijk verleent ATi hulp wanneer devs het nodig hebben.

Doordat ATi een aparte layer in de drivers maakt, zou het mogelijk moeten zijn om nog efficienter van de hardware gebruik te maken dan wanneer er een aparte API als DirectX nodig zou zijn.

ATi weet het beste hoe hun hardware in elkaar zit en een directe toegang tot de hardware is natuurlijk beter dan een extra tussenstap in de vorm van HavokFX/DirectPhysics etc. Maar ATi biedt wel de mogelijkheid voor gamedevs om alsnog via DirectX of OGL te werken als ze dat willen. De DPPAA-layer is flexibel genoeg om dit te kunnen en moet voor geen problemen zorgen
wanneer bv straks DirectPhysics gebruikt wordt. De DPPAA layer in de drivers zorgt gewoon dat alles goed komt.

ATi heeft aangegeven dat de ideale situatie zou zijn wanneer er 1 oplossing (API) is voor physics, omdat je dan goed kan vergelijken welke van de oplossingen het beste is. Met de komst van DirectPhysics lijkt dit dan ook te gaan gebeuren. En nu AMD net als nVidia samenwerkt met HavokFX, lijkt Havok vooralsnog de beste kaarten in handen te hebben.

ATi biedt nu 2 mogelijkheden wat betreft physics:
1) Physics + Graphics op 1 GPU
Wanneer een game op een bepaalde resolutie gespeeld wordt, dan kijkt de driver of de GPU wel volledig gebruikt wordt op die bepaalde resolutie. Als er meer fps gegenereerd wordt dan eigenlijk nodig is, dan kan de driver er voor zorgen dat er een gedeelte van de rekenpower gebruikt wordt voor physics. En vaak worden op dit moment niet alle pixelshaderengines gebruikt.

Dat is natuurlijk zonde als je er 48 hebt en er worden er maar 16 gebruikt. Je kan de rest dan mooi inzetten voor physics.

2) Physics op GPU1 + Graphics op GPU2
Ik heb expres geen CrossFire genoemd, omdat CrossFire helemaal niet verplicht is. Het zou mogelijk moeten zijn om een X1600XT voor physics te gebruiken, terwijl een X1900XTX als main graphics unit gebruikt wordt. De performance van de physicskaart schaalt mee naarmate het model hoger in de serie is. Een X1300Pro zal dus langzamer zijn dan een X1600XT. Maar zoals ik al aangaf... zelfs een X1600XT is sneller in general processing dan een G71. Dit biedt dus leuke vooruitzichten voor mensen die nu een ATi X1K kaart hebben. Koop je er later een HD2K kaart bij, dan kan je je X1K kaart blijven gebruiken als physics GPU.

Wanneer komen de drivers uit voor physics acceleratie op GPUs?
AMD brengt physicsdrivers uit als onderdeel van de huidige Catalyst driversuite. Je hoeft dus geen speciale drivers te downloaden om physics te activeren. Het physicsgedeelte in de drivers wordt echter pas door AMD geactiveerd wanneer de eerste games uit komen die gebruik maken van de HavokFX engine.

De eerste games zijn Alone In The Dark 4 en Hellgate: London. Daarnaast heeft Blizzard Entertainment (bekend van WoW, Diablo en Starcraft) een licentie genomen op Havok 4.0 waar ook
HavokFX onderdeel van is.

[ Voor 99% gewijzigd door CJ op 28-04-2007 00:42 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Afbeeldingslocatie: http://www.guildwarsarena.net/ati/pricechart.jpg
Richtprijzen na de lancering van de X1950XTX, X1950Pro, X1650XT, X1650Pro en X1300XT

X1K-serie in de Pricewatch
http://tweakers.net/price...Field=prijs&orderSort=asc

Let er wel op dat de prijzen dagelijks kunnen veranderen en dat deze pricewatch eens in de maand wordt geupdate. De prijzen zijn afgerond in hele euro's. De echte winkelprijzen kunnen dus iets anders zijn.
• Goedkoopste X1300 128MB PCIe: €47,20 >
• Goedkoopste X1300 256MB PCIe: €56,95 <
• Goedkoopste X1300 512MB PCIe: €53,16 >
• Goedkoopste X1300Pro 256MB PCIe: €64,14 <
• Goedkoopste X1300XT 256MB PCIe: €65 << TIP
• Goedkoopste X1300XT 512MB PCIe: €90,00 NEW
• Goedkoopste X1600Pro 256MB PCIe: €73,54 =
• Goedkoopste X1600Pro 256MB AGP AGP: 99,91 <
• Goedkoopste X1600Pro 512MB PCIe: €98,55 >
• Goedkoopste X1600XT 256MB PCIe: €77 <<
• Goedkoopste X1650Pro 256MB PCIe: €76,00 =
• Goedkoopste X1650XT PCIe: €119 <
• Goedkoopste X1800GTO 256MB PCIe: €174,90 =
• Goedkoopste X1800XT 256MB PCIe: link verouderd
• Goedkoopste X1800XT 512MB PCIe: €304,98 >>
• Goedkoopste X1900GT 256MB PCIe: €157,00 >
• Goedkoopste X1950GT 256MB PCIe: €144 NEW
• Goedkoopste X1950Pro 256MB PCIe: €154 < TIP !!!
• Goedkoopste X1950Pro 256MB AGP AGP: €195 NEW AGP TIP !!!
• Goedkoopste X1950Pro 512MB PCIe: €195,23 <<
• Goedkoopste X1900XT 256MB PCIe: €229,00 <<
• Goedkoopste X1900XT 512MB PCIe: €299,00 =
• Goedkoopste X1900XT CrossFire: €374,00 >
• Goedkoopste X1900XTX 512MB PCIe: €299,00 <<
• Goedkoopste X1950XT 256MB PCIe: €198,00 << TIP
• Goedkoopste X1950XTX PCIe: €298,00 <<
• Goedkoopste X1950XTX CrossFire PCIe: €354,80 <<
< lager in prijs tov vorige update (<< meer dan €10 gezakt)
> hoger in prijs tov vorige update (>> meer dan €10 gestegen)
= gelijk gebleven tov vorige update
Last updated: 6 Maart 2007

[ Voor 99% gewijzigd door CJ op 24-04-2007 16:32 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 199989

Zou het 55ste nieuwstopic dan EINDELIJK de verlossing brengen?Misschien wat minder vlug posten,dan houden we dit wel open tot half mei:)

Oh ja CJ;ik heb het nog nooit vermeld maar zeer mooie openingspost _/-\o_

[ Voor 22% gewijzigd door Anoniem: 199989 op 24-04-2007 16:46 ]


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 14:01

Edmin

Crew Council

get on my horse!

Mooie openingspost, er staat ook meteen het antwoord in op mijn vraag over physics. Als bezitter van een 1900xtx hoop ik dat ik hem een tweede leven als PPU kan geven.... en nu maar hopen dat er veel games komen die dit ondersteunen!

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Hannibal ante portas!
Theo Valich van INQ vanuit Tunis:
http://uk.theinquirer.net/?article=39145

[ Voor 4% gewijzigd door Joepi op 24-04-2007 17:24 ]


Acties:
  • 0 Henk 'm!

Anoniem: 88314

Even een vraagje
word de r600 nu groter dan een 8800gtx ?

Acties:
  • 0 Henk 'm!

  • SpaceMarine
  • Registratie: April 2003
  • Laatst online: 13-04 16:22
idd een mooie openingspost :)

nope geen signature


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 16:58
Pricing is kennelijk nog niet 100% final van de R600XT. Euro prijs is ook anders dan die in US, zoals nVidia dit ook tegenwoordig doet (299$ vs 329 euro G80 GTS 320) bv. De Ultra die volgende week gepaperlaunched wordt zakt ook in prijs, dus geen 999$ prijs meer. RX600XT prijs zit nu in euro's tussen 430 en 450. Maakt niet uit, met lage marges die sommige webshops pakken kun je stellen dat 399$ prijspunt net gehaald zal worden. Maar meeste zullen hoger zitten.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 88314 schreef op dinsdag 24 april 2007 @ 17:24:
Even een vraagje
word de r600 nu groter dan een 8800gtx ?
De R600 chip zelf is kleiner dan de G80 chip als ik het goed heb. De kaart in z'n geheel is 9.5" wat ongeveer 24,13cm is (iets langer dan een X1950XTX). Volgens het nV topic is de GF8800GTX gemeten op ongeveer 26cm.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • WoutF
  • Registratie: Maart 2000
  • Laatst online: 17:48

WoutF

Hoofdredacteur
Joepi schreef op dinsdag 24 april 2007 @ 17:24:
Hannibal ante portas!
Theo Valich van INQ vanuit Tunis:
http://uk.theinquirer.net/?article=39145
Ik ben niet heel technisch, maar begrijp ik het nou goed dat verwacht wordt dat de R600 architectuur het beter gaat doen dan de G80 in DX10?

Acties:
  • 0 Henk 'm!

  • MensionXL
  • Registratie: Juni 2004
  • Niet online

MensionXL

Optimaliseren!

Klein spellingsfoutje dat je @ TS twee keer maakt: continue. Hoort dus continu te zijn. ;) Verder mooie TS. :)

[ Voor 16% gewijzigd door MensionXL op 24-04-2007 17:57 ]

Goedkoop bellen via VoIP


Acties:
  • 0 Henk 'm!

  • guido09
  • Registratie: Juli 2004
  • Laatst online: 06-01 21:56
MensionXL schreef op dinsdag 24 april 2007 @ 17:56:
Klein spellingsfoutje dat je @ TS twee keer maakt: continue. Hoort dus continu te zijn. ;) Verder mooie TS. :)
Ongeloofelijk dat je daarvoor een post plant...

(jaja , idem dat ik daarop reageer en mn spelling niet klopt) :+

been there, done that, bought the T-shirt


Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ CJ

De 8800 GTX is 28,02 CM een paar 3dfx maten van mij hebben er eentje, nette TS ook ;) ik heb al die HD 2900 XT pics voor je bewaard op me HDD stel dat ze verwijderd worden :)

Een CrossFire setup 1HD 2900XT & 1 HD 2900 XTX lijkt me ook wel interessant, aangzien dat ook mijn volgende ATi projectje is, die X1900 XTX als X1950 XTX CFE bewaar ik wel voor me ATi collectie 8)

[ Voor 3% gewijzigd door Anoniem: 23009 op 24-04-2007 19:31 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
Anoniem: 23009 schreef op dinsdag 24 april 2007 @ 19:30:
@ CJ

De 8800 GTX is 28,02 CM een paar 3dfx maten van mij hebben er eentje, nette TS ook ;) ik heb al die HD 2900 XT pics voor je bewaard op me HDD stel dat ze verwijderd worden :)

Een CrossFire setup 1HD 2900XT & 1 HD 2900 XTX lijkt me ook wel interessant, aangzien dat ook mijn volgende ATi projectje is, die X1900 XTX als X1950 XTX CFE bewaar ik wel voor me ATi collectie 8)
Uhmm zo iets als HD2900 XT + HD2900 XTX zou je niet krijgen. Want dan gaat je XTX terug naar 512 mb. Dus dan is het 2x HD2900 XT.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ Astennu

hmm oke maar omdat ik nu met X1900 XTX en X1950 XTX werk en het is echter 1x 256Bit GDDR3 + 1x 256Bit GDDR4 dus ik dacht als geheugen soort niet uit maakte dan zou geheugen aantal ook niet uit moeten maken toch?

Want dan zou ik die 2900 XTX als Master card moeten inzetten net als met die X1950 XTX CrossFire Edition dat id heh , maar wel zien wel anders neem ik gewoon 2x HD 2900XT aangezein dat goedkoper is en toch snel zat voor FLightSimX @ 1440 x 900 x32 met max FSAA en AF + HDR hehe in DX10 modus natuurlijk ;)

[ Voor 40% gewijzigd door Anoniem: 23009 op 24-04-2007 20:06 ]


Acties:
  • 0 Henk 'm!

Anoniem: 181760

Hallo, dit is misschien interessant.
Er zijn benchmarks opgedoken van de Radeon HD 2900 Xt

hier is de link:

http://www.hardware.info/..._XT_benchmarks_opgedoken/

btw: de prestaties zijn gemeten in games :P

Acties:
  • 0 Henk 'm!

  • SpaceMarine
  • Registratie: April 2003
  • Laatst online: 13-04 16:22
Anoniem: 181760 schreef op dinsdag 24 april 2007 @ 20:05:
Hallo, dit is misschien interessant.
Er zijn benchmarks opgedoken van de Radeon HD 2900 Xt

hier is de link:

http://www.hardware.info/..._XT_benchmarks_opgedoken/

btw: de prestaties zijn gemeten in games :P
deze benchmarks zijn al eens langs gekomen alleen dan van een andere site.

maar toch goed dat je meezoekt :)

nope geen signature


Acties:
  • 0 Henk 'm!

  • markjuh
  • Registratie: Juli 2000
  • Laatst online: 18-03 22:25
Nog wat benchmarks die mi wat interessanter zijn. R600XT tegen de G80GXT in oa Crysis techdemo:

http://www.techpowerup.com/?29396

Het lijkt er op dat de R600XT iets sneller zal zijn dan de GTX maar niet veel. Daar staat tegenover dat de XT tegenover de GTS wordt gezet qua prijs zoals het er nu uit ziet. Ik denk echter dat dit een noodgreep is van ATI om toch nog na meer dan een half jaar een concurerend produkt neer te zetten. Neemt niet weg dat het dan wel een interessant produkt lijkt te gaan zijn zeker gezien de prijsstelling. Alleen niet een volledige lineup launch zoals beloofd. Lijkt mij dat er serieus iets mis is bij Ati gezien alle vage redenen de ze hebben aangegeven waarom de produkten telkens worden uitgesteld.

Ben wel benieuwd wat het uiteindelijke verbruik (Wattage) is.

Edit:

Oh ja, het lijkt er al vast op dat Nvidia is begonnen met pricedrops van G80GTX. Hij zit nu als je goed zoekt op zo'n € 500,- incl. BTW bij de goedkopere webshops en gaat verder droppen. Uit betrouwbare bron vernomen.

edit2:

Ik zie op dit plaatje van de techpowerup benchmarks staan dat het een vga met 1024mb is:

Afbeeldingslocatie: http://www.techpowerup.com/img/07-04-15/R600@E6600@1280x1024.JPG

vreemd. Lijkt mij dat er iets niet klopt omdat ze zeggen dat het om de XT versie gaat.

[ Voor 24% gewijzigd door markjuh op 24-04-2007 20:37 ]


Acties:
  • 0 Henk 'm!

  • SpaceMarine
  • Registratie: April 2003
  • Laatst online: 13-04 16:22
markjuh schreef op dinsdag 24 april 2007 @ 20:26:
Nog wat benchmarks die mi wat interessanter zijn. R600XT tegen de G80GXT in oa Crysis techdemo:

http://www.techpowerup.com/?29396

Het lijkt er op dat de R600XT iets sneller zal zijn dan de GTX maar niet veel. Daar staat tegenover dat de XT tegenover de GTS wordt gezet qua prijs zoals het er nu uit ziet. Ik denk echter dat dit een noodgreep is van ATI om toch nog na meer dan een half jaar een concurerend produkt neer te zetten. Neemt niet weg dat het dan wel een interessant produkt lijkt te gaan zijn zeker gezien de prijsstelling. Alleen niet een volledige lineup launch zoals beloofd. Lijkt mij dat er serieus iets mis is bij Ati gezien alle vage redenen de ze hebben aangegeven waarom de produkten telkens worden uitgesteld.

Ben wel benieuwd wat het uiteindelijke verbruik (Wattage) is.

Edit:

Oh ja, het lijkt er al vast op dat Nvidia is begonnen met pricedrops van G80GTX. Hij zit nu als je goed zoekt op zo'n € 500,- incl. BTW bij de goedkopere webshops en gaat verder droppen. Uit betrouwbare bron vernomen.
wel grappig, ieder deel van deze topic kom je dezelfde benchmarks weer tegen :)

ik denk dat we gewoon even moeten wachten tot er weer nieuwe uitzijn. Deze benchmarks zijn namelijk al eens ter discussie geweest en veel mensen denken dat ze niet echt zijn.

Verder zakt de 8800GTX al een tijdje hoor, maar niet noemenswaardig hard.
Als ze de lijn zo doorzetten dan duurt het wel even ;)

nope geen signature


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Dailytech schijnt nu ook een XTX in handen te hebben voor te testen...

http://www.dailytech.com/...hhold=-1&red=493#comments

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • markjuh
  • Registratie: Juli 2000
  • Laatst online: 18-03 22:25
SpaceMarine schreef op dinsdag 24 april 2007 @ 20:35:
[...]


wel grappig, ieder deel van deze topic kom je dezelfde benchmarks weer tegen :)

ik denk dat we gewoon even moeten wachten tot er weer nieuwe uitzijn. Deze benchmarks zijn namelijk al eens ter discussie geweest en veel mensen denken dat ze niet echt zijn.

Verder zakt de 8800GTX al een tijdje hoor, maar niet noemenswaardig hard.
Als ze de lijn zo doorzetten dan duurt het wel even ;)
Klopt dat de G80 al een tijdje zakt maar bij de meeste leveranciers in NL is die in 2 weken tijd € 60 - € 80,- gezakt. Dat is erg veel en vrij opvallend zo vlak voor de launch.

Ik weet dat de benchmark al eerder gepost is maar ik doelde er op dat ik deze interessanter vind omdat er in een aankomende grote titel gebenched is. En het artikel is geupdate. En dit vind ik boeiender dan een benchmark van een spel van 1 of 1,5 jaar oud waar ze 90 of 100 fps halen en waar de G80 net zo snel is.

Acties:
  • 0 Henk 'm!

Anoniem: 199989

vreemd genoeg doen al die discussies over benches en waarheid/onzin me weinig.Heb het in het vorige topic al eens vermeld.So what als de 2900Xt maar een beetje sneller is dan een 8800Gtx?Ik kies voor betere driver-ondersteuning dan een winst van 10fps,want het verschil tussen 80 en 90fps zie ik toch niet.Tevens kies ik prijsbewust:450 euro voor een ATI en 550 euro voor een nVidia?Keuze is vlug gemaakt.Ik vind het vreemd dat mensen zo verontwaardigd reageren als blijkt dat deze kaart maar 5% sneller gaat zijn dan een GTX kaartje,ondanks het feit dat de 2900Xtx een hele tijd te laat is.De xtra features op deze kaart zijn ook een deel van het geheel,niet enkel de prestaties;ook al gebruik je een deel van die features niet eens.Soms koop je een andere auto,en zitten er ook zaken op die je niet frequent zal gebruiken,maar je betaald er wel voor...

Acties:
  • 0 Henk 'm!

  • markjuh
  • Registratie: Juli 2000
  • Laatst online: 18-03 22:25
CJ schreef op dinsdag 24 april 2007 @ 20:40:
Dailytech schijnt nu ook een XTX in handen te hebben voor te testen...

http://www.dailytech.com/...hhold=-1&red=493#comments
Zou de XTX dan toch nog in mei worden gelaunched? En niet in Q3? Dat zou wel erg mooi zijn. Als dit zo is ben ik benieuwd wat Nvidia gaat doen naast een paperlaunch Ultra. Ze kunnen dan toch niet achterblijven lijkt me.

Acties:
  • 0 Henk 'm!

Anoniem: 165478

Volgens mij ben je bij Fabrikanten die ATI produceren en verkope Jetway vergeten,

BTW, super mooie topic start. Jammer dat ATI ook voor een 128-bit mem. interface gaat ze hadden zo een goede slag kunnen slaan tegen de 8600 GT(s). Zoals ik heb vernomen worden de prestaties van de ATI kaarten niet beter dan van de huidige nvidia kaarten, en dat zou erg jammer zijn.

De Radeon HD 2900 zou ergens tussen de GTX en de GTS vallen :(,

Maar nog ff een keer hulde voor je topic start!!!!!

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 14-05 00:11

edward2

Schieten op de beesten

markjuh schreef op dinsdag 24 april 2007 @ 20:47:
[...]


Zou de XTX dan toch nog in mei worden gelaunched? En niet in Q3? Dat zou wel erg mooi zijn. Als dit zo is ben ik benieuwd wat Nvidia gaat doen naast een paperlaunch Ultra. Ze kunnen dan toch niet achterblijven lijkt me.
Zou mooi zijn. Er doen zoveel uit uitéénlopende verhalen de ronde over de XTX.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • SpaceMarine
  • Registratie: April 2003
  • Laatst online: 13-04 16:22
edward2 schreef op dinsdag 24 april 2007 @ 21:01:
[...]


Zou mooi zijn. Er doen zoveel uit uitéénlopende verhalen de ronde over de XTX.
tsja er zijn er maar een paar die weten hoe het zit, en die zitten nu nog in afrika ;)

nope geen signature


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 16:58
Oh ja, het lijkt er al vast op dat Nvidia is begonnen met pricedrops van G80GTX. Hij zit nu als je goed zoekt op zo'n € 500,- incl. BTW bij de goedkopere webshops en gaat verder droppen. Uit betrouwbare bron vernomen.
Geen officiele pricedrops vanuit nVidia. Kaart en chipsets zijn nog even duur.
Oorzaak is wellicht verschillende vendors / merken die veel stock van de GTX hebben liggen en nu bang worden voor alle geruchten over de R600. Officieel heeft AMD nog erg weinig bekend gemaakt. Prijs is nog niet officieel, beschikbaarheid / allocatie ook nog niet. Maar beter nu je stock dumpen dan straks ermee blijven zitten en wachten op een nVidia prijsdrop waarna je erg veel moet afschrijven, en dat kost geld.
Anoniem: 165478 schreef op dinsdag 24 april 2007 @ 20:48:
Volgens mij ben je bij Fabrikanten die ATI produceren en verkope Jetway vergeten,
Er zijn zo nog een stuk of 15 / 20 merken die niet in de lijst staan. Echter zijn dat allemaal van die honky tonky merken die in europa niet eens te verkrijgen zijn. Er staan al een paar merken bij die nagenoeg geen VGA meer verkopen in europa of helemaal gestopt zijn, wat te denken van Epox en Abit? Ook GeCube, Connect3d, Jetway en PowerColor (TUL) zie je bijna niet meer in europa, laat staan in Nederland.

Overigens gaat het gerucht dat Gigabyte weer exclusief ATI gaat worden, reden weet ik ook, heeft niets te maken met performance, maar meer dat Gigabyte niet meer de aantallen kan kopen die nVidia van ze vraagt (praat je over 100k per item / deal). Toen ze samen waren met Asus hadden ze daar voordeel van, nu niet meer. Maar daar wisselen ze elke 2 jaar ofzo van exclusive partner dus niemand zal het merken.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 14-05 00:11

edward2

Schieten op de beesten

The Source schreef op dinsdag 24 april 2007 @ 21:28:
[...]

Geen officiele pricedrops vanuit nVidia. Kaart en chipsets zijn nog even duur.
Oorzaak is wellicht verschillende vendors / merken die veel stock van de GTX hebben liggen en nu bang worden voor alle geruchten over de R600. Officieel heeft AMD nog erg weinig bekend gemaakt. Prijs is nog niet officieel, beschikbaarheid / allocatie ook nog niet. Maar beter nu je stock dumpen dan straks ermee blijven zitten en wachten op een nVidia prijsdrop waarna je erg veel moet afschrijven, en dat kost geld.


[...]

Er zijn zo nog een stuk of 15 / 20 merken die niet in de lijst staan. Echter zijn dat allemaal van die honky tonky merken die in europa niet eens te verkrijgen zijn. Er staan al een paar merken bij die nagenoeg geen VGA meer verkopen in europa of helemaal gestopt zijn, wat te denken van Epox en Abit? Ook GeCube, Connect3d, Jetway en PowerColor (TUL) zie je bijna niet meer in europa, laat staan in Nederland.

Overigens gaat het gerucht dat Gigabyte weer exclusief ATI gaat worden, reden weet ik ook, heeft niets te maken met performance, maar meer dat Gigabyte niet meer de aantallen kan kopen die nVidia van ze vraagt (praat je over 100k per item / deal). Toen ze samen waren met Asus hadden ze daar voordeel van, nu niet meer. Maar daar wisselen ze elke 2 jaar ofzo van exclusive partner dus niemand zal het merken.
Source, verkwist jij de bonen eens over de XTX, of had je daar al wat over gezegd?

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 16:58
edward2 schreef op dinsdag 24 april 2007 @ 21:37:
[...]


Source, verkwist jij de bonen eens over de XTX, of had je daar al wat over gezegd?
Officieel weinig over bekend.

Nieuwe AMD roadmap die ik vandaag kreeg brengt ook geen helderheid. Wel paar anderen dingen qua positionering. X1600Pro / X1300XT (zelfde chipset, andere speed) worden overgenomen door RV610XT, de RV610PRO komt daar onder nog, maar boven de X1550 die blijft doorlopen. De X1650 Pro wordt vervangen door de RV630 DDR3, daaronder komt nog een RV630 met DDR2, die komt boven het segment van de RV610XT. De X1650XT wordt vervangen door de RV630 DDR4. Zoals eerder vermeld blijven 1950XT en Pro doorlopen tot Q3 de RV670 komt.

Maar terug naar de XTX versie. Paar feiten, van de XT zijn al verschillende foto's gepost, benchmarks gelekt, van de XTX nagenoeg nog niets. Zegt genoeg over beschikbaarheid. Dan het geheugen, DDR4 dat is nog erg moelijk te verkrijgen, erg duur (komt ook omdat GDDR2 een duikvlucht aan het maken is, en GDDR3 erachteraan, dus prijsgap wordt groot), en de performance is niet spectaculair. Dus de XTX moet naast GDDR4 ook een hogere klok hebben om een verschil te kunnen maken, en daarvoor is denk ik de 65nm versie voor nodig?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Dailytech is aan het overklokken geslagen....
2.0 GHz memory frequencies? No problem.

Anh beat me to R600 benchmarks by a few mere hours -- when you snooze, you lose at DailyTech. Needless to say, I feel somewhat compelled to add my benchmarks to the mix as well.

The system I'm using is an Intel Core 2 Extreme QX6800, ASUS P5N32SLI-E with 2x2GB DDR2-800. My tests this morning used the Catalyst 8.361 RC4 driver.

Core Clock - Memory Clock - 3DMark 2006 - 3DMark 2006 @ 1600x1200
745 MHz - 800 MHz - 13547 - 10978
800 MHz - 900 MHz - 13855 - 11164
845 MHz - 950 MHz - 13908 - 11219
845 MHz - 995 MHz - 14005 - 11266

Like Anh, I was able to get pretty close to a 2.0GHz memory clock while still keeping the system stable. For reference, my GeForce 8800 GTX (core clock at 650 MHz, memory at 2.0 GHz) scores 14128 on the same system with ForceWare 158.19.

I'm currently benchmarking the Radeon HD 2900 XTX, though I'll revist the XT if anyone has any particular requests.
http://www.dailytech.com/...+the+R600/article7044.htm

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 14-05 00:11

edward2

Schieten op de beesten

The Source schreef op dinsdag 24 april 2007 @ 22:05:
[...]

Officieel weinig over bekend.

Maar terug naar de XTX versie. Paar feiten, van de XT zijn al verschillende foto's gepost, benchmarks gelekt, van de XTX nagenoeg nog niets. Zegt genoeg over beschikbaarheid. Dan het geheugen, DDR4 dat is nog erg moelijk te verkrijgen, erg duur (komt ook omdat GDDR2 een duikvlucht aan het maken is, en GDDR3 erachteraan, dus prijsgap wordt groot), en de performance is niet spectaculair. Dus de XTX moet naast GDDR4 ook een hogere klok hebben om een verschil te kunnen maken, en daarvoor is denk ik de 65nm versie voor nodig?
Dailytech schijnt er eentje te hebben, maar dat zegt helaas ook nog niets over de beschikbaarheid en release. Maar als ik zie hoever de XT overklokt, dan is dat ook niet echt meer nodig, behalve dan wat meer vidmem voor superhighres+AA. in zware games (Crysis, UE3)

http://www.dailytech.com/...+the+R600/article7044.htm

Hopelijk doet hij ook een paar highres+AA benchmarks.

[ Voor 7% gewijzigd door edward2 op 24-04-2007 22:11 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 8819

Anoniem: 165478 schreef op dinsdag 24 april 2007 @ 20:48:
Volgens mij ben je bij Fabrikanten die ATI produceren en verkope Jetway vergeten,

BTW, super mooie topic start. Jammer dat ATI ook voor een 128-bit mem. interface gaat ze hadden zo een goede slag kunnen slaan tegen de 8600 GT(s). Zoals ik heb vernomen worden de prestaties van de ATI kaarten niet beter dan van de huidige nvidia kaarten, en dat zou erg jammer zijn.

De Radeon HD 2900 zou ergens tussen de GTX en de GTS vallen :(,

Maar nog ff een keer hulde voor je topic start!!!!!
Als je goed in de hardware game wereld kijk zie je dat vaak de kaarten van gelijkwaardige prestatie neer zette op de midde markt.
Als ati of nvidia inderdaad een 256bit bus willen gebruiken dan hadden ze dat wel gedaan.

Maar de reden dat ze dat niet doen is dat de gat wat nu er is opgevult word door de volgende serie kaarten.
De low\midde kaarten die er nu zijn voor directx zorgt er voor dat mensen hun aankopen gaan doen.
Maar voor de echte games zijn deze kaarten te langzaam en een tussen kaart is er niet waardoor men wel een hi-end kaart moeten kopen (game junkies).
Dadelijk komt er tussen kaart voor de mensen die geduldige wachten en hun verstand gebruiken om de eerst serie kaarten links te laten liggen.

Acties:
  • 0 Henk 'm!

Anoniem: 23009

maar als je het zo bekijkt:

Overall sneller dan een GTS maar niet overall sneller dan een GTX maar wel overall goedkoper dan een GTS dus interessant is het wel en eigenlijk komt de HD 2900XT overheen met een GTX als het men zo bekijkt :) dus voor minder geld dan een GTX en toch de prestaties van een GTX te kunnen behalen vind ik een nette zet.

[ Voor 36% gewijzigd door Anoniem: 23009 op 24-04-2007 23:13 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

CJ schreef op dinsdag 24 april 2007 @ 22:07:
Dailytech is aan het overklokken geslagen....

The system I'm using is an Intel Core 2 Extreme QX6800, ASUS P5N32SLI-E with 2x2GB DDR2-800. My tests this morning used the Catalyst 8.361 RC4 driver.

[code]
Core Clock Memory Clock 3DMark 2006 3DMark 2006 @ 1600x1200
745 MHz 800 MHz 13547 10978
800 MHz 900 MHz 13855 11164
845 MHz 950 MHz 13908 11219
845 MHz 995 MHz 14005 11266
[/code]

Like Anh, I was able to get pretty close to a 2.0GHz memory clock while still keeping the system stable. For reference, my GeForce 8800 GTX (core clock at 650 MHz, memory at 2.0 GHz) scores 14128 on the same system with ForceWare 158.19.
Het komt er dus op neer dat 7,5% core en 20% mem overclock resulteert in 3% winst in 3DMark2006 en 2,5% winst in 3DMark2006 op 1600x1200. Tevens haalt een vergelijkbaar overgeklokte 8800GTX dat ook.

Kunnen we hieruit concluderen dat de 3DMark2006 test de ATI niet goed kan benchmarken of dat er hier serieus veel mensen vrij ongelukkig gaan zijn binnenkort ? Persoonlijk vind ik de vele argumenten wel leuk maar men verwacht na zolang wachten toch iets om over naar huis te schrijven.

Goedkoper, OK. Maar na een half jaar vertraging verwacht men toch wel meer dan alleen een interessante prijs/prestatie. Is dat het enige wat we gaan krijgen totdat men effectief een DX10 vergelijking kan doen die telt ? Dus nog een half jaar wachten blijkbaar. Dus feitelijk gaan we in december ergens te weten komen of de R600 het jaar wachten waard was ?

[ Voor 12% gewijzigd door Phuncz op 24-04-2007 23:15 ]


Acties:
  • 0 Henk 'm!

Anoniem: 23009

heh let wel op er zijn oude "Beta" Drivers gebruikt op die ATi kaart terwijl er bijna lek dichte WHQL drivers zijn gebruikt op die GeForce 8800 GTSjes ;) en Daar zit wel een verschil is, de ATi drivers kunnen nog sterk verbeterd worden die van nVidia aangezien niet echt meer aangezein de 8800 serie best oud is vergeleken met de 2900 serie kaarten.

En ja 3D Mark zegt niet alles!
Aan game tests heb men veel meer aan, men koopt zo'n kaart om te gamen en niet de heledag dat gare 3D Mark te draaien :') wat ook in de meeste gevallen ook getweakt is voor nvidia kaarten heh dat was ook in het verleden te merken en nu nog steeds

Dus als men een eeerlijke als serieuzere test wil down pak dan Flight Simulator X, HalfLife 2 EP1, X3 Reunion, C&C3 enzovoorts daar hebben we veel meer aan imho.

En is ide wat trager toch ga ik er voor aangezien ik de Omega Drivers en de ATi control panel layout erg goed vind bevallen en aj twee HD 2900XT's in CF zal ook geen verkeerde keuze zijn dat met ATi Tray Tool zal ook prima verlopen :)

Het jaar is lang nog niet voorbij hoor hehe en hey die 2900XT komt wel die XTX ook wel maar ja het is toch wat we gewend zijn dan maar eind April voor die XT als gepland was en ja Q3 voor die XTX of dat nou waar is lijkt me sterk maar we zien wel hoor, aangezien er toch nog geen DX10 games zijn, erg is het ook weer niet, ATi doet terminste extra tijd insteken om een goed werkend product op de markt te brengen dan een half gare :+

[ Voor 67% gewijzigd door Anoniem: 23009 op 24-04-2007 23:24 ]


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Anoniem: 23009 schreef op dinsdag 24 april 2007 @ 23:16:
En is ide wat trager toch ga ik er voor aangezien ik de Omega Drivers en de ATi control panel layout erg goed vind bevallen en aj twee HD 2900XT's in CF zal ook geen verkeerde keuze zijn dat met ATi Tray Tool zal ook prima verlopen :)

Het jaar is lang nog niet voorbij hoor hehe en hey die 2900XT komt wel die XTX ook wel maar ja het is toch wat we gewend zijn dan maar eind April voor die XT als gepland was en ja Q3 voor die XTX of dat nou waar is lijkt me sterk maar we zien wel hoor.
Als je zover bent, draai dan ook ff die Ruby demo en zet 'm op 't net in 720p :9~

Ik hoop trouwens dat er nog wat andere demo's uitkomen, die de kracht van die "geometry shaders" expliciet uitbuiten.

Acties:
  • 0 Henk 'm!

Anoniem: 23009

Anoniem: 107626 schreef op dinsdag 24 april 2007 @ 23:28:
[...]


Als je zover bent, draai dan ook ff die Ruby demo en zet 'm op 't net in 720p :9~

Ik hoop trouwens dat er nog wat andere demo's uitkomen, die de kracht van die "geometry shaders" expliciet uitbuiten.
heh heb al een leuk schermpje gekocht een mooie 37,2" 720p HD TV :) van Phillips ik weet alleen het type niet heh maar er zitten dual HDMI aansluitingen op als dual Scart en een DVI-I :)
5000 : 1 contrast en 8ms :) not bad maar goed leuk voor Flight Sim X waar het hoofdzakelijk voor bedoel is als af en toe TV als films, me CF setje ondersteund wel HD TV maare ik zie geen HDMI converters maar wel een paars achtige kastjemet 3 ingangen wat bij de X1950 XTX zit

een groter scherm paste niet in me kast LoL :X

[ Voor 15% gewijzigd door Anoniem: 23009 op 24-04-2007 23:38 ]


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Waarom gebruikt men niet het enige DX10-game om enigzins kijk op de prestaties van nieuwe GPU's te krijgen?
Het kan gewoon, dus doen!!!
Waar jullie ook komen, bring it on!
Al dat gedoe met futurekwark xyz kan ik niet meer zien, gewoon... zegt nihil-komma-niks toch over de toekomstige games 8)7

Hier, zo kan het dus wel:
http://www.extremetech.com/article2/0,1697,2107337,00.asp

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Phuncz schreef op dinsdag 24 april 2007 @ 23:13:
[...]
Dus feitelijk gaan we in december ergens te weten komen of de R600 het jaar wachten waard was ?
Afbeeldingslocatie: http://images.fok.nl/s/yes_new.gif

Tenzij de eerste DX10 patches/games/benchmarks voor die tijd uit komen. Maar dat had ik ook al een paar maanden terug gezegd. :+

In DX9 zal het elkaar niet veel ontlopen. In DX10 zal duidelijker worden wie de betere implementatie heeft. Het is een beetje zoals toen met de R300... die kwam pas ook goed op stoom nadat een half jaar na launch DX9 uit kwam en pas ongeveer na een jaar de eerste echte DX9 applicaties uit kwamen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • SgtStrider
  • Registratie: Juli 2003
  • Laatst online: 11:17

SgtStrider

Fractal Switchover!

Geweldig dit, de halve wereld beoordeelt de kaart op een synthetische benchmark (waar al_lang een nieuwe versie van uit zou moeten komen, 10k is gepasseerd). Wat mij persoonlijk erg opvalt, zijn de Maya scores, en die zijn echt bizar goed!

Voorbeeld; een Dell Precision 690 workstation met 2x Quadro FX 4600 in SLI scoort 235 in SPECviewperf (maya-02). Dit tegenover de 224 van de HD2900XT. Enig verschil is wel de quadcore geloof ik, maar in de 690 zitten ook ernstig dikke Xeons, beetje zelfde architectuur lijkt me. Nochtans, dit verschil is gigantisch, en ik denk dat als ATi's FireGL kaarten gebaseerd op deze architectuur gaan worden, dat CAD-land misschien wel eens een turn zou kunnen krijgen :)

CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600


Acties:
  • 0 Henk 'm!

Anoniem: 23009

SgtStrider schreef op dinsdag 24 april 2007 @ 23:47:
Geweldig dit, de halve wereld beoordeelt de kaart op een synthetische benchmark (waar al_lang een nieuwe versie van uit zou moeten komen, 10k is gepasseerd). Wat mij persoonlijk erg opvalt, zijn de Maya scores, en die zijn echt bizar goed!

Voorbeeld; een Dell Precision 690 workstation met 2x Quadro FX 4600 in SLI scoort 235 in SPECviewperf (maya-02). Dit tegenover de 224 van de HD2900XT. Enig verschil is wel de quadcore geloof ik, maar in de 690 zitten ook ernstig dikke Xeons, beetje zelfde architectuur lijkt me. Nochtans, dit verschil is gigantisch, en ik denk dat als ATi's FireGL kaarten gebaseerd op deze architectuur gaan worden, dat CAD-land misschien wel eens een turn zou kunnen krijgen :)
heh ja idd en dat met Beta RC4 drivers die nog best oud zijn, ik denk als de de kaart uit komt met officiele WHQL drivers dat we leuke performance boosts zullen mee gaan makenvergeleken met die oude beta drivers die ze altijd pakken voor een benchmark.

Voor de CAD wereld is dit idd leuk nieuws eindelijk wat anders te kiezen wat ook verot snel kan zijn 8)

[ Voor 4% gewijzigd door Anoniem: 23009 op 24-04-2007 23:55 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
Jammer dat ze niet even de core en mem oc apart hebben getest om te kijken waar de bottelnek zit.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
BTW...
Here are some unofficial release dates in the DX10 game department.

Company of Heroes (DX 10 patch) - May 07
FPS Creator - May 07
Lost Planet - June 07
EVE Online (DX 10 patch) - Mid 07
Hellgate London - Mid 07

Age of Conan - Late summer

Flight Sim X (DX 10 patch) - Fall 07
BioShock - Fall 07

World in Conflict - Late 07
Unreal Tournament 3 - Q4 07
Crysis - Sometime this year
Supreme Commander TBA

From Neoseeker 8600gt review ;)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
SgtStrider schreef op dinsdag 24 april 2007 @ 23:47:
Geweldig dit, de halve wereld beoordeelt de kaart op een synthetische benchmark (waar al_lang een nieuwe versie van uit zou moeten komen, 10k is gepasseerd). Wat mij persoonlijk erg opvalt, zijn de Maya scores, en die zijn echt bizar goed!

Voorbeeld; een Dell Precision 690 workstation met 2x Quadro FX 4600 in SLI scoort 235 in SPECviewperf (maya-02). Dit tegenover de 224 van de HD2900XT. Enig verschil is wel de quadcore geloof ik, maar in de 690 zitten ook ernstig dikke Xeons, beetje zelfde architectuur lijkt me. Nochtans, dit verschil is gigantisch, en ik denk dat als ATi's FireGL kaarten gebaseerd op deze architectuur gaan worden, dat CAD-land misschien wel eens een turn zou kunnen krijgen :)
Specviewperf is toch een OpenGL applicatie? Van de R600 is al een paar keer vermeldt dat deze een enorme stap voorwaarts is op het gebied van OpenGL voor ATi. Volgens de eerste geruchten doet ATi nu absoluut niet meer onder voor nVidia en zou zelfs sneller zijn.
Anoniem: 23009 schreef op dinsdag 24 april 2007 @ 23:54:
[...]


heh ja idd en dat met Beta RC4 drivers die nog best oud zijn, ik denk als de de kaart uit komt met officiele WHQL drivers dat we leuke performance boosts zullen mee gaan makenvergeleken met die oude beta drivers die ze altijd pakken voor een benchmark.

Voor de CAD wereld is dit idd leuk nieuws eindelijk wat anders te kiezen wat ook verot snel kan zijn 8)
8.361-RC4 is volgens mij niet echt oud... dat is de driver die een grote boost gaf ten opzichte van voorgaande 8.351 versies, de drivers waar de eerste gelekte benchmarks mee werden gedraait.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 16:58
Joepi schreef op dinsdag 24 april 2007 @ 23:39:
Waarom gebruikt men niet het enige DX10-game om enigzins kijk op de prestaties van nieuwe GPU's te krijgen?
Het kan gewoon, dus doen!!!
Waar jullie ook komen, bring it on!
Al dat gedoe met futurekwark xyz kan ik niet meer zien, gewoon... zegt nihil-komma-niks toch over de toekomstige games 8)7

Hier, zo kan het dus wel:
http://www.extremetech.com/article2/0,1697,2107337,00.asp
SupCom is op dit moment geen DX10, komt nog ooit een patch voor.

En Companies of Heroes zou als eerste met DX10 patch komen maar dat zie ik ook niet gebeurden. Eerst zou dit 1.6 zijn, maar is al naar 1.7 verzet.
Current Patch: CoH 1.6 Patch
confirmed
development
beta testing
QA testing
release imminent

Current Patch: CoH 1.7 DX10 Patch
confirmed
development
beta testing
QA testing
release imminent

[ Voor 25% gewijzigd door The Source op 25-04-2007 00:11 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Level505 zat er toen volgens mij toch niet zo heel ver vanaf .. en het zou me niks verbazen als ie ook daadwerkelijk een (al dan niet voorlopige) revisie van de r600 in z'n handen heeft gehad :X

64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
32 TMUs, 16 ROPs
512 bit Memory Controller, full 32 bit per chip connection
GDDR3 at 900 MHz clock speed (January)
GDDR4 at 1.1 GHz clock speed (March, revised edition)
Total bandwidth 115 GB/s on GDDR3
Total bandwidth 140 GB/s on GDDR4
Consumer memory support 1024 MB

[ Voor 14% gewijzigd door Mr. Detonator op 25-04-2007 00:38 ]


Acties:
  • 0 Henk 'm!

Anoniem: 199989

hehe,inderdaad,en toen iedereen beweren dat die site compleet vapor was...zaten er toen inderdaad niet ver langs....

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
The Source schreef op woensdag 25 april 2007 @ 00:09:
[...]

SupCom is op dit moment geen DX10, komt nog ooit een patch voor.

En Companies of Heroes zou als eerste met DX10 patch komen maar dat zie ik ook niet gebeurden. Eerst zou dit 1.6 zijn, maar is al naar 1.7 verzet.


[...]
Sorry, klopt!

Maar er is wel een gek game speciaal voor vista/dx10:
http://www.fpscreatorx10.com/
This new version is designed to work exclusively on Windows Vista PCs with DX10 hardware. It is an easy to use yet highly flexible tool for creating action packed First Person Shooter games with stunning 3D gaming results. Now anyone can make cool looking Next-Gen FPS games!
http://www.nzone.com/object/nzone_fpscx10_home.html

Zou dat niet om te turnen zijn voor benchmarkdoeleinden?
Gewoon om een idee te krijgen?

Acties:
  • 0 Henk 'm!

  • m277755
  • Registratie: Februari 2004
  • Laatst online: 24-01-2022

m277755

leest meer dan hij typt

Anoniem: 199989 schreef op woensdag 25 april 2007 @ 00:29:
hehe,inderdaad,en toen iedereen beweren dat die site compleet vapor was...zaten er toen inderdaad niet ver langs....
Het lijkt me waarschijnlijker dat ze een aardige inschatting gemaakt hebben van wat de R600 waarschijnlijk zou worden dan dat ze daadwerkelijk een een kaart met R600 chip in handen hadden. Iets wat we allemaal hadden kunnen doen om een hoop geld te verdienen met google ads ;)

Acties:
  • 0 Henk 'm!

Anoniem: 199989

m277755 schreef op woensdag 25 april 2007 @ 06:10:
[...]

Het lijkt me waarschijnlijker dat ze een aardige inschatting gemaakt hebben van wat de R600 waarschijnlijk zou worden dan dat ze daadwerkelijk een een kaart met R600 chip in handen hadden. Iets wat we allemaal hadden kunnen doen om een hoop geld te verdienen met google ads ;)
jammer dat wij dan niet op dat idee waren gekomen O-)
Toch moet je toegeven dat ze er niet ver naast zaten...Allez,weer een dagje met snuffelen op het internet naar nieuwtjes over de ATI-kaartjes...Ben benieuwd wat de prijs gaat zijn van een XTX,moest deze kaart effectief bestaan/verschijnen...Heb nog een beetje speling in mijn budget :+

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
Fudzilla meld dat de R600 XTX op 800-2200 13k5 zou scoren tov de 14k van de 8800 Ultra.

Het zou ook kunnen dat hij de OC scores van de R600 XT heeft gepakt en doorberekend heeft of zo. ( die van digitimes )

Maar ik vind die OC scores van gister een beetje tegen vallen. Als in hoe de performance opschaald.

[ Voor 19% gewijzigd door Astennu op 25-04-2007 08:45 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Je snapt natuurlijk wel dat 3DM06 maar een gedeelte van de mogelijkheden van videokaarten als de GF8800GTX en HD2900XT kunnen testen. Shadermodel 4 bracht als grote vernieuwing de Geometry Shaders en die worden niet getest. Als de eerste geruchten die ik hoor kloppen, dan is de R600 daar minstens zo'n 50% sneller/efficienter in als de G80.

3DM06 scores zijn leuk voor een kleine indicatie op het gebied van DX9 (vnl SM3.0 en HDR), maar zijn een slechte indicatie over de performance in DX10 applicaties.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
CJ schreef op woensdag 25 april 2007 @ 09:23:
Je snapt natuurlijk wel dat 3DM06 maar een gedeelte van de mogelijkheden van videokaarten als de GF8800GTX en HD2900XT kunnen testen. Shadermodel 4 bracht als grote vernieuwing de Geometry Shaders en die worden niet getest. Als de eerste geruchten die ik hoor kloppen, dan is de R600 daar minstens zo'n 50% sneller/efficienter in als de G80.

3DM06 scores zijn leuk voor een kleine indicatie op het gebied van DX9 (vnl SM3.0 en HDR), maar zijn een slechte indicatie over de performance in DX10 applicaties.
Dat hele 3dmark is zo i zo niets. Want daar wordt gigantisch op geoptimaliseerd. En in het verleden is het ook wel eens gebleken dat een kaart die in 3Dmark sneller was in echte game tests langzamer was ( maar ook andersom ). De manier van renderen is ook heel anders dan wat er in games gebruikt wordt.

DX 9.0 zegt natuurlijk ook niets. En ik gok dat de R600 XT en de 8800 GTX snel genoeg zullen zijn om alle DX 9.0 games in volle glorie te kunnen draaien. DX10 is natuurlijk het gene waar het om gaat. En welke GPU daar sneller in is. Maar ja voordat we dat goed kunnen testen zijn we een jaar verder.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Wanneer komen de dx10 games nou? Cyris staat voor september geplanned maar farcry haalde ook bij lange na zijn launch datum niet. Verder zie ik geen enkele dx10 game in verschiet en ik herinner me ook nog doom3 die toen heel stoer toende wat de ati 9700 wel niet kon doen, ga je d3 op een 9700 spelen kun je alles op het laagst ziten en bidden op 25 fps.

Crysis zal denk ik ook niet geweldig draaien op een 8800 of een x2900 maar op de 2de of 3de generatie dx10 pas voluit draaien. Nu een dx10 kaart kopen terwijl je er NIKS meer kan vindt ik echt een waste of money IMHO.

http://www.twitch.tv/jannustitannus


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
evilpin0 schreef op woensdag 25 april 2007 @ 10:42:
Nu een dx10 kaart kopen terwijl je er NIKS meer kan vindt ik echt een waste of money IMHO.
Het hoeft niet per se een waste of money te zijn. Ik denk dat de kopers van een Radeon 9700Pro ook jarenlang plezier hebben gehad van hun kaart. Deze bleek immers snel genoeg om ook de eerste generatie DX9 games redelijk goed te kunnen spelen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 09-05 12:09
Astennu schreef op woensdag 25 april 2007 @ 10:02:
[...]
DX 9.0 zegt natuurlijk ook niets. En ik gok dat de R600 XT en de 8800 GTX snel genoeg zullen zijn om alle DX 9.0 games in volle glorie te kunnen draaien. DX10 is natuurlijk het gene waar het om gaat. En welke GPU daar sneller in is. Maar ja voordat we dat goed kunnen testen zijn we een jaar verder.
Eigenlijk kun je dus concluderen dat er helemaal geen vraag is op dit moment naar nieuwe videokaarten. Dit omdat de huidige high-end, GF8, GF7 en Radeon 1950/1900, alle directx9 spellen vloeiend kunnen draaien met full options en AA+AF (zkr in SLI/crossfire).
Dus zolang er geen directx 10 games zijn, heb je eigenlijk niets aan de nieuwste videokaarten :+

Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
CJ schreef op woensdag 25 april 2007 @ 10:52:
[...]


Het hoeft niet per se een waste of money te zijn. Ik denk dat de kopers van een Radeon 9700Pro ook jarenlang plezier hebben gehad van hun kaart. Deze bleek immers snel genoeg om ook de eerste generatie DX9 games redelijk goed te kunnen spelen.
Als je van een 9800 naar een 8800 is het een goede upgrade, een dx10 kaart nu kopen als je een 7900 of een x1900 is wel waste of money imo. Maar zoals je zegt, je hebt er altijd veel plezier van, maar tactishe koop vindt ik het niet.

http://www.twitch.tv/jannustitannus


Acties:
  • 0 Henk 'm!

  • Tijgertje84
  • Registratie: Augustus 2005
  • Laatst online: 04-05 14:38
evilpin0 schreef op woensdag 25 april 2007 @ 10:42:
Crysis zal denk ik ook niet geweldig draaien op een 8800 of een x2900 maar op de 2de of 3de generatie dx10 pas voluit draaien. Nu een dx10 kaart kopen terwijl je er NIKS meer kan vindt ik echt een waste of money IMHO.
Ik heb een 8800 en vorige maand had ik nog een 9600 PRO......
wil niet veel zeggen maar dat kaartje was echt super te noemen want kon er alle top spellen mee spelen terwijl ze er voor die kaart doen er nog redelijk uitzagen met settings op low/medium (Oblivion,FEAR) Nu draai ik deze spellen met fps van hier tot ginder dus weet haast wel zeker dat ik Crysis redelijk zal kunnen draaien maar dan wel op een meer standaard reso van 1024*800. Want spelen emt absurde resos van 1900*x etc is gewoon lomp want er is geen hout verschil te merken. Tis puur meer van kijk ik kan lekker op grote reso spelen jeeej want mijn kaart kan dat. }:|
Ik speel sinds dezemaand pas op 1290*900 (oid) en zal zeker nooit hoger gaan en om terug te moeten naar 1024*800 is echt geen ramp. 90% van de games zijn niet gemaakt voor zulke resos want probeer dan maar een wat tekst te lezen ingame...
Dus mijn conclusie is denk dat ik Crysis wel redelijk zal kunnen draaien met veel op hoog.

[ Voor 23% gewijzigd door Tijgertje84 op 25-04-2007 11:01 ]

Intel© Conroe E6600 | Asus P5Q PRO Turbo | Sapphire Vapor-X HD5770 1GB | G.E.I.L. 2 GB DDR2-667 Kit CL4 4-4-12 | WD Caviar SE16 2x250GB (S-ATA2) (Raid0) | Sunbeam Trio | Chaintec CFT-500A | Windows XP Pro SP3 | Samsung Syncmaster S23A350H


Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Tijgertje84 schreef op woensdag 25 april 2007 @ 10:58:
[...]

Ik heb een 8800 en vorige maand had ik nog een 9600 PRO......
wil niet veel zeggen maar dat kaartje was echt super te noemen want kon er alle top spellen mee spelen terwijl ze er voor die kaart doen er nog redelijk uitzagen met settings op low/medium (Oblivion,FEAR) Nu draai ik deze spellen met fps van hier tot ginder dus weet haast wel zeker dat ik Crysis redelijk zal kunnen draaien maar dan wel op een meer standaard reso van 1024*800. Want spelen emt absurde resos van 1900*x etc is gewoon lomp want er is geen hout verschil te merken. Tis puur meer van kijk ik kan lekker op grote reso spelen jeeej want mijn kaart kan dat. }:|
Is dat niet zo mocht dat niet geen ramp zijn want heb deze gekocht omdat er niets beters was voor deze prijs.
Jij hebt een beetje andere situtatie, ik bedoel meer mensen die met smart zitten te wachten op de x2900 of een 8800 perse kopen voor dx10, dat is waste of money imo.

Als je gewoon toe bent aan nieuwe vga is het wel een goedekoop ,anders kan je toch wachten tot je een ons weegt

Ik wou eigenlijk me x1900 in CF zetten, maar dat vindt ik al waste of money aangezien die alles goed draait.

http://www.twitch.tv/jannustitannus


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
Gurneyhck schreef op woensdag 25 april 2007 @ 10:54:
[...]


Eigenlijk kun je dus concluderen dat er helemaal geen vraag is op dit moment naar nieuwe videokaarten. Dit omdat de huidige high-end, GF8, GF7 en Radeon 1950/1900, alle directx9 spellen vloeiend kunnen draaien met full options en AA+AF (zkr in SLI/crossfire).
Dus zolang er geen directx 10 games zijn, heb je eigenlijk niets aan de nieuwste videokaarten :+
Nou een X1900 XTX is niet genoeg voor de nieuwste DX 9.0 games zoals TDU en Supreme Commander. SLi / CF zou wel uitkomst bieden. Je hebt gewoon net iets meer nodig dan een X1900 XTX.
Tijgertje84 schreef op woensdag 25 april 2007 @ 10:58:
[...]

Ik heb een 8800 en vorige maand had ik nog een 9600 PRO......
wil niet veel zeggen maar dat kaartje was echt super te noemen want kon er alle top spellen mee spelen terwijl ze er voor die kaart doen er nog redelijk uitzagen met settings op low/medium (Oblivion,FEAR) Nu draai ik deze spellen met fps van hier tot ginder dus weet haast wel zeker dat ik Crysis redelijk zal kunnen draaien maar dan wel op een meer standaard reso van 1024*800. Want spelen emt absurde resos van 1900*x etc is gewoon lomp want er is geen hout verschil te merken. Tis puur meer van kijk ik kan lekker op grote reso spelen jeeej want mijn kaart kan dat. }:|
Ik speel sinds dezemaand pas op 1290*900 (oid) en zal zeker nooit hoger gaan en om terug te moeten naar 1024*800 is echt geen ramp. 90% van de games zijn niet gemaakt voor zulke resos want probeer dan maar een wat tekst te lezen ingame...
Dus mijn conclusie is denk dat ik Crysis wel redelijk zal kunnen draaien met veel op hoog.
Lol zie het verschil niet tussen 1024x768 en 1920x1200 die is gek. Ik zie het verschil tussen 1680x1050 en 1920x1200 met gemak. Ik heb op 1920x1200 zelfs AA op 6x staan als me kaart het trekt omdat ik dat verschil ook nog zie. Dus ik weet niet waarom jij het verschil niet zie maar het is er overduidelijk.

Waarom denk je dan dat er schermen zijn die 2560x1500 kunnen ? En waarom hebben we dan HD tv's ? want volgens jou is de oude 800x600 meer dan genoeg 8)7 8)7 |:( :? :X :|

Ook erg zonde om een 8800 GTX te kopen om vervolgens op 1280x1024 te spelen zonder AA of iets. Met AA en AF is het al zonde kun je beter een goedkopere kaart nemen zoals een 7900 of X1900 want die trekken dat ook.

[ Voor 4% gewijzigd door Astennu op 25-04-2007 11:08 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
evilpin0 schreef op woensdag 25 april 2007 @ 10:42:
Wanneer komen de dx10 games nou? Cyris staat voor september geplanned maar farcry haalde ook bij lange na zijn launch datum niet. Verder zie ik geen enkele dx10 game in verschiet en ik herinner me ook nog doom3 die toen heel stoer toende wat de ati 9700 wel niet kon doen, ga je d3 op een 9700 spelen kun je alles op het laagst ziten en bidden op 25 fps.

Crysis zal denk ik ook niet geweldig draaien op een 8800 of een x2900 maar op de 2de of 3de generatie dx10 pas voluit draaien. Nu een dx10 kaart kopen terwijl je er NIKS meer kan vindt ik echt een waste of money IMHO.
Als je Vista en dus DX10 hebt, dan is er maar een enkel spel voor: FPS Creator X10
Joepi in "[Algemeen] ATi Nieuwsdiscussietopic - De..."

=> demo beschikbaar!
=> misschien vogelt iemand uit, of er een fps in zit? }:O

Acties:
  • 0 Henk 'm!

  • Tijgertje84
  • Registratie: Augustus 2005
  • Laatst online: 04-05 14:38
Astennu schreef op woensdag 25 april 2007 @ 11:07:
Lol zie het verschil niet tussen 1024x768 en 1920x1200 die is gek. Ik zie het verschil tussen 1680x1050 en 1920x1200 met gemak. Ik heb op 1920x1200 zelfs AA op 6x staan als me kaart het trekt omdat ik dat verschil ook nog zie. Dus ik weet niet waarom jij het verschil niet zie maar het is er overduidelijk.

Waarom denk je dan dat er schermen zijn die 2560x1500 kunnen ? En waarom hebben we dan HD tv's ? want volgens jou is de oude 800x600 meer dan genoeg 8)7 8)7 |:( :? :X :|

Ook erg zonde om een 8800 GTX te kopen om vervolgens op 1280x1024 te spelen zonder AA of iets. Met AA en AF is het al zonde kun je beter een goedkopere kaart nemen zoals een 7900 of X1900 want die trekken dat ook.
Jah 800*600 is overdreven idd. Maar het verschil in kwaliteit in beide gevallen (1680x1050 en 1920x1200 ) alles op zn hoogst is vrijwel te verwaarlozen imo... tenzij je geil bent om hoge resos of overdreven graphics. Maar mijn bedoeling was meer dat de hele HUD/GUI van games daar niet op gebouwd zijn en dan overdreven klein worden waardoor alles of niet te zien is of te lezen valt.
Snap wel dat er verschil is maar als je eenmaal aan het gamen bent valt je dat 100% zeker niet meer op. (maar mijn beeldscherm kan maar max 1290*900 aan :( )

[ Voor 52% gewijzigd door Tijgertje84 op 25-04-2007 11:17 ]

Intel© Conroe E6600 | Asus P5Q PRO Turbo | Sapphire Vapor-X HD5770 1GB | G.E.I.L. 2 GB DDR2-667 Kit CL4 4-4-12 | WD Caviar SE16 2x250GB (S-ATA2) (Raid0) | Sunbeam Trio | Chaintec CFT-500A | Windows XP Pro SP3 | Samsung Syncmaster S23A350H


Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Astennu schreef op woensdag 25 april 2007 @ 11:07:
[...]


Nou een X1900 XTX is niet genoeg voor de nieuwste DX 9.0 games zoals TDU en Supreme Commander. SLi / CF zou wel uitkomst bieden. Je hebt gewoon net iets meer nodig dan een X1900 XTX.


[...]


Lol zie het verschil niet tussen 1024x768 en 1920x1200 die is gek. Ik zie het verschil tussen 1680x1050 en 1920x1200 met gemak. Ik heb op 1920x1200 zelfs AA op 6x staan als me kaart het trekt omdat ik dat verschil ook nog zie. Dus ik weet niet waarom jij het verschil niet zie maar het is er overduidelijk.

Waarom denk je dan dat er schermen zijn die 2560x1500 kunnen ? En waarom hebben we dan HD tv's ? want volgens jou is de oude 800x600 meer dan genoeg 8)7 8)7 |:( :? :X :|

Ook erg zonde om een 8800 GTX te kopen om vervolgens op 1280x1024 te spelen zonder AA of iets. Met AA en AF is het al zonde kun je beter een goedkopere kaart nemen zoals een 7900 of X1900 want die trekken dat ook.
Ik draai supcom op 1280x1024, perfect met alles op medium/hoog en 2xaa, ik speel online op hoog niveau en eis goede performence, dis heb ik. Een x1900 is meer dan genoeg hervoor dus.

lekker boeie of je nou 3000000x2000000 draait, zet 2-4x op 1280x1024 aan en je ziet geen karteltjes meer, hoezo op extreme reso draaien dan?

http://www.twitch.tv/jannustitannus


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Astennu schreef op woensdag 25 april 2007 @ 08:44:
Fudzilla meld dat de R600 XTX op 800-2200 13k5 zou scoren tov de 14k van de 8800 Ultra.
Het zou ook kunnen dat hij de OC scores van de R600 XT heeft gepakt en doorberekend heeft of zo. ( die van digitimes )
Lijkt me niet dat je de performance van een 512MB GDDR3 kaart kan 'extrapoleren' naar die van een 1024MB GDDR4 kaart... vooral gezien de architectuur (en latency) van GDDR3 en 4 redelijk afwijkt.
Als hij zegt XTX dan kunnen we aannemen: R600 met 1GB GDDR4... er schijnen bevestigd meerdere van in omloop te zijn...
Maar ik vind die OC scores van gister een beetje tegen vallen. Als in hoe de performance opschaald.
OC was inderdaad ok.... performancetoename viel idd tegen voor een 13% core en 25% mem OC. Het lijkt er in ieder geval wel op dat R600 behoorlijk goed klokt, dus dat ik mooi :)
Tijgertje84 schreef op woensdag 25 april 2007 @ 11:13:
Maar het verschil in kwaliteit in beide gevallen (1680x1050 en 1920x1200 ) alles op zn hoogst is vrijwel te verwaarlozen imo... tenzij je geil bent om hoge resos of overdreven graphics. Maar mijn bedoeling was meer dat de hele HUD/GUI van games daar niet op gebouwd zijn en dan overdreven klein worden waardoor alles of niet te zien is of te lezen valt.
Snap wel dat er verschil is maar als je eenmaal aan het gamen bent valt je dat 100% zeker niet meer op. (maar mijn beeldscherm kan maar max 1290*900 aan :( )
Als je een TFT scherm hebt wil je gewoon op de native resolutie draaien, omdat je monitor anders gaat lopen scalen... scaling is vaak echt duidelijk zichtbaar op TFT's, en bepaald niet mooi.
Voor mijn monitor is de native reso 1920x1200 en daar game ik dus op. Als je op 1280 gamed is het momenteel overigens geldverbranding om voor een 8800GTX / Ultra of HD2900XT / XTX te gaan.

[ Voor 35% gewijzigd door Cheetah op 25-04-2007 11:24 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Tijgertje84
  • Registratie: Augustus 2005
  • Laatst online: 04-05 14:38
evilpin0 schreef op woensdag 25 april 2007 @ 11:01:
Als je gewoon toe bent aan nieuwe vga is het wel een goedekoop ,anders kan je toch wachten tot je een ons weegt
Ik was al een jaar bezig met een pc samenstellen maar heb alle technologien afgewacht die eraan zaten te komen. maar goed idd je kan wel wachten tot je een ons weegt. Nu heb ik het gekocht krijg ik een dag erna te horen dat intel de prijzen omlaag gooit }:| ag jah jammer dan. (heb je met dagprijzen)
evilpin0 schreef op woensdag 25 april 2007 @ 11:13:
Ik draai supcom op 1280x1024, perfect met alles op medium/hoog en 2xaa, ik speel online op hoog niveau en eis goede performence, dis heb ik. Een x1900 is meer dan genoeg hervoor dus.

lekker boeie of je nou 3000000x2000000 draait, zet 2-4x aan en je ziet geen karteltjes meer, hoezo op extreme reso draaien dan?
Juist dat was dus mijn punt :)

Intel© Conroe E6600 | Asus P5Q PRO Turbo | Sapphire Vapor-X HD5770 1GB | G.E.I.L. 2 GB DDR2-667 Kit CL4 4-4-12 | WD Caviar SE16 2x250GB (S-ATA2) (Raid0) | Sunbeam Trio | Chaintec CFT-500A | Windows XP Pro SP3 | Samsung Syncmaster S23A350H


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
BTW: Truform is back!?
The 2900 series, aimed at complete Enthusiasts, offer a couple of more technology-related things then previously noted, from what we could gather by our sources. here. First news - R600 has Programmable Tesselation Unit, featured in the XBOX chip, as well. This is a neat feature for the game developpers that was pretty much "in the air" in the DX9 generation (Truform support) and now it's back and running. We'll talk more about this later.
http://it-review.net/inde...ask=view&id=1289&Itemid=1

Dacht dat dat met de komst van Displacement Mapping over was :?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
Cheetah schreef op woensdag 25 april 2007 @ 11:14:
[...]
Lijkt me niet dat je de performance van een 512MB GDDR3 kaart kan 'extrapoleren' naar die van een 1024MB GDDR4 kaart... vooral gezien de architectuur (en latency) van GDDR3 en 4 redelijk afwijkt.
Als hij zegt XTX dan kunnen we aannemen: R600 met 1GB GDDR4... er schijnen bevestigd meerdere van in omloop te zijn...

[...]
OC was inderdaad ok.... performancetoename viel idd tegen voor een 13% core en 25% mem OC. Het lijkt er in ieder geval wel op dat R600 behoorlijk goed klokt, dus dat ik mooi :)
Ja inderdaad. Ik vraag me af welke tool hij gebruikt heeft. Misschien was dit wel de max van de overdrive functie in CCC. Maar dan zou die ineens wel hoger kunnen dan eerst ( in % ) Maar je moet nu ook perse een 8p voeding stekker aansluiten wil je dit kunnen gebruiken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

evilpin0 schreef op woensdag 25 april 2007 @ 11:13:
lekker boeie of je nou 3000000x2000000 draait, zet 2-4x op 1280x1024 aan en je ziet geen karteltjes meer, hoezo op extreme reso draaien dan?
5 woorden: Native resolutie LCD-scherm > geen scaling.
Waarom moet er eens in de zoveel tijd toch altijd een wiseguy langskomen die voor zichzelf op z'n 14" schermpie 640x480 zat vind en van mening is dat de rest van de wereld dat ook moet vinden? :Z

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Het gaat mij de karteltjes en de scherpte, die is top. Als je perse uber reso's wilt ben je meer een reso freak dan een gamer.

Bovendien krijgt je, tenzij je letterlijk een nasa pc hebt, gegarandeert framedrops in zeer zware spel momenten op extreme reso's. Mijn mening is ook dus dat op 19icnh 1280x1024 gewoon perfect beeld geeft MITS je AA aan zet, geen karteltjes en scherp/vloeiend beeld in hoge frame rate, ziet 2xxx X 2xxx en dan echt beter uit op een 19inch als er 6x aa aan staat en de reso op 1280 staat?

tenzij je graphishe ontwerper bent of gewoon een nummer freak, zoals bv mensen die perse de 100 fps limit willen verwijderen uit spellen en de 200 fps willen halen, wat mij altijd een raadsel is.

Ik speel gewoon heerlijk spelletjes voor de lol en ben niet bezig alles maximaal te tunen/tweaken, die tijd besteed ik liever aan het spelen zelf :)

[ Voor 74% gewijzigd door evilpin0 op 25-04-2007 11:53 ]

http://www.twitch.tv/jannustitannus


Acties:
  • 0 Henk 'm!

Anoniem: 23009

oh mijn god sommige winkels kunnen ook erg vaag zijn

€ 380,00
Afbeeldingslocatie: http://www.sallandautomatisering.nl/files/32837.jpg
http://www.sallandautomatisering.nl/?pid=34021

Salland bevoorbeeld, die hebben de HD 2900 XT al in hun assortiment zitten terwijl ze het niet eens weten wanneer die op de markt komt de ene beweerd eind April de ander mid Mei!
Het enige wat meevalt is de prijs heh :X

Zo lust ik ook nog een paar heh! Ten zei dit echt klopt, ik hoop dan niet dat ze allemaal van die geruchten uit gaan...

[ Voor 31% gewijzigd door Anoniem: 23009 op 25-04-2007 11:53 ]


Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Een videokaart pre orderen 8)7
Straks pre order je hem en de dag voorop die uit komt zie je hem ergens anders 40 euro goedkoper 8)7

http://www.twitch.tv/jannustitannus


Acties:
  • 0 Henk 'm!

Anoniem: 23009

evilpin0 schreef op woensdag 25 april 2007 @ 11:55:
Een videokaart pre orderen 8)7
Straks pre order je hem en de dag voorop die uit komt zie je hem ergens anders 40 euro goedkoper 8)7
heh het heeft z'n voordelen maar ik zou het nooit doen het enige voordeel is dat men zegt dat je de VGA eerder hebt maar ja een maand wachten doet ook geen pijn, scheelt weer helse doekoes.

[ Voor 141% gewijzigd door Anoniem: 23009 op 27-04-2007 02:43 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
evilpin0 schreef op woensdag 25 april 2007 @ 11:40:
Het gaat mij de karteltjes en de scherpte, die is top. Als je perse uber reso's wilt ben je meer een reso freak dan een gamer.

Bovendien krijgt je, tenzij je letterlijk een nasa pc hebt, gegarandeert framedrops in zeer zware spel momenten op extreme reso's. Mijn mening is ook dus dat op 19icnh 1280x1024 gewoon perfect beeld geeft MITS je AA aan zet, geen karteltjes en scherp/vloeiend beeld in hoge frame rate, ziet 2xxx X 2xxx en dan echt beter uit op een 19inch als er 6x aa aan staat en de reso op 1280 staat?

tenzij je graphishe ontwerper bent of gewoon een nummer freak, zoals bv mensen die perse de 100 fps limit willen verwijderen uit spellen en de 200 fps willen halen, wat mij altijd een raadsel is.

Ik speel gewoon heerlijk spelletjes voor de lol en ben niet bezig alles maximaal te tunen/tweaken, die tijd besteed ik liever aan het spelen zelf :)
Op een 19" kun je geen hogere resolutie dan 1280x1024. Maar ik kan je wel zeggen dat je het verschil in pixel grote met een 30" scherm goed kan zien. De Pixels van de 19"schermen zijn best groot vergeleken met de 30" schermen.

Persoonlijk vind 19" veel te klein zou niet eens meer kleiner dan 24"willen ( jaja erg verwend ) en zo i zo een wide screen. Draagt gewoon bij aan de spel ervaring.

Anyway. op mijn 24" is 1920x1200 de max en dan zie ik makkelijk kartels. Met 6x AA is dat bijna weg maar ik vind het verschil met en zonder AA best groot.

En jij liet het straks lijken dat je op 1024x768 aan het spelen was zonder AA en AF niets. En dat je het verschil toch niet zou zien op een 19"scherm tussen die 1024x768 en 1280x1024 met AA en AF aan. Ik kan je verzekeren dat dat een giganties verschil is. Als ik op mijn 24" 1280x800 met AA en AF draai is dat echt lelijk.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

evilpin0 schreef op woensdag 25 april 2007 @ 11:40:
Als je perse uber reso's wilt ben je meer een reso freak dan een gamer.

Bovendien krijgt je, tenzij je letterlijk een nasa pc hebt, gegarandeert framedrops in zeer zware spel momenten op extreme reso's. Mijn mening is ook dus dat op 19icnh 1280x1024 gewoon perfect beeld geeft MITS je AA aan zet, geen karteltjes en scherp/vloeiend beeld in hoge frame rate, ziet 2xxx X 2xxx en dan echt beter uit op een 19inch als er 6x aa aan staat en de reso op 1280 staat?
Welk onderdeel van mijn uitleg dringt niet door? Native resolutie LCD-scherm > GEEN SCALING

Niet iedereen gamed op een 19" scherm, en als ik je zo hoor game je niet eens op een TFT, laat staan op een 24" widescreen TFT. Als je niet weet waar je het over hebt, begin er dan ook niet over ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Fudo melkt zijn koeitje verder
R600 at 800MHz / 1024MB DDR4 at 2200MHz

The samples are out. ATI already has samples of R600XTX or Radeon HD 2900XTX and XT cards. The new XTX card might be delayed, but some sources also say that ATI might have a handful of these cards for launch.

ATI chanced its launch plans so often that it became ridiculous. The R600 card has two DVI connectors and a PCI Express 16X plug. It comes with two power connectors, one eight pin that we talked about here and one six pin.

The card itself works at 800 MHz core and it can be overclocked even more. It comes with 2200 MHz GDDR4 memory. The 1024 MB memory works with a 512 bit memory interface. The card supports DirectX 10 and Shader model 4.0.

The card is native crossfire ready and you won't need these annoying external cables anymore. Maximal power consumption is listed as 230 W and the current sample is a HDCP ready.

The card supports S-Video out, dual monitor setup and TV IN and Out. The new card as we reported here runs just fine but we are still not sure does it comes in May or later.
http://www.fudzilla.com/i...task=view&id=688&Itemid=1

Acties:
  • 0 Henk 'm!

Anoniem: 23009

op een 24" @ 1920 x 1200 x32 zie je idd kartels aan gezien dat de pixels ook groter zijn :)

op mijn 15,4" WUXGA scherm van me M18 gebasseerde laptop ziet men eerlijk gezegt op 1920 x 1200 x32 geen kartels zonder FSAA tenzei je echt diep gaat inzoemen :)

Ook het voordeel aan een 15,4" scherm die dat aan kan je hebt meer performance met nettere beelden althans FSA is dan geen belangerijk punt meer :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
Anoniem: 23009 schreef op woensdag 25 april 2007 @ 12:20:
op een 24" @ 1920 x 1200 x32 zie je idd kartels aan gezien dat de pixels ook groter zijn :)

op mijn 15,4" WUXGA scherm van me M18 gebasseerde laptop ziet men eerlijk gezegt op 1920 x 1200 x32 geen kartels zonder FSAA tenzei je echt diep gaat inzoemen :)

Ook het voordeel aan een 15,4" scherm die dat aan kan je hebt meer performance met nettere beelden althans FSA is dan geen belangerijk punt meer :)
Ja kom op zeg wat is nu mooier een 24" TFT of een 15,4 beide op 1920x1200. Maar je hebt wel gelijk dan zie je de pixels niet. De Pixels van een 30"scherm zijn ook een stukje kleiner dan die van een 24". Maar de grootste zijn die van bv de 22". Die heeft net als de 20" 1680x1050 pixels. En dat is aanzienlijk minder scherp.

Maar we gaan nu wel erg offtopic:

Ik vraag me nu ook af wat de clockspeeds van die XT worden. En of de XTX wel dezelfde core heeft of dat die een nieuwe revisie core heeft. Want ik wil wel eens weten hoe hoog die R600 XT kan clocken zonder verhoogde voltages.

[ Voor 13% gewijzigd door Astennu op 25-04-2007 12:29 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 14-05 00:11

edward2

Schieten op de beesten

Pff, het bekende speld in een hooiberg effect waarschijnlijk weer, en dit keer wil ik er misschien wel 2.
Maar zo te zien komt hij wel gelijk in mei.

[ Voor 6% gewijzigd door edward2 op 25-04-2007 12:38 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Cheetah schreef op woensdag 25 april 2007 @ 12:13:
[...]
Welk onderdeel van mijn uitleg dringt niet door? Native resolutie LCD-scherm > GEEN SCALING

Niet iedereen gamed op een 19" scherm, en als ik je zo hoor game je niet eens op een TFT, laat staan op een 24" widescreen TFT. Als je niet weet waar je het over hebt, begin er dan ook niet over ;)
Wat boeit mij scalling nou? Ik game altijd op 1280x1024 19inch tft

http://www.twitch.tv/jannustitannus


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
evilpin0 schreef op woensdag 25 april 2007 @ 12:36:
[...]


Wat boeit mij scalling nou? Ik game altijd op 1280x1024 19inch tft
1280x1024 is de native resolutie van je 19"TFT. Als je em op 1024x768 wordt het beeld gewoon wazig. Omdat niet elke pixel los aangestuurd wordt. Als jij een scherm hebt van 1280x1024 en je resolutie van windows stel je ook daar op in wordt er voor elke pixel een appart signaal gestuurd voor welke kleur hij moet worden. Als je dan je scherm naar 1024x768 zeg moet je ineens groepjes bij elkaar gaan pakken. En dan kan het zijn dat je in een pixel eigenlijk zwart en groen had moeten hebben maar een pixel kan niet twee kleuren hebben. En je beeld wordt daar door minder scherp.

Ik kan het in ieder geval niet beter uit leggen ( en technisch gezien zal het niet helemaal kloppen maar maakt het misschien een beetje duidelijk ). Misschien kan iemand anders dit wel ?

[ Voor 5% gewijzigd door Astennu op 25-04-2007 12:51 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Dat hele verhaal van resolutie en AA of niet is simpel te reduceren tot twee zaken:

- Pixel pitch
- schermgrootte

Zoals Obi Wan kenobi zegt en wat ik ook zo ervaar: Op het 1920x1200 15,4inch scherm van de Inspiron 9100 zijn e pixels zo klein dat AA amper te zien is. Speel je op een scherm met pixels zo groot als kastanjes (om het maar eve heel extreem te overdrijven) dan is AA een must.

Ik heb de HD2900XT zojuist maar besteld bij Salland. Ik had mijzelf een maximum prijs voorgenomen van €400. Nu met de hoge dollarkoers (veel dollars vor je euro) lijkt het me een prima moment om de kaart te kopen. Voor die prijs hoef ik niet eens mijn X1900XTX te verkopen, maar of ik die ga houden weet ik nog niet. Misschien is dat ATi physics op een ddicated kaart wel iets wat nooi van de grond komt..

De website van Azerty (waar ik trouwe klant ben) was under construction. Anders had ik hem daar liever gekocht. :P

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
frankknopers schreef op woensdag 25 april 2007 @ 13:23:
Dat hele verhaal van resolutie en AA of niet is simpel te reduceren tot twee zaken:

- Pixel pitch
- schermgrootte

Zoals Obi Wan kenobi zegt en wat ik ook zo ervaar: Op het 1920x1200 15,4inch scherm van de Inspiron 9100 zijn e pixels zo klein dat AA amper te zien is. Speel je op een scherm met pixels zo groot als kastanjes (om het maar eve heel extreem te overdrijven) dan is AA een must.
Zit is niet helemaal waar om je kastanjes even als voorbeeld te nemen. Als je dan een pixel hebt van 2x2 CM kan die maar een kleur hebben.

Wat AA doet is zorgen dat de kleuren mooier in elkaar overlopen. Dus je gaat niet van echt zwart naar rood maar van zwart naar meer grijs/rood en dan naar rood. Maar als je Pixels zo groot zouden zijn wordt het alleen maar giganties onscherp door AA.

Heb trouwens ook een Pre-Order gedaan. Als ik em ergens goedkoper zie bestel ik em daar gewoon :) En zeg ik die bij Salland af.

[ Voor 6% gewijzigd door Astennu op 25-04-2007 13:30 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

evilpin0 schreef op woensdag 25 april 2007 @ 12:36:
Wat boeit mij scalling nou? Ik game altijd op 1280x1024 19inch tft
Ik zei nog: Als je niet weet waar je het over hebt, begin er dan ook niet over }:|

Om een lang verhaal kort te maken: De native reso van jouw scherm is 1280x1024.
Als je wilt weten wat scaling is en waarom mensen met een groter TFT scherm op de native reso van hun scherm willen gamen - en dus niet op een lagere resolutie - dan moet je jouw scherm eens op 1024x768 of 800x600 zetten. Wordt het je meteen duidelijk waarom wij geen zin hebben in 1280 :w
En dan hebben we het nog niet eens gehad over aspect ratio: 4:3 / 5:4 vs 16:10 (widescreen).

[ Voor 6% gewijzigd door Cheetah op 25-04-2007 13:47 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
En dan bedoelt Cheeta Wij als in de Mensen met 24"schermen of groter want dan heb je met 1280x1024 hetzelfde affect als dat jij op 640x480 of 800x600 gaat spelen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cartman!
  • Registratie: April 2000
  • Niet online
Best leuk die pre-order want de prijs is vrij redelijk nog volgens mij. Alleen doe ik t toch maar niet want t kan nog wel 2 maanden duren voor ie komt :{ Zit hard te twijfelen of ik niet voor n paar maanden n goedkoop PCI-E kaartje zal kopen en als alles n beetje tot bedaren is gekomen kies tussen de 8800GTS en de X2900... :{

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
Cartman! schreef op woensdag 25 april 2007 @ 13:54:
Best leuk die pre-order want de prijs is vrij redelijk nog volgens mij. Alleen doe ik t toch maar niet want t kan nog wel 2 maanden duren voor ie komt :{ Zit hard te twijfelen of ik niet voor n paar maanden n goedkoop PCI-E kaartje zal kopen en als alles n beetje tot bedaren is gekomen kies tussen de 8800GTS en de X2900... :{
Uhmm de release date is nog steeds half Mei dat is geen 2 maanden.

En waarom nu nog een andere kaart kopen ? die 1-2 maanden overleef je denk ik echt wel. Of je je huidige kaart kapot ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Maverick
  • Registratie: Oktober 2001
  • Laatst online: 19:04
CJ schreef op woensdag 25 april 2007 @ 10:52:
[...]


Het hoeft niet per se een waste of money te zijn. Ik denk dat de kopers van een Radeon 9700Pro ook jarenlang plezier hebben gehad van hun kaart. Deze bleek immers snel genoeg om ook de eerste generatie DX9 games redelijk goed te kunnen spelen.
Sterker nog, ik gebruik em nog steeds. Natuurlijk moet je de details wat omlaag schroeven, maar voor een kaartje wat al zo oud is doet ie het nog steeds goed. :)

PSN: DutchTrickle PVoutput


Acties:
  • 0 Henk 'm!

  • Milmoor
  • Registratie: Januari 2000
  • Laatst online: 07:18

Milmoor

Footsteps and pictures.

DIV uitgangen (geen HDMI), maar DVI-D of DVI-I? Oftewel, kan je er een analoog scherm aanhangen?

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Cheetah schreef op woensdag 25 april 2007 @ 13:34:
[...]
Ik zei nog: Als je niet weet waar je het over hebt, begin er dan ook niet over }:|

Om een lang verhaal kort te maken: De native reso van jouw scherm is 1280x1024.
Als je wilt weten wat scaling is en waarom mensen met een groter TFT scherm op de native reso van hun scherm willen gamen - en dus niet op een lagere resolutie - dan moet je jouw scherm eens op 1024x768 of 800x600 zetten. Wordt het je meteen duidelijk waarom wij geen zin hebben in 1280 :w
En dan hebben we het nog niet eens gehad over aspect ratio: 4:3 / 5:4 vs 16:10 (widescreen).
Ignorance is bliss niet waar? :P

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
Milmoor schreef op woensdag 25 april 2007 @ 14:10:
DIV uitgangen (geen HDMI), maar DVI-D of DVI-I? Oftewel, kan je er een analoog scherm aanhangen?
Er zijn al heel lang dongels van DVI naar SUB-D. Misschien zit er ook wel een omvormer van DVI naar HDMI bij ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Milmoor
  • Registratie: Januari 2000
  • Laatst online: 07:18

Milmoor

Footsteps and pictures.

Astennu schreef op woensdag 25 april 2007 @ 14:15:
[...]


Er zijn al heel lang dongels van DVI naar SUB-D. Misschien zit er ook wel een omvormer van DVI naar HDMI bij ?
Die dongle werkt alleen bij een DVI-I, het is niet meer dan een tussenstukje, er vindt geen signaalconversie plaats. Een HDMI-dongle zou inderdaad kunnen. Ik weet echter niet of HDMI altijd digitaal is.

DVI-A: Deze interface stuurt enkel een analoog signaal door, met als nut om een gewone connector-overgang te maken. Dit type is gelijkwaardig met DVI-I, zoals onderstaande:
DVI-I: Dit was de oorspronkelijke interface, die een combinatie maakte van een digitaal en analoog signaal dat compatibel was met Pc's voorzien van een CRT (of eventueel een digitale) monitor. Kortom, een oplossing om de weg tussen analoog en digitaal onzichtbaar te maken.
DVI-D: De interface die enkel een digitaal signaal draagt. De opmars van DVI-D is nog volop bezig en vele consumentenproducten (zoals digitale televisie en monitors of Tv-toestellen) dragen deze interface al met zich mee.
DVI-D HDCP: Verschillend van DVI-A, DVI-I en DVI-D draagt dit type interface de codering HDCP met zich mee om illegaal gebruik tegen te gaan.

[ Voor 3% gewijzigd door Milmoor op 25-04-2007 14:24 ]

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Astennu schreef op woensdag 25 april 2007 @ 13:51:
En dan bedoelt Cheeta Wij als in de Mensen met 24"schermen of groter want dan heb je met 1280x1024 hetzelfde affect als dat jij op 640x480 of 800x600 gaat spelen.
Bij mensen met een widescreen schem is het effect zelfs nog erger dan dat ;)
640x480 & 800x600 blijft bij hem in de range 4:3 / 5:4, de native aspect ratio van zijn scherm. Als je een 4:3 of 5:4 reso gebruikt op een 16:10 breedbeeldschem treed stevige vervorming op doordat het beeld 'uitgerekt' wordt... of anders zit je met zwarte balken en gebruik je bijna 1/3 van je scherm niet :/

@Aca: idd ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
Cheetah schreef op woensdag 25 april 2007 @ 14:32:
[...]
Bij mensen met een widescreen schem is het effect zelfs nog erger dan dat ;)
640x480 & 800x600 blijft bij hem in de range 4:3 / 5:4, de native aspect ratio van zijn scherm. Als je een 4:3 of 5:4 reso gebruikt op een 16:10 breedbeeldschem treed stevige vervorming op doordat het beeld 'uitgerekt' wordt... of anders zit je met zwarte balken en gebruik je bijna 1/3 van je scherm niet :/

@Aca: idd ;)
Nja ik had het over de vergelijking 640x480 - 800x600 op een 19" = 1280x800 @ een 24" En dan hebben we het niet over die aspect ratio's. Als je bs 1280x1024 gaat draaien op een 24"wordt het nog erger ja :D

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • SpaceMarine
  • Registratie: April 2003
  • Laatst online: 13-04 16:22
vraag me af of die XTX ook meteen beschikbaar zal zijn en wat daar de kosten van worden :)

nope geen signature


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 13:18
SpaceMarine schreef op woensdag 25 april 2007 @ 15:10:
vraag me af of die XTX ook meteen beschikbaar zal zijn en wat daar de kosten van worden :)
Tja ik wacht dan wel op de R650 en ga nu voor een "goedkope HD2900 XT".

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 199989

lol,hebben jullie allemaal geld te veel?Ja ja,ik weet het,de webstek heet niet voor niets tweakers,maar toch....ik vind zeggen en schrijven 900 euro voor nu een 2900xt en binnen een half jaar een R650 overdreven,maar ja,wie ben ik:)

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 14-05 00:11

edward2

Schieten op de beesten

Het het lukt ook maar niet om één gamebenchark op hoge res en AA te spotten. Komop DJ Sven.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Cartman!
  • Registratie: April 2000
  • Niet online
Astennu schreef op woensdag 25 april 2007 @ 14:03:
[...]


Uhmm de release date is nog steeds half Mei dat is geen 2 maanden.

En waarom nu nog een andere kaart kopen ? die 1-2 maanden overleef je denk ik echt wel. Of je je huidige kaart kapot ?
Eerst zien dan geloven zegmaar... Heb moederbord+geheugen al en processor gaat ook niet echt goedkoper worden. Daarom is t enige onderdeel wat ik nodig heb n videokaart, vandaar.

Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Cheetah schreef op woensdag 25 april 2007 @ 13:34:
[...]
Ik zei nog: Als je niet weet waar je het over hebt, begin er dan ook niet over }:|

Om een lang verhaal kort te maken: De native reso van jouw scherm is 1280x1024.
Als je wilt weten wat scaling is en waarom mensen met een groter TFT scherm op de native reso van hun scherm willen gamen - en dus niet op een lagere resolutie - dan moet je jouw scherm eens op 1024x768 of 800x600 zetten. Wordt het je meteen duidelijk waarom wij geen zin hebben in 1280 :w
En dan hebben we het nog niet eens gehad over aspect ratio: 4:3 / 5:4 vs 16:10 (widescreen).
Ik weet wat je bedoelt, heb echter ook een hd tv aan me pc hanger waar ik alle films op afkijk. Voor mij niet belangrijk dus. Opzich ziet 1024 en niet eens zo heel verkeerd uit mijn scherm (acer 1951) maar er treedt wel wazigheid op. Ik draai echter alles in 1280.

Ik heb 5:4 scherm puur omdat dat beter is voor snelle schiet spellen waar je je alleen op je gezichtveld recht voor je focust en waar alles aan de zijkant non-informatie is (wie dit tegen spreekt, speelt niet op hoog niveau en waarschijnlijk zonder geluid :) ), met een widescreen zie je bv ook vaak niet mensen een "verdieping hoger". Bij rts games heb je ook meer beeld kwa opervlakte.

Ik weet heus wel waar ik het over heb maar volgens mij begin jij over iets anders, ik beweerde nl alleen dat de beeldkwaliteit met 1280 en 6xaa evengoed (heb nooit uber reso gespeelt dus weet niet of het daadwerkelijk zo is) is als 2xxx zonder AA. Agrument: Je ziet meer met hoge reso vindt ik niet relevant voor mij persoonlijk aangezien op een 19inch alles anders mini mini wordt.

http://www.twitch.tv/jannustitannus

Pagina: 1 2 ... 6 Laatste

Dit topic is gesloten.

Let op:
Klinkt kinderachtig, maar blijkt iedere keer weer nodig:
- geen Ati vs nVidia geflame (of onnodige vergelijkingen)
- niet op de man spelen - een ander voor fanboy uitmaken = OW wegens flamen
- geen slowchat
- het 1001 keer herhalen van zelfde 'nieuws' (R600 vertraagd...) is geen nieuws, dus offtopic.
- als je iets beweert, onderbouw het. Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid

Wat dan wel? Goed onderbouwde nieuwtjes over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)