FirefoxAG schreef op woensdag 28 september 2005 @ 13:54:
@CJ: Het spijt me, maar ga me nou niet vertellen dat je ongekleurd nieuws post en conclusies trekt. Natuurlijk is niemand 100% ongekleurd, maar een vrij duidelijke voorkeur voor ATi is i.m.o. onmiskenbaar in je posts
Ik zie toch wel vrij consequent bij je analyses alleen de positieve punten voor ATi eruit gehaald worden, en de negatieve genegeerd of van minder belang geacht. Als ik de posts van bijv Haldol en die van jou naast elkaar leg, dan ligt de werkelijkheid vaak redelijk in het midden.
Wat verwacht jij dan in een in
ATi-topic? Ik ben deze serie begonnen omdat ik een voorkeur heb voor ATi kaarten. Dit is al vanaf het begin duidelijk geweest. Maar dat laat niet weg dat ik op dit moment een NV kaart in m'n maingaming bak heb zitten. Zoals ik al zei, dit is geen "bespreek hier alle videokaarten-topic" of een "boor ATi de grond in-topic", maar heeft een duidelijke rode kleur dus is het niet vreemd dat de algemene boventoon positief is richting ATi..
Ja, maar goed, waar vergelijk je ook mee? Een 6600 van 1,5 jaar geleden met een X1300 die nog uit moet komen? Nogal wiedes dat het er dan positief uitziet voor die X1300, het zou schandalig zijn als dat niet het geval was

Daarom vergelijk ik het liever ook met de 6500/6600LE/6700. Die zijn net uit en/of komen binnenkort uit en richten zich op hetzelfde segment (alhoewel eigenlijk een segment hoger). En daar gaat het smoesje niet op van "maar die is al 1.5 jaar uit". Overigens klopt dat ook niet want de 6600 serie is nog maar een klein jaartje uit.

Toen de X800GT uit kwam en over de 6600GT heen walste, riepen de groenen ook dat dit niet eerlijk was en dat het een jaar heeft geduurd voordat ATi een antwoord had (en daarmee voor de gein even de X800 vergeten die al maanden uit was).
Ik heb persoonlijk geen bezwaar tegen zo'n vergelijking, maar als je zelf constant roept dat 7800 tech niet met X8x0 tech moet worden vergeleken moet je niet vervolgens hetzelfde gaan doen wanneer dat ATi een keer leuk uitkomt... dit vat de neutrale lezer namelijk op als hypocriet (nofi)... wel consequent blijven dus: OF alleen dezelfde generatie kaarten met elkaar vergelijken OF cross-generation vergelijken, maar dan wel
alles, niet alleen wat er leuk uitziet voor ATi
Een (redelijk) objectieve conclusie betreffende de X1300 scores zou i.m.o. trouwens zijn dat hij
naar verwachting presteert (en niet:
ow dat ziet er vet goed uit!)... het is namelijk wel de bedoeling dat de low-end kaarten van 1 generatie verder sneller zijn dan de low-end (en vaak zelfs midrange) kaarten van de vorige generatie

Dat de low-end 1 generatie verder sneller is dan de low-end van de vorige generatie daar ben ik het niet mee eens. De low-end is in mijn ogen altijd een achter gesteld kindje gebleven. Zie bv de hele MX serie, de hele 9000/9100/9200 serie, de X300 serie. De sprongen waren niet echt opzienbarend. Allemaal kaarten die wel leuk zijn voor de gemiddelde Mediamarkt PC, maar waar je net niet de meest recente games op kan spelen. Nou ziet het er naar uit dat je op een X1300 toch best leuk Far Cry kan spelen of Doom3. Daarnaast waren al die kaarten een slechte balans van features en (gebrek aan) snelheid.
Dat hij naar verwachting presteert vind ik ook een hele foute conclusie, want dan wil ik wel eens weten wat je precies verwacht had? En dan om precies te zijn, wat je verwacht had van 4 pipes die 50 Mhz sneller geklokt is dan een X550, maar toch flink veel sneller is? Een 9600XT scoort zo'n 2000 punten in 3dM2k5 en die draait op 500 Mhz core met 4 pipes. Een X1300LE scoort blijkbaar zo'n 2800 punten in 3dM2k5 en die draait op 450 Mhz core met 4 pipes.
Naar verwachting presteert-ie imo dus zeker niet en zeker niet als je uit gaat van de geruchten dat deze generatie slechts de oude tech is + SM3.0. Tel daarbij op dat het hier nog altijd gaat om 4 pipes vs 8 pipes en dan is het toch iets om "wow" bij te roepen.
[...]
Hier ben ik het niet mee eens. Net zo min als de performance van de X300/X600/X700 niets zegt over de performance van de X850XT PE, zo zegt de performance van X1300 niets over die van X1800/R520. Dat zijn gewoon totaal andere cores... op basis daarvan speculeren is dus erg weinigzeggend.
Een X1800XL extrapoleren naar een X1800XT is nog redelijk (in principe verschillen alleen de clocks), maar op het moment dat het aantal pipes, shaders en de core-architectuur/optimalisaties gaat afwijken is extrapolatie simpelweg onmogelijk. Dit zag je al bij X800Pro/XT... enige verschil tussen die cores waren 4 pipes (en de clocks) en toch was het performanceverschil - bij gelijkgetrokken clocks - erg onvoorspelbaar en bijzonder game-afhankelijk.
De performance van de X300 en X600 zeggen inderdaad weinig over de X850XT PE. Dat zijn twee verschillende generaties. X300 = X600 op 0.11u. X600 = 9600 op PCIe. 9600 = 2003 tech. De X700 (2004 tech) zegt daarentegen wel meer.
Ongetwijfeld weet je dat ATi ook al -tig keer heeft aangegeven dat ze eerst de high end ontwerpen en dit dan strippen van features en quads om tot de low-end te komen. Superscalar architecture is niet zo maar een buzzword. Het werkt ook nog echt. Je moet echter wel rekening houden met de verschillen in kloksnelheid en finetuning van de memory controllers, want zo was bijvoorbeeld de X800Pro eerst niet goed afgesteld wat betreft memory controller in combinatie met 12 pipes (deze was ingesteld op 16 pipes). Als je dit ter zijde laat, dan is de schaling vrij stabiel.
Je ziet de performance ook vrij goed meeschalen bij de:
- X800XL (16 pipes) - 5000
- X800GTO (12 pipes) - 4200
- X800GT 128 (8 pipes) - 3300
- X800VE (4 pipes) - 2200
Ze gebruiken vaak allemaal dezelfde core en ongeveer dezelfde snelheid, maar performance schaalt mee.
En als ik het goed begrepen van heb van DB dan kan je X1800 theoretisch gezien 4x X1300 noemen, meer dan dat je de X800XT 4x een X300 kon noemen.
[...]
Als (redelijk) neutrale in deze discussie denk ik dat dat wel meevalt. Tuurlijk zijn hier fanboys van beide kanten actief, maar die moeten i.m.o. gewoon genegeerd worden. Wat me wel opvalt is dat kritiek op ATi en/of producten van ATi hier wel heeeeeel snel als flamen word opgevat... en daar vervolgens erg aangebrande (fanboy) reacties op volgen.
Dreigen het topic te laten sluiten omdat er wat mensen kritiek hebben op xfire vind ik wel heel erg ver gaan... kijk eens objectief naar je eigen post en vraag je af hoe dat overkomt op iemand die er neutraal naar kijkt. Wat zou jij er van vinden als de topicstarter van het nVidia topic zo zou reageren op bijv. kritiek op SLI, zeker als die - in ieder geval tot op zekere hoogte - terecht is?
Laat ik 1 ding voorop stellen. Er wordt niet gedreigd. Er wordt alleen gekeken naar de manier waarop er in dit topic gediscussieerd wordt. Kritiek op CrossFire, X1300, X1800, X850XT, Radeon Xpress is allemaal welkom. Daar heb ik absoluut geen problemen mee. Maar doe dat dan wel beargumenteerd en niet zoals dat in dit topic maar al te vaak gebeurd door nVidiots met oneliners, kinderachtig gedoe of meeloop gedrag.
Er is een wereld van verschil tussen iets de grond in boren omdat je de kleur rood niet leuk vindt of op een beargumenteerde wijze kritiek leveren. En ik ben het eigenlijk een beetje zat dat dat laatste steeds minder vaak mogelijk lijkt te zijn.
De vergelijking met het nV topic gaat wat mij betreft ook al helemaal niet op, omdat de topicstarter daar al tijden niet zo actief is als ik in dit ATi topic. En aangezien ik het initiatief heb genomen om de oude Radeon Topic serie - die onder andere gesloten werd door: 1) de wirwar aan onderwerpen die er besproken werden, 2) al het geflame wat daar de pan uit rees - in deze vorm weer nieuw leven in te blazen, lijkt me mijn reactie helemaal niet vreemd dat ik verwacht dat men zich hier een beetje gedraagt. Ik steek er per slot van rekening veel tijd en moeite in om mensen die - net als ik - interesse hebben in ATi kaarten op de hoogte te houden van de laatste nieuwtjes. Ik zie dit topic als mijn (rode) huis. Vraag je jezelf eens af hoe jij zou reageren als er een stel mensen te keer gaan in je huis? Op een gegeven moment raakt mijn geduld ook op.
Dit is alles wat ik er over te zeggen heb. Wil er iemand verder de discussie met me aangaan over dit onderwerp, dan kan dat via de mail. Laten we dit verder zo veel mogelijk "on-ATi-topic" houden.
CoD deel 1 was de eerste echte game die gebruik maakte van 256MB kaarten. Dus waarom zou CoD2 niet de eerste echte game kunnen zijn die optimaal gebruik maakt van 512MB kaarten?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.