k995 schreef op woensdag 18 april 2007 @ 12:23:
[...]
Want wie koopt er nu nog een X1950? Niet diegene die er jaren mee verder willen kunnen want met directx10 spelen over enkele maanden kan dat niet, niet diegene die de beste performantie willen want dat is 8800, enkel diegene die nu tijdelijk een vervanger willen en wachten op het nieuwe van ATI kunnen een X1950 overwegen, maar als de 8600's even duur en even performant zijn zullen er veel voor toch die met directx10 kiezen.
De kleine groep die enkele spelletjes speelt waar de X1950's beter op draait zal enkel voor ati kiezen.
Mensen die een AGP systeem hebben kopen nu een X1950Pro omdat dit de snelste AGP kaart is. Mensen die niet verwachten om een Alan Wake, Crysis of Hellgate London te spelen, maar nog volop plezier beleven aan HL2, BF2142, WoW, Guild Wars, Call of Duty 2, etc spelen, kopen een X1950Pro omdat dit snel genoeg is - vaak sneller dan een GF8600GTS met eyecandy - en ook nog eens goedkoper is.
Daarnaast even een misvatting uit de wereld helpen. SM4.0 biedt geen extra visuele opties ten opzichte van SM3.0. Alles wat met DX10 en SM4.0 op het scherm getoverd kan worden, kan in theorie ook met DX9c en SM3.0.
De meeste developers bouwen nog een DX9 path in hun games. Kijk naar Crysis, daar kunnen mensen met een DX9 kaart ook nog prima uit de voeten.
Wat is dan het voordeel van DX10 tov DX9? Nou dat het efficienter is, waardoor effecten dus sneller gerenderd kunnen worden. Hierdoor kan je dus meer effecten op het scherm toveren dan met DX9 terwijl de performance hetzelfde blijft. Maar in principe is het mogelijk om hetzelfde beeld te verkrijgen met DX9 dan met DX10, het zal alleen iets minder fps opleveren. De eerste zgn DX10 screens die bijvoorbeeld van FSX en Crysis zijn gewoon gerenderd met een DX9 graphicscard.
Dus de algemene concensus dat het afhankelijk is van het soort game dat je speelt, is een hele belangrijke. De X1950Pro is dus nog zeker niet afgeschreven.
Het is dus nog maar afwachten hoe de eerste echte DX10 games gaan presteren.
Wat niet echt de conclusie van FS is, zei zeggen, shader rijke huidige en nieuwe spelen : 8600 , shader arme huidige en oudere spelen: X1950
Even alles in perspectief zetten. Toen Far Cry uit kwam, was dit volgens de review sites een 'shader intensieve' game. Daarnaast wordt vergeet je een belangrijk gedeelte, namelijk dat er in de conclusie gezegd wordt dat wanneer het memory-subsystem belast wordt, de kaarten met een 256-bit geheugeninterface de betere keuze zijn. En wat belast nou het memory-subsystem? Dingen als HDR, AA, AF. Zaken die 'nu' belangrijk zijn en die dat straks ook zijn. Dan kan een GF8600GTS nog wel zo veel shaderpower hebben, dan nog blijft de 128-bit memory interface een bottleneck.
En de X1950 of 7950 was geen high end? JAwel hoor en dat zie je ook terug in die reviews, het enige verschil is dat er in vorige generaties af en toe een killer kaart zat die overal bovenuitstak en dat dit nu niet zo is.
Je moet naar de prijzen kijken waar de kaarten nu voor beschikbaar zijn. Dat is naast performance volgens de lezers van dit topic, een zeer belangrijk meetpunt om iets te classificeren als high end of midrange. Een X1950XT die nu al voor €186 te krijgen is heeft high end performance met een midrange prijs. Deze kaart is veel sneller dan een GF8600GTS.
Toen de GF7600GT uit kwam, had nVidia daarvoor een briljante zet gedaan door de GF6800GS uit te brengen als counter tegen de X1600XT totdat de 7600GT klaar was. Deze was vaak sneller dan de X1600XT. Toen de 7600GT uit kwam als nieuwe midrange koning was deze zelfs nog sneller.
Passen we deze situatie toe op het heden, dan was de vorige €200-€249 midrange kaart van nVidia niet zo zeer meer de GF7600GT, maar de GF7900GS/GF7900GT/GF7950. Uitgaande van het verleden zou je dus verwachten dat de GF8600GTS zelfs nog iets sneller was dan deze kaarten. Dat is deze kaart dus helaas niet overtuigend genoeg.
De verwachtingen rond RV630 zijn laag denk ik, wie kent die kaart nu? En het publiek daarvoor is een budget publiek dat echt niet gaat wachten of zich zelf maar deftig informeert
Sorry hoor, maar dat is echt een non-argument. Wie kende de G84 (GF8600GT(S)) nou echt tot gisteren? En om je kennis even bij te spijkeren. De RV630 wordt recht tegenover de G84 gepositioneerd. Het is de RV610 die de budgetsector gaat aanspreken.
Op 14 mei kennen genoeg mensen de RV630.
Astennu schreef op woensdag 18 april 2007 @ 12:25:
[...]
Ik had namelijk ergens gelezen dat de 8600 GT er 32 had en de GTX er 48 zou hebben. Als je dit vergelijk met de 8800 GTX is de 8600 maar 1/4 van de 8800 GTX. En de RV630 is qua shaders de helft ( afhankelijk van de clockepeed ) en de memory bandbreedte is wel 1/4e.
G8600GTS heeft er 32. GF8600GT heeft er 32. GF8500GT heeft er 16. Je moet je hier echter niet op verkijken. Er zijn wat interne veranderingen gemaakt. Wat betreft shader aantal is de G84 inderdaad 1/4 van de G80. Maar op andere gebieden is het 1/3 en soms zelfs 1/2. Hierdoor is de performance dus niet ook 1/4 van de G80.
Maar ik denk dat beide kaarten last hebben van de 128 Bit bus. Misschien heeft de ATi kaart met de Ring bus een voordeel. Mits de geheugen modules op dezelfde snelheid lopen. Want ik geloof dat de 8600 GTs Iets van 1000 MHz geheugen hebben en soms zelfs sneller. Dit moet dus wel GDDR 4 zijn of heb ik dit verkeerd ?
Er is ook GDDR3 geheugen dat op 1000Mhz kan lopen. Zie de G80 waar veel mensen de 1000Mhz halen. Daarnaast staat ATi bekend om het feit dat ze zeer efficient met de beschikbare bandbreedte weten om te gaan of dat ze in een later stadium nog flinke performance boosts er uit weten te persen via memory controler tweaks in de drivers. Ik denk dat dat niet gaat veranderen in de toekomst.
[
Voor 13% gewijzigd door
CJ op 18-04-2007 13:52
]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.