[Algemeen] ATi Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 5.010 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ Cheetah

Ach ja sinds dat dat ik ook vaker met prototypes werk Zoals die van 3dfx, de3dfx Voodoo 5 6000 AGP128MB [4x 32MB], die heeft eerlijk gezegt 4x 32MB 128Bit SDRAM wat overheen kwam met 32MB 512Bit SDRAM en in de meest gebieden wassie sneller dan een GeForce2 Ultra a GeForce3 T200 soms sneller dan een GeForce4 Ti4200 AGP 128MB DDR 128Bit...
http://www.3dcenter.org/artikel/voodoo5-6000/index20.php

de 3dfx kaart had maar 4x 32MB 128Bit SDR dat tegen 1x 128MB 128Bit DDR en toch het te kunnen verslaan zonder T&L grappen noem maar op geheugen bandbreedte is juist enorm belangerijk op hoge reso's waarbij hoeveelheid vaak niets uitmaakt de 6000 AGP heeft een geheugenbandbreedte van 10.2GB per sec de Ti4200 heeft maar 8GB per sec... ;)

Dus ik denk eerder dat die HD2900 XT beter geoptimaliseerd zal zijn voor toekomstige dingen als die 8800GTX omdat het ook een veel nieuwer ontwerp is, meer gheugen bandbreedte en daardoor heeft ie voldoende aan 512Bit 512MB GDDR3 maar ach ik maak me hier niet zo druk om weet je, eind deze maand komen we er ook wel achter, toch ;)

En ach ja om eerlijk te zijn valt het allemaal erg tegen dat neiwue spul van nu men verwacht gewoon veel meer, ook het voordeel van een Retro gamer zijnde, het maakt iig allemaal niet meer zo veel uit, want eerlijk gezegt is het niet nodig allemaal geldsnokkerij.

[ Voor 46% gewijzigd door Anoniem: 23009 op 21-04-2007 18:15 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Het gaat weer goed hier :)

Over dat geheugen :P Bij werk geheugen van een PC zie je BV dat meer altijd beter is dan snel. Zodra je geheugen vol is moet je naar de HD en dan is je performance helemaal gaar. Zo lang je data in dat snelle geheugen past is het goed.

Je kunt volgens mij beter 1 GB 600 MHz geheugen hebben op 256 Bit. Dan 128MB 2000 MHz geheugen met 512 Bit. Het zit dan gewoon vol en dan moet je naar de Ram toe wat niet zo snel is want dat is maar ( Maximaal ) 800 MHz op 2x64 Bit ( Als je Dual channel hebt ) En dat wordt ook nog gebruikt voor andere dingen zoals de CPU en zo dus je hebt niet al die bandbreedte tot je beschikking.

Nu is alleen de vraag in hoeverre de drivers en de Games gebruik maken van die extra 256 MB van de 8800 GTX. Ik gok dat je bv met AA en dat soort dingen al een voordeel hebt. Ik weet alleen niet hoe groot het voordeel is.

Ik weet ook niet in hoeverre games geoptimalieerd worden voor BV 256 / 512 en 1024 MB. Of dat 768 ook zonder problemen goede performance verbeteringen laat zien.

Wat ik dus probeer te zeggen.... Het zal vast wel een voordeel hebben de vraag is alleen hoeveel winst je er van hebt.

Bij AA en AF is bandbreedte heel belangrijk maar dan wil ik wel eens een test zien tussen een R600 met 128 MB en 512 Bit bus en een 1 GB met 128 Bit bus. Jammer genoeg is dit niet mogelijk maar zou wel wat duidelijk maken. Misschien valt het wel te testen door een R600 512 mb VS 1 GB te testen. En de 1 GB versie naar 400 MHz mem te clocken en de 512 zo hoog mogelijk.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • waterking
  • Registratie: Juli 2005
  • Laatst online: 07-01 12:23
DAMN .. dat is niet nix een verwachte boost van 30%.. ik denk niet dat AMD daar nog aan kan tippen :|

klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel


Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ Astennu

ja you have a point for a certain point of view , heh maar idd wat we wel kunnen onderzoeken is het zelfde met een Radeon 9700 Pro 256Bit 128MB DDR tegen een GeForceFX 5900 Ultra 256Bit 256MB

deze twee zullen eerlijkgezegt gewaagd zijn aanelkaar de 9700 pro heeft maar 128MB DDR maar wel 256Bit die 5900Ultra heeft ook wel 256Bit maar wel 256MB hehe nu iemand zoeken die deze twee ook echt heeft :X
waterking schreef op zaterdag 21 april 2007 @ 18:27:
[...]


DAMN .. dat is niet nix een verwachte boost van 30%.. ik denk niet dat AMD daar nog aan kan tippen :|
Jawel makkelijk met de HD 2900 XTX 1GB ;)

[ Voor 24% gewijzigd door Anoniem: 23009 op 21-04-2007 18:33 ]


Acties:
  • 0 Henk 'm!

Anoniem: 8819

Anoniem: 23009 schreef op zaterdag 21 april 2007 @ 18:31:
@ Astennu

ja you have a point for a certain point of view , heh maar idd wat we wel kunnen onderzoeken is het zelfde met een Radeon 9700 Pro 256Bit 128MB DDR tegen een GeForceFX 5900 Ultra 256Bit 256MB

deze twee zullen eerlijkgezegt gewaagd zijn aanelkaar de 9700 pro heeft maar 128MB DDR maar wel 256Bit die 5900Ultra heeft ook wel 256Bit maar wel 256MB hehe nu iemand zoeken die deze twee ook echt heeft :X


[...]

Jawel makkelijk met de HD 2900 XTX 1GB ;)
Wel jammer dat de ati 9700pro een 128bit bus heeft
De ati 9800pro heeft wel een 256bit bus

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 20-06 12:47

SG

SG surft naar info hardewaren

waterking schreef op zaterdag 21 april 2007 @ 18:27:
[...]


DAMN .. dat is niet nix een verwachte boost van 30%.. ik denk niet dat AMD daar nog aan kan tippen :|
575 vs 650 13% meer
1800 vs 2160 20% meer.

misschien 30% tov GTS

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 14-06 18:02
Anoniem: 23009 schreef op zaterdag 21 april 2007 @ 18:31:

Jawel makkelijk met de HD 2900 XTX 1GB ;)
dat duurt nog wel effe denk ik....denk dat die iéts eerder dan de g90 uit zal komen...

maar de geruchten gaan nou ook dat de shaders van de 8800U op 1800mhz draaien ipv 1350mhz.....en misschien hebben ze ook wel iets met die ''missing MuL'' gedaan ??..

daar kan een xt het nog zwaar mee krijgen...maar eerst de prijzen maar eens afwachten
SG schreef op zaterdag 21 april 2007 @ 19:03:
[...]


575 vs 650 13% meer
1800 vs 2160 20% meer.

misschien 30% tov GTS
1350 vs 1800mhz = 33% :)

33+20+13=66/3= 22%

misschien dat die MuL wel voor de overige 8% zorgt :)

[ Voor 22% gewijzigd door Mr. Detonator op 21-04-2007 19:10 ]


Acties:
  • 0 Henk 'm!

Anoniem: 23009

Missing MuL sorry dat versta ik niet hoor hahah das een beetje te russisch voor me ik weet niet wat dat doet of dat de R600 ook zo iets heeft :X

Excuus me lompheid :D O+

[ Voor 3% gewijzigd door Anoniem: 23009 op 21-04-2007 19:12 ]


Acties:
  • 0 Henk 'm!

  • MelvinB
  • Registratie: Oktober 2002
  • Laatst online: 29-09-2023
Anoniem: 8819 schreef op zaterdag 21 april 2007 @ 18:37:
[...]


Wel jammer dat de ati 9700pro een 128bit bus heeft
De ati 9800pro heeft wel een 256bit bus
De geheugenbus van een 9700Pro is wel 256-bit.

| DELL XPS 15 Haswell QHD | APPLE iPhone X Silver | APPLE iPad Air |


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 14-06 18:02

Acties:
  • 0 Henk 'm!

Anoniem: 162692

Mr. Detonator schreef op zaterdag 21 april 2007 @ 19:07:
[...]


dat duurt nog wel effe denk ik....denk dat die iéts eerder dan de g90 uit zal komen...

maar de geruchten gaan nou ook dat de shaders van de 8800U op 1800mhz draaien ipv 1350mhz.....en misschien hebben ze ook wel iets met die ''missing MuL'' gedaan ??..

daar kan een xt het nog zwaar mee krijgen...maar eerst de prijzen maar eens afwachten


[...]

1350 vs 1800mhz = 33% :)

33+20+13=66/3= 22%

misschien dat die MuL wel voor de overige 8% zorgt :)
Een verschil t.o.v de huidige GTX mss. Maar door drivers zit er nog HEEL wat rek in de G80.

[ Voor 13% gewijzigd door Anoniem: 162692 op 21-04-2007 19:13 ]


Acties:
  • 0 Henk 'm!

Anoniem: 23009

hmm leest niet echt makkelijk sorry:

"NVIDIA's documentation for G80 states that each SP is able to dual-issue a scalar MADD and MUL instruction per cycle, and retire the results from each once per cycle, for the completing instruction coming out of the end."

SP , MADD en MUL zegt me niks dat had je niet vroeger, vroeger zat alles nog normaal in elkaar I guess.

Heh geen wonder maar goed wat het is zal wel belangerijk zijn dan.

[ Voor 4% gewijzigd door Anoniem: 23009 op 21-04-2007 19:16 ]


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
Cheetah schreef op zaterdag 21 april 2007 @ 15:56:
[...]
Even for the record: ATi's Quality Adaptive AntiAliasing (AAA) en nV's Transparancy Supersampling Antialiasing (TSAA) zijn beide SuperSampling en vertegenwoodigen het beste wat de fabrikanten aan IQ op AA gebied te bieden hebben.
Er is een duidelijk visueel verschil tussen de twee.
Wat is er hier 'verfijnder' if I might ask?
Ze gebruiken selectief supersampling en met een redelijke performance hit. Waarom denk je dat amd nu werkt aan een beter techniek (EATM) die het probleem oplost bij de transparancy resolve ipv te supersampelen. Met verfijnder bedoel ik dat het met een minimale performance hit een goed resultaat heeft, waarom textures gaan supersampelen, het effect is minimaal...
Jouw manier van redeneren is hetzelfde als stellen dat normale lightmaps 'efficienter en verfijnder' zijn dan HDR, omdat HDR meer geheugen/bandbreedte en performance vreet. Hetzelfde voor alle andere IQ opties. Zullen we IQ dan maar meteen helemaal afschaffen, gezien het meer eisen aan een kaart stelt dan geen IQ? Als dat de criteria zijn lust ik er nog wel meer zo :/
lol, je kan hdr perfect met lightmaps combineren, lightmaps zijn trouwens zo uit, PRT's zijn veel cooler
je weet blijkbaar niet wat een lightmap of hdr is
Als we jouw redenering volgen dat moeten we maar gaan raytracen of photon mapping gaan gebruiken.
Ik kan me herinneren dat toen bleek dat de performance van de X19x0 serie met SSAA vaak hoger was dan dat van 7900's dit als een duidelijk voordeelpunt van de X19x0 werd aangemerkt, en terecht.
Het valt me - net als anderen eerder al opmerkten - altijd heel erg op hoe snel men in dit topic van mening veranderd, afhankelijk van of iets in het voor- of nadeel van ATi uitgelegd kan worden. Zodra ATi de 1GB XTX uitbrengt kunnen we weer het tegenovergestelde verhaal beluisteren: dat de 2900XTX beter/meer SSAA kan doen dan de 8800GTX/Ultra, vanwege het grotere geheugen. Zeer vermoeiend om op deze manier gesprekken te moeten voeren.
huh? btw ati heeft geen fullscreen SSAA ondersteuning meer (sinds de R3xx)


trouwens, de missing MUL is onlangs gevonden & er wordt momenteel wat winst mee behaalt:
http://www.beyond3d.com/content/reviews/7/17
Deze MUL is niet altijd beschikbaar

Acties:
  • 0 Henk 'm!

Anoniem: 107573

Mr. Detonator schreef op zaterdag 21 april 2007 @ 19:07:
[...]


maar de geruchten gaan nou ook dat de shaders van de 8800U op 1800mhz draaien ipv 1350mhz.....en misschien hebben ze ook wel iets met die ''missing MuL'' gedaan ??..


[...]


1350 vs 1800mhz = 33% :)

33+20+13=66/3= 22%

misschien dat die MuL wel voor de overige 8% zorgt :)
Kan idd niet anders, want die opgekrikte clockspeeds zorgen imo nooit en te nimmer voor een 30% snelheidswinst :)

Ze hebben gewoon die shaders gepimpt lol.

Tóch ga ik mij inhouden en wachten op G90/R650 R700 what so ever O-)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Anoniem: 107573 schreef op zaterdag 21 april 2007 @ 20:48:
[...]


Kan idd niet anders, want die opgekrikte clockspeeds zorgen imo nooit en te nimmer voor een 30% snelheidswinst :)

Ze hebben gewoon die shaders gepimpt lol.

Tóch ga ik mij inhouden en wachten op G90/R650 R700 what so ever O-)
Inderdaad en ik denk ook dat die 30% is hele speciale gevallen is en zeker niet in elk spel.

En wat ik zo lees is dat die Mul hoort bij de SFU ( wat dat ook mag zijn ) Maar die heeft die 2e Mul Alu niet altijd nodig. En dan kan hij voor andere dingen gebruikt worden. Op dat moment zou je een MuL performance hebben van 1.15x ipv 1.0.

[ Voor 21% gewijzigd door Astennu op 21-04-2007 22:38 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
The Source schreef op zaterdag 21 april 2007 @ 13:20:
[...]


ATI Radeon HD 2600 XT -> 65W
ATI Radeon HD 2600 PRO -> 55W
ATI Radeon HD 2400 XT -> 20W
ATI Radeon HD 2400 PRO -> 18W

heb je geen MSN CJ?
Jawel, klik op m'n profiel voor het adres. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
SFU = special function unit (sinussen, cosinussen, machten etc berekenen)
eigenlijk bestaat een g80 shader unit uit een scalaire en een special function ALU, die sfu is ook een stuk trager, 1 bewerking kost 4 klokpulsen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
oeLangOetan schreef op zondag 22 april 2007 @ 00:19:
SFU = special function unit (sinussen, cosinussen, machten etc berekenen)
eigenlijk bestaat een g80 shader unit uit een scalaire en een special function ALU, die sfu is ook een stuk trager, 1 bewerking kost 4 klokpulsen.
Ah op die manier. En waarvoor hebben ze die 2e MUL ALU dan ? Om die SFU van werk te voorzien ? Misschien moet ik vragen wat wat een MUL en MADD bewerking doet :) Dan wordt het misschien wel duidelijk.

En de R600 gebruikt toch VEC ipv MUL ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Milmoor
  • Registratie: Januari 2000
  • Laatst online: 16:59

Milmoor

Footsteps and pictures.

Zitter er tegenwoordig nog hoog kwaliteit analoge uitgangen op de ATI-kaarten?
Omdat de nieuwe videokaart van mijn vriendin problemen had (liep vast bij 3d acties) heb ik die tijdelijk in mijn pc geprikt. Ik heb daar normaal gesproken een 800 Pro in, en nu een 1950 Pro. Tot mijn verrassing was het 2d beeld ook niet in orde , het was niet scherp.Is dat een teken dat de kaart echt niet in orde is, of zijn de analoge uitgangen tegenwoordig minder van kwaliteit, of zit het in het koppelstuk (normaal rechtstreeks analoog, nu analoog via DVI-adapter)? Mijn verwachting/vrees is het tweede. Ik draai op een Sony GDM FW900, 1900x1200@85Hz. Ik kan mij voorstellen dat men daar niet echt rekening mee houdt, maar ATI had altijd behoorlijk goede videosignaalkwaliteit.

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.


Acties:
  • 0 Henk 'm!

  • Bever!
  • Registratie: Maart 2004
  • Laatst online: 20-06 22:57

Bever!

3

Milmoor schreef op zondag 22 april 2007 @ 13:59:
Zitter er tegenwoordig nog hoog kwaliteit analoge uitgangen op de ATI-kaarten?
Omdat de nieuwe videokaart van mijn vriendin problemen had (liep vast bij 3d acties) heb ik die tijdelijk in mijn pc geprikt. Ik heb daar normaal gesproken een 800 Pro in, en nu een 1950 Pro. Tot mijn verrassing was het 2d beeld ook niet in orde , het was niet scherp.Is dat een teken dat de kaart echt niet in orde is, of zijn de analoge uitgangen tegenwoordig minder van kwaliteit, of zit het in het koppelstuk (normaal rechtstreeks analoog, nu analoog via DVI-adapter)? Mijn verwachting/vrees is het tweede. Ik draai op een Sony GDM FW900, 1900x1200@85Hz. Ik kan mij voorstellen dat men daar niet echt rekening mee houdt, maar ATI had altijd behoorlijk goede videosignaalkwaliteit.
waarom vraag je naar de kwaliteit van de analoge uitgang terwijl die er niet op zit??

Acties:
  • 0 Henk 'm!

  • Wildfire
  • Registratie: Augustus 2000
  • Laatst online: 14:40

Wildfire

Joy to the world!

Bever! schreef op zondag 22 april 2007 @ 14:53:
[...]

waarom vraag je naar de kwaliteit van de analoge uitgang terwijl die er niet op zit??
DVI -> Analoog is eigenlijk gewoon helemaal analoog, omdat bijna alle gebruikte DVI-aansluitingen een paar pinnetjes hebben waar een doodnormaal analoog signaal opstaat. De DVI -> analoog adapter is er puur om dat signaal op te pikken en aan te bieden via een normale VGA (D-sub) aansluiting.

Systeemspecs | Mijn V&A spulletjes | Mijn RIPE Atlas probe


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
Astennu schreef op zondag 22 april 2007 @ 12:09:
[...]
Ah op die manier. En waarvoor hebben ze die 2e MUL ALU dan ? Om die SFU van werk te voorzien ? Misschien moet ik vragen wat wat een MUL en MADD bewerking doet :) Dan wordt het misschien wel duidelijk.
En de R600 gebruikt toch VEC ipv MUL ?
ALU, Arithmetic logic unit is een eenheid op een processor die een aantal bewerkingen kan uitvoeren (bv vermenigvuldigen, optellen, delen, shift etc). De ALU is een soort zwarte doos waarin een aantal getallen stopt met een bepaalde instructie bv vermenigvuldig en dan gaat de ALU die bewerking uitvoeren en het getal uitsturen.
Hierop zijn een aantal variaties mogelijk:
SISD: Single instruction, single data
Dit is de soort die je in de G80 vindt, dat wil zeggen dat er op 1 datastream 1 instructie wordt uitgevoerd: bijvoorbeeld 1 x 3: lees "1", lees "3", doe de vermenigvuldiging (dus enkele data stream 1 instructie)
1 en 3 zijn de datastream, x is de instructie; de uikomst is 3 wordt uitgezonden.
(Als de geruchten kloppen zullen er 64 van deze units in de R600 zitten)
SIMD: Single instruction, multiple data
De R600 zal 64, vec4 SIMD units hebben
Deze ALU's kunnen 1 instructie uitvoeren op meerdere datasteams, dit is vooral interessant voor vectoren of data die samenhoort. Vectoren kunnen kleuren (die uit 3 componenten, rood, groen, blauw bestaan), of posities, snelheid, versnellingen zijn (xyz - coördinaten).
Als we bijvoorbeeld alle componenten van een (24b) kleur willen inverteren: lees "255,255,255", lees kleur "r,g,b", doe de aftrekking (dus meerdere data, en 1 instructie)
Er wordt wel eens gezegd dat SIMD werkt op packed data ofwel, samengestelde data, op een CPU kan er een zekere penalty zijn om data te groeperen, op GPU's is de data meestal reeds gegroepeerd, GPU's kennen ook geen flexibele datatypes. Het probleem is dat een SIMD architectuur een bepaalde invoer breedte heeft, bijvoorbeeld 4 elementen, of vec4, om de SIMD unit volledig te gebruiken moet je dus 1 instructie uitvoeren op een vector met lengte 4. Dit is niet altijd mogelijk.
SIMD's ondersteunen soms ook vector specifieke instructies zoals het normaliseren van een vector, het puntproduct.

MIMD en MISD bestaan ook maar zijn nu niet van toepassing
(btw ik heb hier sterk vereenvoudigd, eigenlijk zit een SIMD MIMD of SISD architectuur op een niveau hoger dan de ALU, een MIMD kan bv uit meerdere basis - ALU's bestaan en zo een super-alu vormen)

Intern is de ALU op gebouwd uit een MULs en ADDs en controle logica (en nog veel meer), een MUL is een multiplier, een ADD is een adder, een DIV is een divider etc etc. Blijkbaar zit er in de SFU van de G80 een MUL die beschikbaar is als deze unit niet gebruikt wordt. Als de unit wel gebruikt wordt kan het zijn dat deze MUL voor het berekenen van sinussen wordt gebruikt.

Acties:
  • 0 Henk 'm!

Anoniem: 107626

Reminder: 23-25 april Tunesië!

Het is weer tijd voor wat nieuwe geruchten :9

Acties:
  • 0 Henk 'm!

Anoniem: 199989

ik hoop dat het geen geruchten meer zijn,maar effectieve specs en zo...ik heb mijn dikke buik vol van geruchten...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
oeLangOetan schreef op zondag 22 april 2007 @ 19:32:
[...]

ALU, Arithmetic logic unit is een eenheid op een processor die een aantal bewerkingen kan uitvoeren (bv vermenigvuldigen, optellen, delen, shift etc). De ALU is een soort zwarte doos waarin een aantal getallen stopt met een bepaalde instructie bv vermenigvuldig en dan gaat de ALU die bewerking uitvoeren en het getal uitsturen.
Hierop zijn een aantal variaties mogelijk:
SISD: Single instruction, single data
Dit is de soort die je in de G80 vindt, dat wil zeggen dat er op 1 datastream 1 instructie wordt uitgevoerd: bijvoorbeeld 1 x 3: lees "1", lees "3", doe de vermenigvuldiging (dus enkele data stream 1 instructie)
1 en 3 zijn de datastream, x is de instructie; de uikomst is 3 wordt uitgezonden.
(Als de geruchten kloppen zullen er 64 van deze units in de R600 zitten)
SIMD: Single instruction, multiple data
De R600 zal 64, vec4 SIMD units hebben
Deze ALU's kunnen 1 instructie uitvoeren op meerdere datasteams, dit is vooral interessant voor vectoren of data die samenhoort. Vectoren kunnen kleuren (die uit 3 componenten, rood, groen, blauw bestaan), of posities, snelheid, versnellingen zijn (xyz - coördinaten).
Als we bijvoorbeeld alle componenten van een (24b) kleur willen inverteren: lees "255,255,255", lees kleur "r,g,b", doe de aftrekking (dus meerdere data, en 1 instructie)
Er wordt wel eens gezegd dat SIMD werkt op packed data ofwel, samengestelde data, op een CPU kan er een zekere penalty zijn om data te groeperen, op GPU's is de data meestal reeds gegroepeerd, GPU's kennen ook geen flexibele datatypes. Het probleem is dat een SIMD architectuur een bepaalde invoer breedte heeft, bijvoorbeeld 4 elementen, of vec4, om de SIMD unit volledig te gebruiken moet je dus 1 instructie uitvoeren op een vector met lengte 4. Dit is niet altijd mogelijk.
SIMD's ondersteunen soms ook vector specifieke instructies zoals het normaliseren van een vector, het puntproduct.

MIMD en MISD bestaan ook maar zijn nu niet van toepassing
(btw ik heb hier sterk vereenvoudigd, eigenlijk zit een SIMD MIMD of SISD architectuur op een niveau hoger dan de ALU, een MIMD kan bv uit meerdere basis - ALU's bestaan en zo een super-alu vormen)

Intern is de ALU op gebouwd uit een MULs en ADDs en controle logica (en nog veel meer), een MUL is een multiplier, een ADD is een adder, een DIV is een divider etc etc. Blijkbaar zit er in de SFU van de G80 een MUL die beschikbaar is als deze unit niet gebruikt wordt. Als de unit wel gebruikt wordt kan het zijn dat deze MUL voor het berekenen van sinussen wordt gebruikt.
Aha dat maakt alles een stuk duidelijker :D Hoe kom je eigenlijk aan al deze informatie ? Ik vind dit wel super interessant en zou er graag nog dieper op in gaan.

Ik zag ook op de FP dat de eerste laptop met 8600 GO al aangekondigd is. Ik ben wel benieuwd naar de RV630 M of misschien R600 M. Want mijn 7600 GO trekt games als supreme commander of C&C Tiberium wars al niet lekker meer. Moet ik naar low/medium detail.
A12 silicon is up

The current RV630 samples runs at 800 MHz. we are talking about A12 samples while the A14 should be the final version. Normally ATI launches A13 as the final version but obviously something went wrong with that chip so the company decide to move for the A14 version.

The bad thing about this card is or course that it uses 128 bit memory controller and that the performance won't be that great on high resolutions with FSAA and Aniso on.

The 800 MHz might not be the final clock as the 65 nanometre chip should be able to score even more than that. We think that ATI has really big chances to win the mainstream battle this time.
Volgens mij waren de scores van de RV630 XT die we laatst zagen niet op die clockspeeds. En zou wel leuk zijn als A14 nog sneller kan :D

[ Voor 11% gewijzigd door Astennu op 23-04-2007 09:07 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
Astennu schreef op maandag 23 april 2007 @ 08:43:
[...]

Aha dat maakt alles een stuk duidelijker :D Hoe kom je eigenlijk aan al deze informatie ? Ik vind dit wel super interessant en zou er graag nog dieper op in gaan.
Ik studeer industrieel ingenieur in elektronica / ICT, vhdl en chipontwerp is een stuk van mijn opleiding

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
oeLangOetan schreef op maandag 23 april 2007 @ 09:57:
[...]

Ik studeer industrieel ingenieur in elektronica / ICT, vhdl en chipontwerp is een stuk van mijn opleiding
Aha vandaar :D is daar toevallig een boek waar al die dingen instaan ? Want misschien moet ik die maar eens bestellen :)

[ Voor 10% gewijzigd door Astennu op 23-04-2007 10:05 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 100386

Aangezien ik de laatste tijd voornamelijk bezig ben met Video (H264/AVC etc.), ben ik geinteresseerd in de Universal Video Decoder op de aanstaande generatie kaarten. Met name de mogelijkheden hiervan, en dan ook in combinatie met de geluidschip die op sommige van de volgende kaarten schijnt te zitten.

Heeft iemand al details hierover ? Is deze decoder werkelijk Universeel (doet is MPEG2 t/m MPEG4 in alle varieteiten, dus ook Advanced Simple) ? Doe ie ook geluid, en welke generatie dan ? (de nieuwe Dolby/DTS-HD formaten ?)

Kortom, in het kort: Heeft iemand al duidelijke verhalen op het i-net gespot mbt UVD ?

Acties:
  • 0 Henk 'm!

  • Oet
  • Registratie: Mei 2000
  • Laatst online: 14-06 14:41

Oet

[DPC]TG & MoMurdaSquad AYBABTU

Is het eigenlijk zoveel duurder om een chip met een 256bit memoryinterface te produceren dan eentje met een 128bit?
Anders zou het toch gewoon een goed idee zijn om een chip zoals de RV630 met 256bit uit te rusten?

Dan laat je de competitie (ver) achter je voor het zelfde geld en trek je in ieder geval héél veel mensen naar je toe als klant en mogelijk toekomstige klant, of zie ik dat verkeerd?

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
Astennu schreef op maandag 23 april 2007 @ 10:05:
[...]
Aha vandaar :D is daar toevallig een boek waar al die dingen instaan ? Want misschien moet ik die maar eens bestellen :)
SIMD en SISD heb ik geleerd bij een labo met DSP processoren en er werd even kort op ingegaan bij computerarchitecturen (von neuman, harvard etc)
Als je over ALU's wilt leren is er eerst een cursusje digitale technieken, 2 semesters. Je begint met de bool algebra, dan ga je beginnen werken met poortjes werken, en uiteindelijk leer je je eerste elementen bv tellers, half/full adders, multiplexers etc. Hierna komen complexere elementen zoals ringtellers en dan een erg bellangrijk stuk state machines.
Hierna moet je een stuk geheugen structuur studeren, wat is sram, wat is dram, wat is flash opbouw voor/nadelen, adresseringsmogelijkheden.
Dit vindt je allemaal in Digital Design, principles and practices van John F. Wakerly, zeer goed boek.

Uiteindelijk kom je bij vhdl het basisboek is Circuit Design with VHDL, dit is enkel om de taal te leren. Goede VHDL schrijven leer ik nu in de labo's, dat moet je leren van mensen die daar ervaren in zijn en van die mensen ben ik nu wat van het ALU design aan het zien.

Je kunt het het boek van John F Wakerly kiezen, die verwacht niet al te veel voorkennis (enkel de basiselektronica, vooral cmos) en is goed geschreven, maar je zult er maar weinig over ALU's in vinden, wel veel interessante zaken over digitale elektronica dus als je geïnteresseerd bent, een aanrader.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Oet schreef op maandag 23 april 2007 @ 10:18:
Is het eigenlijk zoveel duurder om een chip met een 256bit memoryinterface te produceren dan eentje met een 128bit?
Anders zou het toch gewoon een goed idee zijn om een chip zoals de RV630 met 256bit uit te rusten?

Dan laat je de competitie (ver) achter je voor het zelfde geld en trek je in ieder geval héél veel mensen naar je toe als klant en mogelijk toekomstige klant, of zie ik dat verkeerd?
Je ziet dit wel goed. De Chip aanpassen is niet zo heel duur. Maar het grote verschil zit em in de PCB en het aantal geheugen chips dat nodig is.

Ik dit dat 128 Bit de RV630 wel nekt aangezien de performance in de buurd kan komen van de X1950 Pro. nu zit wel wel 1000-1100 MHz geheugen op die kaartjes. Dus het verschil in bandbreedte is misschien 30-40%

Maar het wordt inderdaad tijd dat de midrange kaartjes 256 Bit gaan krijgen. De volgende generatie chips is gewoon te snel. Of ze moeten er 2000 MHz ( 4000 DDR ) GDDR4 op knikkeren. Maar dat is volgens mij ook best duur....
oeLangOetan schreef op maandag 23 april 2007 @ 10:37:
[...]

SIMD en SISD heb ik geleerd bij een labo met DSP processoren en er werd even kort op ingegaan bij computerarchitecturen (von neuman, harvard etc)
Als je over ALU's wilt leren is er eerst een cursusje digitale technieken, 2 semesters. Je begint met de bool algebra, dan ga je beginnen werken met poortjes werken, en uiteindelijk leer je je eerste elementen bv tellers, half/full adders, multiplexers etc. Hierna komen complexere elementen zoals ringtellers en dan een erg bellangrijk stuk state machines.
Hierna moet je een stuk geheugen structuur studeren, wat is sram, wat is dram, wat is flash opbouw voor/nadelen, adresseringsmogelijkheden.
Dit vindt je allemaal in Digital Design, principles and practices van John F. Wakerly, zeer goed boek.

Uiteindelijk kom je bij vhdl het basisboek is Circuit Design with VHDL, dit is enkel om de taal te leren. Goede VHDL schrijven leer ik nu in de labo's, dat moet je leren van mensen die daar ervaren in zijn en van die mensen ben ik nu wat van het ALU design aan het zien.

Je kunt het het boek van John F Wakerly kiezen, die verwacht niet al te veel voorkennis (enkel de basiselektronica, vooral cmos) en is goed geschreven, maar je zult er maar weinig over ALU's in vinden, wel veel interessante zaken over digitale elektronica dus als je geïnteresseerd bent, een aanrader.
Ah okeey. Dus als je veel over de opbouw van GPU's wilt weten moet je al aardig wat voorkennis hebben om dat überhaupt te gaan snappen :) ik zal wel eens kijken wat er allemaal is. Het is ook meer voor de hobby dan echt voor het werk. In mijn werk doe ik daar niets mee.

[ Voor 43% gewijzigd door Astennu op 23-04-2007 10:42 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Astennu schreef op maandag 23 april 2007 @ 10:39:
Ah okeey. Dus als je veel over de opbouw van GPU's wilt weten moet je al aardig wat voorkennis hebben om dat überhaupt te gaan snappen :) ik zal wel eens kijken wat er allemaal is. Het is ook meer voor de hobby dan echt voor het werk. In mijn werk doe ik daar niets mee.
Als je geen voorkennis hebt, raad ik je aan om "Computer Organization and Design" van Hennessy and Patterson te lezen. Dit vond ik een boek wat goed te lezen was tijdens mijn bachelors. Begint ook met poortjes om vervolgens naar tellers te gaan en uiteindelijk ALU's. Legt ook principe van cache's, VLIW en pipelines uit. Ze bespreken ook modern-day stuff zoals P4, AMD opteron structuur en Intel IA32 / 64 stuff.

Acties:
  • 0 Henk 'm!

Anoniem: 23009

de HD 2900 XT had gewoon 1024MB GDDR3 moeten hebben eigenlijk aangezien die vaak sneller zal zijn dan de 8800 GTX en met en 1GB ram concurreerd die daar beter mee het XTX model zou dan als enige verschil 1GB 512Bit GDDR4 krijgen alleen had het verschil tussen de XT als de XTX wel kleiner worden zop heh ik vraag me soms af zal die 512MB wel voldoende zijn?

Hoe zit het met de R600 VPU zelf is die nu ook 512Bit net als het geheugen en hoe zit dat me de G80 is die 384Bit als 320Bit?

[ Voor 5% gewijzigd door Anoniem: 23009 op 23-04-2007 12:42 ]


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Anoniem: 23009 schreef op maandag 23 april 2007 @ 12:42:
de HD 2900 XT had gewoon 1024MB GDDR3 moeten hebben eigenlijk aangezien die vaak sneller zal zijn dan de 8800 GTX en met en 1GB ram concurreerd die daar beter mee het XTX model zou dan als enige verschil 1GB 512Bit GDDR4 krijgen alleen had het verschil tussen de XT als de XTX wel kleiner worden zop heh ik vraag me soms af zal die 512MB wel voldoende zijn?

Hoe zit het met de R600 VPU zelf is die nu ook 512Bit net als het geheugen en hoe zit dat me de G80 is die 384Bit als 320Bit?
wat zou dat nou meer kosten qua inkoop/production? tientje?

Acties:
  • 0 Henk 'm!

  • Milmoor
  • Registratie: Januari 2000
  • Laatst online: 16:59

Milmoor

Footsteps and pictures.

Wildfire schreef op zondag 22 april 2007 @ 17:49:
DVI -> Analoog is eigenlijk gewoon helemaal analoog, omdat bijna alle gebruikte DVI-aansluitingen een paar pinnetjes hebben waar een doodnormaal analoog signaal opstaat. De DVI -> analoog adapter is er puur om dat signaal op te pikken en aan te bieden via een normale VGA (D-sub) aansluiting.
Klopt helemaal zie deze quote uit Wikipedia:

Men kan deze interface echter opdelen in 4 verschillende types:

DVI-A: Deze interface stuurt enkel een analoog signaal door, met als nut om een gewone connector-overgang te maken. Dit type is gelijkwaardig met DVI-I, zoals onderstaande:
DVI-I: Dit was de oorspronkelijke interface, die een combinatie maakte van een digitaal en analoog signaal dat compatibel was met Pc's voorzien van een CRT (of eventueel een digitale) monitor. Kortom, een oplossing om de weg tussen analoog en digitaal onzichtbaar te maken.
DVI-D: De interface die enkel een digitaal signaal draagt. De opmars van DVI-D is nog volop bezig en vele consumentenproducten (zoals digitale televisie en monitors of Tv-toestellen) dragen deze interface al met zich mee.
DVI-D HDCP: Verschillend van DVI-A, DVI-I en DVI-D draagt dit type interface de codering HDCP met zich mee om illegaal gebruik tegen te gaan.


Maar mijn eigenlijke vraag: is de analoge signaalkwaliteit van ATI-videokaarten inderdaad afgenomen bij huidige generaties?

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.


Acties:
  • 0 Henk 'm!

Anoniem: 23009

Joepi schreef op maandag 23 april 2007 @ 12:47:
[...]


wat zou dat nou meer kosten qua inkoop/production? tientje?
ja zo iets maardan nog leek het mij wel waard :) maar idd aan de andere kant als men dat tientje masaal gaat bekijken heh dan gaat het idd erg oplopen ;) good point :D

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Anoniem: 107626 schreef op maandag 23 april 2007 @ 11:41:
[...]


Als je geen voorkennis hebt, raad ik je aan om "Computer Organization and Design" van Hennessy and Patterson te lezen. Dit vond ik een boek wat gaed te lezen was tijdens mijn bachelors. Begint ook met poortjes om vervolgens naar tellers te gaan en uiteindelijk ALU's. Legt ook principe van cache's, VLIW en pipelines uit. Ze bespreken ook modern-day stuff zoals P4, AMD opteron structuur en Intel IA32 / 64 stuff.
Zo iets zoek ik ook. Lijkt me namelijk wel interessant om te lezen hoe die dingen werken. En waar de voor en nadelen zitten.
Anoniem: 23009 schreef op maandag 23 april 2007 @ 12:42:
de HD 2900 XT had gewoon 1024MB GDDR3 moeten hebben eigenlijk aangezien die vaak sneller zal zijn dan de 8800 GTX en met en 1GB ram concurreerd die daar beter mee het XTX model zou dan als enige verschil 1GB 512Bit GDDR4 krijgen alleen had het verschil tussen de XT als de XTX wel kleiner worden zop heh ik vraag me soms af zal die 512MB wel voldoende zijn?

Hoe zit het met de R600 VPU zelf is die nu ook 512Bit net als het geheugen en hoe zit dat me de G80 is die 384Bit als 320Bit?
De R600 heeft als het goed is een 1024 Bit ring bus en een 512 Bit memory bus. Ik weet ook niet wat dat extra geheugen kost. Maar denk dat het wel meer is dan 10$.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ Astennu

Heh oke dat wist ik wel maar ik bedoelde de chip zelf zou die gewoon 256Bit zijn net als de R520, R580/580+ of zou die net als de Parhelia512 een echte 512Bit VPU zijn?

Dat bedoelde ik heh :D

[ Voor 9% gewijzigd door Anoniem: 23009 op 23-04-2007 15:40 ]


Acties:
  • 0 Henk 'm!

  • mad_max234
  • Registratie: September 2003
  • Laatst online: 07-02 11:09

mad_max234

AMD Athlon II M320

Ik denk dat hij gewoon 256 bit pixel precision heeft. En geen 512bit

[ Voor 17% gewijzigd door mad_max234 op 23-04-2007 16:27 ]

-Andere hobby- -


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Joepi schreef op maandag 23 april 2007 @ 12:47:
wat zou dat nou meer kosten qua inkoop/production? tientje?
512mb snel GDDR3, laat staan GDDR4 zal zeker niet zo goedkoop zijn.
Kijk maar wat 512mb PC3200 (ddr) of PC6400 (ddr2) kost... en dit wordt veel massaler geproduceerd (dus wet van de grote(re) getallen) en door veel meer verschillende fabrikanten (dus meer concurrentie).

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Anoniem: 23009 schreef op maandag 23 april 2007 @ 15:31:
@ Astennu

Heh oke dat wist ik wel maar ik bedoelde de chip zelf zou die gewoon 256Bit zijn net als de R520, R580/580+ of zou die net als de Parhelia512 een echte 512Bit VPU zijn?

Dat bedoelde ik heh :D
Ah je had het over die bits. Dat weet ik niet. Zou je aan CJ moeten vragen. Had die Parhelia al 512 ? Ik vraag me dan wel af wat het voordeel was. Want zo verschrikkelijk snel was die chip niet. De 9700 Pro ging er dik overheen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Daaaaf
  • Registratie: Januari 2004
  • Laatst online: 24-05 18:21
R600 is zowel intern als extern 512-bits, dit i.t.t. R520 en R580, die intern 512 maar extern 256-bits waren.

Acties:
  • 0 Henk 'm!

  • mad_max234
  • Registratie: September 2003
  • Laatst online: 07-02 11:09

mad_max234

AMD Athlon II M320

Daaaaf schreef op maandag 23 april 2007 @ 15:57:
R600 is zowel intern als extern 512-bits, dit i.t.t. R520 en R580, die intern 512 maar extern 256-bits waren.
Nee de R520 is een 256bit gpu en de matrox 512bit gpu.

We hebben het niet over de bus of ring van de kaart. ;) Maar over de GPU zelf dus de pixel precision van de gpu. (dat wilde je toch weten Obi-Wan Kenobi?)

-Andere hobby- -


Acties:
  • 0 Henk 'm!

Anoniem: 23009

mad_max234 schreef op maandag 23 april 2007 @ 16:03:
[...]


Nee de R520 is een 256bit gpu en de matrox 512bit gpu.

We hebben het niet over de bus of ring van de kaart. ;) Maar over de GPU zelf dus de pixel precision van de gpu. (dat wilde je toch weten Obi-Wan Kenobi?)
Yes! :D dat wilde ik weten idd :) ben het iig nog niet kunnen vinden heh. Die Parhelia was idd 512Bit alleen die had een probleem met de memory controller of zo iets anders had het een killer kaart kunnen zjn wel jammer dat Matrox dat niet gelukt was, want qua Image Quallity zat je bij Matrox het beste heh, ik hoop echt dat Matrox ook weer eens terug komt naar deze High end Gamers markt.

maar ik denk dat de R600 nog 256Bit is tenzei dat ie echt 512Bit is ik vraag me ook af hoe dat met de G80U/GTX als GTS zit heh.

CJ weet jij mischien hier wat vanaf?

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

To be honest zou ik graag Matrox, ATi, nVidia én Intel op de gamersmarkt voor videokaarten zien. Een gezonde en concurrerende strijd om de goede top en mid range kaarten neer te zetten, beter voor de technologische push, maar ook voor de prijzen en de keuze. Ik hoor van meer mensen om me heen dat Matrox echt wat goede technieken in die Parhelia had gezet; maar dat de potentie gewoon bij lange (en dan bedoel ik bij lange) niet gehaald werd. Ik hoorde zelfs verhalen dat hij een FX5900 voorbij liep op sommige vlakken :/ ... en dat is een generatie nieuwer en die had veel meer bandbreedte en rauwe power. Ik hoop dat we ze nog terugzien, maar ik twijfel.

[ Voor 37% gewijzigd door Cassius op 23-04-2007 22:06 ]

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

Anoniem: 8819

Anoniem: 23009 schreef op maandag 23 april 2007 @ 17:50:
[...]


Yes! :D dat wilde ik weten idd :) ben het iig nog niet kunnen vinden heh. Die Parhelia was idd 512Bit alleen die had een probleem met de memory controller of zo iets anders had het een killer kaart kunnen zjn wel jammer dat Matrox dat niet gelukt was, want qua Image Quallity zat je bij Matrox het beste heh, ik hoop echt dat Matrox ook weer eens terug komt naar deze High end Gamers markt.

maar ik denk dat de R600 nog 256Bit is tenzei dat ie echt 512Bit is ik vraag me ook af hoe dat met de G80U/GTX als GTS zit heh.

CJ weet jij mischien hier wat vanaf?
De matrox kaart had geen data compressie (s3texture compresie)(z-buffer) mogelijkheid voor texture.
Dit heeft de kaart genekt
Als de kaart dat wel had gehad waren alle kaarten op dat moment weg geblazen.

Acties:
  • 0 Henk 'm!

  • SpaceMarine
  • Registratie: April 2003
  • Laatst online: 10-06 22:51
Cassius schreef op maandag 23 april 2007 @ 21:36:
[...]


To be honest zou ik graag Matrox, ATi, nVidia én Intel op de gamersmarkt voor videokaarten zien. Een gezonde en concurrerende strijd om de goede top en mid range kaarten neer te zetten, beter voor de technologische push, maar ook voor de prijzen en de keuze. Ik hoor van meer mensen om me heen dat Matrox echt wat goede technieken in die Parhelia had gezet; maar dat de potentie gewoon bij lange (en dan bedoel ik bij lange) niet gehaald werd. Ik hoorde zelfs verhalen dat hij een 6800Ultra voorbij liep op sommige vlakken :/ . Ik hoop dat we ze nog terugzien, maar ik twijfel.
ik heb vroeger nog een matrox kaart gehad, heette volgens mij toe mystique. maar dat was nog uit de tijd dat je een losse 3dkaart kon kopen :).

was toen een rete goeie kaart ;)

nope geen signature


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Mjah even een correctie, het was niet de 6800Ultra, maar de FX5900 ... laten we het niet te gek maken :P . Zoveel hoef ik ze nu ook weer niet op te hemelen.

Maar dat bedrijf had op de een of andere manier veel hart voor hun kaarten, -zeer- uitgebreidde software erbij, HQ lange kabels met veel verloop en koppelstukken, handleiding (waar zie je die nog met features en dergelijke uitgelegd!) ... ik had gewoon het gevoel dat ze echt wel wilden, maar dat het niet loskwam. Zonde :( !

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
R600 schijnt een Programmable Tesselation Unit te hebben, iets dat ook in de Xbox360 schijnt voor te komen. Kort gezegd is TruForm weer terug, maar dit keer wordt het wel gebruikt. Ook schijnt de Geometry Shader 50x sneller te zijn dan die in de G80. Verder Custom Filter AA dat je kan instellen tot wel 24xAA en 8x echt MSAA. Via de drivers worden de patterns geupdate. CrossFire is verbeterd. Standaard was AFR de voorkeursmode en deze is verbeterd.

Bron: http://it-review.net/inde...ask=view&id=1289&Itemid=1

Neem die 50x maar met een korrel zout. :P Zal iemand wel verkeerd begrepen hebben. Moet waarschijnlijk 50% zijn oid :+

[ Voor 18% gewijzigd door CJ op 23-04-2007 23:33 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Mag Fudo soms niet mee naar Tunis? :D
http://my.ocworkbench.com...d.php?p=411004#post411004

iemand van hier wel? laten we hopen!
HIS ATI Radeon HD 2900 XT TURBO SILENT Heatpipe 512MB GDDR3 VIVO TV-Out/Dual DVI (PCI-Express) - Retail
http://www.overclockers.c...duct.php?prodid=GX-074-HT
... >:)

[ Voor 40% gewijzigd door Joepi op 24-04-2007 00:58 ]


Acties:
  • 0 Henk 'm!

Anoniem: 199989

:D ,over op de feiten vooruitlopen gesproken..."Sorry,this product is currently unavailable",Zo kan ik het natuurlijk ook...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
The R600 XTX Saga continues:
R600XTX the 1024 MB GDDR 4 card has been pushed to the next quarter. This is just one in a serious of ATI's failures but of course DAAMIT will call this a strategic decision. R600XTX wont see the face of the retail / etail stores till Q3 2007.

We know that something went wrong with the samples and that the there were some severe performance problems with the latest batch of GDDR 4 cards. Basically 512 MB DDR3 version with 1600 MHz memory was beating the GDDR4 version with 1024 MB of GDDR 4 memory clocked at 2200 MHz. that can not be good as the GDDR4 card is much more expensive to build or sell.

The worst part is that there is no any big performance difference between 512 GDDR 3 card and 1024 MB GDDR. The trouble is that 1 GB of GDDR 4 at 2200 MHz cost you a lot of money so ATI at least wants to save some money. It will launch this card after Geforce 8800 Ultra but remember don’t expect too much.
Dat verklaard weer een hoop :( Maar is het waar ? Ook las ik in dat andere artiekel waar CJ het een en andere Quote dat de R600 een 8x64 Bit ringbus zou hebben. Dus weer die 512 Bit van de R520. En geen 1024.

Zoals het er nu naar uit ziet kun je beter die R600 XT maar kopen en later dit jaar voor die R650 gaan want of die XTX er nog komt is maar de vraag....

En Fudzilla verteld ook nog wat over R650 vs G90 maar dat is niet echt interessant:
ATI's 65 nanometre part codenamed R650 is here to fight Nvidia next generation chip called G90. Nvidia will shrink its G90 and plans to make the same marchitecture faster and this is exactly what ATI plans to do.

At 65 nanometre ATI can go much faster and it will solve the thermal dissipation and power problems. G80 is a very strong and effective marchitecture and at higher clock will be a tough competition.

R650 as far as we know will just be faster version of R600 chip without any major marchitectural changes. Both of these chips are expected by the end of the year, sometimes in Q4 but don’t be so naïve and trust ATI on its deadline. It traditionally messed up the launch date of every chip in the last eighteen months.
Ze zeggen dat de G90 dus gewoon een die shrink is van de G80 met wat tweaks.. En dat de R650 hetzelfde is van de R600.

[ Voor 26% gewijzigd door Astennu op 24-04-2007 09:16 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Mjah ik begin ook langzaam om te draaien moet ik eerlijk zeggen. We hebben in de winkel nu al 8500GT/8600GT/8600GTS op voorraad (al meer dan een week goed op voorraad), dus die hard launch werkt wel aardig. Ik heb gespeeld met de 8500GT, maar die kon de X800XT nog lang niet bijhouden die er daarvoor inzat.

En verder, met alle respect, maar ATi raakt zo wat credibility kwijt. Je kan wel blijven roepen dat het een tactisch besluit is, maar als je vervolgens blijft uitstellen gelooft niemand je meer. Verder lijkt nVidia nog steeds op schema te liggen en houdt zich aan de hard launches, terwijl het 'on time part' R700 nog -helemaal- niets van zich heeft laten horen, lekker makkelijk; iedereen fusst over de R600, dan zien ze vast niet dat die ook 6 maanden te laat is?

Don't get me wrong, ik geloof (en ik hoop) dat de R600 een killer van een kaart wordt, maar ik denk echt dat AMD gewoon in wat zwaar water zit, maar zeg dat dan! Kijk als je als bedrijf zegt "jongens we hebben het zo zwaar en gooien de handdoek in de ring voor deze generatie kaarten" ... oke fout. Maar als je gewoon verteld dat je het als underdog niet even makkelijk hebt met een sterk gaande Intel en nVidia om je heen en dat de klant moet blijven geloven; is that so bad?

Verder vind ik het gewoon te veel op NS praktijken lijken... 'de trein heeft vijf minuten vertraging' en dan heeft hij dus een dik kwartier :( ! En weet je wat? Als de NS zegt 'de trein heeft 20 minuten vertraging' en hij is er na 18 minuten, prima! Dan weet je waar je aan toe bent en schep je geen valse verwachtingen, snap niet dat mensen dat maar niet leren?

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Inderdaad AMD heeft het nu gewoon zwaar. Al hun producten zijn te laat echt alles: R600 RV610/RV630 en de Barcelona Core.

Ze moeten gewoon zo snel als ze kunnen die VGA lineup uitbrengen in ieder geval low end en mid range want die zijn het belangrijkste voor de inkomsten. En ook zorgen dat die Barcelona er snel is en in vollume.

Maar het ziet er echt niet goed uit. En ben het met Casius eens. Je kunt beter zeggen dat hij eind mei komt en er dan half mij is dan andersom.

[ Voor 12% gewijzigd door Astennu op 24-04-2007 10:08 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 20-06 00:26

edward2

Schieten op de beesten

Astennu schreef op dinsdag 24 april 2007 @ 09:13:
The R600 XTX Saga continues:


[...]


Dat verklaard weer een hoop :( Maar is het waar ? Ook las ik in dat andere artiekel waar CJ het een en andere Quote dat de R600 een 8x64 Bit ringbus zou hebben. Dus weer die 512 Bit van de R520. En geen 1024.

Zoals het er nu naar uit ziet kun je beter die R600 XT maar kopen en later dit jaar voor die R650 gaan want of die XTX er nog komt is maar de vraag....

En Fudzilla verteld ook nog wat over R650 vs G90 maar dat is niet echt interessant:


[...]


Ze zeggen dat de G90 dus gewoon een die shrink is van de G80 met wat tweaks.. En dat de R650 hetzelfde is van de R600.
Tot zover de tactische zet (als het waar is) Alle uitstellingen beginnen nu hun ware aard te tonen, dejavu nr zoveel. Erg jammer, hopelijk kan de 512 mb versie wel genoeg potten breken.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 100386

Anoniem: 100386 schreef op maandag 23 april 2007 @ 10:15:
Aangezien ik de laatste tijd voornamelijk bezig ben met Video (H264/AVC etc.), ben ik geinteresseerd in de Universal Video Decoder op de aanstaande generatie kaarten. Met name de mogelijkheden hiervan, en dan ook in combinatie met de geluidschip die op sommige van de volgende kaarten schijnt te zitten.

Heeft iemand al details hierover ? Is deze decoder werkelijk Universeel (doet is MPEG2 t/m MPEG4 in alle varieteiten, dus ook Advanced Simple) ? Doe ie ook geluid, en welke generatie dan ? (de nieuwe Dolby/DTS-HD formaten ?)

Kortom, in het kort: Heeft iemand al duidelijke verhalen op het i-net gespot mbt UVD ?
Iemand nog info mbt mijn vraag ?

Acties:
  • 0 Henk 'm!

  • Tijgertje84
  • Registratie: Augustus 2005
  • Laatst online: 04-06 14:43
Anoniem: 100386 schreef op dinsdag 24 april 2007 @ 10:19:
[...]


Iemand nog info mbt mijn vraag ?
Misschien een appart topic daarvoor openen, dan heb je wellicht meer kans op een reactie aangezien het hier alleen over de ati kaarten gaat en er in rap tempo gepost wordt waardoor jouw vraag zo in het niets verdwijnd... :o

Intel© Conroe E6600 | Asus P5Q PRO Turbo | Sapphire Vapor-X HD5770 1GB | G.E.I.L. 2 GB DDR2-667 Kit CL4 4-4-12 | WD Caviar SE16 2x250GB (S-ATA2) (Raid0) | Sunbeam Trio | Chaintec CFT-500A | Windows XP Pro SP3 | Samsung Syncmaster S23A350H


Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ Astennu

Sorry maare als dat waar zou zijn dan lijkt het erg veel op de 3dfx Voodoo 5 6000 project die zou eind 1999 al klaar moeten zijn voor productie maar dat duurde 55 weken en kwam niet eens op de markt vanwegen dat de SLI en het geheugen niet goed te krijgen was op de gestreefde 183Mhz snelheid en dat de Rampage werd telkens uitgesteld dou eigenlijk na de Voodoo2 komen maar omdat hewt Rampage team telken aan iets anders moesten werken waar ze eigenlijk niet bedoeld voor waren verliep dat ook uit de hand en ja dijn toch het zelfde soort gevallen als met die ATi R600 XTX, 3dfx heeft hierdoor heel veel winst misgelopen en ja zo te zien heeft ATi ook veel misgelopen met het zelfde soort ongein.

Eerlijk gezegd hoop ik echter dat ze hier nog uit komen, want het zou er erg somber uit zien, we hebben het al meegemaakt met 3dfx laten we AUB ATi in leven houden -O- :'(

Het kwam wel erg zwaar over me heen maargoed laten we hopen dat die info niet gaat kloppenwant echte leuke verichten zijn dat niet. :/

Maargoed dan maar 2x ATi HD 2900 XT aangaan schaffen voor een toch leuke CrossFire upgrade 8) keep the ATi spirit alive! en idd me R580 XTX + R580+ XTX CFE lekker bewaren als collector's items, voordat het te laat is.

Nu maar hopen dat de HD 2900XT het zeer goed gaat doen end at de Mainstream als de Budget markt goed slagen want dat zou ook een redding kunnen vormen, aangezien de meeste mensen voor die reeks gaan :)

Sorry voor me negatieve inzicht, maar ik heb het al meegemaakt met 3dfx en ja om weer goed VGA merk de mist in ziet te lopen zit niemand niet op te wachten, althans mij niet heh.

[ Voor 29% gewijzigd door Anoniem: 23009 op 24-04-2007 10:32 ]


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
Anoniem: 100386 schreef op dinsdag 24 april 2007 @ 10:19:
[...]
Iemand nog info mbt mijn vraag ?
De video decodering in de R600 is waarschijnlijk afkomstig van de Xilleon familie, hun decodering voor hddvd en blueray spelers. Volgens de gelekte slides kan die overweg met de "worst case" h264 streams (40Mbit/s ofzo). VC1 wordt ook ondersteunt, en alle oudere standaarden natuurlijk ook.
Van het audio gedeelte weten we nog niets maar voor de ongecomprimeerde dolby ik vrees ik het ergste.
Het kan ook zijn dat AMD weeral vergeet een deftige player bij hun kaart te steken en dat je die er appart moet bijkopen.

[ Voor 10% gewijzigd door oeLangOetan op 24-04-2007 10:34 ]


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Astennu schreef op dinsdag 24 april 2007 @ 09:13:
The R600 XTX Saga continues:


[...]


Dat verklaard weer een hoop :( Maar is het waar ? Ook las ik in dat andere artiekel waar CJ het een en andere Quote dat de R600 een 8x64 Bit ringbus zou hebben. Dus weer die 512 Bit van de R520. En geen 1024.

Zoals het er nu naar uit ziet kun je beter die R600 XT maar kopen en later dit jaar voor die R650 gaan want of die XTX er nog komt is maar de vraag....
Wat is ook weer de bron van dat stukje?
De auteur heeft het helemaal mis: R600 kun je überhaupt nog niet beoordelen qua texturen van D3D10/DX10!
4kx4k ;) dat gaat enorn geheugen vreten!
Dan zal je onmiddelijk zien, waar 1Gb vram goed voor zijn >:)

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Astennu schreef op dinsdag 24 april 2007 @ 09:13:
The R600 XTX Saga continues:
We know that something went wrong with the samples and that the there were some severe performance problems with the latest batch of GDDR 4 cards. Basically 512 MB DDR3 version with 1600 MHz memory was beating the GDDR4 version with 1024 MB of GDDR 4 memory clocked at 2200 MHz.
Dit zou kunnen betekenen dat de R600 met zijn 512bit wijde bus meer 'behoefte' heeft aan lagere latencies dan sneller geheugen. An sich klinkt het niet eens zo heel vreemd. De A64's hebben hetzelfde... lage latencies (DDR400 CL2 bijv) zetten meer zoden aan de dijk hoge freqenties (DDR800 CL5 bijv).
Joepi schreef op dinsdag 24 april 2007 @ 10:56:
Wat is ook weer de bron van dat stukje?
De auteur heeft het helemaal mis: R600 kun je überhaupt nog niet beoordelen qua texturen van D3D10/DX10! 4kx4k ;) dat gaat enorn geheugen vreten!
Dan zal je onmiddelijk zien, waar 1Gb vram goed voor zijn >:)
R600 gaat door de pers beoordeeld worden op hoe hij presteert in hedendaagse games, niet op hoe hij misschien gaat presteren in toekomstige games. Ook de pers heeft geen glazen bol tot z'n beschikking.
Als een veel duurdere kaart (1GB GDDR4) dan in de hedendaagse games waarop hij beoordeeld gaat worden bijna geen (en volgens bovenstaand gerucht zelfs een negatief) verschil laat zien met z'n veel goedkopere broertje (512MB GDDR3), dan is het niet meer dan logisch dan te wachten met een eventuele release van de duurdere kaart. Dat in ieder geval tot het moment waar het verschil duidelijk waarneembaar/positief - en dus een verkoopargument - is.
Het lijkt er alleen op dat de 8800U vooralsnog niet echt concurrentie krijgt... jmmr :/

[ Voor 43% gewijzigd door Cheetah op 24-04-2007 11:19 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 100386

Tijgertje84 schreef op dinsdag 24 april 2007 @ 10:24:
[...]

Misschien een appart topic daarvoor openen, dan heb je wellicht meer kans op een reactie aangezien het hier alleen over de ati kaarten gaat en er in rap tempo gepost wordt waardoor jouw vraag zo in het niets verdwijnd... :o
Dan quote ik mezelf gewoon ;)

En ik ben nu eenmaal geen frames-per-seconde--speculant ;)
oeLangOetan schreef op dinsdag 24 april 2007 @ 10:33:
[...]

De video decodering in de R600 is waarschijnlijk afkomstig van de Xilleon familie, hun decodering voor hddvd en blueray spelers. Volgens de gelekte slides kan die overweg met de "worst case" h264 streams (40Mbit/s ofzo). VC1 wordt ook ondersteunt, en alle oudere standaarden natuurlijk ook.
Van het audio gedeelte weten we nog niets maar voor de ongecomprimeerde dolby ik vrees ik het ergste.
Het kan ook zijn dat AMD weeral vergeet een deftige player bij hun kaart te steken en dat je die er appart moet bijkopen.
Hmmm, thx. Qua audio vreesde ik ook al het ergste, maar ik hoop dat daar toch nog enige verandering in komt. En als daar geen evrandering in komt, dan heb ik liever een SPDIF ingang, zoals bij de concurrent; Want daar kan je altijd nog een defftige geluidskaart aan "doorlussen" (denk aan een Auzentech :9 ).

En qua speler, ik heb geen idee van de "vergeetachtigheid" van AMD. Maar als je dan toch patst met je HDMI/video mogelijkheden, dan lijkt het me ook handig om een mooie speler beschikbaar te stellen. En anders héél fatsoelijke drivers natuurlijk, waarbij audio net zoveel aandacht krijgt als video. Anders heb je nog niets gewonnen, en ga je toch wel een beetje af vind ik.

Nu even verder zoek onder "Xilleon"

EDIT
Overigens snap ik niets van de "Worst case" scenario; De H264/AVC specificatie staat nl. véél hogere bitrates toe dan dat (met name van belang wanneer we straks de 36/48 bits YUV4:4:4/YUV8:8:8 etc. video-streams krijgen !!), en reference decoders kunnen dat evt. aan (al hebben CPU's daar zéér grote moeite mee :P)

[ Voor 10% gewijzigd door Anoniem: 100386 op 24-04-2007 11:25 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Cheetah schreef op dinsdag 24 april 2007 @ 11:09:
[...]
Dit zou kunnen betekenen dat de R600 met zijn 512bit wijde bus meer 'behoefte' heeft aan lagere latencies dan sneller geheugen. An sich klinkt het niet eens zo heel vreemd. De A64's hebben hetzelfde... lage latencies (DDR400 CL2 bijv) zetten meer zoden aan de dijk hoge freqenties (DDR800 CL5 bijv).
Daar moest ik ook al aan denken. Kun je na gaan als je die GDDR3 chippies naar 2100 MHz schopt net als nVidia. Ik denk ook dat GDDR4 pas echt voordeel gaat hebben bij 2600+ MHz en het kan natuurlijk tot 4000 en dan heb je wel veel extra bandbreedte maar ik weet niet hoe de latency's van GDDR 3 en 4 zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Cheetah schreef op dinsdag 24 april 2007 @ 11:09:
R600 gaat door de pers beoordeeld worden op hoe hij presteert in hedendaagse games, niet op hoe hij misschien gaat presteren in toekomstige games. Ook de pers heeft geen glazen bol tot z'n beschikking.
Als een veel duurdere kaart (1GB GDDR4) dan in de hedendaagse games waarop hij beoordeeld gaat worden bijna geen verschil laat zien met een veel goedkopere kaart (512MB GDDR3), dan is het niet meer dan logisch dan te wachten met een eventuele release van de veel duurdere kaart - in ieder geval tot het moment waar het verschil duidelijk waarneembaar - en dus een verkoopargument - is.
Het lijkt er alleen op dat de 8800U vooralsnog niet echt concurrentie krijgt... jmmr :/
Ik snap je best, maar je ziet toch al aan de 8800 met 320MB hoe die letterlijk inelkaar zakt (50% performance!!!) ten opzichte van zijn grote broetjes - quasi een bewijs, dat Ati het helemaal goed plent toch?!
D3D10 zal alles veranderen - een revolutie, maar iedereen doet zo, alsof het maar doorgaat met stapjes en minimale verschillen.
Ati en nvidia moeten een poging overleven, een soort interimcard te lanceren, die nu niet slechter is, maar tegelijk klaar voor de "toekomst": zelfs Crysis is niet eens D3D10...
M$ heeft geen een bitje techdemo klaar - nul-komma-niks!
BTW - Futuremark brand er zijn vingers blijkbaar ook niet aan, want anders liepen ze jaren vooruit...
Hoe lang is Vista nou al "op de markt" dan?
Niks dan elende ermee...
Om het met van Gaal te zeggen.
was nvidia nou te vroeg, of werkelijk Ati te laat?
Reteketet - vet?

Nog een vreemd bericht uit welingelichte kringen in Taiwan
AMD R600 to be available in May
Yen Ting Chen, Taipei; Rodney Chan, DIGITIMES [Monday 23 April 2007]


The DirectX 10-supporting AMD R600 graphics chip made on 65nm will be available on the market on May 19 after months of delay, according to sources with Taiwan's graphics card distributors.

The R600 had originally been scheduled for release in the second half of 2006. A rescheduled launch for March this year was again delayed by a serious shortage of GDDR4 memory, the sources said.

The sources pointed out that AMD will skip the 80nm process and make the R600 at 65nm. The R610 and R630, which will also adopt a 65nm process, will also be released in June, the sources added.
:D
http://www.digitimes.com/mobos/a20070423PD213.html

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Astennu schreef op dinsdag 24 april 2007 @ 11:16:
Daar moest ik ook al aan denken. Kun je na gaan als je die GDDR3 chippies naar 2100 MHz schopt net als nVidia. Ik denk ook dat GDDR4 pas echt voordeel gaat hebben bij 2600+ MHz en het kan natuurlijk tot 4000 en dan heb je wel veel extra bandbreedte maar ik weet niet hoe de latency's van GDDR 3 en 4 zijn.
GDDR4 heeft een veel hogere latency dan GDDR3. Ik denk dat daar dus echt de oorzaak ligt:
On the signaling front, the new GDDR4 protocol now expand the chip I/O buffer up to 8-bit per two cycles, allowing for greater sustained bandwidth during the burst transmission, but at expense of significantly increased CAS latency(CL), determined mainly by the double reduced count of the address/command pins and half-clocked DRAM cells, compared to GDDR3. The amount of addressing pins was reduced to half of GDDR3 core, and were used for power and ground, which also increases latency.
bron: [url=http://en.wikipedia.org/wiki/GDDR4]Wikipedia[/ur]
R600 heeft blijkbaar vooralsnog weinig aan de extra bandbreedte die GDDR4 toevoegd, maar heeft tegelijkertijd wel last van de sterk verhoogde latencies t.o.v. GDDR3. Klinkt plausibel.

[ Voor 18% gewijzigd door Cheetah op 24-04-2007 11:42 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Cheetah schreef op dinsdag 24 april 2007 @ 11:35:
[...]
GDDR4 heeft een veel hogere latency dan GDDR3. Ik denk dat daar dus echt de oorzaak ligt:
[...]
R600 heeft blijkbaar vooralsnog weinig aan de extra bandbreedte die GDDR4 toevoegd, maar heeft tegelijkertijd wel last van de sterk verhoogde latencies t.o.v. GDDR3. Klinkt plausibel.
Maar waarom had de X1950 XTX daar dan geen last van ? Dat was een X1900 XTX alleen dan niet met 775 MB GDDR3 maar 1000 MHz GDDR4.

Nu is het verschil groter 800 MHz voor de R600 XT en 2100-2200 voor de R600 XTX. Dus ik denk dat er dan echt wel iets niet goed zal zijn met de MC als de performance lager is. Maar misschien is dat bericht wel een HOAX.

[ Voor 10% gewijzigd door Astennu op 24-04-2007 11:41 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Astennu schreef op dinsdag 24 april 2007 @ 11:40:
Maar waarom had de X1950 XTX daar dan geen last van ? Dat was een X1900 XTX alleen dan niet met 775 MB GDDR3 maar 1000 MHz GDDR4.

Nu is het verschil groter 800 MHz voor de R600 XT en 2100-2200 voor de R600 XTX. Dus ik denk dat er dan echt wel iets niet goed zal zijn met de MC als de performance lager is.
Bij R580 (256bit bus) kon het GDDR4 ondanks zijn verhoogde latencies nog wel aardig wat toevoegen. Blijkbaar was de bandbreedte bij die chip nog aardig beperkender dan de latency van het vram.
Bij de R600 met zijn 512bit bus - en dus een zee aan bandbreedte - is dit verklaarbaar anders. Met een zee aan bandbreedte zijn het de andere zaken die een bottleneck gaan vormen - blijkbaar latency.

De A64 met geintegreerde en daarom veel snellere memcontroller - met dus standaard al een hoge bandbreedte - vertoont precies hetzelfde patroon: meer baat bij lage latency dan bij snel geheugen.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Newsflash: Hexus reviewed Sapphire X1950Pro DUAL

En het leuke aan de review is... dat deze als een na beste "bang-for-buck" kaart uit de test komt na de X1950Pro! Voor de prijs krijg je een goede performance. Het enige nadeel is dat de DX10 kaarten van AMD aan de horizon liggen en dat de performance zeer afhankelijk is van de drivers (net zoals bij de GX2). Dit is te zien aan het feit dat de performance inkakt met HDR aan in SC:CT. Maar goed, Sapphire kennende zullen zo ook met een RV630 variant komen...

Afbeeldingslocatie: http://img.hexus.net/v2/graphics_cards/ati/sapphire/Dual/SC19.png

Afbeeldingslocatie: http://img.hexus.net/v2/graphics_cards/ati/sapphire/Dual/SC19HDR.png
A decent street price and near-double X1950 Pro performance pushes up the Sapphire's HEXUS.bang4buck to the second highest on test, and only one of two cards to score over 1 in this performance/value metric. The downside, and not highlighted on the graph, lies with the imminent arrival of DX10 cards from AMD, which will offer better gaming visuals for approximately the same price. Still, it's hard to beat this kind of performance for around £200 right now.
http://www.hexus.net/content/item.php?item=8282

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Nog iets geks dat me opvalt:
* 8800GTS320 4xAA/8xAF VHQ noHDR: 65fps vs 8800GTS320 4xAA/8xAF VHQ HDR: 71fps
* 8800GTS640 4xAA/8xAF VHQ noHDR: 56fps vs 8800GTS640 4xAA/8xAF VHQ HDR: 60fps
* 8800GTX 4xAA/8xAF VHQ noHDR: 79fps vs 8800GTX 4xAA/8xAF VHQ HDR: 86fps

Conclusie: de performance van de G80 kaarten kakt in bij het uitschakelen van HDR!? :? :?
Of andersom: de G80 gaat beter presteren bij het inschakelen van HDR 8)7

[ Voor 7% gewijzigd door Cheetah op 24-04-2007 12:19 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Net gevonden:
Afbeeldingslocatie: http://img241.imageshack.us/img241/3841/66666kk4.jpg

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Eerste indruk:
ATI Radeon HD 2900 XT puts up some impressive numbers in benchmarks
>:)
http://www.dailytech.com/...enchmarks/article7043.htm

[ Voor 71% gewijzigd door Joepi op 24-04-2007 12:38 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 14-06 18:02
volgens mij is dit nog niet gepost : http://www.fudzilla.com/i...task=view&id=661&Itemid=1

Radeon HD 2900 XTX pushed to Q3

[ Voor 15% gewijzigd door Mr. Detonator op 24-04-2007 12:46 ]


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Jawel, maar er stond niet bij, dat het van Fudo was:
Astennu in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."

1k GB GDDR4 komt dus als R650 :X

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Jammer genoeg alleen maar op 1280x1024 getest, en alleen tegenover een 8800GTS :/
Ervan uit gaande dat de 8800GTX zo'n 30% sneller is dan de GTS ziet dit er echter niet zo heel goed uit. De 2900 presteert in een 2 van de 5 hier geteste games gewoon op het niveau van een standaard GTS, en de cijfertjes bij HL2 Ep1 (de 3e) kloppen niet...

Als je dan benchmarks released doe het dan goed... dus met HD2900XT + GTS + GTX, plus ook met hogere resoluties en AA/AF. Dit zegt niet zo veel :/

Bij Dailytech gaan ze er trouwens vooralsnog van uit dat de XTX wel aan de startlijn verschijnt in mei.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Alleen tegenover de GTS is waarschijnlijk gedaan omdat zo veel mensen hameren op het feit dat je moet kijken naar kaarten in dezelfde prijscategorie. Daar is ook zo vaak hier in dit topic op gewezen. Het is natuurlijk wel een gemiste kans om geen GTX er bij te nemen in deze bang-for-buck vergelijking.

Dat ze geen monitor hadden die hoger ging dan 1280x1024 is natuurlijk jammer. Kan me niet voorstellen dat die 512-bit interface dan tot zijn recht komt.

De cooler lijkt wel veel op die van nV trouwens (zoals al bekend was), maar vindt deze mooier met z'n rode doorschijnende gloed:

Afbeeldingslocatie: http://images.dailytech.com/nimage/4535_large_R600_2.jpg

[ Voor 18% gewijzigd door CJ op 24-04-2007 13:08 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Gok: 299 eurotjes? ;)

Acties:
  • 0 Henk 'm!

  • Mitt3nz
  • Registratie: Maart 2002
  • Laatst online: 10-06 08:08
Hmm, interessant. Als die inderdaad in dezelfde prijsklasse valt als de GTS 640 is de keuze snel gemaakt lijkt me :)

De GTX mag dan nog wel king of the hill zijn, maar ik ga geen 500+ euro voor een videokaart neertellen die binnen een half jaar alweer outdated is. Dat laat ik aan de fanatiekelingen over ;)

Anyway, eerst maar eens de DX10 benchmarks afwachten.

[ Voor 54% gewijzigd door Mitt3nz op 24-04-2007 13:35 ]


Acties:
  • 0 Henk 'm!

Anoniem: 199989

pff,ik kan het echt niet meer volgen...teveel info die tegenstrijdig is,en het is onmogelijk om de bs van de waarheid te onderscheiden.Ik hoop dat Amd/Ati weet waar ze mee bezig zijn,want anders ziet de toekomst er echt somber uit voor hen,zeker als je de berichten in verband met reorganisaties en rode cijfers mag geloven.
Trouwens,er wordt her en der vermeld dat HL2,TeamFortress2 en Portal bij de kaarten zal zitten?Maar die spellen zijn toch nog lang niet klaar?

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op dinsdag 24 april 2007 @ 13:06:
Alleen tegenover de GTS is waarschijnlijk gedaan omdat zo veel mensen hameren op het feit dat je moet kijken naar kaarten in dezelfde prijscategorie. Daar is ook zo vaak hier in dit topic op gewezen.
Er is ook al vaker op gewezen dat de 2900 zich uberhaupt nog niet in een prijscategorie bevind omdat hij nog niet gereleased en te koop is. Ook is er al op gewezen dat het onduidelijk is in welke prijscategorie de GTS en GTX zich over een maand bevinden. Daarbij is er ook al op gewezen dat de GTX 1,5x zo veel geheugen aan boord heeft, en de hogere prijs in dat opzicht dus enigszinds gerechtvaardigd zou zijn.
Bovenstaand lijkt me dus niet zo'n goede motivatie...

[ Voor 3% gewijzigd door Cheetah op 24-04-2007 13:36 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Anoniem: 107626

En dan die "workstation"-scores... Die vergelijking gaat natuurlijk nergens over. FX5500 is outdated stuff. Ik had wel willen zien hoe hij zich verhoudt tegen een FX4600/5600.
En dan die 1280x1024 games... }:|
Enige informatie is die het stukje brengt is de 11.5k score bij 3dMark06.

Wat ze dan weer wel goed hebben gedaan zijn de drivers. :')
by KristopherKubicki:
We had the misfortune of getting one-on-one time with the card but there were no displays capable of higher resolutions at the facility. We'll get more cards and benchmarks later this week.
Dit is dan weer belovend.

[ Voor 27% gewijzigd door Anoniem: 107626 op 24-04-2007 13:49 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Je hebt gewoon niets aan de cijfers van Dailytech... Maximum quality settings... Dat zou dus net zo goed 24x Custom Filter AA zijn bij AMD tegenover 16xCSAA bij nV. Ik verwacht snel wel wat andere benchmarkleaks, heb er ook een aantal binnengekregen namelijk. Nog effe geduld dus.

Volgende deel komt er binnen een uur aan. Moet eerst nog wat andere dingen doen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Komt eerst deze -->

nieuws: AMD hoopt op investeerders om schuld over te nemen

En dan deze :X -->

nieuws: Intel zet bijl in prijzen server- en desktopprocessors

Tuurlijk wist AMD dat al en lezen wij dat nu, maar je ziet duidelijk waar ze mee bezig zijn. Pakken wat je pakken kan en de kans aangrijpen om je concurrent een paar rake klappen uit te delen. En terecht overigens, zo werkt het, you slack off, you get the dirt.

Frappant vind ik dat ze de 2900XT dan meteen tegen de GTS640 zetten :P ... de 2900XT zal gewoon een tijdje de topkaart van ATi zijn, dus dan moeten ze hem ook tegen de GTX aanzetten. nVidia kan nu ook zeggen 'maar de 8800Ultra komt eraan, dussuh onze 8800GTS640 komt tegen de 2600XT aan hoor!' ... zo werkt het gewoon niet :) . Het zijn altijd moment opnames die je meet, maar die moet je dan wel reëel meten. Het beste van de een met het beste van de ander op dat moment. En als de ATi kaart dan 20 procent langzamer is, maar 30 procent goedkoper, hoeft dan geen ramp te zijn :) !

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • OruBLMsFrl
  • Registratie: Juni 2001
  • Laatst online: 20-06 18:36

OruBLMsFrl

Silence Promo Crew

Ik denk dat we allemaal gewoon benchmarks willen zien tegen zowel de GTX als de GTS. Afhankelijk van wat NVidia dan doet met de prijzen bij de ATI launch heb je het goede vergelijkingsmateriaal. Het beste van de een met het beste van de ander vergelijken heeft alleen zin als je ook het beste wilt kopen. Iemand met een budget van 400 euro wil gewoon de kaarten zo dicht mogelijk onder de 400 euro met elkaar vergelijken en eventueel nog een paar die daaronder zitten. Maar het lijkt mij in ieder geval onwaarschijnlijk dat de 2900XT kwa prijs straks tegenover de 8800GTS komt te staan, eerder halverwege tussen de 8800GTS en en GTX, tenzij NVidia zo gul is dat ze de GTX gelijkwaardig prijzen.

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02:37
Tja wat moet ik er van zeggen.... Teleurstellend tot nu toe..... En ik zou em ook met de 8800 GTX vergelijken. Ik gok dat nVidia wel iets met de prijs zal zakken. En dit is wel het beste wat ATi nu heeft tegen het beste van nVidia. Aan de andere kant is de prijs wel belangrijk dus mocht het zo zijn dat de HD2900 XT straks 100-140 euro goedkoper is dan is dat een groot voordeel. Maar ik denk ook niet dat hij echt de winkel prijs van de 8800 GTS krijgt ( 310-330 euro )

Maar laten we maar even tests op 2560x1500 of 1920x1200 met AA en AF afwachten want misschien zit het em toch in het test systeem.

[ Voor 12% gewijzigd door Astennu op 24-04-2007 14:38 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • mieJas
  • Registratie: April 2005
  • Niet online

mieJas

Ja, maar nee.

Anoniem: 199989 schreef op dinsdag 24 april 2007 @ 13:35:
Trouwens,er wordt her en der vermeld dat HL2,TeamFortress2 en Portal bij de kaarten zal zitten?Maar die spellen zijn toch nog lang niet klaar?
Dat zal iets zijn ala Half-Life 2 dat bij de 9xxx reeks zat van ATi. Een coupon om het gratis te downloaden.

Yes, but no.


Acties:
  • 0 Henk 'm!

Anoniem: 199989

mieJas schreef op dinsdag 24 april 2007 @ 14:49:
[...]

Dat zal iets zijn ala Half-Life 2 dat bij de 9xxx reeks zat van ATi. Een coupon om het gratis te downloaden.
Ik vreesde er al voor...verdomde download-limieten ;(

Acties:
  • 0 Henk 'm!

  • OruBLMsFrl
  • Registratie: Juni 2001
  • Laatst online: 20-06 18:36

OruBLMsFrl

Silence Promo Crew

Anoniem: 199989 schreef op dinsdag 24 april 2007 @ 14:52:
[...]
Ik vreesde er al voor...verdomde download-limieten ;(
Ik download het wel voor je hoor, geen probleem :P

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Astennu schreef op dinsdag 24 april 2007 @ 14:32:Maar ik denk ook niet dat hij echt de winkel prijs van de 8800 GTS krijgt ( 310-330 euro )
Over welke GTS heb je het nu de hele tijd? De meeste GTS640s kosten nog altijd om en nabij de €399 met uitschieters naar boven (€439) en beneden (€349). De meeste GTX768s kosten nog altijd rond de €499 ook hier met uitschieters naar boven (€628) en beneden (€472). Het is de GTS320 die voor minder te koop is en daar concurreert de HD2900XT niet mee op prijsgebied.

Als de eerder door The Source geposte launchprijs van $399 klopt, dan is dus de prijs/performance verhouding helemaal niet slecht... zeg maar gerust zeer goed... zeker niet voor een kaart die niet onder doet voor een G80GTX (want ja, er zijn ook genoeg benchmarks waarin de 2900XT wint) en ook nog eens feature-packed is.

Op 1 mei komt dan wel de GF8800U uit voor een adviesprijs van $999, maar ja... voor die prijs heb je ook twee HD2900XTs (en eventueel een flinke voeding er bij :) ).

Overigens is inmiddels ook bewezen dat AMD geen enkele moeite heeft om hun GPUs op Intel CPUs te laten benchmarken. Toch nog even een vermelding waard voor al die mensen die dachten dat dat 'nooooooit' zou gebeuren. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 199989

Bas van der Doorn schreef op dinsdag 24 april 2007 @ 14:54:
[...]

Ik download het wel voor je hoor, geen probleem :P
Zolang ik de kaart maar mag houden :P

@CJ:waar zijn de benches dan waar je over spreekt?Of is dat nog steeds NDA?Ik snap het niet goed,ze spreken erover dat NDA afloopt op 14 mei,hoe kunnen ze dan al beginnen aan een hard-launch?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 199989 schreef op dinsdag 24 april 2007 @ 14:58:
[...]

Zolang ik de kaart maar mag houden :P

@CJ:waar zijn de benches dan waar je over spreekt?Of is dat nog steeds NDA?Ik snap het niet goed,ze spreken erover dat NDA afloopt op 14 mei,hoe kunnen ze dan al beginnen aan een hard-launch?
Ok, blijkbaar snapt nog niet iedereen het....

1) Er is nu een Editors Day aan de gang in Tunesie. Het is geen "launch", maar een Tech Event. Hier wordt de press op de hoogte gesteld over de technieken die gebruikt zijn in de R600, RV630 en RV610. De gehele DX10 generatie wordt hier nu voorgesteld aan de pers. Iedereen die aanwezig is in Tunesie ondertekent een NDA, wat wil zeggen dat ze niets naar buiten mogen lekken over wat ze gezien hebben. Ook nV houdt dit soort events. 2 weken voor de launch van de G80 was er in Oktober ook een G80 Tech Event, net zoals AMD dit nu heeft in Tunesie voor haar DX10 generatie.

2) De echte launch voor het grote publiek is op 14 Mei. Dat wil zeggen dat tussen nu en 14 Mei de pers die aanwezig was in Tunesie, een R600 sample krijgt en deze kan testen voor hun reviews. De reviews zullen 14 mei de lucht in gaan en vanaf die datum kan je de kaart krijgen. Tot die tijd ben je dus afhankelijk van eventueel gelekte informatie. De echt betrouwbare informatie en benchmarks zien jullie pas vanaf 14 mei.

3) nVidia stapt af van "Hard Launches". Dit hebben ze vermeldt ten tijde van de G84/G86 launch van vorige week. Zie het nV topic met de redenen waarom. AMD lijkt echter dit keer te mikken op een hard launch van de HD2900XT op 14 mei. Hoe dit in de toekomst gaat lopen met andere kaarten is niet bekend, maar het lijkt logisch dat ook AMD af stapt van "hard launches".

[ Voor 5% gewijzigd door CJ op 24-04-2007 15:04 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 199989

Dank je CJ :)

Acties:
  • 0 Henk 'm!

  • SgtStrider
  • Registratie: Juli 2003
  • Laatst online: 20-06 07:33

SgtStrider

Fractal Switchover!

Anoniem: 199989 schreef op dinsdag 24 april 2007 @ 13:35:
pff,ik kan het echt niet meer volgen...teveel info die tegenstrijdig is,en het is onmogelijk om de bs van de waarheid te onderscheiden.Ik hoop dat Amd/Ati weet waar ze mee bezig zijn,want anders ziet de toekomst er echt somber uit voor hen,zeker als je de berichten in verband met reorganisaties en rode cijfers mag geloven.
Trouwens,er wordt her en der vermeld dat HL2,TeamFortress2 en Portal bij de kaarten zal zitten?Maar die spellen zijn toch nog lang niet klaar?
offtopic:
TF2 is al inmiddels 2 maandjes in closed beta, er zijn ook al 2 trailers uitgekomen op valvemedia

CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600


Acties:
  • 0 Henk 'm!

Anoniem: 100386

Mitt3nz schreef op dinsdag 24 april 2007 @ 13:32:
[...]
Anyway, eerst maar eens de DX10 benchmarks afwachten.
Daarover gesproken; Hoe benchen ze die atm ? Want zover ik weet is er nog immer geen 3DMark DX10-versie, toch wel de standaardtool voor benchmarken van graka's.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op dinsdag 24 april 2007 @ 14:54:
Als de eerder door The Source geposte launchprijs van $399 klopt, dan is dus de prijs/performance verhouding helemaal niet slecht... zeg maar gerust zeer goed... zeker niet voor een kaart die niet onder doet voor een G80GTX (want ja, er zijn ook genoeg benchmarks waarin de 2900XT wint) en ook nog eens feature-packed is.
Launchprijs in Europa was toch 435 Euro?
Waarom praten we nog over US-dollars als de Europrijs ook al 'bekend' is?

Ik hoop binnenkort wat meer gelekte benchmarks te zien, want die test van dailytech heeft me - voor zover we daar iets uit kunnen opmaken - vooralsnog niet echt overtuigd van de kracht van de chip.
Qua prestaties lijkt hij daar - geextrapoleerd - tussen de GTS en de GTX in te presteren... en er van uit gaande dat de launchprijs van 435 Euri's klopt (en in geval nV tegen de verwachting in de prijzen niet verlaagd) is dat precies waar de 2900XT ook geprijsd is: Tussen GTS en GTX in.
Op 1 mei komt dan wel de GF8800U uit voor een adviesprijs van $999, maar ja... voor die prijs heb je ook twee HD2900XTs (en eventueel een flinke voeding er bij :) ).
Gezien de redelijk 'timide' specs t.o.v. GTX lijkt het me zeer onwaarschijnlijk dat de vorige maand gehintte launchprijs van $999 ook maar in de buurt komt van de reeele launchprijs. Voor $999 heb je ook 2 GTX'en die gezamelijk hun bil afvegen met 1 Ultra... lijkt me dat nV dat ook weet ;)
Lijkt me eerder dat de Ultra bij wijze van productrefresh (mag wel na 7 maanden) de huidige positie van de GTX overneemt, en de GTX en GTS volgens de normale cycle verder gaan zakken in prijs.
Overigens is inmiddels ook bewezen dat AMD geen enkele moeite heeft om hun GPUs op Intel CPUs te laten benchmarken. Toch nog even een vermelding waard voor al die mensen die dachten dat dat 'nooooooit' zou gebeuren. ;)
Verstandig van ze, anders zouden ze zichzelf behoorlijk in hun voet schieten bij diverse benchmarks, w.o. 3DMark06 en Supreme Commander. Core2 gaat daar - en in diverse andere games/benches - toch vrij duidelijk aan de leiding.

[ Voor 7% gewijzigd door Cheetah op 24-04-2007 16:05 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • WoutF
  • Registratie: Maart 2000
  • Laatst online: 17:04

WoutF

Hoofdredacteur
Anoniem: 100386 schreef op dinsdag 24 april 2007 @ 15:26:
[...]


Daarover gesproken; Hoe benchen ze die atm ? Want zover ik weet is er nog immer geen 3DMark DX10-versie, toch wel de standaardtool voor benchmarken van graka's.
Beta's van DX10 games gok ik. En/of tech demos

Acties:
  • 0 Henk 'm!

  • OruBLMsFrl
  • Registratie: Juni 2001
  • Laatst online: 20-06 18:36

OruBLMsFrl

Silence Promo Crew

Het blijft natuurlijk lastig om DX10 te benchen, nieuwe drivers, nieuw OS, nieuwe instructies. Stel dat Futuremark nu een benchmark uitbrengt die bepaalde getallen laat zien, hoe weet je dan of dat straks in games ook terugkomt? Bij iets als SM3.0 kun je nog zeggen van die en die instructies zullen waarschijnlijk veel gebruikt worden omdat we bij SM2.0 dit en dat als ontwikkelingen zien en dus gaan we die in onze benchmark stoppen. Ik denk dat DX10 performance en gebruik veel lastiger te voorspellen is en dat het daarom zo stil blijft vanuit die hoek. Een moet de eerste zijn, maar als de reputatie van je bedrijf afhangt van de betrouwbaarheid en vergelijkende waarde van de score van je benchmark, dan kijk je liever de kat een beetje uit de boom. Stel dat Crysis erg goed draait op de 8800GTX, maar niet zo op de 2900XT en bij latere games blijkt het steevast andersom te zijn. Dan is er voor Crysis niets aan de hand, want die maken gewoon een spel, maar stel nu dat 3DMark zou laten zien dat de 8800GTX de DX10 koning is en dat dat later erg tegen blijkt te vallen, dan vindt iedereen het programma meteen waardeloos waarschijnlijk.

[ Voor 34% gewijzigd door OruBLMsFrl op 24-04-2007 16:17 ]

Cooling is silver, silence is golden!
Wat je denkt is niet wat je zegt. Wat je zegt wordt anders begrepen.
Main: AMD RX 9070XT Sapphire Pure, 2e PC: Nvidia RTX3080 EVGA FTW3


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Anoniem: 100386 schreef op dinsdag 24 april 2007 @ 15:26:
[...]


Daarover gesproken; Hoe benchen ze die atm ? Want zover ik weet is er nog immer geen 3DMark DX10-versie, toch wel de standaardtool voor benchmarken van graka's.
Gewoon helemaal niet - best vervelend...
Qua D3D10/DX10 koop je een kat in de zak ;(

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Nieuw topic komt er zo aan....

Edit, hij staat hier: [Algemeen] ATi Nieuwsdiscussietopic - Deel 55

[ Voor 58% gewijzigd door CJ op 24-04-2007 16:31 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 18-06 15:24

Ultraman

Moderator Harde Waren

Boefje

Alweer vol! :o

Als je stil blijft staan, komt de hoek wel naar jou toe.

Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.

Let op:
Klinkt kinderachtig, maar blijkt iedere keer weer nodig:
- geen Ati vs nVidia geflame (of onnodige vergelijkingen)
- niet op de man spelen - een ander voor fanboy uitmaken = OW wegens flamen
- geen slowchat
- het 1001 keer herhalen van zelfde 'nieuws' (R600 vertraagd...) is geen nieuws, dus offtopic.
- als je iets beweert, onderbouw het. Als het van een roddelsite (Inquirer) komt, geef dat aan en verkondig het niet als heilige waarheid

Wat dan wel? Goed onderbouwde nieuwtjes over ATi videoproducten en hun drivers. Daar gaat het om in een nieuwsdiscussie :)