[Algemeen] ATi Nieuwsdiscussie Topic - Deel 47 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 ... 6 Laatste
Acties:
  • 5.765 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
zou best kunnen

Seemingly, ATi has been aiming to achieve 11,000 3DMark scores at 750MHz. That's tasty and may mean the R600 offers a strong challenge to NVIDIA's G80 GPU given that, as we reported in HEXUS.Beanz a few hours ago, ATi's already got samples running at 1GHz and has higher targets in mind.


bron

alleen jammer dat er (weer) niks over de gebruikte CPU wordt vermeld.....waarmee die 11k is neergezet...

als je die 750mhz core doorberekend in de score kom je ongeveer uit op 12.5 - 13k @ 1Ghz (gok)....als dit samen met een c2d is, wil het natuurlijk nog niet zo héél veel zeggen :|

[ Voor 18% gewijzigd door Mr. Detonator op 12-12-2006 22:50 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Als ik dit zo hoor lijkt het op een hoog geclockte 64 Shader core. Volgens mij kunnen ze beter 96 shaders op een lagere speed laten lopen. Dan blijft het stroomverbruik ook aanzienlijk lager.

en 11k 3dmarks met 750 core vind ik heel erg tegenvallen. Een G80 kan dat nu ook al makkelijk halen. 12k/13k was volgens mij geen uitzondering.

En over dat stroomverbruik van Anandtech. Dat zou dus +- 215-225 watt zijn. Dit werd in eerdere geruchten ook al gezegd. Op zich geen probleem. Als i idle maar eens beetje zuinig is.

[ Voor 21% gewijzigd door Astennu op 12-12-2006 23:02 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
Astennu schreef op dinsdag 12 december 2006 @ 23:01:
Als ik dit zo hoor lijkt het op een hoog geclockte 64 Shader core. Volgens mij kunnen ze beter 96 shaders op een lagere speed laten lopen. Dan blijft het stroomverbruik ook aanzienlijk lager.

en 11k 3dmarks met 750 core vind ik heel erg tegenvallen. Een G80 kan dat nu ook al makkelijk halen. 12k/13k was volgens mij geen uitzondering.

En over dat stroomverbruik van Anandtech. Dat zou dus +- 215-225 watt zijn. Dit werd in eerdere geruchten ook al gezegd. Op zich geen probleem. Als i idle maar eens beetje zuinig is.
verbruik is evenredig met aantal transistors die schakelen x frequentie x voltage^2, een 64 shader core op dubbele snelheid verbruikt dus evenveel als een 128 shader core op normale snelheid

Acties:
  • 0 Henk 'm!

  • martijnve
  • Registratie: December 2004
  • Laatst online: 14-09 00:34
oeLangOetan schreef op woensdag 13 december 2006 @ 00:10:
[...]

verbruik is evenredig met aantal transistors die schakelen x frequentie x voltage^2, een 64 shader core op dubbele snelheid verbruikt dus evenveel als een 128 shader core op normale snelheid
Idd plus nog dat een 128 shader core dubbel zo duur is om te maken (ok misschien iets minder maar iig nog 1.9 x zo duur)

Mini-ITX GamePC: Core i5 3470 | 16GB DDR3 | GTX 970 4GB | Samsung 830 128GB | Dell u2711 (27", IPS,1440p), 2343BW


Acties:
  • 0 Henk 'm!

Verwijderd

het wordt hoog tijd dat Ati eindelijk eens onder hunne steen uitkruipt en specs van hun R600 bekend gaan maken(en hiermee bedoel ik GEEN geruchten dus),het jaar is bijna ten einde en ik heb geld te veel Lol...

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
ATi is targeting February 14 - Valentine's Day - for getting R600 review samples into the hands of the press.

if we don't get to go hands on until mid-February, you can be sure that the move to full production is going to be later still

bron: Hexus

die komen ineens wel met heel veel geruchten tevoorschijn bij Hexus .. lijkt wel of ze iemand hebben vastgebonden op een stoel ?! :)

[ Voor 50% gewijzigd door Mr. Detonator op 13-12-2006 01:32 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Mr. Detonator schreef op woensdag 13 december 2006 @ 01:13:
ATi is targeting February 14 - Valentine's Day - for getting R600 review samples into the hands of the press.

if we don't get to go hands on until mid-February, you can be sure that the move to full production is going to be later still

bron: Hexus

die komen ineens wel met heel veel geruchten tevoorschijn bij Hexus .. lijkt wel of ze iemand hebben vastgebonden op een stoel ?! :)
OMG dus eind maart pas kaarten in de winkels |:( . Wat willen ze ? dat nVidia ze verslaat of zo. Ze doen hetzelfde als met de G70. De R520 was gewoon veel te laat. En daar door had nVidia veel tijd. Toen de X1800 XTX kwam had nVidia een 7900 kaart klaar. Nu gaat het het zelfde zijn met de R600 :( Ik hoop echt dat dat laatste gerucht niet klopt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Arjan90
  • Registratie: September 2005
  • Laatst online: 21:03
Je moet het wel zo zien dat als ATi nu alles vrij geeft, nVidia haar tegenwoord alvast kan klaarstomen zodat ze nog niet alles uit hun core halen, nu zullen ze in 1 keer alles moeten geven anders hebben ze de kans dat ATi ze alsnog aftroeft.

Hetzelfde bij de Nintendo Revolution, het werd expres stilgehouden zodat er geen tegenactie bedacht én uitgevoerd kon worden, of dat er in ieder geval niets werd overgenomen.

Ik vind het jammer dat het zo stil is, maar toch heb ik vertrouwen in ATi, zeker met de huidige mid-end zie ik ze wel met een goede R600 komen ;)

"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."


Acties:
  • 0 Henk 'm!

Verwijderd

ja,lap kan ik nog wat langer wachten op een nieuw systeempje...In eerste instantie was ik een Ati fan,maar nu,na het zien van wat een monster de 8800 kaarten zijn,ben ik beginnen twijfelen...Maar na de eerste geruchten over de R600 kaarten,zag ik de toekomst weer hoopvol tegemoet,maar wachten tot in Maart??Volgens mij heeft Nvidia dan alweer een andere kaart klaar....Het zal een gigantische inhaalrace worden voor Ati,en ik vrees er een beetje voor of ze die kunnen winnen...

Acties:
  • 0 Henk 'm!

Verwijderd

tja maar die ATI komt wel 4-5 maanden alter dan nviida en nvidia gaat binnen de maand daar met een opvolger staan. draai het en keer het zoals je wilt nvidia blijft de winnaar in dit gevecht. en de 8800GTX is al een enorm monster maanden voordat ATI kan concurreren. bij mij was het rap gekloken hoor.

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Verwijderd schreef op woensdag 13 december 2006 @ 12:46:
nvidia gaat binnen de maand daar met een opvolger staan.
misschien komen ze wel tegelijk uit...of de g81 iéts eerder :X

heb al een keer eerder gepost dat ik de g80 niet als concurrent zie van de r600...dit wordt eerder de g81 zoals het er nu uitziet

[ Voor 4% gewijzigd door Mr. Detonator op 13-12-2006 12:52 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Nja ze hebben blijkbaar niet geleerd van hun fouten. Afgelopen jaar i hun markt aandeel flink gedaald. Mede door de slechte R520 lauch. En nu doen ze het weer. Ze weten donders goed wanneer nVidia een kaart uit gaan brengen. Als ze zo door gaan blijven ze alleen maar marktaandeel verliezen.

en die X1050 vind ook nergens op slaan. Net als de 9200 dat eerder al deed. Het is geen DX 9.0c kaart dus dan moet het ook geen X1K kaart worden :(

[ Voor 20% gewijzigd door Astennu op 13-12-2006 13:17 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
lijkt mij niet dat ze dat bewust doen.... :|

tenzij er iemand werkt die ''on demand'' wat r600 gpu's uit z'n mouw schud

het is geen bewuste keuze om ze zo laat uit te brengen....ze krijgen het gewoon nog niet voor elkaar

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Mr. Detonator schreef op woensdag 13 december 2006 @ 13:35:
[...]


lijkt mij niet dat ze dat bewust doen.... :|

tenzij er iemand werkt die ''on demand'' wat r600 gpu's uit z'n mouw schud

het is geen bewuste keuze om ze zo laat uit te brengen....ze krijgen het gewoon nog niet voor elkaar
Ze hadden em al lang af moeten hebben. De Xenos werkt toch ook goed ? De R600 is een opgevoerde Xenos als ik met niet vergis. Dus dan zou je er toch niet al te lang over hoeven te doen lijkt mij....

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Wat een doemdenkerij allemaal weer. De wereld vergaat! God save us all! :9

Wacht nou eerst maar even af totdat je R600 echt gezien hebt. :>

En G80 moet zich vooralsnog bewijzen in DX10 applicaties die echt gebruik maken van de unified architecture. ATi heeft zich op dat gebied al bewezen door aan te tonen dat ze een zeer krachtige unified architecture hebben neer gezet met de Xenos. Ze zitten nu op hun tweede generatie unified hardware. We weten allemaal dat ATI unified hardware kan leveren die een game als Gears of War in volle pracht en praal kan laten draaien.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
CJ schreef op woensdag 13 december 2006 @ 13:57:


. Ze zitten nu op hun tweede generatie unified hardware.
net als nvidia dus, want ze zijn allebei bezig om hun tweede generatie unified architecture te verbeteren :)

ati met de r600, en nvidia met de g81

of mag je de g81 niet tot de tweede generatie rekenen, en de r600 wél !? :)

r600 is toch een ''opgevoerde'' xenos ?

[ Voor 8% gewijzigd door Mr. Detonator op 13-12-2006 14:06 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Mr. Detonator schreef op woensdag 13 december 2006 @ 14:02:
[...]


ze zijn allebei bezig om hun tweede generatie unified architecture te verbeteren :)

ati met de r600, en nvidia met de g81

of mag je de g81 niet tot de tweede generatie rekenen, en de xenos wél !? :)
Als je het zo bekijkt dan is ATi is al bezig met de derde generatie unified hardware hoor. ;)

"Next Generation R600" staat al een tijdje op de roadmap voor Q3, net zoals de originele R600 op de roadmap staat voor Q1.

Technisch gezien is ATI al bezig met hun vierde generatie unified, want ook aan R700 wordt al een jaartje of wat gewerkt.

Maar goed, G81 is tot G80 wat G71 is tot G70. Een refresh. R600 is geen refresh van Xenos. Daarvoor verschillen er te veel dingen. Dus G81 is eigenlijk geen nieuwe generatie unified, net zoals "next generation R600" (R680?) dat eigenlijk ook niet is.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik denk dat de G81 meer een die Shrink van de G80 is met hogere clocks.

Bij de R600 zijn er wel dingen verandert TOV de Xenos zoals:

-Ringbus memory controller
-64.96 Shader units
-Misschien ook de ALU's zelf ?

Maar anyway het duurt te lang. Maar Vista komt ook pas eind Jan. Maar had wel gehoopt dat ik dan een R600 zou kunnen kopen. En dat lijkt nu niet te gaan lukken.

[ Voor 27% gewijzigd door Astennu op 13-12-2006 14:07 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 13-09 17:07

Krizzie

Progressive Music \o/

Verschil tussen xenos en R600 is toch wel flink groter dan G80 naar G81. :)

Geluidswolk


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op woensdag 13 december 2006 @ 13:57:
Wacht nou eerst maar even af totdat je R600 echt gezien hebt. :>
Even? :)
Als dat gerucht dat die reviewsamples pas op 14/2/07 bij de pers zijn waar is dan kan "even" nog wel tot Maart 2007 duren... en dan hoeven we echt nog maar even te wachten op G81 als het goed is ;)
ATi bewijst zichzelf geen dienst hiermee...

En over die rename/"upgrade" van de 9600-naamgeving naar eerst "X"-serie en nu nogmaals naar "X1K" ben ik al helemaal niet te spreken. Dit is i.m.o. ronduit misleidend voor de consument, want het staat haaks op de X1K marketingcampagne. AVIVO, hardware H.264 decoding en DX9C zijn allemaal trademarks van X1K en de 9600 doet geen van drieeen :N
Ruim 3,5 jaar oude technologie op deze manier ff "moderniseren" en doormelken... ATi bewijst de consument geen dienst hiermee... en uiteindelijk zichzelf dus ook niet.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Cheeta ik ben het helemaal met je eens wat over die 9600. Ze hadden er gewoon een RV505 of RV515 chippie op moeten gooien. Die wel al die dingen kan en niet weer een RV370.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op woensdag 13 december 2006 @ 14:28:
[...]
Even? :)
Als dat gerucht dat die reviewsamples pas op 14/2/07 bij de pers zijn waar is dan kan "even" nog wel tot Maart 2007 duren... en dan hoeven we echt nog maar even te wachten op G81 als het goed is ;)
ATi bewijst zichzelf geen dienst hiermee...
Even het belangrijkste woord onderstreept. Rys, de vorige topman van Hexus, die nu aan het roer staat bij Beyond3D, heeft afstand genomen van wat er op Hexus gepost wordt en aangegeven dat bepaalde dingen niet echt 'betrouwbaar' zijn.
En over die rename/"upgrade" van de 9600-naamgeving naar eerst "X"-serie en nu nogmaals naar "X1K" ben ik al helemaal niet te spreken. Dit is i.m.o. ronduit misleidend voor de consument, want het staat haaks op de X1K marketingcampagne. AVIVO, hardware H.264 decoding en DX9C zijn allemaal trademarks van X1K en de 9600 doet geen van drieeen :N
Ruim 3,5 jaar oude technologie op deze manier ff "moderniseren" en doormelken... ATi bewijst de consument geen dienst hiermee... en uiteindelijk zichzelf dus ook niet.
GF2 -> GF4MX
GF6200 -> GF7100

Ze hadden een goed voorbeeld.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Dat is misschien wel waar maar geen goed excuses. Als ik ATi was had ik dan toch de RV515 chip ingezet. Of gewoon de naam niet verandert. Ik neem aan dat die RV515/RV505 chippies op 0.08u toch best goedkoop te produceren zijn. Misschien nog wel goedkoper dan de RV370 chips op 0.11u.

Je krijgt er dan wel een betere naam door als je gewoon een beter product levert. Lijkt mij.... Misschien krijg je dan nog meer deals met grote bedrijven omdat je een beter product voor dezelfde/nagenoeg dezelfde prijs levert ?

[ Voor 30% gewijzigd door Astennu op 13-12-2006 14:55 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Hoeveel jaar wil je terug de historie in? nV heeft dit 1x gedaan op die core.
ATi doet het nu voor de 2e keer op exact dezelfde hardware: 9600 -> X serie -> X1K serie. Zeker gezien hun marketingcampagne voor X1K (AVIVO, H264, DX9C) is dat gewoon misleiding.
Bovendien, sinds wanneer is zoiets recht te kletsen met een "maar zij doen het ook"?
GF6200 -> GF7100
Ze hadden een goed voorbeeld.
Tussen de low-end 6 en 7 serie bestaan geen dramatische verschillen. De 6200 ondersteunt ook gewoon DX9C, Purevideo, H.264 decoding etc. Dat geld niet voor de RV370. Je vergelijking gaat stevig krom dus.

Dit is dus geen gewone "maar zij doen het ook", dit is een "wij doen het ff 4x erger".
Astennu schreef op woensdag 13 december 2006 @ 14:53:
Dat is misschien wel waar maar geen goed excuses. Als ik ATi was had ik dan toch de RV515 chip ingezet. Of gewoon de naam niet verandert. [...]

Je krijgt er dan wel een betere naam door als je gewoon een beter product levert. Lijkt mij.... Misschien krijg je dan nog meer deals met grote bedrijven omdat je een beter product voor dezelfde/nagenoeg dezelfde prijs levert ?
Precies...
Dezelfde oude troep elke keer onder een nieuw naampje verkopen wordt niemand blij van... zeker als die oude troep geen van de nieuwe functies waarmee dat naampje breeduit geadverteerd is ondersteunt.

[ Voor 31% gewijzigd door Cheetah op 13-12-2006 15:05 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

en nu ook weer zoals ze ene X300 gewoon een andere naam geven X550 ofzo. de mensen DENKEN weer dat het een betere kaart is maar tis weer niet zo...

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 13 december 2006 @ 15:07:
en nu ook weer zoals ze ene X300 gewoon een andere naam geven X550 ofzo. de mensen DENKEN weer dat het een betere kaart is maar tis weer niet zo...
Inderdaad dat zou ik ook denken dat de X550 een geval is dat bijna 2x zo goed is.
Ik vind het momenteel erg spijtig dat ATI zijn kaarten aan het verwerpen is. Veel mensen denken dus een betere kaart te kopen terwijl ze dezelfde kopen.. Ik zelf 'mening' vind dit niet doenbaar , het is een manier om een kaart altijd rond dezelfde prijs te laten schommelen zonder dat iemand er iets van afweet. Ze proberen hun zakken te vullen met steeds dezelfde kaart naar mijn mening toe.

Nog iets van de R600 , ik vind het allemaal tegenvallende geruchten. Naar het blijken zouden de
R600 en G80 ook meer op elkaar lijken dan de bedrijven willen zeggen. En in 3Dmark06 11k met een R600 maar halen.. pff.. ik haal momenteel makkelijk 12-13k als ik een beetje aan Oc'en doe.
Ze laten dus een veel te grote 'tijd' tussen de G80 en R600 komen. Op vlak van concurentie zou het ook beter zijn dat die launch dates niet zo ver van elkaar liggen.. Nu is het naar mijn mening Nvidia die alles in de hand heeft.. sommige kunnen dit positief vinden , al heb ik een 8800GTX. Maar ik vind dat Nvidia met drivers enzo ook wat achter blijft door die 'achterstallige concurentie'.

En inderdaad.. als de R600 zo laat uit gaat komen , kan je beter een G81 kopen die in april ongeveer zal uitkomen. En als je van gedacht bent , maar ja : Zo kan je blijven wachten.
-> Ga dan een G80 halen. :+

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op woensdag 13 december 2006 @ 15:01:
[...]
Hoeveel jaar wil je terug de historie in? nV heeft dit 1x gedaan op die core.
ATi doet het nu voor de 2e keer op exact dezelfde hardware: 9600 -> X serie -> X1K serie. Zeker gezien hun marketingcampagne voor X1K (AVIVO, H264, DX9C) is dat gewoon misleiding.
Bovendien, sinds wanneer is zoiets recht te kletsen met een "maar zij doen het ook"?
Tjonge jonge... Dramaqueen. Maar goed, dat moet geloof ik om de zoveel weken in dit topic...

Het is niet recht praten, het is aangeven dat zoiets al veel vaker in het verleden is gebeurd. Ook bij ATI zelf, Radeon 8500 -> Radeon 9100.

De eerste keer dat het gebeurde, was omdat er een omschakeling werd gemaakt van AGP naar PCIe. De RV3-serie verschilt niet of nauwelijks van de R(V)4 serie. De RV3 serie gebruikte al de vernieuwde filteringtechnieken, gebruikte dezelfde AA mogelijkheden (incl. temporal, Centroid, adaptive).

9600 (RV360 op 13nm) -> X600 (RV380 op 13nm), dus een kleine stap.
X300 (RV370 op 11nm) -> X550 (RV370 op 11nm met X-Architecture waardoor deze veel beter over te klokken was dan de originele RV370).

De productietechnologieen verschilden elke keer, maar inhoudelijk waren er verder dus weinig verschillen ondanks dat ze onder twee verschillende generaties vielen.
Tussen de low-end 6 en 7 serie bestaan geen dramatische verschillen. De 6200 ondersteunt ook gewoon DX9C, Purevideo, H.264 decoding etc. Dat geld niet voor de RV370. Je vergelijking gaat stevig krom dus.

Dit is dus geen gewone "maar zij doen het ook", dit is een "wij doen het ff 4x erger".
Ik zou als ik jou was de specs van de GF6200 eens vergelijken met de echt GF7 kaarten. De ALUs zijn de helft krachtiger. Er wordt een oudere versie van CineFX en ook van Intellisample gebruikt. Tenzij blijkt dat nVidia ons allemaal heeft opgelicht en dit allemaal maar software-matig gehack is, is dit net zo erg.
Precies...
Dezelfde oude troep elke keer onder een nieuw naampje verkopen wordt niemand blij van... zeker als die oude troep geen van de nieuwe functies waarmee dat naampje breeduit geadverteerd is ondersteunt.
Is dat dan gebeurd? Het enige waar dit op zou kunnen slaan is SM3 vs SM2, maar beide zijn nog steeds volledig DX9 compliant. Avivo aanhalen klopt niet in deze context. Is Avivo echt aan de X1K serie gekoppeld? Voor zover ik weet is Avivo als een aparte los staande techniek gelanceerd en is het een overkoepelende orgaan voor diverse videomogelijkheden. Daarom is ook AVIVO gelanceerd VOORDAT de X1K serie uit kwam. In jou ogen zal dit waarschijnlijk miereneukerij zijn, maar het is wel een wezenlijk verschil en niet minder erg dan een oude DX7 kaart hernoemen in een serie DX8.1 kaarten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Je kan een hoop zeggen, maar ondanks alles wordt het er juist weer duidelijker op hoe kaarten zich tot elkaar verhouden...
Hiervoor wist je niet 123 of een X550 nou beter was dan een X1300 HM. Nu kan je makkelijker kijken, X1050 is lager dan X1300 dus slechter... (je zou zeggen: dit kan je ook doen met de X550 maar weer niet met de X800bv.)
Dus eigenlijk is het alleen maar goed, oude chips herkauwen is niet helemaal zoals we het zouden willen zien, maar daarnaast kan je ze alleen maar gelijk geven als ze nog tig van die chips hebben liggen...

Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op woensdag 13 december 2006 @ 13:54:
Ze hadden em al lang af moeten hebben.
Ze hadden 'm ook al af (vermoed ik). Alleen werden ze een beetje bleek om de neus toen
ze de performance van de G80 zagen. Dus hup terug voor een respin om snellere clocks te halen etcetera.

Uiteindelijk zou de reden voor het uitstel dus kunnen zijn omdat Nvidia gewoon de lat érg hoog legt. ;)

[ Voor 13% gewijzigd door Verwijderd op 13-12-2006 16:27 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Dat is wel een goed punt denk ik. Dus dat ze er alsnog een monsterkaart van willen maken. Ik ben benieuwd wat de uiteindelijke performance dan wordt. DX9 vind ik minder interessant. De G80 is meer dan snel genoeg voor DX 9.0 maar het gaat me straks om games alla Gears of War die op de Xbox 360 niet helemaal soepel loopt overigens. Maar het ziet er ook zo mooi uit. Ik kan niet wachten op Unreal 3 en UT 2007 die dezelfde engine gebruiken :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Een respin doe je niet zo maar 'hup' eventjes. Er zit nog zo'n 12-16 weken tussen een respin en uiteindelijk product. Ik denk dat ATi dondersgoed wist wat G80 was, net zoals NV weet wat R600 is. In de 4 jaar tijd dat G80 in ontwikkeling is, zijn er genoeg nV mensen overgestapt naar ATI die wisten wat er aan stond te komen. Zo ook omgekeerd.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verwijderd schreef op woensdag 13 december 2006 @ 12:46:
tja maar die ATI komt wel 4-5 maanden alter dan nviida en nvidia gaat binnen de maand daar met een opvolger staan. draai het en keer het zoals je wilt nvidia blijft de winnaar in dit gevecht. en de 8800GTX is al een enorm monster maanden voordat ATI kan concurreren. bij mij was het rap gekloken hoor.
Ja ik ben ook erg blij met de 8800gtx maar laten we het niet overdrijven. ;)
De drivers laten nogal te wensen over momenteel. Gelukkig heb ik er weinig last van omdat ik vooral veel BF2 speel (16AF en 16AA SS etc is echt superstrak :9 ) maar bij een aantal andere grote spellen zijn er toch best wel problemen.
NVIDIA wordt hier nu niet zwaar op afgerekend omdat ze qua performance eenzaam aan de top staan maar ik vind het wel slecht.

Verder vind ik hun controlpanel ook erg brak en amateuristisch overkomen. :X

Het renamen van oude hardware naar nieuwe, hogere snelheid suggerende namen vind ik sowieso not done en meer bij nvidia passen dan bij ATI.

ATI moet gewoon orde op zaken stellen en ik hoop dat dit mbv AMD gaat lukken.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Help!!!! schreef op woensdag 13 december 2006 @ 18:56:
[...]

De drivers laten nogal te wensen over momenteel.

NVIDIA wordt hier nu niet zwaar op afgerekend omdat ze qua performance eenzaam aan de top staan maar ik vind het wel slecht.

.
klopt....vind dat het controlpanel er ook op achteruit gegaan is (en het was al niet zo goed)

maar dat er met veel spellen problemen zijn, ligt volgens mij voornamelijk aan de spellen zelf, die nog voor dx9/non-unified/fixed pipes geschreven zijn...dit in kombinatie met directx9, die de unified architecture niet goed schijnt aan te sturen...en ik voorzie eigenlijk dezelfde ''driver-issues'' met de r600 gebeuren..... onder dx10 zal deze unified-architectuur pas echt goed presteren

Call of juarez ....vorige week geprobeert, en zag allemaal knipperende zwarte vlakken :|

speel zelf (gelukkig) ook bijna alleen maar bf2......... en dreampinball3d :P

[ Voor 25% gewijzigd door Mr. Detonator op 13-12-2006 20:29 ]


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 00:10
Gerucht is dat de R600 in Februari komt. Laten we voor de veiligheid zeggen, midden van de maand, dan zitten we safe. (ik weet overigens nog geen launchdate hoor). ATI heeft in het verleden nog nooit op tijd gelaunched, tenminste dit is een erg lange tijd geleden. Maw we kunnen ervan uitgaan dat er niet veel stock beschikbaar zal zijn, of dat het een paar weken later beschikbaar zal zijn. Zelfs bij nVIdia launches zie je dat het zeker 5 tot 6 weken duurt totdat een product in volume beschikbaar is. Volume bedoel ik dat je het in nagenoeg elke shop kunt afhalen, dus dat er geen allocatie op de producten zit (op de G80 zit overigens nog steeds allocatie).

Midden februari is een erg lastige datum, gezien alle fabrikanten hun producten uit een fabriek in china halen, 18feb is het namelijk chineese nieuwjaar, niet een avond, nee ze gooien de fabriek gewoon 1 week dicht. Dus dit betekent minstens 1.5 week extra vertraging. Dus als de launch midden van Feb is, dan is er een beperkte batch bij de launch beschikbaar waarna er een gat valt... of het duurt tot bijna begin april totdat je er eentje goed kunt bemachtigen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Mr. Detonator schreef op woensdag 13 december 2006 @ 19:28:
[...]


klopt....vind dat het controlpanel er ook op achteruit gegaan is (en het was al niet zo goed)

maar dat er met veel spellen problemen zijn, ligt volgens mij voornamelijk aan de spellen zelf, die nog voor dx9/non-unified/fixed pipes geschreven zijn...dit in kombinatie met directx9, die de unified architecture niet goed schijnt aan te sturen...en ik voorzie eigenlijk dezelfde ''driver-issues'' met de r600 gebeuren..... onder dx10 zal deze unified-architectuur pas echt goed presteren

Call of juarez ....vorige week geprobeert, en zag allemaal knipperende zwarte vlakken :|

speel zelf (gelukkig) ook bijna alleen maar bf2......... en dreampinball3d :P
Onzin dit is helemaal op te vangen met drivers. En games draaien ook goed op de Xbox. En die games zijn er ook op de PC.
The Source schreef op woensdag 13 december 2006 @ 20:45:
Gerucht is dat de R600 in Februari komt. Laten we voor de veiligheid zeggen, midden van de maand, dan zitten we safe. (ik weet overigens nog geen launchdate hoor). ATI heeft in het verleden nog nooit op tijd gelaunched, tenminste dit is een erg lange tijd geleden. Maw we kunnen ervan uitgaan dat er niet veel stock beschikbaar zal zijn, of dat het een paar weken later beschikbaar zal zijn. Zelfs bij nVIdia launches zie je dat het zeker 5 tot 6 weken duurt totdat een product in volume beschikbaar is. Volume bedoel ik dat je het in nagenoeg elke shop kunt afhalen, dus dat er geen allocatie op de producten zit (op de G80 zit overigens nog steeds allocatie).

Midden februari is een erg lastige datum, gezien alle fabrikanten hun producten uit een fabriek in china halen, 18feb is het namelijk chineese nieuwjaar, niet een avond, nee ze gooien de fabriek gewoon 1 week dicht. Dus dit betekent minstens 1.5 week extra vertraging. Dus als de launch midden van Feb is, dan is er een beperkte batch bij de launch beschikbaar waarna er een gat valt... of het duurt tot bijna begin april totdat je er eentje goed kunt bemachtigen.
Hier was ik dus al bang voor. Ik zou het niet raar vinden als de G81 eerder goed beschikbaar is :(

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Astennu schreef op woensdag 13 december 2006 @ 22:06:
Hier was ik dus al bang voor. Ik zou het niet raar vinden als de G81 eerder goed beschikbaar is :(
Eerder? Als ATi het moeilijk krijgt om iets te lanceren midden Februari vanwege het Chinese nieuwjaar... waarom zou nV het hier dan niet moeilijk mee krijgen? Zeker als je in je achterhoofd dat de G80 ook nog op allocatie beschikbaar is en niet in volume.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
CJ schreef op woensdag 13 december 2006 @ 22:20:
[...]


Eerder? Als ATi het moeilijk krijgt om iets te lanceren midden Februari vanwege het Chinese nieuwjaar... waarom zou nV het hier dan niet moeilijk mee krijgen? Zeker als je in je achterhoofd dat de G80 ook nog op allocatie beschikbaar is en niet in volume.
Nja nVidia is wel heel erg rap maar kaarten in winkels krijgen. De X1800 was een drama. Maar de X1900 was wel in de eerste 2-3 dagen te krijgen. Maar nVidia heeft het altijd op de dag zelf.

Misschien is mijn post wel overdreven. Maar het is gewoon meer frustratie. Ik had gehoopt eind dit jaar begin volgend jaar die R600 te hebben. Dit gaat meer richting halverwege 2007.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Astennu schreef op woensdag 13 december 2006 @ 22:25:
[...]

. Dit gaat meer richting halverwege 2007.
Q1 2007 loopt t/m 31 maart :)

[ Voor 5% gewijzigd door Mr. Detonator op 13-12-2006 22:30 ]


Acties:
  • 0 Henk 'm!

  • jimbojansen
  • Registratie: Mei 2005
  • Laatst online: 06-09 20:49
ATI Catalyst 6.12 Released
ATI has released new official Catalyst 6.12 drivers for ATI based video cards. This release of the ATI Catalyst software suite introduces DirectX video acceleration for CrossFire enabled configurations.
http://ati.amd.com/support/driver.html
nog 1 maandje en we krijgen hopelijk goodies en zo te zien zijn er ook eindelijk nieuwe vista drivers

[ Voor 7% gewijzigd door jimbojansen op 13-12-2006 22:32 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik zal ze testen. Hopelijk zit de nieuwe AA mode er in maar ik denk het niet. Omdat i nog steeds bugs had.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Astennu schreef op woensdag 13 december 2006 @ 22:25:
[...]


Nja nVidia is wel heel erg rap maar kaarten in winkels krijgen. De X1800 was een drama. Maar de X1900 was wel in de eerste 2-3 dagen te krijgen. Maar nVidia heeft het altijd op de dag zelf.

Misschien is mijn post wel overdreven. Maar het is gewoon meer frustratie. Ik had gehoopt eind dit jaar begin volgend jaar die R600 te hebben. Dit gaat meer richting halverwege 2007.
och och je hoeft roddels niet nog verder uit proportie te blazen hoor, gerucht is eind februari, en jij maakt er maar juni/juli van? |:(

het zal allemaal wel meevallen..

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Astennu schreef op woensdag 13 december 2006 @ 23:49:
Ik zal ze testen. Hopelijk zit de nieuwe AA mode er in maar ik denk het niet. Omdat i nog steeds bugs had.
In de releasenotes staat er in ieder geval niks over, misschien voor de 6.13 driver? Als kerst/nieuwjaarscadeau zeg maar.... Zou best een aardig presentje van ATi zijn!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 21:27

Apoca

Array Technology Industry

http://tweakers.net/meuktracker/14348/ATi-Catalyst-6.12.html

De nieuwe 6.12 drivers.

[ Voor 30% gewijzigd door Apoca op 14-12-2006 00:33 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 14 december 2006 @ 00:23:
[...]


och och je hoeft roddels niet nog verder uit proportie te blazen hoor, gerucht is eind februari, en jij maakt er maar juni/juli van? |:(

het zal allemaal wel meevallen..
Neeh midden april. En dat is meer naar de helft van het jaar dan het begin. Correct me if i'm wrong. Laten we maar hopen dat The Source het dit keer verkeerd heeft.
SpankmasterC schreef op donderdag 14 december 2006 @ 00:26:
[...]

In de releasenotes staat er in ieder geval niks over, misschien voor de 6.13 driver? Als kerst/nieuwjaarscadeau zeg maar.... Zou best een aardig presentje van ATi zijn!
Jah idd in deze driver zit hij er niet standaard in.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Bull
  • Registratie: December 2000
  • Laatst online: 01:38
jimbojansen schreef op woensdag 13 december 2006 @ 22:31:
[...]

http://ati.amd.com/support/driver.html
nog 1 maandje en we krijgen hopelijk goodies en zo te zien zijn er ook eindelijk nieuwe vista drivers
Met support voor de x1950xt *O*

https://tweakers.net/gallery/18583/inventaris/


  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Volgens The Inq toch geen Catalyst 6.13... Het driverteam gaan op (welverdiende?) vakantie.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik ben het topic op Beyond 3D aan het lezen. En ze hebben het er daar over dat de R600 totaal anders is in vergelijking met de Xenos. Hij zou slimmer omgaan met het belasten van de ALU's. Ik snap er niet veel van wat ze allemaal zeggen. Maar het komt er volgens mij op neer dat de R600 er alles aan doet om die ALU's efficient aan het werk te houden. En niet dat ze gebruikt gaan worden als een 1D shaders van nVidia.

Zo zouden alle instucties in groepen bij elkaar gezet worden. En verwerkt worden. Maar dan is er wel weer een iets nodig om te onthouden wat waar bij hoorde. Any way dit zijn wel geruchten.....

[ Voor 19% gewijzigd door Astennu op 14-12-2006 14:34 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Drie R600 codenames + R700

Weer wat gelekte info...

R600 XTX heet Dragon's Head
R600 XT heet Cat's Eye (hey waar hebben we dat eerder gezien?)
R600 XL heet UFO
R700 heet Wekiva

Dragon's Head en Cat's Eye zijn direct vanaf de launch beschikbaar. Het is nog 30 dagen langer wachten voordat de UFO op aarde neerdaalt, aldus Hexus. Waarschijnlijk zijn Dragon's Head en Cat's Eye (en UFO) de namen voor het PCB en niet voor de core (Pele).

Daarnaast wisten we al dat de mainstream varianten (RV6x0) de namen Bum, Shaka en Laka hebben. :)

[ Voor 7% gewijzigd door CJ op 14-12-2006 14:53 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Of we hexus nog moeten vertrouwen is de vraag. Eerst zeggen ze dat de R600 in de 2e week van Feb aan de pers wordt gegeven en er pas half maart in de winkels zou liggen. En nu weer per direct.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

CJ schreef op donderdag 14 december 2006 @ 14:51:

[..]

Daarnaast wisten we al dat de mainstream varianten (RV6x0) de namen Bum, Shaka en Laka hebben. :)
Ik vraag me af wanneer deze uitgebracht zullen worden, met de RV560LE en de RV70LE die nog steeds op papier staan. Maart/April?

Oja nog iets leuks wat gepost was op B3D: GPU Acceleration Support in Acrobat and Adobe Reader (8.x). :D

  • jimbojansen
  • Registratie: Mei 2005
  • Laatst online: 06-09 20:49
ATI to use NanoFoil on R600
Probably all of us are eagerly awaiting the R600 from ATI. The news floating on the internet is mixed - some report that the chip runs cool and doesn't draw a lot of power, while others tell us the contrary.

Hexus.net managed to find out some information about how ATI plans to cool the chip. Apparently, NanoFoil technology will be used. The technology works by having ultra-thin nanolayers of aluminium and nickel that can be controlled by heat, electricity or mechanical or optical stimulation, causing a reaction that gives off heat in a controlled fashion. The technology has been around since 2003, but hasn't yet been used to cool computer components.
Dit zijn waarschijnlijk dus de speciale cooltechniek zijn waar CJ (?) het laats over had.. Dit is overigens ook een gerucht :9
bron

[ Voor 3% gewijzigd door jimbojansen op 14-12-2006 16:58 ]


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Verwijderd schreef op donderdag 14 december 2006 @ 15:43:
[...]


Ik vraag me af wanneer deze uitgebracht zullen worden, met de RV560LE en de RV70LE die nog steeds op papier staan. Maart/April?

Oja nog iets leuks wat gepost was op B3D: GPU Acceleration Support in Acrobat and Adobe Reader (8.x). :D
De X1650XL en X1950GT komen als het goed is in Januari uit. De datum is hier al een paar keer genoemd in het topic en de eerste samples zouden in de eerste week van Januari naar reviewers moeten gaan (als ze die dan nog niet hebben tenminste).

En die support voor Adobe Reader 8 is wel heel misleidend. Ik dacht dat de boel echt veel sneller ging totdat ik er achter kwam dat Adobe van alles in je startup gooit om de boel sneller te maken. Wat ik wel merkte is dat het scrollen en in en uit zoomen iets responsiever is.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • The Source
  • Registratie: April 2000
  • Laatst online: 00:10
Vandaag nog met ATI contact gehad, nog totaal niets bekend van availability voor EMEA

Afbeeldingslocatie: http://www.iian.ibeam.com/events/thom001/20943/browser/slides/20061213215430590699/default_large/Slide78.JPG

[ Voor 41% gewijzigd door The Source op 14-12-2006 21:11 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Gespot: Mobility Radeon X2100 en Mobility Radeon X2300

Kijk eens wat ik gespot heb in de drivers van ATI....

Mobility Radeon X2100 (M71-M)
Mobility Radeon X2300 (M64-S)

http://pci-ids.ucw.cz/iii//?i=1002

M71 lijkt van een nieuwe generatie te zijn, terwijl M64 dezelfde chip is als de Mobility Radeon X1350. Maar waarom die dan een X2 heeft gekregen is mij een raadsel.



Meer R600 nieuwtjes

En dan nog even over de AMD Analyst Day 2006... Zoals hierboven al aangegeven werd er ook over R600 gesproken. En Dave Orton leek absoluut niet onder de indruk van de G80. Hij had het er over dat een van de grote voordelen van R600 was dat deze naar nieuwe hoogtes zou worden gestuwd daar waar het aan komt op geheugenbandbreedte. Dit lijkt het vermoeden te bevestigen dat R600 daadwerkelijk een 512-bit memory interface heeft met een 1024-bit ringbus. Free 4x AA anyone?

Verder gaf Dave Orton aan dat ze een 'take no prisoners' aanpak zouden gebruiken met R600 en dat deze de performancecrown naar AMD zou brengen. De naam mag dan misschien nu wel AMD zijn, maar verder verandert er niets aan de mentaliteit van ATI.

:+

[ Voor 49% gewijzigd door CJ op 15-12-2006 03:35 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • roertnl
  • Registratie: Oktober 2005
  • Laatst online: 14-06-2012
misschien interessant


Hundreds of ATI SKUs ahoy (potentially...)
We've learned that ATI's got a new method for shutting down knackered bits of chips, paving the way for better yields and potentially a slew of SKUs.

Fabricate a batch of chips on a silicon wafer and chances are that some of them will be a bit dodgy... or a lot dodgy; it depends on how refined the manufacturing process is and how 'close to the edge' the chip design is. Still, rather than completely writing off chips that don't quite work, sometimes parts of them can be disabled. With GPUs, the result can be a SKU with a lower number of texture units, pixels shaders and so on.

ATI's developed a new technology called eFuse, which is intended to provide more control over specific parts of the chip, i.e. make it easier to 'turn off' smaller sections, rather than large chunks of chip. It's obviously better to have more control, especially if it saves shutting down bits of silicon that are mostly capable of functioning properly.

So, in terms of getting a saleable product from iffy wafers, it's great news. The only snag is that with a more versatile means of controlling the chips, we could see some very varied GPU configurations, leading to lots of different SKUs... as if the discrete graphics card market wasn't confusing enough with all the different products and xtreme hyperbole.

We'll have to see what AIB partners do before we cast judgement on the benefit of eFuse from a consumer perspective.


http://www.hexus.net/content/item.php?item=7467

@CJ je linkje (Het grote ATI Nieuwsdiscussie Topic voor al het laatste ATI nieuws!) linkt naar topic deel 45

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
CJ schreef op vrijdag 15 december 2006 @ 02:14:
Gespot: Mobility Radeon X2100 en Mobility Radeon X2300

Kijk eens wat ik gespot heb in de drivers van ATI....

Mobility Radeon X2100 (M71-M)
Mobility Radeon X2300 (M64-S)

http://pci-ids.ucw.cz/iii//?i=1002

M71 lijkt van een nieuwe generatie te zijn, terwijl M64 dezelfde chip is als de Mobility Radeon X1350. Maar waarom die dan een X2 heeft gekregen is mij een raadsel.



Meer R600 nieuwtjes

En dan nog even over de AMD Analyst Day 2006... Zoals hierboven al aangegeven werd er ook over R600 gesproken. En Dave Orton leek absoluut niet onder de indruk van de G80. Hij had het er over dat een van de grote voordelen van R600 was dat deze naar nieuwe hoogtes zou worden gestuwd daar waar het aan komt op geheugenbandbreedte. Dit lijkt het vermoeden te bevestigen dat R600 daadwerkelijk een 512-bit memory interface heeft met een 1024-bit ringbus. Free 4x AA anyone?

Verder gaf Dave Orton aan dat ze een 'take no prisoners' aanpak zouden gebruiken met R600 en dat deze de performancecrown naar AMD zou brengen. De naam mag dan misschien nu wel AMD zijn, maar verder verandert er niets aan de mentaliteit van ATI.

:+
En die M64 S heeft ook nog een hogere rating ook :| ik mag hopen dat het een typ fout is en niet dat ATi de consument naait met een oude X1K core.

Ik ben wel erg benieuwd aan het worden naar die R600. Ik hoop dat we volgende maand de eerste foto's en scores krijgen die de kaart produceert.

En over die SKU's. Ik denk dat ze dan een verzamel bak gaan maken in een LE form of zo. Met SKU's die ongveer de zelfde scores halen. met een verschil van max 1-2% in peformance. De een heeft dan bv 32 shaders de anders 30. Enz. Maar lijkt me niet echt wenselijk om allemaal verschillende 20 SKU's te hebben dan weet je niet meer wat je krijgt. Alleen als je een XTX koopt waar gewoon alles werkt :P

[ Voor 10% gewijzigd door Astennu op 15-12-2006 10:42 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Newsflash: 99% zeker - R600 gebruikt 512-bit memory bus
Beyond3D is nu zeker van het feit dat R600 een 512-bit externe memorybus heeft. Het kan niet anders dan dat de R600 dat heeft aangezien Dave Orton sprak over "new levels of memory bandwidth to the graphics subsystem, and bandwidth is critical to graphics performance". Dit kan je niet bereiken met een 256-bit memorybus interface en GDDR4. De verwachting is dat R600 dus een 512-bit memorybus interface heeft gekoppeld aan minstens 1.2Ghz GDDR4, waarmee deze een geheugenbandbreedte heeft van zo'n 153GB/s wat bijna het dubbele is van G80! Dat is definitely goed voor de AA/AF performance!

In het verleden heeft ATI al eens zoiets geflikt. En wel in 1999/2000, toen men aan de ontwikkeling van de R300 begon. nVidia was van mening dat toendertijd een 128-bit memory interface met high speed geheugen voldoende was. Dit voerden ze dus ook door in hun NV30 en moesten later hun refresh NV35, die wel een 256-bit memory interface had, een stuk naar voren halen om de competie aan te gaan. ATI ging toen al direct voor een 256-bit memory interface, een interface die ze al sinds 2002 gebruiken en af en toe tweaken in nieuwe cores. Het is dus niet onwaarschijnlijk dat ze nu de stap naar de 512-bit maken. Ze hebben er in ieder geval al jaren aan kunnen werken.

Daarnaast heeft TSMC ooit gezegd dat ze hun 65nm proces midden 2007 klaar zouden hebben. Dave Orton geeft nu aan dat ze de eerste zullen zijn die hier gebruik van zullen maken van het high end 65nm proces. Of het hier dan gaat om chipsets of GPUs is niet duidelijk, maar aangezien ATI de "next gen R600" voor Q3 had gepland en AMD graag wil dat alles op schema verloopt, heb je een grote kans dat de refresh (R680?) op tijd uit komt in Q3 en een die-shrink is naar 65nm. Dit is dan het antwoord op een eventuele G81 die in Q2 uit komt.

Verder wordt er gezegd dat R600 de basis is voor de hele top to bottom range en uit eerdere verklaringen kan je opmaken dat ATI van plan is om de midrange en low-end rond CeBit te lanceren, wat bijna tegelijkertijd met nVidia zal zijn.

Als AMD inderdaad woordt houdt en zorgt dat de GPUs op tijd worden afgeleverd, dan ziet het er interessant uit. En wat nog interessanter is is dat AMD mikt op 50% marge en er zeker van is dat ze dit bereiken, daar waar ATI rond de 30% zat met de GPUs. Waarschijnlijk helpt eFuse daar bij.

[ Voor 16% gewijzigd door CJ op 15-12-2006 12:19 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
50% marge ? In de zin van chip van 300 euro = 150 euro winst ?Of dat 50% van de chips bruikbaar is ? ( denk niet dat ATi maar 30% van de chips kan kon in zetten. Lijkt me veel veel veelsteweinig ) hoe moet ik dit zien ? Ik ben wel benieuwd wanneer i leverbaar is. Ik neem aan dat de R600 wel eerder is dan mid en low end. Die rond cebit komen. Dus misschien toch halverwege februari ?

[ Voor 21% gewijzigd door Astennu op 15-12-2006 12:24 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Het gaat om winstmarges. Ik geloof dat nV met de G71 op 40% zat (of zelfs hoger). Maar dat is niet belangrijk toch? Voor ons is het belangrijker hoe R600 presteert en wat de IQ kwaliteit is. ;) Daarom is die 512-bit memory interface juist veel interessanter om over te discussieren. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Ontzettend mooi die 512-bit bus, zal inderdaad hoge AA/AF performance geven, en ik we kunnen nu toch wel stellen dat de R600 zeker weten sneller zal zijn dan de G80 (ging iedereen al van uit, maargoed...)
Nu nog meer informatie over de shaders, en dan is het weer een helemaal blij topic!

Acties:
  • 0 Henk 'm!

Verwijderd

SpankmasterC schreef op vrijdag 15 december 2006 @ 13:17:
Ontzettend mooi die 512-bit bus, zal inderdaad hoge AA/AF performance geven, en ik we kunnen nu toch wel stellen dat de R600 zeker weten sneller zal zijn dan de G80 (ging iedereen al van uit, maargoed...)
Nu nog meer informatie over de shaders, en dan is het weer een helemaal blij topic!
Dat de R600 sneller is hoef je niet over te twijfelen. Het zou zelfmoord zijn als die niet sneller zou zijn als de G80, maar het brengt wel dilemma's mee. Ik zou morgen mijn nieuwe pc definitef gaan bestellen, maar het lijkt nu dat de G80 het verkeerde paard is om op te wedden, zeker als ik kijk naar de bandbreedte van de R600. Ik kijk denk ik de kat nog even uit de boom mijn 9800 pro houdt het nog wel 2 maandjes extra vol.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 15 december 2006 @ 15:14:
[...]


Dat de R600 sneller is hoef je niet over te twijfelen. Het zou zelfmoord zijn als die niet sneller zou zijn als de G80, maar het brengt wel dilemma's mee. Ik zou morgen mijn nieuwe pc definitef gaan bestellen, maar het lijkt nu dat de G80 het verkeerde paard is om op te wedden, zeker als ik kijk naar de bandbreedte van de R600. Ik kijk denk ik de kat nog even uit de boom mijn 9800 pro houdt het nog wel 2 maandjes extra vol.
2 maandjes ? Neem 3 maanden nog maar met een korel met zout.
De G80 en R600 zijn beide prachtexemplaren van kaarten. In mijn ogen is een van beiden niet miskocht.Wachten in de computerwereld is ook niet te doen. De G80 bied trouwens ook de meest superieure beelkwaliteit , en performance. En met de nieuwe drivers zal dit alleen verbeteren.
Wat een G80 niet kan draaien , kan een R600 ook niet. (Wat nog een tijdje zal duren)
G80 / R600 zijn kaarten die de volgende 2 jaar vlot zullen overleven.
En als je 3 maanden kan wachten op een R600 wacht dan nog die ene maand op de G81.

[ Voor 3% gewijzigd door Verwijderd op 15-12-2006 15:19 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Verwijderd schreef op vrijdag 15 december 2006 @ 15:18:
[...]


En als je 3 maanden kan wachten op een R600 wacht dan nog die ene maand op de G81.
die komt toch ook ongeveer rond die tijd ?!

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Verwijderd schreef op vrijdag 15 december 2006 @ 15:18:
[...]
En als je 3 maanden kan wachten op een R600 wacht dan nog die ene maand op de G81.
Of nog 3 maanden wachten op R680. Zo kan je eeuwig blijven wachten natuurlijk. En nog niets is bekend over de performance van R600 vs G80. Als R600 echt een killer blijkt te zijn, dan kan G81 misschien nog niet eens voldoende zijn om hem bij te houden... en dan heb je voor niets 3 maanden gewacht.

Zowel G80 als R600 zijn snel, maar het is even afwachten natuurlijk wat voor extras de R600 nog aanbiedt... ATI kennende zitten daar ook weer nieuwe foefjes in om de IQ en performance flink op te krikken. En wanneer games als Alan Wake en Hellgate London uit zijn of de DX10 patches voor FSX en Company of Heroes, dan zien we pas echt welke kaart sneller is.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 15 december 2006 @ 15:18:
De G80 bied trouwens ook de meest superieure beelkwaliteit , en performance. En met de nieuwe drivers zal dit alleen verbeteren.
Op dit moment ja, maar je kunt niet weten of de R600 dit gaat overtreffen. Het lijkt erop dat de R600 sneller gaat worden dan de 8800GTX en qua beeldkwaliteit zal het dan ook wel goed zitten. ATI staat toch enigszins bekend om beeldkwalitiet en nVidia om ruwe kracht.
Wat een G80 niet kan draaien, kan een R600 ook niet.
Weet je niet, omdat er nog nauwelijks iets bekend is over de R600. Als de R600 een stuk sneller is dan de G80 dan is alles wat nauwelijks op de G80 te spelen is in ieder geval beter te spelen op een R600.
En als je 3 maanden kan wachten op een R600 wacht dan nog die ene maand op de G81.
Mogelijk is de R600 nog steeds sneller dan een G80-refresh en als dat niet zo is, dan kun je natuurlijk ook weer een paar maanden wachten op de R600-refresh. Je moet toch eens de knoop doorhakken, anders kun je wel blijven wachten. Vooral in de GPU-wereld gaan de ontwikkelingen enorm snel.

Persoonlijk wacht ik toch nog op de R600, ik heb geen haast. Mijn huidige videokaart, een Radeon 9800XT, houdt het nog wel eventjes vol. De geruchten over de R600 zijn tot nu toe best positief. ATI kan nVidia met een 512-bit geheugenbus wellicht net zo'n grote slag toebrengen als destijds met de R300.

Acties:
  • 0 Henk 'm!

  • __Deathscythe__
  • Registratie: December 2005
  • Laatst online: 22:19
ik kan niet w8en tot dat ik die R600 kan halen voor mijn nieuwe pc :9

Acties:
  • 0 Henk 'm!

  • WoutF
  • Registratie: Maart 2000
  • Laatst online: 21:05

WoutF

Hoofdredacteur
Zijn er hier mensen die alle uitgangen van hun X1900xx in gebruik hebben (2 schermen en tv-out dus), en werkt dat allemaal goed? Momenteel heb ik een 22"-scherm via DVI, en de TV-out in gebruik. Ik wil eigenlijk nog een 17" naast de 22" hebben en vroeg me af of dat driver technisch allemaal goed werkt

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

WoutF schreef op vrijdag 15 december 2006 @ 18:53:
Zijn er hier mensen die alle uitgangen van hun X1900xx in gebruik hebben (2 schermen en tv-out dus), en werkt dat allemaal goed? Momenteel heb ik een 22"-scherm via DVI, en de TV-out in gebruik. Ik wil eigenlijk nog een 17" naast de 22" hebben en vroeg me af of dat driver technisch allemaal goed werkt
Dat zal niet werken. De X1900XTX (ik neem aan dat je die bedoelt?) heeft twee RAMDAC's, en kan dus maximaal twee outputs tegelijk geven. Je zult dus nooit beeld krijgen op alle drie de aansluitingen van de X1900XTX. 2x DVI kan, DVI + TV-OUT kan ook. Voor meer dan twee monitoren moet je kijken naar de Triplehead-2-Go, die een VGA signaal op kan splitsen, of naar een 2e videokaart die het 3e scherm aanstuurt.

Vrij basic informatie die ook in de FAQ te vinden zal zijn Denk ik. ;)

Goud is geen geld


Acties:
  • 0 Henk 'm!

Verwijderd

Trouwens de g80 van nvidia draait op gddr3 Terwijl de chip ook overweg kan met gddr4 .
Reden dat de g80 met gddr3 uit is gekomen is omdat de kaart dan nu al op de markt is.
En dat gddr4 slecht leverbaar was.

Ik ga pas kijken wanneer de g80 met gddr4 tegen ati r600.
De huidige g80 met gddr3 is niet interesant.

Acties:
  • 0 Henk 'm!

Verwijderd

wat voor fucking zever vertel jij hier allemaal. GDDR3 heeft lagere timigns waardoor gewoon GDDR4 zo goed als niks beter is tenzij het later hoger geklokt zal worden. man toch, zwijg als je het niet weet

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 15 december 2006 @ 21:17:
wat voor fucking zever vertel jij hier allemaal. GDDR3 heeft lagere timigns waardoor gewoon GDDR4 zo goed als niks beter is tenzij het later hoger geklokt zal worden. man toch, zwijg als je het niet weet
Jij moet je grote waffel houwen
Een gpu maak niet zo veel uit dat de timing wat lager of hoger is.
Omdat gddr4 veel hoger bus kunnen hebben zonder meer warmte ontstaat.
Dus minder warmte hoger bus, hoger bus meer geheugen bandbrete beschikbaar word.

Zelfde verhaal als ddr1 en ddr2
Zolang de bus kwa mhz hetzelfde is dan is ddr1 sneller.
Helaas ddr1 kan nooit zo hoog geklokt worden als ddr2 kan .
Hierdoor gaat ddr2 steets meer performens krijgen .

Acties:
  • 0 Henk 'm!

Verwijderd

denk jij nu echt dat DDR2 zoveel meer performance geeft dan DDR1. zie jij boostverschil bij AMD socket 939 en AM2? IKKE NIET

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 15 december 2006 @ 21:37:
denk jij nu echt dat DDR2 zoveel meer performance geeft dan DDR1. zie jij boostverschil bij AMD socket 939 en AM2? IKKE NIET
nee omdat de amd 64 cpu geen zak uit maakt welke je neemt.

Maardoet dat bij een intel cpu dan heb je een probleem omdat ddr1 niet voldoende is voor de intel pentium cpu. (maak niet uit welke versie je neemt op 1066)


Onderste poster heeft gelijk.
Zit niet weer te wachten op een ban

[ Voor 8% gewijzigd door Verwijderd op 15-12-2006 21:45 ]


Acties:
  • 0 Henk 'm!

  • m277755
  • Registratie: Februari 2004
  • Laatst online: 24-01-2022

m277755

leest meer dan hij typt

Als iemand iets zegt waar jij het niet mee eens bent of wat volgens jou niet klopt dat kan je dat gewoon zeggen zonder de ander te commanderen te stoppen met posten en al helemaal zonder beledigingen. Persoonlijk gerichte posts zijn sowieso niet de bedoeling, hou de posts over de materie ipv de persoon. Jullie komen hier beide al langer dan vandaag.

-

Geheugen met hogere bandbreedte en hogere timings kan interessant zijn als de bandbreedte de bottleneck is. Als de clocks hoger zijn wordt het nadeel van hoge timings opgeheven en is het dus sowieso beter.

[ Voor 23% gewijzigd door m277755 op 15-12-2006 21:48 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Maar dat is omdat intel cpu's geen geïntegreerde geheugencontroller hebben... da's totaal anders dan met beeldkaarten. GDDR4 zal in het begin weinig uitmaken..

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 15 december 2006 @ 21:17:
wat voor fucking zever vertel jij hier allemaal. GDDR3 heeft lagere timigns waardoor gewoon GDDR4 zo goed als niks beter is tenzij het later hoger geklokt zal worden. man toch, zwijg als je het niet weet
Hogere timings of niet, dat wordt deels of ruimschoots goed gemaakt door de extra bandbreedte. DDR geheugen heeft ook lagere timings dan DDR2, maar een DDR2 reepje zal toch in heel veel gevallen beter zijn door de extra bandbreedte. Komt nog bij dat GDDR4 een stuk energiezuiniger is, dat komt zeker bij de energie vretende videokaarten van pas. Als laatste kan nog gezegd worden dat GDDR4 beter schaalt dan GDDR3. Laatstgenoemde zit toch al zo'n beetje aan het maximum, GDDR4 kan nog een tijd mee.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 15 december 2006 @ 21:10:
Trouwens de g80 van nvidia draait op gddr3 Terwijl de chip ook overweg kan met gddr4 .
Reden dat de g80 met gddr3 uit is gekomen is omdat de kaart dan nu al op de markt is.
En dat gddr4 slecht leverbaar was.

Ik ga pas kijken wanneer de g80 met gddr4 tegen ati r600.
De huidige g80 met gddr3 is niet interesant.
De G80 heeft maar 384 bit memory de R600 heeft 512 Bit. + GDDR 3 @ 850 MHz is ongeveer gelijk aan GDDR 4 op 1000 MHz. Dus ATi is qua GDDR 4 maar iets in het voordeel met zijn 1200 MHz. Het zal wel iets schelen op de G80 maar niet genoeg om de R600 te verslaan.

En Bij AMD maakt het heel veel uit of je DDR 1 of DDR II hebt. DDR 1 is veel sneller door zijn lage timings. Echter is het meeste DDR 1 geheugen nu CL 3 en dan wordt het verschil met DDR II met CL 4 klein. DDR I @ C L2 VS DDR II met CL 4 maakte wel heel veel uit. 500 MHz DDR 1 2-2-2-5 was genoeg om DDR II 4-4-4-15 op 800 MHz bij te houden. Bij Intel was het verschil kleiner omdat de memory controller op de NB zit en dus toch last heeft van hoge latancy's.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op vrijdag 15 december 2006 @ 21:42:
nee omdat de amd 64 cpu geen zak uit maakt welke je neemt.
Maardoet dat bij een intel cpu dan heb je een probleem omdat ddr1 niet voldoende is voor de intel pentium cpu. (maak niet uit welke versie je neemt op 1066)
Nofi, maar dit klopt niet helemaal.
Intel is gewoon puur voor nieuwe technologie gegaan, niet per definitie voor meer performance. Snel DDR (zeg PC3500 CL2) was zeker in de beginfase gewoon sneller dan snel DDR2 (zeg PC6400 CL5), ook op Intel's platform. S478 P4's hadden daarom in het begin ook een bandbreedtevoordeel ten opzichte van S775 P4's. Nu met PC8000 is er wel duidelijker verschil.

GDDR4 is ook pas in het voordeel tegen GDDR3 als sprake is van een behoorlijk verschil in snelheid en een gebrek aan bandbreedte. In het andere geval zijn er aardig wat situaties waar strakker geklokt GDDR3 wel degelijk in het voordeel is.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Verwijderd schreef op vrijdag 15 december 2006 @ 21:47:
Maar dat is omdat intel cpu's geen geïntegreerde geheugencontroller hebben... da's totaal anders dan met beeldkaarten. GDDR4 zal in het begin weinig uitmaken..
Dat verklaart ook het feit dat de X1950XTX een stuk sneller is dan de X1900XTX. Enige verschil is GDDR3 of hoger geklokt GDDR4 geheugen. Dus het maakt wel degelijk uit.

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
Je kunt GDDR4 & 3 niet gaan vergelijken als DDR1-2-3, GDDR2-3-4 gebruiken allemaal DDR2 technologie, en geen DDR3 technologie. ze zijn allemaal verbeteringen van de ddr2 technologie voor grafische kaarten. Het verschil tussen gddr4 & 3 zit hem vooral in een complexere sturing en met die verbeterde sturing kan het stroomverbruik verminderd worden en dus hogere snelheden worden gehaalt. Ik denk niet dat er een groot verschil in latency is tussen gddr4 & 3 bovendien is dat niet zo bellangrijk bij grafische kaarten omdat hun pipes zoveel stages hebben en dus erg lang zijn kunnen ze het effect van die latencys goed wegsteken. Dat was trouwens het grote verschil tussen gddr en ddr, gddr mocht veel grotere latencys hebben.
offtopic:
en dat is ook waarom de xbox360 cpu erg gevoelig is voor cache misses, het duurt iets van 200+ klokpulsen op een cache miss op te lossen, erg pijnlijk

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Verwijderd schreef op vrijdag 15 december 2006 @ 21:42:
[...]


Maardoet dat bij een intel cpu dan heb je een probleem omdat ddr1 niet voldoende is voor de intel pentium cpu.
als je bij de c2d ddr1 gaat gebruiken, moet je natuurlijk wel de mem/cpu divider aanpassen, zodat de cpu op ''normale'' snelheid draait...dan maakt het erg weinig uit ivt ddr2....(behalve in benchmarks)

ook al zou het langzamer zijn, dan zijn ze nog een stuk sneller dan de snelste amd :X

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Interessant... ben benieuwd zeg, third generation Unified Architecture? :)

Moet wel zeggen dat ze bij ATi (eehhh... AMD, sorry) gaan voor oldskool high-relialibility stuff, want ik trof het volgende aan in een nieuwsbrief die ik in handen kreeg:
Jetway will come back to European market with AMD/ATI VGA cards
Posted: 14 Dec 2006 05:33 AM CST
Next year (2007) will start with an booming start for the VGA market, in 2007 lots of things will happen in this market, new architecture will be presented where performance will be outstanding and leading. Jetway will start in 2007 with bringing there ATI cards back to the European market with aggressive prices. Performance is leading but price for the market is just as important.

Jetway will offer there prices to the market sharper than ever. Jetway is known for its OEM production and follows the market trend to have there own brand positioned strong in the market.

Jetway is established in 1986 and has then for more than 20 years of experience in design and manufacturing in mainboards and other IT products. Jetways philosophy is to implement quality, performance and service through the company and its products.

Jetway and its partner in Europe will introduce following ATI cards to the market in week 50 2006.

R700 - 166MHz 64MB DDR 133MHz
R9600 - 325MHz 64MB DDR 440MHz
R9600 - 325MHz 128MB DDR 440MHz
Radeon X550 (OC) - 450MHz 128MB DDR 550MHz
Radeon X1550 - 550MHz 128MB DDR 400MHz
Radeon X1550 - 550MHz 256MB DDR 400MHz
Radeon X1550 - 600MHz 128MB DDR3 1000MHz
Radeon X1550 - 600MHz 256MB DDR3 1000MHz
Radeon X1600Pro - 600MHz 128MB DDR3 1200MHz
Radeon X1600Pro - 600MHz 256MB DDR3 1200MHz
Radeon X1650XT - 600MHz 256MB DDR3 1200MHz
Radeon X1650XT - 600MHz 256MB DDR3 1200MHz
Radeon X1950Pro - 575MHz 256MB DDR3 1380MHz
Radeon X1950Pro - 575MHz 512MB DDR3 1380MHz

Besides this Jetway will deliver al new cards from ATI when they are introduced.
Ik denk: óf een historisch moment óf gewoon een doodgewone tikfout maar ik ga omdat we al nergens meer van opkijken bij AMD/ATi voor optie 1, wat jij CJ? :+

Overigens: leuk dat AMD/ATi er weer een nieuwe partner bij heeft, kan CJ trouwens zijn vogeltjes bij AMD/ATi niet even influisteren dat het nu een héél goed moment zou zijn om een marketingoffensief voor de R600 nu onderhand eens te starten? nVidia komt begin volgend jaar met hun nieuwe midrange-lijn dus ik zou wel eens de consument lekker gaan maken, wat positieve reclame en gelekte berichten kan nooit kwaad :)

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

SpankmasterC schreef op zaterdag 16 december 2006 @ 00:19:
Dat verklaart ook het feit dat de X1950XTX een stuk sneller is dan de X1900XTX. Enige verschil is GDDR3 of hoger geklokt GDDR4 geheugen. Dus het maakt wel degelijk uit.
Uhm, X1900XTX: 1550mhz GDDR3 vs X1950XTX 2000mhz GDDR4
* Effectief snelheidsverschil: 30%
* Effectief prestatieverschil: gemiddeld ~10% (0~18%, afhankelijk van toepassing)

Dit illustreert precies het punt dat meerderen hier proberen te maken. Ik denk dat bij 1800mhz GDDR3 vs 2000Mhz GDDR4 het GDDR3 misschien nog wel vaker in het voordeel is dan andersom.

[ Voor 4% gewijzigd door Cheetah op 16-12-2006 15:30 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

eindelijk iemand die hetzelfde denkt als mij. ;)

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
Cheetah schreef op zaterdag 16 december 2006 @ 15:26:
[...]
Uhm, X1900XTX: 1550mhz GDDR3 vs X1950XTX 2000mhz GDDR4
* Effectief snelheidsverschil: 30%
* Effectief prestatieverschil: gemiddeld ~10% (0~18%, afhankelijk van toepassing)

Dit illustreert precies het punt dat meerderen hier proberen te maken. Ik denk dat bij 1800mhz GDDR3 vs 2000Mhz GDDR4 het GDDR3 misschien nog wel vaker in het voordeel is dan andersom.
Enkel de geheugenbottelneck verkleint bij de x1950, de prestaties zijn van veel meer factoren afhankelijk.
Als je het verschil echt wilt weten moet iemand zijn x1950 terugklokken naar x1900 snelheden, ik denk dat het verschil klein zal zijn..

[ Voor 7% gewijzigd door oeLangOetan op 16-12-2006 15:41 ]


Acties:
  • 0 Henk 'm!

Verwijderd

de X1950 XTX en X1950 XTX CFE worden dan ook zeldzame kaarten dan, als enige met 256Bit GDDR4, moet wel toegeven dat 1GhzGDDR4 [2Ghz DDR] stukken sneller met de R580 is als met 775Mhz GDDR3[1.55Ghz DDR] vooral met FSAA, AF HQ en HDR gecombineerd, moet toegeven dat die GDDR4 test goed geslaagd is op de R580+ kaarten.

ook een goede zet van ATi om op de R580+ kaarten het eerst te gaan testen voordat ze het met hun volgende generatie aka R600 en hoger GDDR4 in gaan zeten.

kan niet wachten op de eerste tests met die R600 lijkt me wel intressant om te zien hoe die met high res textures om gaat en of dar FSAA x4 gratis is heh :)

Maare waarom niet de Anisotropic Filtering vermeerderen met AF x32 ipv AF x16HQ?

[ Voor 6% gewijzigd door Verwijderd op 16-12-2006 16:31 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op zaterdag 16 december 2006 @ 15:26:
[...]
Uhm, X1900XTX: 1550mhz GDDR3 vs X1950XTX 2000mhz GDDR4
* Effectief snelheidsverschil: 30%
* Effectief prestatieverschil: gemiddeld ~10% (0~18%, afhankelijk van toepassing)

Dit illustreert precies het punt dat meerderen hier proberen te maken. Ik denk dat bij 1800mhz GDDR3 vs 2000Mhz GDDR4 het GDDR3 misschien nog wel vaker in het voordeel is dan andersom.
Dat betwijfel ik. Als de situatie dusdanig is dat bandbreedte nodig is, dan zal een hogere klok in t voordeel zijn. Zie ook resultaten van overgeklokte X1950XTX-en.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Owh gaan we weer. Ga het maar testen Pak een X1950 XTX en een X1900 XTX clock bij bijde kaarten het geheugen naar 500 MHz en ga maar wat testjes draaien. Daar na de X1950 XTX op 600 VS de X1900 XTX op 500 en de X1900 XTX zal dan na genoeg even snel zijn als niet sneller.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

of zou AF x32 niet mogelijk zijn ? aangezien alle kaarten zoals G80 serie, R580 en R600 maar AF x16 kunnen als max, ik vraag me af of AF x32 eigenlijk wel kan heh

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Alhoewel het van mij altijd beter mag, moet ik zeggen dat er met 16x AA (G80) eigenlijk niks meer te wensen is. Ik zie echt geen kartels meer of je moet wel heel goed kijken.

16AF + 16AA is bijna perfect.

wel mag van mij alles 100% supersampling zijn en kan er nog best wat verbeterd worden aan de hele fijne lijntjes zoals hekwerk, draden door de lucht etc.

edit: oh ik dacht dat je het over AA had ........ :o 8)7

[ Voor 42% gewijzigd door Help!!!! op 16-12-2006 18:25 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 16 december 2006 @ 17:42:
of zou AF x32 niet mogelijk zijn ? aangezien alle kaarten zoals G80 serie, R580 en R600 maar AF x16 kunnen als max, ik vraag me af of AF x32 eigenlijk wel kan heh
Wellicht weegt het IQ voordeel van 32 x AF niet op tegen het bijbehorende prestatieverlies....Ik neem aan dat beide fabrikanten hier genoeg onderzoek naar hebben gedaan.

[ Voor 9% gewijzigd door Verwijderd op 16-12-2006 19:09 ]


Acties:
  • 0 Henk 'm!

Verwijderd

16xAF vind ik prima met mijn GTX. 4xAA vind ik zelfs uitstekend hoger zie ik het verschil veels te weinig voor wat het prestatieverlies is. zeker 16xAA daar heb je niks aan, je ziet het verschil zo goed als niet en je hebtveel minder frames. de 8800gtx heeft wat mij perfect een IQ dat niet beter moet ;)

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

oeLangOetan schreef op zaterdag 16 december 2006 @ 15:40:
[...]

Enkel de geheugenbottelneck verkleint bij de x1950, de prestaties zijn van veel meer factoren afhankelijk.
Als je het verschil echt wilt weten moet iemand zijn x1950 terugklokken naar x1900 snelheden, ik denk dat het verschil klein zal zijn..
Was al eens getest, zelfde speeds voor de core en mem van de X1900 en de X1950, resultaat: de X1900 presteerde iets van 6% beter, door de strakkere timings.

@ Wizkristof, juist wél! IQ moét wel beter, anders heb je straks een standaard die 10 jaar niet veranderd. Liever niet he ;)

Acties:
  • 0 Henk 'm!

Verwijderd

ja maja bij de games van nu vind ik het prima hoor. ik ga geen verschil zien met een betere iq.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
@Jejking, die R700 moet hoogstwaarschijnlijk zijn R7000. Radeon 7000 die gebaseerd is op de oude R100 core.

En dan over GDDR3 vs GDDR4... snelheid maakt op zich niet zo heel erg veel uit.... het gaat om de hoeveelheid bandbreedte die dit oplevert en de voordelen die dit oplevert met hoge resoluties in combinatie met andere bandbreedte verslinders zoals HDR, AA en AF.

Een X1900XTX met GDDR3 op 775Mhz vs een X1950XTX met GDDR4 op 1000Mhz verschilt niet veel op standaard resoluties. Maar ga je richting de 1600x1200 en hoger met 6xMSAA, HDR en 16xHQAF, dan loopt het verschil soms wel op tot 30% in shaderintensieve applicaties.

Een G80 met GDDR4 vergelijken met een R600 met GDDR4 is dan ook niet interessant als de memory interface op 384-bits blijft in vergelijking tot een 512-bits interface. Als je een 512-bits interface hebt met 1.2Ghz geheugen en je vergelijkt dit met een 384-bits interface met hetzelfde geheugen, dan zal de 512-bits een sloot meer bandbreedte hebben waardoor de performance met AA, AF, HDR etc een stuk beter zal verlopen.

nVidia dacht ten tijde van de NV30 ook dat een 128-bit memory interface gekoppeld aan snel GDDR2 geheugen op 500Mhz voor voldoende bandbreedte zou zorgen, maar ATI had het toch wat slimmer voorzien door voor een 256-bit interface met geheugen op 310Mhz te koppelen. Hun hadden het voordeel dat het geheugen gemakkelijker te krijgen was, goedkoper was en minder warm werd dan het veel hoger geklokte GDDR2. En daarnaast leverde deze combo meer bandbreedte. Dit in combinatie met de 8x1 vs 4x2 van NV30 leverde een flinke voorsprong op wat gedeeltelijk weer werd ingelopen met NV35 die wel een 256-bit mem-interface had.

Overigens presteert mijn X1950XT256 met GDDR3 geheugen op 900Mhz ook niet slecht (zo'n 6000 punten in 3DM06 en tegen de 12K in 3DM05) alhoewel de timings een stuk losser zijn dan een X1900XT256 met geheugen op 725Mhz.

[ Voor 6% gewijzigd door CJ op 16-12-2006 23:09 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 13-09 17:07

Krizzie

Progressive Music \o/

Maken de timings dan echt zo veel verschil uit? :?

Geluidswolk


Acties:
  • 0 Henk 'm!

  • m277755
  • Registratie: Februari 2004
  • Laatst online: 24-01-2022

m277755

leest meer dan hij typt

De timings bepalen hoeven kloktikken het kost om iets met het geheugen te doen (lezen, schrijven, schuiven enz). Stel dat het lezen van iets uit het geheugen 2x zo lang duurt en stel dat een kwart van het werk dat een bepaald spel doet lezen uit het geheugen is. Het totale werk van het spel duurt dan (25/100 = ) 25% langer.

Dit waren denkbeeldige cijfers, maar ik hoop dat het duidelijk is dat het afhankelijk is van wat het programma veel doet hoeveel de timings uitmaken. De textures van een spel staan in het geheugen van de videokaart en voor bewerkingen als AA en HDR wordt ook veel geheugen gebruikt. Vandaar dat de timings veel uit kunnen maken.

Het nadeel van lage timings kan je opheffen door de kloksnelheid te verhogen. Als iets 2x zoveel kloktikken duurt, maar je de kloksnelheid ook 2x zo groot maakt duurt die operatie net zo lang. Je hebt dan als bijkomend voordeel dat je veel meer bandbreedte hebt.

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
m277755 schreef op zondag 17 december 2006 @ 03:40:
De timings bepalen hoeven kloktikken het kost om iets met het geheugen te doen (lezen, schrijven, schuiven enz). Stel dat het lezen van iets uit het geheugen 2x zo lang duurt en stel dat een kwart van het werk dat een bepaald spel doet lezen uit het geheugen is. Het totale werk van het spel duurt dan (25/100 = ) 25% langer.

Dit waren denkbeeldige cijfers, maar ik hoop dat het duidelijk is dat het afhankelijk is van wat het programma veel doet hoeveel de timings uitmaken. De textures van een spel staan in het geheugen van de videokaart en voor bewerkingen als AA en HDR wordt ook veel geheugen gebruikt. Vandaar dat de timings veel uit kunnen maken.

Het nadeel van lage timings kan je opheffen door de kloksnelheid te verhogen. Als iets 2x zoveel kloktikken duurt, maar je de kloksnelheid ook 2x zo groot maakt duurt die operatie net zo lang. Je hebt dan als bijkomend voordeel dat je veel meer bandbreedte hebt.
Voor cpu's heb je gelijk, maar voor gpu's minder...
Bij een cpu heb je meestal te maken met zeer kleine stukjes data, max enkele honderden bytes worden weg en weer geschreven. Bij een gpu moet een hele texture worden ingelezen, enkele MB, je ziet al onmiddellijk dat het aantal lees en schrijfbewerkingen tov het totaal aantal gelezen en geschreven bytes een stuk lager is bij grafische kaarten dan bij cpu's.
Gpu's hebben een zeer lange pipeline, met zeer veel stages, hierdoor kunnen ze ook beter de latency's wegwerken, ze kunnen voorspellen wanneer ze bepaalde data gaan nodig hebben (bv over 12 clocktikken heb ik die texture nodig) en zo al beginnen hun caches te vullen voordat ze gebruikt gaan worden en omdat die operaties gepipelined zijn blijft alles op volle snelheid draaien.
GPU's (en dsp's) worden ook wel eens latency tolerant devices genoemt, cpu's zijn latency intolerant.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

een" gewoon" bord zoals er al al een paar eerder uitgekomen zijn. beetje te laat uitgekomen vrees ik? of zennek verkeerd?
Pagina: 1 2 ... 6 Laatste

Dit topic is gesloten.