[Algemeen] ATi Nieuwsdiscussie Topic - Deel 72 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 6 Laatste
Acties:
  • 5.097 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 17:57
Ik hoor hier mensen zeggen dat AMD dit al had zien aankomen, maar dat is natuurlijk BS en het maakt totaal niet uit. Weken voor de officiele launch van de G92 waren er zoveel geruchten waarvan sommige de waarheid wisten. Ik denk dat ook diegene die wisten dat het de vervanger van de GTS 320 en 640 zou worden ook verrast waren, ik iig wel, het is een kaart die compete met de GTX.

Nu kan AMD wel een lagere kostprijs hebben, maar dat boeit uiteindelijk niet dit gaat heel erg pijn doen. Als de kaart volgens de geruchten de zelfde performance of lagere performance heeft ivm de nieuwe 8800GT 512 dan zullen ze een agressivere prijs moeten vragen, Nvidia heeft een betere merknaam en ligt tegen de tijd dat ATI volume kan supplyen al op elke straathoek (dat lieg ik, ik voorspel shortage tot Jan). Maar dealers hebben hun prijslijst dan al volstaan met 8800GT kaarten, dus moet ATI iets interessants bieden. Zelfde performance, lagere prijs, anders bieden ze geen toegevoegde waarde. Nu is de 8800GT kaart een kaart die tussen de 200$ en 250$ verkocht zal worden. Op dit moment wordt er nog meer voor gevraagd maar zodra de supply goed is zal er op prijs geconcureerd worden en dan is er ook meer aanbod dan zullen dealers ook minder marge pakken. Uiteindelijk zal de 512MB versie non OC onder de 200$ komen. Een OC versie zal 230 doen.

Dus dan zal ATI sub 200 moeten vragen voor haar kaart. Erg leuk maar deze kaart was voor een 300 - 400 segment bedoeld. Dit heeft een erg grote impact op 2 gebieden. Ten eerste de huidige voorraad 2600PRO en XT kaarten, deze moeten omlaag in prijs (geldt overigens ook voor 8600GTS) onders is de prijs performance niet meer goed. Dus hier zal flink in prijs gesneden moeten worden. Vendors die veel stock hebben liggen zullen hun verlies moeten pakken voordat er genoeg supply is van de RV670 PRO / 256. Erg belangerijk. ATI heeft niets boven de RV670 zitten. Dus de duurste kaart op de markt is sub 200$, dit terwijl NV de GTS 512 en 1024 op de markt gaat zetten in Dec. De launch is 2 weken delayed van mid Nov naar 3 dec. Dus bij launch zal er veel stock voorradig zijn. In dit segment zijn zij heer en meester dus ze kunnen ervoor vragen wat ze willen, er is immers geen concurrentie.

Overigens geeft dit ook maar weer eens aan hoe fit NV is. De RV670 was orgineel pas voor Q1 maar is naar Q4 getrokken omdat het design klaar was. NV trekt gewoon een nog beter product uit de kast en slashed de prijs nog eens.

AMD ik hoop dat je ons gaat verrassen qua performance.
Zo niet dan hoop ik dat ze eens een keer goed marketing gaan doen en ook hun voordelen (die hebben ze wel degelijk) gaan promoten.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
The Source schreef op vrijdag 02 november 2007 @ 13:56:
Ik hoor hier mensen zeggen dat AMD dit al had zien aankomen, maar dat is natuurlijk BS en het maakt totaal niet uit. Weken voor de officiele launch van de G92 waren er zoveel geruchten waarvan sommige de waarheid wisten. Ik denk dat ook diegene die wisten dat het de vervanger van de GTS 320 en 640 zou worden ook verrast waren, ik iig wel, het is een kaart die compete met de GTX.
Hoezo bullshit? Ik was in ieder geval weinig verrast en mijn contact binnen AMD ook niet. Dus dan ga ik er van uit dat de rest van AMD dat ook niet was, gezien mijn contact op een dusdanige positie zit dat-ie informatie in een vrij vroeg stadium te pakken krijgt (zo ook de grote OEM deals van de RV670 die nog bekend moeten worden gemaakt).

En het was trouwens ook logisch wat de G92 zou worden als je af ging op de diesize. Een chip van 17x17 op 65nm... kan haast niets anders zijn dan een die-shrink van de G80. Als deze minder streamprocessors zou hebben dan zou de core nog veel kleiner moeten zijn, zeker gezien het feit dat nV van dat soort tweaks houdt bij dieshrinks (zie G70 -> G71). Het was nou niet bepaald rocketscience om op tijd door te hebben wat G92 was. :+
Nu kan AMD wel een lagere kostprijs hebben, maar dat boeit uiteindelijk niet dit gaat heel erg pijn doen.
Minder pijn dan toen ze de R520 als X1800GTO en de R580 als X1900GT op de markt hebben moeten zetten als ik het goed heb begrepen.

AMD kijkt bij het ontwikkelen van hun GPUs naar het transistorbudget en die-size op een bepaald productieproces. Aan de hand daarvan proberen ze de beste bang-for-buck te leveren en eventueel nieuwe features toe te voegen mits dit weinig transistoren in beslag neemt (zoals de Tesselator).

De R580 was 352mm² in het $199 segment toen deze gebruikt werd in de X1900GT en daar was AMD (toendertijd ATi) absoluut niet happy mee. Dat deed ze pas pijn. De vervangende RV570 (X1950Pro) heeft de pijn een stuk verzacht omdat deze 230mm² was en dus in het $199 gepositioneerd kon worden. Ja, AMD zou natuurlijk liever meer willen vragen - wat ze initieel ook deden - maar ik geloof dat $149-199 het targetsegment van GPUs met een diesize van die grootte is. Hoe hoger de verkoopprijs des te beter natuurlijk.... maar het belangrijkste is dat je toch boven de $149 blijft wat ook een tijd lang gebeurt is... Maar uiteindelijk aan het einde van de lifecycle zal je er toch onder duiken, maar dan is het minder erg.

Misschien benaderd nVidia het allemaal heel anders, maar ik weet dat AMD de situatie zo ziet zoals ik al een paar keer had uitgelegd, namelijk dat de G92 een chip is van 289mm²... En chip van die grootte positioneert nVidia normaal gesproken niet in het sub $199 segment, tenzij ze daartoe gedwongen worden. Kijk naar G84... een 169mm² GPU die ze lanceerden voor $199! Daar waren de marges enorm hoog.... En zelfs voor $149 maken ze nog flink winst. Hun marge-strategie van nVidia is volgens AMD nu flink door de mangel gehaald en de verwachting van AMD is dat nVidia ook snel met iets anders wil komen omdat ze weinig verdienen op de G92. G96 (die de G94 vervangt op de roadmaps) zou verlichting moeten brengen.

RV670 is een chip van 194mm² en presteert toch beter dan de R600 van 420mm², terwijl het stroomverbruik veel lager ligt (mede dankzij Powerplay) en deze meer features heeft (DX10.1, Displayport, UVD). AMD gaat er dus in ieder geval vele malen op vooruit, zelfs al verkopen ze de kaarten voor minder dan $199. Ja, als het had gekund hadden ze het voor veel meer verkocht, maar van wat ik heb begrepen is dat ze zelfs voor $159 nog redelijk veel winst maken op de RV670... en dat is iets wat nVidia niet kan zeggen bij de G92 in dat prijssegment.
AMD ik hoop dat je ons gaat verrassen qua performance.
Zo niet dan hoop ik dat ze eens een keer goed marketing gaan doen en ook hun voordelen (die hebben ze wel degelijk) gaan promoten.
Denk niet dat er iemand is die echt verrast gaat worden door de performance. Daar heb je geen glazen bol voor nodig toch? Het zit binnen dezelfde generatie en NV deed er ook 2 refreshes over voordat ze de boel weer back-on-track hadden met NV30 -> NV35 -> NV38 -> NV40. Van AMD kan je dan ook niet verwachten dat ze iets doen wat nVidia ook niet lukte binnen dezelfde generatie. Je kan niet verwachten dat ze ineens iets wonderbaarlijks uit de mouw gaan schudden.. tenminste niet wat betreft performance... maar wel wat betreft prijs en features.

Wat betreft marketing kan ik het alleen maar met je eens zijn. Hoog tijd dat ze eens daar wat meer energie in stoppen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • WoutF
  • Registratie: Maart 2000
  • Laatst online: 21:05

WoutF

Hoofdredacteur
CJ schreef op vrijdag 02 november 2007 @ 14:40:
Denk niet dat er iemand is die echt verrast gaat worden door de performance. Daar heb je geen glazen bol voor nodig toch? Het zit binnen dezelfde generatie en NV deed er ook 2 refreshes over voordat ze de boel weer back-on-track hadden met NV30 -> NV35 -> NV38 -> NV40. Van AMD kan je dan ook niet verwachten dat ze iets doen wat nVidia ook niet lukte binnen dezelfde generatie. Je kan niet verwachten dat ze ineens iets wonderbaarlijks uit de mouw gaan schudden.. tenminste niet wat betreft performance... maar wel wat betreft prijs en features.
Betekent dit dat de chip qua 3d-rendering compleet identiek is aan de R600? Er gingen nog geruchten dat er aan het AA gedeelte gesleuteld was.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
WoutF schreef op vrijdag 02 november 2007 @ 14:56:
[...]

Betekent dit dat de chip qua 3d-rendering compleet identiek is aan de R600? Er gingen nog geruchten dat er aan het AA gedeelte gesleuteld was.
DX10.1 richt zich ook voornamelijk op verbeterde AA performance (zie ook de vernieuwde first post!). De RV670 heeft dus die technieken aan boord om efficienter met AA om te springen dan een R600. Dus compleet identiek zijn ze niet wat betreft 3d-rendering.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

The Source schreef op vrijdag 02 november 2007 @ 13:56:
Overigens geeft dit ook maar weer eens aan hoe fit NV is. De RV670 was orgineel pas voor Q1 maar is naar Q4 getrokken omdat het design klaar was. NV trekt gewoon een nog beter product uit de kast en slashed de prijs nog eens.
Die fitheid hebben ze aan het wanbeleid van Ati te danken. Die zijn na R420 volledig de weg
kwijt geraakt door een té ingewikkelde en onorthodoxe design-weg in te slaan (waar hoge kloksnelheden vereist zijn dus vaak yieldproblemen), daar waar Nvidia zonder problemen iedere keer weer nieuwe kaarten uitpoept, dankzij een relatief eenvoudiger maar o zo effectief ontwerp.

Dit is gewoon het hele verhaal van de afgelopen twee jaar in een notedop. De verantwoordelijken voor dit wanbeleid (Dave Orton en consorten) zijn er inmiddels niet meer... :)

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Verwijderd schreef op vrijdag 02 november 2007 @ 15:59:
[...]


Die fitheid hebben ze aan het wanbeleid van Ati te danken. Die zijn na R420 volledig de weg
kwijt geraakt door een té ingewikkelde en onorthodoxe design-weg in te slaan (waar hoge kloksnelheden vereist zijn dus vaak yieldproblemen), daar waar Nvidia zonder problemen iedere keer weer nieuwe kaarten uitpoept, dankzij een relatief eenvoudiger maar o zo effectief ontwerp.

Dit is gewoon het hele verhaal van de afgelopen twee jaar in een notedop. De verantwoordelijken voor dit wanbeleid (Dave Orton en consorten) zijn er inmiddels niet meer... :)
Toch was de R580 een hele goede herziening van de R520. De X1900 serie was echt ijzersterk in bijna alle applicaties, en met de OpenGL driver verbeteringen deed ie zelfs in Doom3 niet meer onder voor de 7900 serie. En naarmate de games steeds shaderintensiever werden werd de voorsprong van de X1900 op de 7900 echt zichtbaar. En vergeet dan ook niet dan de X1900 serie HDR+AA kon doen, en dat de core bijzonder goed te programmeren was voor stream computing (zie Folding@Home).

Nu ik dit zo typ krijg ik wel een beetje spijt dat ik mijn beide X1900 kaarten verkocht heb. :D Maargoed, tweemaal HD2900XT zal ook nog wel een tijdje voldoen aan mijn eisen.

Ik blijf erbij, de R600 was gewoon 'one bridge too far'. Ze lopen ermee vooruit op de software ontwikkelingen en de markt is er nog steeds niet klaar voor. Dat de architectuur erg krachtig en programmeerbaar is blijkt wel uit de hoge 3Dmark scores en de uitmuntende performance in oa. TDU.

[ Voor 9% gewijzigd door frankknopers op 02-11-2007 16:17 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
frankknopers schreef op vrijdag 02 november 2007 @ 16:15:
[...]
En naarmate de games steeds shaderintensiever werden werd de voorsprong van de X1900 op de 7900 echt zichtbaar.
Dat is nog steeds zo. Ik zag laatst wat benchmarks van Hellgate London waar zowel de X1900XTX als de 7900GTX aan mee deden. De X1900 trok 'm er wel uit hoor met een zeer speelbare FPS en zelfs de X1950Pro deed er niet voor onder. En dit is dus een voorbeeld dat de voordelen van bepaalde designbeslissingen pas veel later zichtbaar worden. Nu dus inmiddels bijna 2 jaar en toch is Hellgate London goed te spelen op de X1900 serie..

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

CJ schreef op vrijdag 02 november 2007 @ 16:19:
[...]


Dat is nog steeds zo. Ik zag laatst wat benchmarks van Hellgate London waar zowel de X1900XTX als de 7900GTX aan mee deden. De X1900 trok 'm er wel uit hoor met een zeer speelbare FPS en zelfs de X1950Pro deed er niet voor onder. En dit is dus een voorbeeld dat de voordelen van bepaalde designbeslissingen pas veel later zichtbaar worden. Nu dus inmiddels bijna 2 jaar en toch is Hellgate London goed te spelen op de X1900 serie..
Dat is zeker mooi, maar wat nou zo jammer is is dat die kaarten er niet meer toe doen. Mensen die echt performance willen hebben nu al een 8800 series kaart in de PC hangen en de midrange gamer heeft nooit de hoofdprijs willen betalen voor de X1900 serie, met uitzondering van de X1950 Pro dan..

Ik denk dat ATI toch echt wat meer moet focussen op performance in de huidige generatie games, want dat is de tijdsspan dat het product indruk moet maken, niet 2 jaar na introductie....

Goud is geen geld


Acties:
  • 0 Henk 'm!

Verwijderd

Toch denk ik dat het helemaal een ander verhaal is voor de HD2900XT dan voor de X1900XTX. die kaart was toen hij uitkwam ook al heel erg sterk. Nu zeker met nieuwe games. nu is de 2900xt bij launch laten we eerlijk zijn een vrij trage kaart en met nieuwe spellen zoals crysis verbetert het er gewoon niet op. Ik denk dat ATI met de X1900-serie een enorm goede architectuur gemaakt hebben , maar dat deze voor de 2900xt minder efficiënt in elkaar zit.(gebreken die bepaalde andere goede elementen bottlenecken).
Zou ik zowat juist kunnen zitten?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Je kan deze twee compleet verschillende architecturen niet met elkaar vergelijken. De R580 is een straightforward design die gebaseerd was op een architectuur die al sinds de R300 gebruikt werd. Straightforward heeft als voordeel dat het out-of-the-box goed presteert. De R600 is een zeer flexibel nieuw design en die zijn vaak afhankelijk van optimalisaties van driverteams. De G80 is ook zeer flexibel, maar is ook zeer straightforward. Het is gemakkelijk om er voor te programmeren, maar heeft ook zeker z'n nadelen.

Maar dit had ik HIER al uitgebreid uitgelegd. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
Ik heb al lang niks meer gehoord van tripod.
Komt die nu in November?
En gaat dit werken op X38?
Anders koop ik er nog wel een HD2900XT bij :)

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
CJ schreef op vrijdag 02 november 2007 @ 15:27:
[...]


DX10.1 richt zich ook voornamelijk op verbeterde AA performance De RV670 heeft dus die technieken aan boord om efficienter met AA om te springen dan een R600. ng.
ja...maar werken die technieken dan ook in een dx10 game ?... dat is natuurlijk de vraag

lijkt me onwaarschijnlijk dat een dx10.1 feature onder dx10 ook z'n werk doet

[ Voor 9% gewijzigd door Mr. Detonator op 02-11-2007 16:54 ]


Acties:
  • 0 Henk 'm!

  • mieJas
  • Registratie: April 2005
  • Niet online

mieJas

Ja, maar nee.

[b][message=29013819,noline]Ten eerste de huidige voorraad 2600PRO en XT kaarten, deze moeten omlaag in prijs
Ik vind 70 - 90 euro voor respectievelijk de Pro en de XT anders niet mis...

Yes, but no.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik las op de FP dat quad crossfire pas in jan komt weer een bummer want triple SLi komt deze maand nog uit als het goed is. Dus lopen ze weer achter nVidia aan. En er zou mogelijk een 128 shader versie van de G92 uitkomen die dus ook de Ultra gaat verslaan. Kun je na gaan wat die met de HD3870 gaat doen.... En daar kunnen ze gewoon weer de hoofdprijs voor gaan vragen. G92 was dus toch high end ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Zie de posts van CJ. Aan de die grootte van G92 te zien was het oorspronkelijk de bedoeling meer voor deze kaart te vragen.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Taenadar
  • Registratie: Januari 2004
  • Laatst online: 19:42
Volgens mij word die nieuwe GTS versie een stuk duurder dan de GT. Vooral omdat Ati er niks tegenover kan zetten.

Nog iets minder dan 2 weken wachten. Hopelijk komen de reviews snel van de 3870

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op vrijdag 02 november 2007 @ 15:27:
DX10.1 richt zich ook voornamelijk op verbeterde AA performance (zie ook de vernieuwde first post!). De RV670 heeft dus die technieken aan boord om efficienter met AA om te springen dan een R600. Dus compleet identiek zijn ze niet wat betreft 3d-rendering.
Ik hoop echt dat die RBE modificaties t.b.v. AA meer behelzen dan DX10.1 alleen...
Anders wordt de RV670 de komende periode, en een flinke periode daarna (lees: gedurende zijn hele lifecycle > Vista SP1 (met DX10.1) duurt nog tot ergens volgend jaar, en dan is het nog wachten op de games), alsnog afgeslacht met AA... en dat is iets wat ATi juist nu (met een ijzersterke GT als competitie) absoluut niet kan gebruiken.
Bij 2900XT vs 8800GTS kwamen ze er nog enigzins mee weg. Die vlieger zou dit keer niet opgaan.
frankknopers schreef op vrijdag 02 november 2007 @ 16:15:
Toch was de R580 een hele goede herziening van de R520. De X1900 serie was echt ijzersterk in bijna alle applicaties, en met de OpenGL driver verbeteringen deed ie zelfs in Doom3 niet meer onder voor de 7900 serie. En naarmate de games steeds shaderintensiever werden werd de voorsprong van de X1900 op de 7900 echt zichtbaar.
Zoals ik eerder al zei: dit is niet vreemd... 7900 (G71) was weinig meer dan een G70 (7800) die-shrink.
De R580 architectuur was nieuwer/moderner, en mede daardoor ook beter.
Uiteindelijk heeft R580 echter langer geconcurreerd met G80 dan met G71...
Ik blijf erbij, de R600 was gewoon 'one bridge too far'. Ze lopen ermee vooruit op de software ontwikkelingen en de markt is er nog steeds niet klaar voor.
Ik krijg hier hoe langer hoe meer steeds verdere twijfels over... vraag me af of de markt ooit 'klaar' zal zijn voor de R600 architectuur. Een dev wil dat een graka zijn coderingswerk vereenvoudigd, en niet compliceert. De architectuur van G80/G92 is transparanter en eenvoudiger, zowel voor gamedev's als driverteams.
Ik verwacht niet dat de R600 architectuur (als geheel) de toekomst heeft. Kijkend naar ook de nieuwere DX10 titels is er geen enkele reden om daar van uit te gaan. Kijkend naar het DX10 marktaandeel van de R600 versus de G80 nog minder. Ofwel niet "bridge too far", maar gewoon "wrong bridge" op bepaalde belangrijke vlakken (zoals shaderconfig).
Dit tenzij het driverteam nog wonderen gaat laten zien, maar mijn hoop daarop is - na al bijna een jaar van optimaliseren (samples gereed in januari 2007) - behoorlijk gering.
Hacku schreef op vrijdag 02 november 2007 @ 18:13:
Zie de posts van CJ. Aan de die grootte van G92 te zien was het oorspronkelijk de bedoeling meer voor deze kaart te vragen.
Dit zal dan ook gebeuren met de nieuwe GTS.
nV moet ergens zijn "minder goede" G92 cores kwijt, en daar heb je dan de GT voor.

Is feitelijk precies hetzelfde principe met G80GTX vs G80GTS.
M.b.t. coregrootte zal nV in ieder geval meer verdienen aan de G92GT dan aan de G80GTS320.

[ Voor 9% gewijzigd door Cheetah op 02-11-2007 18:35 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Taenadar schreef op vrijdag 02 november 2007 @ 18:17:
Volgens mij word die nieuwe GTS versie een stuk duurder dan de GT. Vooral omdat Ati er niks tegenover kan zetten.
Tja, nVidia heeft vrij spel met alles boven de 200 dollar/euro. De lagere marges van de 8800GT kunnen ze hiermee opvangen.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
CJ schreef op vrijdag 02 november 2007 @ 13:17:
[...]

.

En zoals ik al zo vaak gezegd heb... AMD heeft de G92 wel degelijk zien aan komen hoor. Ver voor de launch al rechtstreeks uit eerste hand van AMD gehoord wat de G92 zou worden en het klopte allemaal. ;)
vreemd dat ie hier dan net boven de 8600gts zit, en onder de gts320 :|

Afbeeldingslocatie: http://i11.photobucket.com/albums/a154/eastcoasthandle/news_graphics_card_market_full.jpg

http://www.tweaktown.com/...ne_up_revealed/index.html

hier staat toch duidelijk iets anders

[ Voor 21% gewijzigd door Mr. Detonator op 02-11-2007 18:53 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Mr. Detonator schreef op vrijdag 02 november 2007 @ 16:54:
[...]


ja...maar werken die technieken dan ook in een dx10 game ?... dat is natuurlijk de vraag

lijkt me onwaarschijnlijk dat een dx10.1 feature onder dx10 ook z'n werk doet
Dat is een hele goede vraag, waar ik ook niet met zekerheid het antwoord op weet. Iemand anders misschien? Ik zal het even navragen.

Overigens meldt de site van Diamond het volgende:

HD3870 512MB
Core: 775Mhz
Mem: 1200Mhz GDDR4

HD3850 512MB

HD3850 256MB
Core: 668Mhz
Mem: 828Mhz GDDR3

http://www.tcmagazine.com/comments.php?id=16657&catid=2

Langzamer dus dan de verwachtte coresnelheden van 825Mhz en 700Mhz bij de Diamond HD3K kaarten.
Mr. Detonator schreef op vrijdag 02 november 2007 @ 18:51:
[...]


vreemd dat ie hier dan net boven de 8600gts zit, en onder de gts320 :|

[afbeelding]

http://www.tweaktown.com/...ne_up_revealed/index.html

hier staat toch duidelijk iets anders
Deze roadmap is gesorteerd op prijs (SEP)... ;)

En die kloppen niet meer. De HD3850 256 staat gepland voor om en nabij de $159.

[ Voor 26% gewijzigd door CJ op 02-11-2007 18:55 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
CJ schreef op vrijdag 02 november 2007 @ 18:52:
[...]


Deze roadmap is gesorteerd op prijs (SEP)... ;)
ja...of op 3dmark-score... is maar net hoe je hem bekijkt

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op vrijdag 02 november 2007 @ 18:52:
Overigens meldt de site van Diamond het volgende:
HD3870 512MB
Core: 775Mhz
Mem: 1200Mhz GDDR4

HD3850 512MB

HD3850 256MB
Core: 668Mhz
Mem: 828Mhz GDDR3

http://www.tcmagazine.com/comments.php?id=16657&catid=2
Langzamer dus dan de verwachtte coresnelheden van 825Mhz en 700Mhz bij de Diamond HD3K kaarten.
Lijkt dus toch op yieldproblemen... het zou best kunnen dat AMD aan 825mhz onvoldoende cores eruit haalt om de 3870 alsnog tegen een veel lagere prijs te kunnen aanbieden dan gepland.
Bovenstaand zou echter wel inhouden dat de 3870 wellicht helemaal niet beter zal presteren dan de 2900XT. Clockvoordeel (slechts 35mhz hier) vs 2900XT zou zo goed als weg zijn... :/

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
dammm... Als het zo door gaat heb ik in mijn volgende setup een Intel Quad core en 8800 GT kaartjes zitten. Want ik ga niet nog een jaar wachten tot ik wel high end spul van AMD kan kopen....

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Mr. Detonator schreef op vrijdag 02 november 2007 @ 18:58:
[...]


ja...of op 3dmark-score... is maar net hoe je hem bekijkt
Urhm... nee. Er is maar 1 manier om 'm te bekijken.. en dat is op adviesprijs. :+

De enige constante in dat lijstje zijn de adviesprijzen. Als het op 3DM gesorteerd was dan had de RV670 boven de HD2900XT gestaan en dat is niet het geval.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Astennu schreef op vrijdag 02 november 2007 @ 19:12:
dammm... Als het zo door gaat heb ik in mijn volgende setup een Intel Quad core en 8800 GT kaartjes zitten. Want ik ga niet nog een jaar wachten tot ik wel high end spul van AMD kan kopen....
Wat een doemscenario he, veroordeeld tot een razendsnelle maar conservatieve dual-dualcore en een 8800GT videokaart. :+

Nog even geduld Astennu, het Phenom platform heeft enkele mooie features die zeker de moeite waard zijn:

- Onafhankelijk cores overklokken en multipliers aanpassen
- Zeer zuinige 790 chipset (8W)
- Veel PCI-E 2.0 lanes voor de HD38xx serie
- Quad crossfire in de toekomst (heb ergens het gevoel dat quad CF toch wat robuuster is dan Trio-SLI, kijkende naar de bridges die nodig zijn en de moeite die nVidia had om SLI drivers voor Vista op orde te krijgen).
- Dual socket moederborden tegenover het dure en exclusieve Skulltrail van Intel
- Zeer zuinige HD3800 videokaart met Powerplay en DX10.1 :)

[ Voor 5% gewijzigd door frankknopers op 02-11-2007 19:34 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
dat wel maar goed clock voor clock zijn situaties waar mijn K8 net zo snel is kom op daar wacht je geen jaar op he. Zelfde geld voor die HD3870 begin het nu een beetje beu te worden tegen de tijd dat die kaarten goed presteren heb ik al een R800 of zo dus ik moet nu performance hebben.

Ik wacht de reviews en oc resultaten even af maar als de HD3870 niet een stuk sneller is dan de HD2900 XT ga ik toch iets anders overwegen zelfde geld voor de Phenom hij moet wel aanzienlijk sneller zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Even iets anders, bladerend door de [H] review kwam ik nog het volgende tegen mbt UT3 en AA:
Interestingly, antialiasing (AA) is somewhat of a mixed bag with this game. Unreal Tournament 3 uses deferred rendering, and as such doesn’t support AA in DX9 mode. You will have to wait for the DX10 version for official game support. However, this did not stop NVIDIA from figuring out a way to force AA from their driver control panel in the UT3 demo with the latest drivers (167.37 and 169.01). Indeed, you can force AA by selecting “Override Any Application Setting” from the NVIDIA control panel and select any level of AA you wish and it will work in the game. We have screenshots at the bottom of the page that shows a comparison of No AA, 2X AA and 4X AA that proves it works.

With the ATI Radeon HD 2900 XT on the other hand, AA will not work forced from the control panel. We contacted ATI about this and this was their response: ”The game does not support AA…”. So while they may be technically correct, you cannot ignore the fact that NVIDIA does offer AA in UT3 Demo.


Pic:
Afbeeldingslocatie: http://enthusiast.hardocp.com/images/articles/11934320437hJEaa11AU_4_13_l.png
nV ondersteunt tegenwoordig dus AA in UT3 (en vermoedelijk dus heel UE3), en dat zelfs in DX9.
DX10(.1) is dus blijkbaar toch niet vereist voor AA in UE3.

CJ (of iemand anders) weet jij of ATi deze feature ook in de stijgers heeft voor R(V)6xx?
Ik vraag me af hoe nV 't doet trouwens...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Arjan90
  • Registratie: September 2005
  • Laatst online: 21:03
Ligt het aan mij of is die AA nou niet echt denderend mooi? Ik zie nog steeds dikke kartels 8)7 En daar let ik juist helemaal niet op normaal gesproken.. En het valt me meestal ook niet zo op (2x AA is mooi genoeg, dat vind ik fijner dan minder FPS waardoor speelbaarheid minder wordt maar ik wel 4x AA heb).

Ligt het aan mij? :? Wel mooi dat het lukt met de 8800GT, dat moet ik nVidia mee geven.

"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Sp!tF!re schreef op vrijdag 02 november 2007 @ 20:47:
Ligt het aan mij of is die AA nou niet echt denderend mooi?
Ziet er idd waardeloos uit.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • pingkiller
  • Registratie: December 2001
  • Laatst online: 21:03
Ik zie toch wel een verschil tussen geen AA en 4x AA. Check de kabels maar op die screenshots.

CSS snippet om users te blokkeren: https://tweakers.net/instellingen/customcss/snippets/bekijk/2618/


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op vrijdag 02 november 2007 @ 20:40:
Even iets anders, bladerend door de [H] review kwam ik nog het volgende tegen mbt UT3 en AA:

[...]
nV ondersteunt tegenwoordig dus AA in UT3 (en vermoedelijk dus heel UE3), en dat zelfs in DX9.
DX10(.1) is dus blijkbaar toch niet vereist voor AA in UE3.

CJ (of iemand anders) weet jij of ATi deze feature ook in de stijgers heeft voor R(V)6xx?
Ik vraag me af hoe nV 't doet trouwens...
NV forceert het via een Chuck-a-like workaround in de drivers (ik dacht zelfs toevalligerwijs via een aangepast Oblivion HDR profile voor de G80).

Voordeel: AA is aan de praat te krijgen.
Nadeel: 1) Performance is onvoorspelbaar. De performancedrops zijn onevenredig groot - de GF8800GT gaat van een average van 55fps op 1920x1200 zonder AA naar 39 fps op een lagere resolutie (1600x1200) met maar 2x AA. Dat is dus een drop van 40% voor 2xAA op een lagere resolutie! DX10 MSAA zou minder vaak grote performancedrops moeten geven en de performance is voorspelbaarder. 2) Graphical glitches kunnen optreden (ik heb screens gezien van rare spikkels wanneer het geforceerd werd op bepaalde plekken) omdat deferred rendering zich in principe niet leent voor de 'oude' AA methoden.

Daarom staat het ook uit by default. Als het echt 'goed' mogelijk was zonder vreemde side-effects, dan had NV het niet via een omweg hoeven doen aangezien UT3 een echte TWIMTBP game is en dus dan support out of the box had kunnen geven.

Op eenzelfde Chuckpatch achtige manier zou het ook aan de praat moeten zijn te krijgen op AMD hardware, maar ik betwijfel of dit ooit het geval zal zijn. Maar je weet maar nooit. Genoeg inventieve developers als Chuck bij AMD. Als het lukt dan ben ik benieuwd hoe groot de performancedrop verschillen zijn tussen de X1950XTX en HD2900XTs, beide hebben immers 16 RBEs, maar de een heeft shader based AA resolve en de ander hardware based AA resolve.

DX10.1 is trouwens geoptimaliseerd voor het weergeven van AA en voor deferred rendering. Dus misschien dat RV670 daar de vruchten van kan plukken.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Idd, check kabels (d8 dat 't al duidelijk was). Ik vind dat toch wel een groot verschil.
Aliasing op andere vlakken is ook duidelijk minder.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Arjan90
  • Registratie: September 2005
  • Laatst online: 21:03
Ik had het van de kabels inderdaad wel gezien. Maar als ik 4x AA aan zet dan kost mij dit toch best wat performance, terwijl het hier amper iets toevoegt. De AA in bijvoorbeeld Oblivion vond ik dan een stuk beter naar wat ik er nog van weet. Dit was ook via een work-around, maar dit ging toch wel iets netter (als in mooier) zou ik zo zeggen.

Ik vraag me ook echt af hoe nVidia dit doet, dan kan ik ATi alvast afraden hetzelfde systeem te gebruiken (bij wijze van, ik ben geen medewerker of iets dergelijks, haha!).. Hoe zit het met de performance-hit? Ik hoop dat het er in DX10 toch écht wat mooier uit ziet :9~

"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."


Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 13-09 17:07

Krizzie

Progressive Music \o/

Leuk dat AA werkt in UT3 maar wanneer heb je de tijd om daar naar tekijken? :?

Geluidswolk


Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Krizzie schreef op vrijdag 02 november 2007 @ 22:19:
Leuk dat AA werkt in UT3 maar wanneer heb je de tijd om daar naar tekijken? :?
So true :9~

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

  • MensionXL
  • Registratie: Juni 2004
  • Niet online

MensionXL

Optimaliseren!

Krizzie schreef op vrijdag 02 november 2007 @ 22:19:
Leuk dat AA werkt in UT3 maar wanneer heb je de tijd om daar naar tekijken? :?
Tja, dan kan je net zo goed zeggen: waarom al die eye-candy? Wanneer heb je tijd om daar naar te kijken? :')

Persoonlijk vind ik spellen zonder AA niet te spelen; en je hoeft ook heus niet te weten wat alliasing is om het op te merken. Laatst hoorde ik iemand bij een XBOX360 zeggen: 'Je ziet wel vaak zo'n trappetje op het beeld :') ', waarbij ze dus doelden op de alliasing die in overmate aanwezig was en dit dus ook als beeldkwaliteit wordt gezien. (Ter informatie: het spel heette Halo3)

Je gaat toch ook niet in een auto rijden zonder dat je spiegels zijn uitgesneden maar gewoon vierkant zijn? :? Of nog erger: een plank niet netjes afzagen en dan niet schuren? :') Gewoon kansloos... :z
Waarom een ' :9~ ' bij een spel zonder AA? Alsof het mooier wordt zónder AA ofzo. :')

[ Voor 6% gewijzigd door MensionXL op 02-11-2007 22:45 ]

Goedkoop bellen via VoIP


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Krizzie schreef op vrijdag 02 november 2007 @ 22:19:
Leuk dat AA werkt in UT3 maar wanneer heb je de tijd om daar naar tekijken? :?
Waarom speel je eigenlijk niet gewoon op 800x600 @Low? Wanneer heb je immers tijd om naar 1920x1200 @High te kijken? :z
Achter UT3 staat de UE3 engine, en die zal binnenkort door heel wat meer games dan UT3 gebruikt gaan worden. nV heeft dus een manier om AA te presenteren in UE3, en zelfs met DX9.

@Spitfire:
Wat er 'lelijk' aan zou zijn is me werkelijk een raadsel.
Kartels zijn veel minder. Dat doet AA. Dus AA werkt.
Echt vermoeiend dit.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 13-09 17:07

Krizzie

Progressive Music \o/

Cheetah schreef op vrijdag 02 november 2007 @ 23:05:
[...]
Waarom speel je eigenlijk niet gewoon op 800x600 @Low? Wanneer heb je immers tijd om naar 1920x1200 @High te kijken? :z
Achter UT3 staat de UE3 engine, en die zal binnenkort door heel wat meer games dan UT3 gebruikt gaan worden. nV heeft dus een manier om AA te presenteren in UE3, en zelfs met DX9.

@Spitfire:
Wat er 'lelijk' aan zou zijn is me werkelijk een raadsel.
Kartels zijn veel minder. Dat doet AA. Dus AA werkt.
Echt vermoeiend dit.
Low texture en high texture valt veel meer op dan AA of geen AA. Dat snap je zelf toch ook wel? ;) AA is trouwens al veel langer mogelijk, zie Bioshock welke onder Directx 9 gewoon AA kan gebruiken (maar onder dx10 weer niet, of wel tegenwoordig?). :) Meer games heb ik niet gespeeld welke de Unreal engine hebben dus weet niet welke het nog meer kunnen.

Geluidswolk


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Nu online

Apoca

Array Technology Industry

Diamond Multimedia jumps the gun on Radeon HD 3800

Afbeeldingslocatie: http://img221.imageshack.us/img221/9903/diamondviperradeonhd387gf0.jpg

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
775MHz, hebben ze dat ding nog in snelheid verlaagd :?

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

CJ schreef op vrijdag 02 november 2007 @ 14:40:
Minder pijn dan toen ze de R520 als X1800GTO en de R580 als X1900GT op de markt hebben moeten zetten als ik het goed heb begrepen.
Minder pijn is nog steeds pijn. Ik denk dat dit een harde klap voor AMD/ATi gaat worden als de drivers niet beter worden en de performance niet goed (genoeg) is, vooral in het geldlaatje :)

Acties:
  • 0 Henk 'm!

Verwijderd

Apoca schreef op vrijdag 02 november 2007 @ 23:18:
Diamond Multimedia jumps the gun on Radeon HD 3800

[afbeelding]
Wij willen benchmarks verdomme! Geen nietszeggende aankondigingen!

Niets persoonlijks btw, gewoon wat gefrustreerd ivm gebrek aan nieuws ivm 3870.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Jejking schreef op zaterdag 03 november 2007 @ 01:31:
[...]

Minder pijn is nog steeds pijn. Ik denk dat dit een harde klap voor AMD/ATi gaat worden als de drivers niet beter worden en de performance niet goed (genoeg) is, vooral in het geldlaatje :)
Mijn god, ik moet ook echt oppassen met hoe ik hier dingen verwoord he...? Je mist de strekking die ik wilde maken helemaal.... terwijl het toch duidelijk in het verhaal staat (hint: twee na laatste alinea). Maar misschien kan ik het nog wat simpelere proberen te zeggen wat ik duidelijk wilde maken.

AMD moest flink in hun marges bijten met de R580 in de X1900GT. GPUs die zo groot zijn (352mm²) in het $199 segment (en lager)... Dat is pas pijn doen.

Dat is nu echter niet meer het geval. Enter RV670. Die is veel kleiner dan welke AMD GPU dan ook in het $199 segment (nl 194mm²). De marges zijn dus ongekend hoog dit keer bij AMD terwijl de performance ook nog eens zeer goed is voor zo'n kleine GPU. Is dat dan nog steeds pijn doen?

Het omgekeerde vind nu plaats bij nVidia bij de G92. Ze maken dan geen verlies op de G92, maar ze verdienen er veel minder op dan ze oorspronkelijk hadden beoogd. $279 voor een 96 streamprocessor ASIC was het oorspronkelijke plan. Nu doen ze het met $249 voor een 112 streamprocessor ASIC. Meer streamprocessors activeren legt daarnaast ook extra druk op de yields.

In vergelijking tussen de twee zijn de marges op de RV670 dus ongekend hoog voor een AMD GPU en de marges op de G92 ongekend laag voor een NV GPU.

Harde klap? Valt wel mee denk ik... er zit nu meer rek in dan voorheen bij AMD het geval was... Zeker nu ze wat grote OEM designwins op zak heeft o.a. dankzij RV670 en het er ook goed uit ziet voor de aankomende mobility reeks.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

hmm die FSAA van die G92 is niet echt netjes nee, zal ook komen omdat het zo ver is ingezoemd, een vergelijking op de zelfde sterkte met een HD 2900 XT is er niet naast gezet, ik denk dat FSAA x2 as x4 ook er zo uit ziet van dicht bij.

[ Voor 84% gewijzigd door Verwijderd op 03-11-2007 03:06 ]


Acties:
  • 0 Henk 'm!

  • pimpimmers
  • Registratie: Oktober 2000
  • Niet online
Apoca schreef op vrijdag 02 november 2007 @ 23:18:
Diamond Multimedia jumps the gun on Radeon HD 3800

[afbeelding]
Wow een Diamond kaart die wil ik die wil ik :9~
Alleen jammer dat hier in Nederland nog geen 1 winkel ben tegen gekomen die Diamond verkoopt.

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
CJ schreef op woensdag 24 oktober 2007 @ 00:42:
[...]


Ik zou dat niet zo hard roepen. Heb je de temperaturen gezien van de G92 op full load? Laat staan dat je 'm nog verder overklokt....
valt reuze mee volgens mij... staat hier op 62 graden @ 740/1010 (ze hebben zelfs een 3dmark kunnen draaien op 729/999)
en ik neem aan dat dat met de standaard koeling is
Lol. Dat is de temperature wanneer idle. Onder load loopt de temperatuur op naar 86C. Volgens mij wordt m'n R600 niet eens zo warm :P
om hier nog maar eens terug te komen (voordat er weer misverstanden over bestaan :) )

inmiddels hebben links en recht al enkele mensen een gt weten te bemachtigen... oa op xtremesystems

en die temperaturen kloppen gewoon... 60-65 graden max

[ Voor 9% gewijzigd door Mr. Detonator op 03-11-2007 08:57 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Verwijderd schreef op zaterdag 03 november 2007 @ 03:01:
hmm die FSAA van die G92 is niet echt netjes nee, zal ook komen omdat het zo ver is ingezoemd, een vergelijking op de zelfde sterkte met een HD 2900 XT is er niet naast gezet, ik denk dat FSAA x2 as x4 ook er zo uit ziet van dicht bij.
T kan ook een driver issue zijn natuurlijk. :+
CJ schreef op zaterdag 03 november 2007 @ 02:25:
Verhaal.

In vergelijking tussen de twee zijn de marges op de RV670 dus ongekend hoog voor een AMD GPU en de marges op de G92 ongekend laag voor een NV GPU.
Tja, leuk voor ATi, maar wat hebben de ATi liefhebbers eraan dat ze meer winst maken op de RV670 dan nVidia op de G92? De RV670 wordt er geen FPS sneller van...

[ Voor 34% gewijzigd door Format-C op 03-11-2007 09:29 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
OMG sommige mensen kunnen ook niets waarderen he. Die 4x AA ziet er misschien niet netjes uit geeft misschien artifacts en heeft geen goede performance maar het kan te minste wel en je ziet verschil. Dit is nuttig voor de mensen die 2x GTX kaartjes of GT kaartjes hebben. Die zijn toch snel genoeg maar hebben het niet zwaar genoeg in deze game. Die kunnen dan lekker 4x AA aanzetten mits je niet te veel artifacts krijgt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • markjuh
  • Registratie: Juli 2000
  • Laatst online: 12-09 13:58
Allemaal leuk en aardig maar feit is dat Ati al bijna een jaar wordt ondergesneeuwd door nVidia GPU geweld. Tuurlijk, marges zijn belangrijk en tuurlijk levert nVidia veel meer in dan ze wilden maar blijkbaar is het dit waard. Want hoe je het ook bekijkt, op dit moment is nVidia heer en meester. Alleen op het low-end segment heeft Ati een streepje voor met de 2400/2600 serie met UVD maar verder zijn ze absoluut de grote verliezer.

Het is natuurlijk mooi dat je met je Ati kaart 1 of 1,5 jaar langer kunt onder bepaalde omstandigheden in bepaalde games omdat ze (en begrijp met niet verkeerd, dat is erg mooi dat ze het doen) altijd zo toekomstgericht zijn, maar uiteindelijk gaat het om het moment dat de kaat uitkomt. Dat is het moment dat mensen beslissen om wel of niet tot aanschaf over te gaan. Dat hier op T.net een aantal mensen verder kijken en zeggen, "goh, mijn ervaring met Ati is dat ik dan langer door kan met een kaart" is hartstikke mooi maar over de gehele markt gezien is het percentage van deze groep mensen zo klein dat het nagenoeg te verwaarlozen is.

Zoals CJ aangeeft, de marges zijn erg belangrijk voor fabrikanten en NV levert met de GT (veel) meer in dan zo oorspronkelijk planden maar toch heeft (zo lijkt het) NV deze ronde gewonnen simpelweg omdat ze een retesnelle kaart in dit prijssegment hebben gezet. Met als gevolg dat de marges die Ati normaal extra zou pakken met de RV670 beduidend lager zijn dan gepland. En dat doet pijn.

Zolang Ait/AMD de marketing niet op orde heeft, en dan met name TWIMTBP-achtige toestanden zullen ze achter de feiten aan blijven lopen. Want NV weten nu perfect de zwakke punten eruit te liften bij AMD. En zeker met een TWIMTBP programma wordt het nog moeilijker om hier wat aan te doen. De laatste tijd is het met veel grote titels zo geweest dat er eerst een patch/driver update moet komen voor AMD om optimaal te presteren. Dat is nooit goed voor een fabrikant. De eerste indruk is vaak blijvend en ondanks dat het dan niet aan de hardware van AMD ligt moeten er regelmatig reviews geupdate worden om te laten zien dat het ineens toch beter gesteld is met AMD. De helft van de mensen die hebben dan al geoordeeld dan NV sneller is en dat kost je simpelweg klanten.

Het is gewoon erg dom dat Ati nooit goed de voordelen van hun kaarten er uit heeft gelicht. Zoals (in het verleden) de beduidend betere beeldkwaliteit. Als ze dit nu altijd hadden gedaan dan had dit nu nog steeds geholpen bij de verkoop ondanks dat dit voordeel weg is nu NV dit ook op orde heeft.

Heel heel erg jammer. Sinds de allereerste Radeon heb ik al Ati/AMD VGA's en de HD2x00 serie is de eerste serie die ik oversla. En waarschijnlijk ook de HD3x00 serie wel. Ik zit er sterk aan te denken m'n Ati eens in te ruilen voor een 8800GT.

Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 13-09 17:07

Krizzie

Progressive Music \o/

De markt voor "high end" kaarten (in hoeverre je er hier nog van kan spreken) is ook een best kleine markt. Iemand met verstand van hardware en graag een spelletje speelt zou een 8800GT aanraden. Maar pietje de een pc zaak om de hoek in loopt die heeft nog nooit gehoord van een 8800GT en vraagt om een kaartje om een spelletje op te spelen voor weinig geld. Dan kom je toch snel bij de lagere segmenten uit waar dus de 2400 en 2600 in zitten die wel aardig presteren.

Deze kaarten kosten 200 euro en ik ken zat mensen die denken dat ze voor 40 euro een videokaart hebben die wel even de nieuwste games op max kan draaien. Als je dan zegt maak er dan maar 200 euro van dan verklaren ze je voor gek, dat je zoveel voor een kaartje betaald. Terwijl wij van een kaart van 200 euro en die prestaties zeggen dat het een "koopje" is. :)

Geluidswolk


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op zaterdag 03 november 2007 @ 02:25:
Dat is nu echter niet meer het geval. Enter RV670. Die is veel kleiner dan welke AMD GPU dan ook in het $199 segment (nl 194mm²). De marges zijn dus ongekend hoog dit keer bij AMD terwijl de performance ook nog eens zeer goed is voor zo'n kleine GPU. Is dat dan nog steeds pijn doen?
Als je een kaart die gepland stond voor $249-$299 voor $199 of minder in de uitverkoop moet doen?
Ja dat doet pijn. Heel veel pijn zelfs.
Het omgekeerde vind nu plaats bij nVidia bij de G92. Ze maken dan geen verlies op de G92, maar ze verdienen er veel minder op dan ze oorspronkelijk hadden beoogd. $279 voor een 96 streamprocessor ASIC was het oorspronkelijke plan. Nu doen ze het met $249 voor een 112 streamprocessor ASIC.
Ik kan me niet voorstellen dat nV $279 zou vragen voor een 96sp GT.
De GTS 320 (zeker de OC versies) zou dan gewoon beter hebben gepresteerd voor minder geld.
Meer streamprocessors activeren legt daarnaast ook extra druk op de yields.
Maar dat geldt dus nog sterker voor AMD. Die moeten zowel de 3870 als de 3850 met de volle 320 shaders lanceren voor onder de $199,- waar nV nog een marge heeft op defecte shaders (16 extra defecte shaders bij de 512mb variant en 32 extra bij de 256mb variant).
nV kan rustig goede G92 cores opsparen voor de nieuwe GTS waarop ze veel meer marge gaan pakken...

Verder lijkt op dit moment niet nV degene met een yieldprobleem maar ATi: waarom denk je anders dat de final kloksnelheden van de 3870 en 3850 maar liefst 50 om 40 mhz omlaag zijn gehaald?
In vergelijking tussen de twee zijn de marges op de RV670 dus ongekend hoog voor een AMD GPU en de marges op de G92 ongekend laag voor een NV GPU.
Ik weet niet hoor, maar je gaat me toch niet vertellen dat een ('gehandicapte') G92 core nV maar liefst $40-$50 meer kost om te produceren dan een volledig werkende RV670 core ATi kost?
Dat lijkt nl het verschil in prijs te worden. En dan heb ik het duurdere geheugen op de 3870 nog niet eens meegerekend.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Cheetah schreef op zaterdag 03 november 2007 @ 11:21:
[...]
Als je een kaart die gepland stond voor $249-$299 voor $199 of minder in de uitverkoop moet doen?
Ja dat doet pijn. Heel veel pijn zelfs.

[...]
Ik kan me niet voorstellen dat nV $279 zou vragen voor een 96sp GT.
De GTS 320 (zeker de OC versies) zou dan gewoon beter hebben gepresteerd voor minder geld.

[...]
Maar dat geldt dus nog sterker voor AMD. Die moeten zowel de 3870 als de 3850 met de volle 320 shaders lanceren voor onder de $199,- waar nV nog een marge heeft op defecte shaders (16 extra defecte shaders bij de 512mb variant en 32 extra bij de 256mb variant).
nV kan rustig goede G92 cores opsparen voor de nieuwe GTS waarop ze veel meer marge gaan pakken...

Verder lijkt op dit moment niet nV degene met een yieldprobleem maar ATi: waarom denk je anders dat de final kloksnelheden van de 3870 en 3850 maar liefst 50 om 40 mhz omlaag zijn gehaald?

[...]
Ik weet niet hoor, maar je gaat me toch niet vertellen dat een ('gehandicapte') G92 core nV maar liefst $40-$50 meer kost om te produceren dan een volledig werkende RV670 core ATi kost?
Dat lijkt nl het verschil in prijs te worden. En dan heb ik het duurdere geheugen op de 3870 nog niet eens meegerekend.
Een GTS heeft toch ook 96 shaders ? want die GT clockt wel 600 MHz wat meer is dan een GTS dus ik denk dat die GT dan toch erg in de buurt had gezeten van de GTS en ze 320 MB had vervangen. Aangezien die een G80 core gebruikt is dat een erg dure kaart die voor een lage prijs verkocht moet worden.

Mja de kaart heeft 128 shaders dus waarom dan niet 112 ipv 96. Yields moeten dan wel goed zijn maar als het een die shrink is van de G80 heeft i er meer dan 128 dus is de kans dat er 112 werken toch vrij groot ? Mja laat die HD3870 maar snel komen of in ieder geval een review dat we weten wat we kunnen verwachten. En dat de vraag van is de HD3870 nog verder getweaked dan de clockspeed en DX10.1 beantwoord wordt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Astennu schreef op zaterdag 03 november 2007 @ 11:30:
Een GTS heeft toch ook 96 shaders ? want die GT clockt wel 600 MHz wat meer is dan een GTS dus ik denk dat die GT dan toch erg in de buurt had gezeten van de GTS en ze 320 MB had vervangen. Aangezien die een G80 core gebruikt is dat een erg dure kaart die voor een lage prijs verkocht moet worden.
Ja, dat is idd ook zo. De GTS320 zou vrm sowieso EOL gegaan zijn.

Hoe dan ook staat nV er met de 65nm 112sp G92 wss beter voor dan met de 90nm 96sp G80 320. Ook de complexiteit (dus kostprijs) van het PCB is vrm behoolijk afgenomen door de 256bit bus.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Da_DvD
  • Registratie: April 2004
  • Laatst online: 30-08 16:07
Beter opletten Cheetah. R600 en RV670 hebben ook extra shaders, totaal 384.
Daarnaast heeft de R600 per shaderunit naast de 5 ALUs een extra reserve ALU ingebouwd. Als een per 5 defect is, dan neemt de 6de het gewoon over. AMD zal dus nooit een R600 uit brengen met alle shaders actief. Dan moeten de yields ongelovelijk hoog liggen en dat zijn ze nagenoeg niet (net zoals de R580 eigenlijk ook 64 shaderunits aan boord had ipv de 48 waarmee geadverteerd werd (namelijk 16 pipelines met 4 shaderunits per pipeline waarvan 1 een reserve was).

[ Voor 76% gewijzigd door Da_DvD op 03-11-2007 11:48 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Da_DvD schreef op zaterdag 03 november 2007 @ 11:45:
Beter opletten Cheetah. R600 en RV670 hebben ook extra shaders, totaal 384.
Datzelfde (reserveshaders aan boord) geldt ook voor G80, en zeer waarschijnlijk dus tevens G92.
nV heeft daarbovenop bij beide GT's echter nog een extra marge die ATi niet heeft.

Er mag bij RV670 per ALU 'slechts' 1 defecte pixelshader zijn. Zijn er ook problemen met een 2e pixelshader in 1 van de 64 ALU's dan kunnen ze de core weggooien (of feitelijk: moeten ze 'm sparen voor een nog niet aangekondigde kaart die 't met bijv 240 shaders moet doen doordat ALU's uitgeschakeld worden).
Bijvoorbeeld: met wat pech zijn er slechts 2 shaders defect in de hele RV670 core: beide in ALU1, terwijl in ALU 2 t/m 64 zijn alle 6 shaders (5+1 reserve) goed zijn. Dit maakt de betreffende RV670 alsnog onbruikbaar in de 3850 en 3870 kaarten.

nV heeft het wat dat betreft makkelijker: iedere pixelprocessor heeft zijn eigen ALU en kan dus per stuk uitgeschakeld worden. Ik denk persoonlijk dat de yields van nV zodoende ook hoger zijn...

Tenminste dit is het verhaal zoals ik het begrepen heb. Correct me if I'm wrong.

[ Voor 87% gewijzigd door Cheetah op 03-11-2007 12:15 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op zaterdag 03 november 2007 @ 11:21:
Als je een kaart die gepland stond voor $249-$299 voor $199 of minder in de uitverkoop moet doen?
Ja dat doet pijn. Heel veel pijn zelfs.
Je moet het een beetje relativeren. Beide spelers kiezen ervoor om genoegen te nemen met minder marges. De lachende derde: de consument :*)
Verder lijkt op dit moment niet nV degene met een yieldprobleem maar ATi: waarom denk je anders dat de final kloksnelheden van de 3870 en 3850 maar liefst 50 om 40 mhz omlaag zijn gehaald?
Het hoeft niet te liggen aan yields. Het kan ook aan het ontwerp liggen.
Ik weet niet hoor, maar je gaat me toch niet vertellen dat een ('gehandicapte') G92 core nV maar liefst $40-$50 meer kost om te produceren dan een volledig werkende RV670 core ATi kost?
Dat lijkt nl het verschil in prijs te worden. En dan heb ik het duurdere geheugen op de 3870 nog niet eens meegerekend.
Het is alweer een tijdje geleden dat ik de RAM prijzen heb bekeken, maar volgens mij is DDR4 niet zo duur meer. Ben benieuwd wat die gehandicapte G92 kost en performed. Ik denk dat ie on de par is met de RV670 qua prijs-performance.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op zaterdag 03 november 2007 @ 12:05:
Je moet het een beetje relativeren. Beide spelers kiezen ervoor om genoegen te nemen met minder marges. De lachende derde: de consument :*)
Het ging hier nou juist over de situatie vanuit het perspectief van de fabrikant.
Uiteraard is de consument lachende derde ;)
Het hoeft niet te liggen aan yields. Het kan ook aan het ontwerp liggen.
Hoe zie jij dat dan?
Hoe heeft het omlaaghalen van eerdere kloksnelheden meer met ontwerp dan met yields te maken?
Het is alweer een tijdje geleden dat ik de RAM prijzen heb bekeken, maar volgens mij is DDR4 niet zo duur meer. Ben benieuwd wat die gehandicapte G92 kost en performed. Ik denk dat ie on de par is met de RV670 qua prijs-performance.
Die 'gehandicapte' G92 is de 8800GT. Hij heeft 16 (GT512) tot 32 (GT256) shaders minder dan een full blown G92 met 128 shaders zou hebben.
G92 met 128 shaders (non-'handicapped') zal echter bekend komen te staan als de nieuwe GTS.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Het valt me, na een shitload of reviews te hebben gelezen wel een beetje op dat als je ECHT op hele hoge resoluties speelt met AA en AF dat die G92 wat geheugenbandbreedte tekortkomt. Die 256 bits bus bottleneckt hem wel...

Aangezien de RV670 geheugen heeft dat veel sneller draait dan dat van de 8800GT vraag ik me af hoe die het doet op dit soort reso's. Dan rijst ook direkt weer de vraag of het HD2900 AA performance probleem is opgelost.

Het is mij iig wel duidelijk dat de GT erg snel is, maar gewoon tekort komt op HELE hoge reso's. En Crysis is met geen enkele kaart fatsoenlijk speelbaar, dus ik heb het alleen over andere games.

Ik heb om die reden mijn 8800GT's voor SLi geannuleerd en een XFX8800Ultra XT gekocht.

[ Voor 17% gewijzigd door Format-C op 03-11-2007 12:55 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Edit: Aargh. hier stond een wall of text met uitleg over het verschil in redundancy technieken omdat Cheetah het niet helemaal door had hoe het werkte. Per ongeluk gedelete bij het editen van mijn post. |:(

Misschien later nog een poging. :'(
Cheetah schreef op zaterdag 03 november 2007 @ 11:21:
[...]
G92 met 128 shaders (non-'handicapped') zal echter bekend komen te staan als de nieuwe GTS.
Ik hoorde gister wat anders. De nieuwe GTS zou 112 streamprocessors hebben op 750Mhz en voorzien zijn van een dualslot cooling.

[ Voor 112% gewijzigd door CJ op 03-11-2007 13:00 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 20:50
CJ schreef op zaterdag 03 november 2007 @ 12:58:
Edit: Aargh. hier stond een wall of text met uitleg over het verschil in redundancy technieken omdat Cheetah het niet helemaal door had hoe het werkte. Per ongeluk gedelete bij het editen van mijn post. |:(

Misschien later nog een poging. :'(
Misschien staat het in je cache ofzo?

Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op zaterdag 03 november 2007 @ 12:13:
Hoe zie jij dat dan?
Hoe heeft het omlaaghalen van eerdere kloksnelheden meer met ontwerp dan met yields te maken?
Een ontwerp heeft altijd een beoogde kloksnelheid of -domein, hoe je t wilt. Dit komt omdat een aantal blokjes niet zo flexibel zijn, op die manier dat een (veel) hogere (of lagere) klok niet gekozen kan worden. Deze blokjes houden alle eenheden in die te maken hebben met timing. Generators, delay lines, and so on. Dit komt omdat die blokjes geoptimaliseerd worden voor dat bepaalde domein. Het meer flexibel maken zou ten koste gaan van vermogen en die-size. En die-size is gewoon het belangrijkste aspect wanneer je een chip gaat ontwerpen. Stel dat je als ontwerper een groot (of vaak gebruikt) blokje redesigned met 10% minder vermogen. Okay, netjes, je krijgt een schouderklopje. Maar als je het blokje 10% minder oppervlakte kan laten innemen, dan krijg je wel een leuke bonus, reken maar. :D (Dit is natuurlijk licht overdreven, maar geeft wel weer hoe de situatie is ;) )

De andere kant van het verhaal is natuurlijk wanneer het proces de dominante factor gaat worden. Het resultaat van een te hoge klok is vaak een te grote warmteproductie, dit heeft men vaak t liefst aangezien dit nog het makkelijkst is op te lossen (heatsinks FTW). Het zou ook kunnen zijn dat je torren door het verhoogde voltage de stroom niet aankunnen en de torren gewoon kapot gaan. Dit is meestal de limiet die hardcore overklokkers opzoeken, maar once again de limiet zou ook bepaald kunen worden door het eerste punt wat ik noemde. Daarom vind ik ook wel leuk om te zien hoever overklokkers CPU's / GPU's kunnen krijgen. Neem nou de P4, die mensen naar de 7GHz hebben getild. Wat een prestatie van de ontwerpers. _/-\o_ Natuurlijk ook goed werk van die overklokkers. :)
Die 'gehandicapte' G92 is de 8800GT. Hij heeft 16 (GT512) tot 32 (GT256) shaders minder dan een full blown G92 met 128 shaders zou hebben.
G92 met 128 shaders (non-'handicapped') zal echter bekend komen te staan als de nieuwe GTS.
Aha. Tja dat verandert de zaak. Maar de full blown G92 zal ook weer in een ander prijs segment zitten. Een waar ATi voorlopig niet meer zit. Zal wel niet goedkoop zijn.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
leonpwner1 schreef op zaterdag 03 november 2007 @ 13:01:
[...]


Misschien staat het in je cache ofzo?
Nee. Helaas.

Het kwam min of meer op het volgende neer. AMD is flexibeler in haar redundancy technieken dan NV.

R600/RV670: 1 reserve streamprocessor per shaderunit: totaal 64 reserve
G80/G92: 2 reserve clusters van 16 streamprocessors: totaal 2 reserve

G80 heeft geloof ik 10 clusters van 16 voor een totaal van 160 streamprocessors. Daarvan zijn er maximaal 8 geactiveerd voor 128 streamprocessors. Werkt 1 cluster niet goed, dan neemt een reserve cluster het over. R600 en RV670 hebben dus veel meer speling maw zijn flexibeler dan een G80/G92 wanneer het aankomt op defecten (64 reservemogelijkheden tov 2 bij de G80GTX of 3 bij de GTS).

De reden dat AMD voor deze oplossing gekozen is, is omdat een streamprocessor relatief goedkoop is voor AMD om in te bouwen. Dat is ook de reden waarom er zo weinig HD2900GTs te krijgen zijn. Het overgrote deel van R600 cores hebben gewoon wel 320 werkende streamprocessors. Of ze ook de snelheid van 742Mhz halen is een tweede, maar daarvoor is de Pro in het leven geroepen.

Dit verschil in reserve-ontwerp verklaart ook waarom er niet direct een HD3830 met 240 streamprocessors gelanceerd wordt, maar ook waarom NV dus wel vorig jaar wel direct met een kreupele chip met 6 clusters op de markt kwam (GF8800GTS met 6x16=96 SPs).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

CJ schreef op zaterdag 03 november 2007 @ 13:15:


De reden dat AMD voor deze oplossing gekozen is, is omdat een streamprocessor relatief goedkoop is voor AMD om in te bouwen. Dat is ook de reden waarom er zo weinig HD2900GTs te krijgen zijn. Het overgrote deel van R600 cores hebben gewoon wel 320 werkende streamprocessors. Of ze ook de snelheid van 742Mhz halen is een tweede, maar daarvoor is de Pro in het leven geroepen.
Tja, zoals je zelf al aangeeft; handig bedacht met die streamprocessors, maar wat heb je eraan als je chips door dit soort technieken goedkoop kan produceren om vervolgens aan de andere kant weer een bulk chips voor een minimale prijs moet verkopen doordat ze de kloksnelheid niet halen.

Aan de ene kant winnen ze dus, en aan de andere kant verliezen ze het weer. |:( Je doet het overkomen alsof het een win-win situatie is wat dus in feite niet zo is. :)

Flexibele kaartjes die de beoogde kloksnelheden niet halen... Dus in wezen niet flexibel. 8)7

Ze hadden zich misschien wat meer moeten richten op het WEL halen van clocks... Ja, ik weet het ook niet. Het is iig niet je-van-het.

[ Voor 10% gewijzigd door Format-C op 03-11-2007 13:27 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
RappieRappie schreef op zaterdag 03 november 2007 @ 13:24:
[...]


Tja, zoals je zelf al aangeeft; handig bedacht met die streamprocessors, maar wat heb je eraan als je chips door dit soort technieken goedkoop kan produceren om vervolgens aan de andere kant weer een bulk chips voor een minimale prijs moet verkopen doordat ze de kloksnelheid niet halen.

Aan de ene kant winnen ze dus, en aan de andere kant verliezen ze het weer. |:( Je doet het overkomen alsof het een win-win situatie is wat dus in feite niet zo is. :)

Flexibele kaartjes die de beoogde kloksnelheden niet halen... Dus in wezen niet flexibel. 8)7

Ze hadden zich misschien wat meer moeten richten op het WEL halen van clocks... Ja, ik weet het ook niet. Het is iig niet je-van-het.
Dat is wel heel erg zwart op wit zoals je het stelt. Er zijn meer redenen waarom clockspeeds niet gehaald worden. Hogere leakage dan verwacht op een bepaald 80nm proces van ene TSMC bijvoorbeeld.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • WoutF
  • Registratie: Maart 2000
  • Laatst online: 21:05

WoutF

Hoofdredacteur
CJ schreef op zaterdag 03 november 2007 @ 13:43:
[...]


Dat is wel heel erg zwart op wit zoals je het stelt. Er zijn meer redenen waarom clockspeeds niet gehaald worden. Hogere leakage dan verwacht op een bepaald 80nm proces van ene TSMC bijvoorbeeld.
Maar waarom klokt de RV670 (van Diamond iig) op 55nm maar 35MHz hoger? Dat vind ik best teleurstellend

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Ik zou eerst nog maar even afwachten tot 15 november. D'r zitten wat fouten in de specsheets van Diamond. Try and catch 'm all. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Oke er zijn tegenwoordig een heleboel eye-candy effecten bij de verschillende merken. Zo ver ik weet zijn ze dit:

AA
Anti aliasing
Fsaa
Msaa
HDR

Nu zou ik bij god niet meer weten hoe het ook alweer zat en wat ze precies doen. Ik weet dat ik het op google kan vinden maar daar krijg ik meer techniesche lappen tekst i.p.v. een korte uitleg. Aangezien jullie allemaal redelijk wat verstand hebben van de laatste nieuwtjes in vga wereld, zou ik jullie willen vragen om even kort uit te leggen wat elke eye-candy feature doet. Alvast bedankt :)

EDIT: hartstikke bedankt leon, precies wat ik wilde weten :)

[ Voor 5% gewijzigd door Verwijderd op 03-11-2007 14:22 ]


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 20:50
Verwijderd schreef op zaterdag 03 november 2007 @ 14:15:
Nu zou ik bij god niet meer weten hoe het ook alweer zat en wat ze precies doen. Ik weet dat ik het op google kan vinden maar daar krijg ik meer techniesche lappen tekst i.p.v. een korte uitleg. Aangezien jullie allemaal redelijk wat verstand hebben van de laatste nieuwtjes in vga wereld, zou ik jullie willen vragen om even kort uit te leggen wat elke eye-candy feature doet. Alvast bedankt :)
Dit hoort hier totáál niet thuis, en zoals je zelf al zegt kun je dit gewoon met google zoeken of op Wikipedia.

AA = Anti-Alliasing, het wegwerken van 'trappetjes' langs randjes.
Anti aliasing = ^
Fsaa = Full Screen Anti-Alliasing.
Msaa = Multi Sampling Anti-Alliasing, dat is een transparante vorm van AA.
HDR = High Dynamic Range, zorgt voor vollere belichting, zoals lichtbundels die door de bomen op de grond schijnen bijvoorbeeld.

Verhaal een beetje ver-jip-en-janneke'd, als je meer wilt weten moet je google doen.

[ Voor 4% gewijzigd door Avalaxy op 03-11-2007 14:21 ]


Acties:
  • 0 Henk 'm!

  • MauSS
  • Registratie: Juni 2005
  • Laatst online: 29-06-2023
Jejking schreef:
Minder pijn is nog steeds pijn. Ik denk dat dit een harde klap voor AMD/ATi gaat worden als de drivers niet beter worden en de performance niet goed (genoeg) is, vooral in het geldlaatje :)
Wat zou jou dat nou uitmaken? het gaat erom wat het kaartje kost, welke features het ding heeft en hoeveel animo er voor is. en geloof mij dat zal er genoeg voor zijn 8)
RappieRappie schreef:
wat hebben de ATi liefhebbers eraan dat ze meer winst maken op de RV670 dan nVidia op de G92? De RV670 wordt er geen FPS sneller van...
De toekomst jongen,... 55nm kaartje niet te duur goede prestaties.. (rond de 2900XT)
Nvidia moet eerst nog op de proppen komen met een 55nm of minder kaartje.. Ati heeft er al 1 :)
Krizzie schreef:
ik ken zat mensen die denken dat ze voor 40 euro een videokaart hebben die wel even de nieuwste games op max kan draaien. Als je dan zegt maak er dan maar 200 euro van dan verklaren ze je voor gek, dat je zoveel voor een kaartje betaald. Terwijl wij van een kaart van 200 euro en die prestaties zeggen dat het een "koopje" is. :)
Heel mooi en goed voorbeeld! (zelf ook paar keer meegemaakt bij mensen) en dat is ook precies hoe het in elkaar steekt die High-end markt is inderdaad veel kleiner.. :)

@ Ati / Nv accountant-boys
Kunnen we niet stoppen over het verhaaltje "Nvidia maakt meer winst... nee Ati maakt meer winst" ?
met alle respect ik vind dat CJ nog lang zijn geduld kan bewaren bij sommige blinde-lezers hier en die telkens maar door hameren..

Kennelijk voelen ze het toch aankomen dat de RV670 een hele goede kaart zal worden (ook al zou die niet sneller worden dan de 8800GT, dat wil niet wegnemen dat hij niet populair is... zodra ik 'm online ergens zie staan bestel ik er 1) en ben bang dat ik niet de enigste zal zijn O-)
Cheetah schreef:
@Mauss: we voeren hier een discussie op niveau. Try to keep up, or keep out of it.
Dat jij zeker een RV670 gaat halen dat weten we inmiddels al lang ;)[/ot]
Leuk zo'n discussie op niveau maar misschien iets voor een ander topic?
heb het idee dat je kosten wat kost altijd maar weer Ati wil bestempelen als "negatief" ook al ontken je dat... het komt omdat je maar door gaat telkens,.. misschien moet je eens een brief sturen naar AMD :O

[ Voor 37% gewijzigd door MauSS op 03-11-2007 14:33 ]

A world without gadgets is no world ;)


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op zaterdag 03 november 2007 @ 13:15:
Het kwam min of meer op het volgende neer. AMD is flexibeler in haar redundancy technieken dan NV.
R600/RV670: 1 reserve streamprocessor per shaderunit: totaal 64 reserve
Je berekening zou op deze manier alleen opgaan als er in bepaalde ALU's bij R600/RV670 meer dan 5 streamprocessors tegelijk actief zouden kunnen zijn. Voor zover ik weet is dit niet het geval.

RV670 heeft net als R600 64 ALU's met ieder 6 streamprocessors (per ALU 5 + 1 enkele streamprocessor reserve). Wat gebeurt er als er in 1 ALU 2 streamprocessors stuk zijn dan? Worden er dan in een 2e ALU 6 streamprocessors in plaats van 5 geactiveerd? Zo niet (en voor zover ik weet zijn per ALU idd max 5 shaderprocessors actief) zou de core in zo'n geval moeten worden afgekeurd. Volgens het plaatje dat je schetst heeft R600/RV670 namelijk geen reserve ALU's.
G80/G92: 2 reserve clusters van 16 streamprocessors: totaal 2 reserve
De 'totaal 2 reserve' die je noemt behelst uiteraard slechts de 8800GTX/Ultra.
Dit behelst alsnog een overhead van 2/10 = 20% voor GTX. Voor de GT512 is de overhead 30% en voor de GTS 40% (ofwel 40% van de clusters mag defect zijn om alsnog een GT256 of G80GTS eruit te halen). Het G80 ontwerp was juist specifiek hierop gebouwd.

In vergelijk daarmee heeft ATi voor 2900Pro/XT en 3850/3870 een overhead van 64/384 (of 1/6) = 17%.
Dit is feitelijk zelfs minder speelruimte dan bij de 8800GTX...

Wellicht heb ik 't niet goed begrepen of zie ik iets over het hoofd, maar dat hoor ik graag dan :)

offtopic:
@Mauss: we voeren hier een discussie op niveau. Try to keep up, or keep out of it.
Dat jij zeker een RV670 gaat halen dat weten we inmiddels al lang ;)

[ Voor 9% gewijzigd door Cheetah op 03-11-2007 14:33 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Kunnen we niet stoppen over het verhaaltje "Nvidia maakt meer winst... nee Ati maakt meer winst" ?
met alle respect ik vind dat CJ nog lang zijn geduld kan bewaren bij sommige blinde-lezers hier en die telkens maar door hameren..
We houden hier gewoon een discussie dus nee, we houden er niet over op ;) Discussie over hoe en hoeveel winst een bedrijf maakt vind ik interessant en heeft niks met fanboys te maken. Daarnaast heb jij al 1000x gezegd dat je een RV670 gaat kopen, dat interesseert niemand ;)

[ Voor 14% gewijzigd door XWB op 03-11-2007 14:40 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

CJ schreef op zaterdag 03 november 2007 @ 13:43:
[...]


Dat is wel heel erg zwart op wit zoals je het stelt. Er zijn meer redenen waarom clockspeeds niet gehaald worden. Hogere leakage dan verwacht op een bepaald 80nm proces van ene TSMC bijvoorbeeld.
Mja, maar NOG heeft ATi dan niks aan die streamprocessor redundancy. Ze halen simpelweg de kloks niet. Waar dat dan aan ligt maakt niet uit imho. De vraag is; wat heb je enerzijds aan streamprocessor redundancy als je aan de andere kant je kloksneheid niet haalt... Het levert gewoon geen winst op qua snelheid.

Het is een mooi verhaal over die streamprocessors, maar ATi heeft er gewoon niks aan. Dat is mijn punt... Misschien is een HD2900 met minder streamprocessors en een hele hoge kloksnelheid wel sneller dan een HD2900 met meer streamprocessors en een lagere kloksnelheid.

[ Voor 3% gewijzigd door Format-C op 03-11-2007 14:51 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Taenadar
  • Registratie: Januari 2004
  • Laatst online: 19:42
CJ post net wat over die Diamond kaart...
CJ schreef op zaterdag 03 november 2007 @ 13:55:
Ik zou eerst nog maar even afwachten tot 15 november. D'r zitten wat fouten in de specsheets van Diamond. Try and catch 'm all. ;)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
leonpwner1 schreef op zaterdag 03 november 2007 @ 14:20:
[...]
Msaa = Multi Sampling Anti-Alliasing, dat is een transparante vorm van AA.
Oef... da's niet waar... dat is Adaptive AA (bij AMD) of Transparency AA (bij NV).

Multisampling AA en Supersampling AA zijn twee manieren van AA (volledig FSAA).

En inderdaad...
http://nl.wikipedia.org/wiki/Anti-aliasing
http://nl.wikipedia.org/wiki/High_dynamic_range_rendering
Cheetah schreef op zaterdag 03 november 2007 @ 14:27:
[...]
Je berekening zou op deze manier alleen opgaan als er in bepaalde ALU's bij R600/RV670 meer dan 5 streamprocessors tegelijk actief zouden kunnen zijn. Voor zover ik weet is dit niet het geval.
Je haalt wat termen door elkaar (namelijk ALUs en streamprocessors, dat zijn hetzelfde). Elke shaderunit in de R(V)6x0 serie van AMD heeft 5 ALUs (streamprocessors) en 1 reserve ALU. De R600/RV670 hebben 64 van deze shaderunits.

Als je echt helemaal volledig wilt zijn, dan ziet een shaderunit van een R600 er als volgt uit:

5 ALUs (streamprocessors)
1 branching unit
1 reserve ALU (streamprocessor)

Zonder de reserve ALU mee te tellen kan elke shaderunit binnen de R600 dus theoretisch gezien maximaal 6 instructies per clock verwerken. Doorgaans zullen dat er 5 zijn. Een G80 kan hier maar 1 instructie per clock verwerken, maar werkt wel op meer dan dubbele snelheid.

Afhankelijk van de applicatie en optimalisaties binnen de compiler van AMD, zijn er in ieder geval 1 ALU (streamprocessor) binnen elke shaderunit actief of in het optimale geval dus 5. Voor een verdere uitleg over de verschillen in architectuur, kan je hier terecht.

Alle 5 zijn dus actief, maar of ze ook echt werk verrichten hangt af van hoe een applicatie geschreven is en van de compiler van AMD. Die laatste moet namelijk applicaties/instructies die geoptimaliseerd zijn voor de G80 architectuur, op delen in brokken van 5 zodat ook echt alle ALUs aan de slag kunnen. Anders gedraagt een R600 zich als een 64 streamprocessor GPU ipv 320 streamprocessor GPU.
RV670 heeft net als R600 64 ALU's shaderunits met ieder 6 streamprocessors (per ALU shaderunit 5 + 1 enkele streamprocessor reserve). Wat gebeurt er als er in 1 ALU shaderunit 2 streamprocessors stuk zijn dan? Worden er dan in een 2e ALU shaderunit 6 streamprocessors in plaats van 5 geactiveerd? Zo niet (en voor zover ik weet zijn per ALU idd max 5 shaderprocessors actief) zou de core in zo'n geval moeten worden afgekeurd. Volgens het plaatje dat je schetst heeft R600/RV670 namelijk geen reserve ALU's.
Voor zover ik weet komt het zelden voor dat er binnen een shaderunit meer dan 2 ALUs (streamprocessors) stuk zijn. Vraag me niet hoe, maar het design zit zo in elkaar. Zie ook de R580 die per pipeline 3 ALUs had + 1 reserve. Er waren wel X1900GTs op de markt met 36 ALUs vanwege een defect in een quad, maar geen 24 ALU parts.

Daarnaast zijn niet alle dingen zo zwart-wit aan elkaar gekoppeld binnen een R600 (overigens ook niet bij G80). Het kan dus zijn dat er meer speling in de designs zit dan het zo op het eerste gezicht lijkt.

Zo zijn die 320 ALUs (streamprocessors) dan wel gegroepeerd in 64 shaderunits van elk 5 ALUs, ook die 64 shaderunits zijn weer onderverdeeld in 4 clusters van elk 16 shaderunits, waardoor je dus 4 SIMD arrays hebt van 80 ALUs.
De 'totaal 2 reserve' die je noemt behelst uiteraard slechts de 8800GTX/Ultra.
Dit behelst alsnog een overhead van 2/10 = 20% voor GTX. Voor de GT512 is de overhead 30% en voor de GTS 40% (ofwel 40% van de clusters mag defect zijn om alsnog een GT256 of G80GTS eruit te halen)!

In vergelijk daarmee heeft ATi voor 2900Pro/XT en 3850/3870 een overhead van 64/384 (of 1/6) = 17%.
Dit is feitelijk zelfs minder speelruimte dan bij de 8800GTX!
Dat zie je niet helemaal goed. Zoals ik al zei is een streamprocessor bij de AMD kaarten heel goedkoop in te bouwen. Het kost bijna niks. Als er een streamprocessor bij NV stuk is, dan wordt die cluster uitgeschakeld en komt er een vervangingde cluster. Van de 160 wordt er dus meteen 10% uitgeschakeld.

Stel dat er 4 streamprocessors stuk zijn bij NV die verspreid zijn over 4 verschillende clusters. Dan is deze kaart 'gedoemd' tot het bestaan als GF8800GTS met 96 streamprocessors.

Als er bij AMD 4 streamprocessors stuk zijn verspreid over verschillende shaderunits, dan worden die elk vervangen door de reserve en blijf je een GPU houden met 320 ALUs/streamprocessors.

De yields van de G80 waren echter niet echt denderend vanaf het begin. Dus er was niet een situatie waar maar 1 streamprocessor stuk was... maar zelfs meerdere... verspreid over verschillende clusters. Er kwamen veel G80s van de band af waar maar 6 clusters het echt goed deden van de 10. Vandaar ook de enorme stortvloed aan GF8800GTS kaarten in de vorm van de 320MB variant en 640MB variant.

Ik kan me voorstellen dat je je afvraagt wat er gebeurd als er binnen een shaderunit 2 of 3 ALUs stuk zijn. Daar is AMD vrij geheimzinnig over. Maar de praktijk wijst uit dat deze situatie zelden voor komt. Gebeurt het wel, dan wordt een SIMD Array uitgeschakeld en heb je de HD2900GT. En in dat geval heb je gelijk en is dat wel een hele drastische stap, want je gaat meteen van 320 streamprocessors naar 240 streamprocessors (33% kleiner). Maar die situatie komt dus niet vaak voor. Het probleem zal vaker liggen aan de kloksnelheden die niet gehaald worden.

Overigens is het als ik het goed heb begrepen ook mogelijk om binnen een SIMD Array dingen uit te schakelen, zodat niet een complete array met 80 streamprocessors wordt uitgeschakeld wanneer er echt veel defecten zijn (zodat bv 40 streamprocessors overblijven). Maar hoe dit precies werkt weet ik niet. Het is in ieder geval mogelijk, maar ik denk dat dat niet gedaan wordt omdat dit veel werk gaat vergen voor het driverteam om ook nog voor afwijkende GPUs te gaan zitten optimaliseren.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
RappieRappie schreef op zaterdag 03 november 2007 @ 14:48:
[...]


Mja, maar NOG heeft ATi dan niks aan die streamprocessor redundancy. Ze halen simpelweg de kloks niet. Waar dat dan aan ligt maakt niet uit imho. De vraag is; wat heb je enerzijds aan streamprocessor redundancy als je aan de andere kant je kloksneheid niet haalt... Het levert gewoon geen winst op qua snelheid.

Het is een mooi verhaal over die streamprocessors, maar ATi heeft er gewoon niks aan. Dat is mijn punt... Misschien is een HD2900 met minder streamprocessors en een hele hoge kloksnelheid wel sneller dan een HD2900 met meer streamprocessors en een lagere kloksnelheid.
Volgens jou redenering kan je dus beter geen rekening houden met defecten en kan je net zo goed een 16 pipes videokaart op 2Ghz uit brengen? Want dat daar zit immers pure kracht in. Zo simpel is het niet hoor.

Jij koppelt het aantal streamprocessors aan de kloksnelheden. Daar ga je al de fout in. Er zijn veel meer factoren die invloed hebben op de uiteindelijke prestatie. Het aantal reserve streamprocessoren is daar niet op van invloed.

Als het op elkaar van invloed zou zijn geweest dan hadden de 120 streamprocessors van de HD2600XT een veel hogere kloksnelheid kunnen halen dan de 320 streamprocessors binnen de HD2900XT. De GPU bevatte immers ook nog eens maar 390M transistoren ten opzichte van de 720M van de HD2900XT. En toch is het verschil minder dan 60Mhz ondanks het dat er 160% minder streamprocessors in zitten. En de HD2400XT met 40 streamprocessors hadden dan zeker op 1Ghz moeten draaien ipv de 700Mhz die ze nu doen (dus 100Mhz langzamer dan de HD2600XT die groter is).

Wat wel interessant is, is het volgende...
RV630 had 390M transistoren op 65nm op een snelheid van 800Mhz
R580 had 384M transistoren op 90nm op een snelheid van 650Mhz

We weten nu dat de R580 veel sneller is dan een RV630. Ben benieuwd hoe een R580 op 65nm op 800Mhz gepresteerd had. Maar ja, dan moest je DX10 functionaliteit missen.

[ Voor 15% gewijzigd door CJ op 03-11-2007 15:37 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

CJ schreef op zaterdag 03 november 2007 @ 15:33:


Volgens jou redenering kan je dus beter geen rekening houden met defecten en kan je net zo goed een 16 pipes videokaart op 2Ghz uit brengen? Want dat daar zit immers pure kracht in. Zo simpel is het niet hoor.

Jij koppelt het aantal streamprocessors aan de kloksnelheden. Daar ga je al de fout in. Er zijn veel meer factoren die invloed hebben op de uiteindelijke prestatie. Het aantal reserve streamprocessoren is daar niet op van invloed.

Als het op elkaar van invloed zou zijn geweest dan hadden de 120 streamprocessors van de HD2600XT een veel hogere kloksnelheid kunnen halen dan de 320 streamprocessors binnen de HD2900XT. De GPU bevatte immers ook nog eens maar 390M transistoren ten opzichte van de 720M
van de HD2900XT. En toch is het verschil minder dan 60Mhz ondanks het dat er 160% minder streamprocessors in zitten. En de HD2400XT met 40 streamprocessors hadden dan zeker op 1Ghz moeten draaien ipv de 700Mhz die ze nu doen (dus 100Mhz langzamer dan de HD2600XT die groter is).
Nee, het ging hier om :dat jij zegt dat de architectuur van ATi beter is omdat ze een betere streamprocessor redundancy hebben, en dat dat beter is omdat dat goedkoper produceren is. En toen zei ik dat het misschien beter was om minder redundancy te hebben en WEL een hogere kloksnelheid.
quote: CJ
Het kwam min of meer op het volgende neer. AMD is flexibeler in haar redundancy technieken dan NV.
...

R600/RV670: 1 reserve streamprocessor per shaderunit: totaal 64 reserve
G80/G92: 2 reserve clusters van 16 streamprocessors: totaal 2 reserve
...
De reden dat AMD voor deze oplossing gekozen is, is omdat een streamprocessor relatief goedkoop is voor AMD om in te bouwen. Dat is ook de reden waarom er zo weinig HD2900GTs te krijgen zijn. Het overgrote deel van R600 cores hebben gewoon wel 320 werkende streamprocessors. Of ze ook de snelheid van 742Mhz halen is een tweede, maar daarvoor is de Pro in het leven geroepen.
En toen zei ik dat die redundancy leuk bedacht is, maar dat ze er niks aan hebben omdat de chips niet ver genoeg klokken. Dus je kan zoveel redundancy inbouwen in een chip als je wilt, maar als de chips hun snelheden niet halen heb je er niks aan. En haal je dus nooit de beoogde snelheid als de chip "slecht" klokbaar lijkt. Ook al heb je wel telkens de volle 320 streamprocessors.

Maw; wat heb je aan reserves als ze niet klokken?

En dan ging het vooral hierom:
Of ze ook de snelheid van 742Mhz halen is een tweede, maar daarvoor is de Pro in het leven geroepen.
Als je een chip moet "dumpen" als Pro heb je er toch minder aan? Qua winst? Ook al heeft dat ding OOK 320 streamprocessors? Dan kan het wel goedkoop zijn als je altijd de volle 320SP's hebt, echter als ze voor geen meter klokken heb je er niks aan omdat de chip niet het maximale verkoop rendement oplevert. Dus ATI heeft niks aan die reserve SP's omdat de chips simpelweg te laag klokken en een te lage performance hebben. En dus betwijfel ik het of het wel zo goedkoop is om te produceren omdat ze niet bereiken wat ze willen; een chip met 320SP's EN een hoge kloksnelheid.

O+
MauSS schreef op zaterdag 03 november 2007 @ 14:24:
De toekomst jongen,... 55nm kaartje niet te duur goede prestaties.. (rond de 2900XT)
Nvidia moet eerst nog op de proppen komen met een 55nm of minder kaartje.. Ati heeft er al 1 :)
Wat heb JIJ eraan bedoel ik te zeggen? Het kaartje kan wel 55nm zijn, alleen is nVidia's 65nm kaartje wél sneller. Dus je kan eigenlijk al wel raden wat er gebeurt als nVidia OOK naar 55nm gaat: NOG hogere kloksnelheden en performance. :) Ik bedoel; ze zijn NU al sneller...

[ Voor 18% gewijzigd door Format-C op 03-11-2007 16:18 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
RappieRappie schreef op zaterdag 03 november 2007 @ 16:06:
[...]Nee, het ging hier om :dat jij zegt dat de architectuur van ATi beter is omdat ze een betere streamprocessor redundancy hebben, en dat dat beter is omdat dat goedkoper produceren is. En toen zei ik dat het misschien beter was om minder redundancy te hebben en WEL een hogere kloksnelheid.
Ik zeg nergens dat de architectuur van AMD beter is omdat ze een betere streamprocessor redundancy hebben. Je stopt mij daar gewoon botweg een conclusie in de mond... Ik heb alleen gezegd dat ze een betere methode hebben om om te gaan met uitvalproblemen/defecten. Dat wil niet zeggen dat de architectuur beter is omdat ze voor een rechtstreekse vergelijking gewoon te veel van elkaar verschillen en het afhankelijk is van de manier van programmeren welke efficienter/beter is.
En toen zei ik dat die redundancy leuk bedacht is, maar dat ze er niks aan hebben omdat de chips niet ver genoeg klokken.
Hoe weet jij dat AMD niks aan die redundancy heeft? Ik zeg niet dat het waar is... Maar is het wel eens in je opgekomen dat zonder die ingebakken reserveshaders AMD misschien nooit het aantal van 320 streamprocessors gehaald?

Wat betreft de kloksnelheden... R600 deed het volgens mij contacten beter dan verwacht... alleen het rendement op de hogere kloksnelheden was nihil door leakage... inefficientie... whatever. Het verschil tussen een 1GB XT op 825Mhz en een 512MB XT op 742 is verwaarloosbaar. Leuk leermomentje voor de toekomst.

Wist je trouwens dat daarnaast hogere kloksnelheden ook vaak te behalen zijn door redundancy binnen de chip? NV staat er bijvoorbeeld om bekend om "neptransistors" toe te voegen aan hun GPUs voor o.a. een betere verspreiding van warmte en hogere kloksnelheden. Hadden ze die dan ook moeten weg laten?
Als je een chip moet "dumpen" als Pro heb je er toch minder aan? Qua winst? Ook al heeft dat ding OOK 320 streamprocessors?
Ik snap het probleem niet helemaal. Zo is het altijd al gegaan. X1800XL. GF6800GT, X800XT. GF7900GT, 9700 (non-pro). Allemaal kaartjes die gelijk waren aan het topmodel op kloksnelheden na. Ja ze verdienden er minder aan dan aan een X1800XT, GF6800U, X800XT PE, GF7900GTX, 9700Pro, maar hadden ze er minder aan? Nee. Er werden veel meer van die kaartjes verkocht dan van de topend modellen waardoor het rendement veel hoger was dan bij die paar procent van de totale omzet die de ultra highend oplevert. Uiteindelijk hebben ze meer aan die lager geklokte modellen verdiend dan aan de topmodellen.

De R600 valt hier wat dat betreft wel uit de toon, maar met de RV670 zetten ze deze lijn weer voort met een directe lancering van een hoog geklokt model gevolgd door een lager geklokt model.
Dan kan het wel goedkoop zijn als je altijd de volle 320SP's hebt, echter als ze voor geen meter klokken heb je er niks aan omdat de chip niet het maximale verkoop rendement oplevert.
En uit de recenties van de HD2900Pro is gebleken dat ze voor geen meter klokken. Het aantal HD2900Pro's die XT snelheden haalt is nihil.

Oh wacht, dat klopt natuurlijk niet. Bijna alle HD2900Pro's halen XT snelheden en de performance schaalt beter mee met 320 streamprocessors dan wanneer ze 240 streamprocessors zouden hebben. Een overklok van 1 Mhz met 320 streamprocessoren levert meer performance op dan 1 Mhz overklok met 240 streamprocessoren. En zonder die redundancy hadden ze die 320 niet eens gehaald.
Dus ATI heeft niks aan die reserve SP's omdat de chips simpelweg te laag klokken en een te lage performance hebben. En dus betwijfel ik het of het wel zo goedkoop is om te produceren omdat ze niet bereiken wat ze willen; een chip met 320SP's EN een hoge kloksnelheid.

O+
Je hamert te veel op kloksnelheden. Kloksnelheid is niet alles, net zoals het aantal streamprocessoren niet alles zegt. Zonder redundancy geen 320 streamprocessoren. Had een GPU met 240 streamprocessoren die hoger geklokt was dan beter gepresteerd? Nee, tenzij je echt een veelfout van megahertzen omhoog gaat. Dus ik quote mezelf nog eens:

Jij koppelt het aantal streamprocessors aan de kloksnelheden. Daar ga je al de fout in. Er zijn veel meer factoren die invloed hebben op de uiteindelijke prestatie. Het aantal reserve streamprocessoren (redundancy technieken) is daar niet op van invloed.
Wat heb JIJ eraan bedoel ik te zeggen? Het kaartje kan wel 55nm zijn, alleen is nVidia's 65nm kaartje wél sneller. Dus je kan eigenlijk al wel raden wat er gebeurt als nVidia OOK naar 55nm gaat: NOG hogere kloksnelheden en performance. :) Ik bedoel; ze zijn NU al sneller...
Wat de consument er aan heeft? Wat dacht je van een lagere prijs en toch veel performance? Hoe je het ook went of keert... alles boven de $200 is voor veel mensen nog veel geld om aan een videokaart uit te geven. Zelfs alles boven de $100 vinden veel mensen nog te veel. In vergelijking met dat aantal mensen is het aantal mensen dat echt geeft om superveel fps maar gering (ultra highend is nog geeneens 5% van de markt).

[ Voor 11% gewijzigd door CJ op 03-11-2007 16:43 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Blijkbaar snap je me niet. Misschien leg ik niet goed uit wat ik denk...

Maar goed; laat maar dan. :O

[ Voor 95% gewijzigd door Format-C op 03-11-2007 16:42 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
RappieRappie schreef op zaterdag 03 november 2007 @ 16:38:
Blijkbaar snap je me niet. Misschien leg ik niet goed uit wat ik denk...

Maar goed; laat maar dan. :O
Zo gemakkelijk kom je er niet mee weg. ;)
Maw; wat heb je aan reserves als ze niet klokken?
Nogmaals, reserves en kloksnelheden hebben weinig met elkaar te maken. Daar komt het op neer.

offtopic:
Stuur me anders effe een mailtje als je er over uit bent wat je precies denkt. Dan kunnen we daar verder. of via msn ;)

[ Voor 14% gewijzigd door CJ op 03-11-2007 16:41 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

CJ schreef op zaterdag 03 november 2007 @ 16:40:
[...]


Zo gemakkelijk kom je er niet mee weg. ;)
:D

Ik probeerde aan te geven dat ook al bouw je reserves in, als je een gewenste snelheid niet haalt dan verlies je de winst die je aan de ene kant hebt door het hebben van reserves (altijd een maximaal aantal SP's) toch weer aan de andere kant met de lagere kloksnelheid die eigenlijk niet de bedoeling was? En door dat verlies of niet halen van wat de bedoeling was gaat de winst toch omlaag en wordt hget er toch niet goedkoper op om een bepaalde chip te maken? Ik heb het idee dat de hele HD2900 1 grote verwarring heeft veroorzaakt bij ATi. Misschien komt dat door die overname. Heel vreemd allemaal.

Het lijkt erop alsof de Pro niet gepland was. En dat leek in de vorige generatie(s) wel zo te zijn, omdat ze toen in 1x een hele lineup hadden. XT, Pro en non Pro. Toen zag het er echt uit alsof ze het bewust deden. Edit; vanaf de X1900 serie begon het allemaal wat vaag te worden wat dat betreft vind ik.

Nu hadden ze alleen de XT, en omdat ze nog wat restmeuk hadden liggen hebben ze die maar gedumpt als Pro. Dit leek meer een soort van; "wat moeten we er anders mee" oplossing te zijn dan iets wat ze bewust gedaan hebben.

Het komt iig zo bij mij over. :)

Edit de zoveelste; misschien installeer ik MSN maar eens.
:P

Ik hoop dat 2008 een beter jaar wordt voor ATi's enthousiast segment. Dan hebben wij er als liefhebber/ hobbymensen ook wat aan.

En ik ben trouwens blij dat je het geduld kan opbrengen om MIJ uit te leggen hoe JIJ het bedoelt CJ. En ik zal proberen wat minder te editten. >:)

Mijn conclusie is dat ik jouw vorige post begrijp en dat ik het wel eens ben met jouw onderbouwing en argumenten en uitleg. Ik zag het gewoon verkeerd, al duurde het even voordat ik dat zelf doorhad. B)

[ Voor 54% gewijzigd door Format-C op 03-11-2007 17:11 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • MauSS
  • Registratie: Juni 2005
  • Laatst online: 29-06-2023
RappieRappie schreef:
Het kaartje kan wel 55nm zijn, alleen is nVidia's 65nm kaartje wél sneller. Dus je kan eigenlijk al wel raden wat er gebeurt als nVidia OOK naar 55nm gaat: NOG hogere kloksnelheden en performance. :) Ik bedoel; ze zijn NU al sneller...
Volgens mij begrijp je het nog steeds niet of wel? ;)
Er zijn ook mensen die geen top-model van Nvidia willen maar kiezen voor prijs/prestatie & features en die hoeven niet persee de snelste en dat is een grote groep die dan voor Ati zal kiezen..
en het hele gedoe rondom Nv vs Ati is denk ik als volgt: Ati wil gewoon aardig wat bieden voor een goede prijs, (tenminste zo staan ze bij mij bekend) het is niet zo dat ze niet beter kunnen ik denk dat het hun doelstelling iets anders ligt.. O-) maar goed dat is natuurlijk ook wel een eindeloze discussie voor mij gewoon geen Nv }:O

A world without gadgets is no world ;)


Acties:
  • 0 Henk 'm!

  • Epep
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:36
Een groot verschil wat naar mijn mening (nog) niet genoemd is dat bij hele hoge yield Nvidea de redudante clusters, bijvoorbeeld 1 van 2 redundante clusters kan activeren zodat er 9 clusters actief zijn inplaats van 8 hierdoor ontstaat er dan weer een extra krachtige videokaart. (voorbeeld 92 nvidea chip)

Ati heeft als voordeel dat waar oorspronkelijk de kaart voor gemaakt is de kaart ook zeer waarschijnlijk voor wordt verkocht en dus de "hoge" prijs kan vragen voor zijn videokaart.

Hierdoor heeft nvidea een mogelijkheid om de high end sector te voorzien van extra goed presterende kaart, waarbij niet alleen op clocksnelheid wordt gesegmenteerd (zoals bij ATI)

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
maar kiezen voor prijs/prestatie
Voor een goede prijs/prestatie zit je ook bij nVidia aan het juiste adres :) De 8800GT mag dan duurder zijn, hij is ook sneller ;)

March of the Eagles


Acties:
  • 0 Henk 'm!

  • WoutF
  • Registratie: Maart 2000
  • Laatst online: 21:05

WoutF

Hoofdredacteur
MauSS schreef op zaterdag 03 november 2007 @ 18:15:
het is niet zo dat ze niet beter kunnen ik denk dat het hun doelstelling iets anders ligt.. O-)
:D
Als ATI een kaart kon maken die even snel was als de GTX of Ultra voor een zelfde prijs lag die echt al wel in de schappen hoor

Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 20:50
MauSS schreef op zaterdag 03 november 2007 @ 18:15:
[...]

Volgens mij begrijp je het nog steeds niet of wel? ;)
Er zijn ook mensen die geen top-model van Nvidia willen maar kiezen voor prijs/prestatie & features en die hoeven niet persee de snelste en dat is een grote groep die dan voor Ati zal kiezen..
Ik begrijp je punt eigenlijk ook niet helemaal...
en het hele gedoe rondom Nv vs Ati is denk ik als volgt: Ati wil gewoon aardig wat bieden voor een goede prijs, (tenminste zo staan ze bij mij bekend) het is niet zo dat ze niet beter kunnen ik denk dat het hun doelstelling iets anders ligt.. O-) maar goed dat is natuurlijk ook wel een eindeloze discussie voor mij gewoon geen Nv }:O
Ook NVIDIA wilt aardig wat bieden voor een goede prijs, dus ook hier zie ik je punt niet helemaal. En wat Cheetah bedoelt met zijn opmerking ben ik het eigenlijk wel mee eens, je onderbouwt je stelling vrijwel alleen maar met emotionele argumenten, voorbeelden, en vergelijkingen (die vaak kant noch wal raken). Nofi tegen jou, maar het is gewoon zo dat Cheetah zijn stelling beter beargumenteert met bronnen en sterke argumenten ipv. met gevoelsmatige (subjectieve) dingen. Ondanks dat ik Cheetah soms ook een beetje irritant vind met die eeuwige discussie :P

Bovendien zei je op pagina 2 het volgende:
MauSS schreef op woensdag 31 oktober 2007 @ 01:27:
[...]

haha daar hoef je geen sorry voor te zeggen hoor!
maar de mensen die voor een HD3800 zullen gaan kiezen daar bewust voor.
en die hebben voor hunzelf een aantal redenen waarom ze zo'n kaart willen.
en juist geen 8800GT. en dat is aan Nvidia gebruikers niet echt aan het verstand te brengen.
Ati is een beetje in opmars gekomen in het tijdperk dat de tweakers/knutselaars druk in de weer waren met computertjes en die kiezen liever een alternatief (Die het ook goed doet) dan voor iets waar de "massa" achteraan huppelt zo zit het eigenlijk een beetje in elkaar.(altans zo zie ik het bij mij en in mijn omgeving) niet om Nvidia in een ander daglicht te stellen maar omdat Nvidia gewoon bekender is bij de consument/leek.

voorbeeldje: heb een tijdje bij Funprice stage gelopen en dan zag je toch vaak dat "Papa met zoontje van 16" pc ging samenstellen met Nvidia kaart. en dan kwam Groofy de pc-bouwer-tweaker binnenlopen en die wou vragen of zijn bestelde Ati X800XT al binnen was... dat soort voorvallen heb ik best veel gezien daar. is helemaal niets mis mee maar ik denk dat het zo een beetje in elkaar steekt en zit.

(beetje dubbele post explorer liep vast en zag dat ik weer quote)
Hiermee geef je dus eigenlijk aan dat je er een beetje een hekel aan hebt dat mensen blind voor 1 merk kiezen zonder verder te kijken naar andere merken. Vervolgens zeg je zelf dat je absoluut geen NVIDIA kaart wilt maar dat ATi de way-to-go is voor jou. :?

Acties:
  • 0 Henk 'm!

Verwijderd

Woohoow leuke (en leerzame!) discussie wat betreft die redundancy. :)
En toen zei ik dat die redundancy leuk bedacht is, maar dat ze er niks aan hebben omdat de chips niet ver genoeg klokken. Dus je kan zoveel redundancy inbouwen in een chip als je wilt, maar als de chips hun snelheden niet halen heb je er niks aan.
Jij spreekt al direct van ganse chips die de vereiste snelheid niet halen. Is het in werkelijkheid niet zo dat sommige zones wel een bepaalde snelheid halen en sommige zones niet. De zones die de snelheid niet halen, en er toch op geklokt worden, geven foute data terug en worden dan gewoon gezien als defecte zones. Deze worden uitgeschakeld en vervangen door de redundancy die voorzien is. Kortom het inbouwen van redundancy verhelpt net het probleem als de snelheid niet gehaald wordt. (net zoals dat het probleem verhelpt van volledig defecte zones, die sowieso ook bij lage snelheden foute data teruggeven)
Chips die te veel traag klokkende zones hebben om opgevangen te kunnen worden dor redundancy kunnen alsnog als trager geklokte modellen verkocht worden (zoals 6800GT ipv 6800Ultra).

Bon ik weet niet of het waarheid is (misschien ken iemand weerleggen/bevestigen), maar het lijkt me gewoon logisch, en zo heb ik het altijd voorgehad.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
CJ ik heb er ook wel eens over na gedacht hoe snel een R580 op 65nm wel niet zou zijn. Volgens mij zou die echt super snel zijn en zelfs in de buurt van de HD2900 XT komen. Maar door 65nm zou je volgens mij ook wat meer quads er in kunnen hangen dus geen 48 maar bv 72 Shaders of zelfs het dubbele dus 96. Want de R580 was toch ook modulair ? Dan zou je een kaart hebben die zelfs de concurrentie aan kan met de GTS / GTX mja dan inderdaad geen DX10.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Aries.Mu
  • Registratie: Maart 2004
  • Laatst online: 19:20
Astennu schreef op zaterdag 03 november 2007 @ 22:00:
CJ ik heb er ook wel eens over na gedacht hoe snel een R580 op 65nm wel niet zou zijn. Volgens mij zou die echt super snel zijn en zelfs in de buurt van de HD2900 XT komen. Maar door 65nm zou je volgens mij ook wat meer quads er in kunnen hangen dus geen 48 maar bv 72 Shaders of zelfs het dubbele dus 96. Want de R580 was toch ook modulair ? Dan zou je een kaart hebben die zelfs de concurrentie aan kan met de GTS / GTX mja dan inderdaad geen DX10.
Lang leve de R580...

UT3 met mijn bescheiden setup @ 1650*1080 @ 35fps gemiddeld... niet slecht.
Volgens mij een van de beste kaarten die ATI ooit gemaakt heeft.

Om even terug te komen op heel de discussie 8800GT vs HD38xx...
Als de HD38xx nu 10% minder snel blijkt te zijn dan de 8800GT, maar 50euro goedkoper, koeler, stiller enzovoort dan gaan de mensen die gewoon nemen.
Wij tweakers klokken het verschil erbij, en de grote OEM's nemen die kaarten omdat ze goedkoper zijn.

Het is weliswaar zo dat ik graag gehad had dat ATI een megamonsterkaart zou uitbrengen voor 500euro die Nvidia plat zou stampen, maar mss komt die nog :) (4 x RV670 core, who cares about heat? Just be the fastest... dit is wat de mensen willen horen)

Om het nog maar even samen te vatten:

RD790 chipset
Phenom X4
RV670 (2x, 3x of 4x binnenkort)

=== Most bang for buck!

Als wij tweakers beginnen twijfelen aan amd/ati, waar gaat het dan eindigen? Nvidia heeft ook moeilijke tijden gehad, maar ze zijn 5keer zo hard teruggekomen...

Tot zover mijn korte bijdrage...

iPhone 14 Pro Max | Switch Lite | Sony 55A89 | Passat Variant GTE | Tesla MY RWD


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Op de doos van een 8800gt (leadtek) staat gedrukt: ''10-35% faster than R670'' :|

[ Voor 7% gewijzigd door Mr. Detonator op 03-11-2007 22:34 ]


Acties:
  • 0 Henk 'm!

  • MensionXL
  • Registratie: Juni 2004
  • Niet online

MensionXL

Optimaliseren!

Aries.Mu schreef op zaterdag 03 november 2007 @ 22:33:
[...]
UT3 met mijn bescheiden setup @ 1650*1080 @ 35fps gemiddeld... niet slecht.
Volgens mij een van de beste kaarten die ATI ooit gemaakt heeft.
Je bedoelt 1680x1050. ;)
Het is weliswaar zo dat ik graag gehad had dat ATI een megamonsterkaart zou uitbrengen voor 500euro die Nvidia plat zou stampen, maar mss komt die nog :) (4 x RV670 core, who cares about heat? Just be the fastest... dit is wat de mensen willen horen)
Iets met energieverbruik enzo... :')
Om het nog maar even samen te vatten:

=== Most bang for buck!
Voor je energieleverancier ja :P
Als wij tweakers beginnen twijfelen aan amd/ati, waar gaat het dan eindigen? Nvidia heeft ook moeilijke tijden gehad, maar ze zijn 5keer zo hard teruggekomen...

Tot zover mijn korte bijdrage...
Waarom zou twijfel fout zijn? Wat is er zo vreselijk mis aan een Intel? Dit komt gewoon over als pure-fanboyism en dan ga je dezelfde kant op als MauSS; die zegt dat mensen domweg vertrouwde merken kopen maar zelf wilt hij absoluut niks anders dan een AMD kaart. :') (Snap je het zelf nog wel, MauSS? :'))

Of wat is er mis met NVIDIA? Je moet gewoon zelf kopen waar je zin in hebt, maar dan moet je niet komen praten met: Het is dom/fout om merktrouw te zijn... Maar zelf hou je het bij één merk ook al is de concurrentie sneller. :')

Mr. Detonator schreef op zaterdag 03 november 2007 @ 22:34:
Op de doos van een 8800gt (leadtek) staat gedrukt: ''10-35% faster than R670'' :|
Wat had je dan verwacht? Just 10% slower than R670? :')

Iets met marketing enzo... :')
MauSS schreef op zaterdag 03 november 2007 @ 18:15:
[...]

Volgens mij begrijp je het nog steeds niet of wel? ;)
Er zijn ook mensen die geen top-model van Nvidia willen maar kiezen voor prijs/prestatie & features en die hoeven niet persee de snelste en dat is een grote groep die dan voor Ati zal kiezen..
en het hele gedoe rondom Nv vs Ati is denk ik als volgt: Ati wil gewoon aardig wat bieden voor een goede prijs, (tenminste zo staan ze bij mij bekend) het is niet zo dat ze niet beter kunnen ik denk dat het hun doelstelling iets anders ligt.. O-) maar goed dat is natuurlijk ook wel een eindeloze discussie voor mij gewoon geen Nv }:O
Daar hoef je niet trots op te zijn :P Je komt bij mij meer over alsof je bij de 'domme-massa' hoort. :? Je kiest gewoon domweg voor een merk omdat je het wel leuk vindt... :z :')

[ Voor 37% gewijzigd door MensionXL op 03-11-2007 23:04 ]

Goedkoop bellen via VoIP


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Mr. Detonator schreef op zaterdag 03 november 2007 @ 22:34:
Op de doos van een 8800gt (leadtek) staat gedrukt: ''10-35% faster than R670'' :|
RV670. Niet R670. :)

En de grafieken beginnen ook heel suggestief bij 90%, dus dat zegt ook wel weer iets over de echte verschillen.

Afbeeldingslocatie: http://forum.beyond3d.com/attachment.php?attachmentid=300&d=1194015909

Op zich best sneu dat ze de naam RV670 gebruiken. De meeste mensen die zo'n videokaart kopen zullen niet eens weten wat een RV670 is, want die zien alleen maar de uiteindelijke namen... En daarnaast vind ik het nogal onprofessioneel overkomen. Maar goed, dat kan aan mij liggen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Vind het ronduit triest ik hoop dat het voor geen meter klopt zodat ze lekker voor schut staan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • H004
  • Registratie: Maart 2006
  • Laatst online: 28-05 19:55
MensionXL schreef op zaterdag 03 november 2007 @ 22:53:
Waarom zou twijfel fout zijn? Wat is er zo vreselijk mis aan een Intel? Dit komt gewoon over als pure-fanboyism en dan ga je dezelfde kant op als MauSS; die zegt dat mensen domweg vertrouwde merken kopen maar zelf wilt hij absoluut niks anders dan een AMD kaart. :') (Snap je het zelf nog wel, MauSS? :'))
Het verschil zit m in het feit dat Mauss doelt op het feit dat mensen merk X kopen omdat iedereen merk X koopt, omdat merk X bekender is dan merk Y. Mauss koopt merk Y omdat hij daar goede ervaringen mee heeft gekregen en daarom blijft kiezen voor dat merk, omdat hij gewoon een goed gevoel bij dat merk heeft.

Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 13-09 17:07

Krizzie

Progressive Music \o/

H004 schreef op zondag 04 november 2007 @ 01:08:
[...]

Het verschil zit m in het feit dat Mauss doelt op het feit dat mensen merk X kopen omdat iedereen merk X koopt, omdat merk X bekender is dan merk Y. Mauss koopt merk Y omdat hij daar goede ervaringen mee heeft gekregen en daarom blijft kiezen voor dat merk, omdat hij gewoon een goed gevoel bij dat merk heeft.
Juustem. :D

Heb ik dus ook. :)

Geluidswolk


Acties:
  • 0 Henk 'm!

  • Paladin
  • Registratie: Maart 2000
  • Laatst online: 13-09 23:26

Paladin

Play Ball!

hmz ik moet zeggen dat het enige grote voordeel dat ati met de nieuwe RV670 kan hebben, als ie idd trager is dan de 8800gt, is dat de kaart zo goedkoop wordt dat SLI voor een hele hoop mensen opeens wel een optie wordt. En itt tot SLI is Crossfire wel mogelijk op een Intel chipset. En ik denk dat veel mensen toch graag kiezen voor een Intel chipset.

|Yesterday is History, Today is a gift, Tomorrow a Mystery | M3 - LRAWD - Referral-link:https://ts.la/p66085


Acties:
  • 0 Henk 'm!

  • Aries.Mu
  • Registratie: Maart 2004
  • Laatst online: 19:20
Ik ben niet bepaald fanboy van amd/ati, maar wel een anti-monopolist...
Het is ook daarom dat ik altijd amd/ati zal blijven steunen, omdat "wij" het gewoonweg nodig hebben.

(mierenneukmodus): remember P4? Het kon de mensen geen **** schelen dat hij te heet, te duur, te traag was, het was toch intel, dus het moest wel goed zijn...
AMD had toen hun hele budget in marketing mogen stoppen, dan nog had 75% Intel gekocht.
Nu plots is iedereen bezorgd over warmte, verbruik, global warming enzoverder, gewoon omdat ze niets anders horen...
Dit terwijl AMD sinds het begin al energiezuinige en koele processors levert.

En moesten de average consumenten niet gebrainwashed worden door al de propaganda van nvidia en intel - telkens als ze een spel installeren of een programma kopen oid - maar eens zouden kijken naar hun budget en wat ze daadwerkelijk van hun systeem gebruiken, dan zou het er op dit moment heel anders uitzien...

Ik vind het spijtig dat de "massa" gewoon altijd kiest voor wat hun voorgeschoteld word, ipv zelf wat op te zoeken...

En natuurlijk ben ik ook niet zo dom om te blijven kiezen voor AMD/ATI als ze zo achterop blijven.
Maar op dit moment heb ik nog geen enkele reden om over te stappen naar Intel of Nvidia...

Verder was ik gisteren erg moe en waren mijn argumenten grotendeels niet goed verwoord :)

iPhone 14 Pro Max | Switch Lite | Sony 55A89 | Passat Variant GTE | Tesla MY RWD


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Aries.Mu schreef op zondag 04 november 2007 @ 12:05:
[...]


(mierenneukmodus): remember P4? Het kon de mensen geen **** schelen dat hij te heet, te duur, te traag was, het was toch intel, dus het moest wel goed zijn...
dat viel wel mee...ik vind het huidige (c2d>amdx2) verschil veel groter dan in het p4>a64 tijdperk...

en op hogere reso's (1600x1200>) heeft het sowieso altijd weinig uitgemaakt of je nou een p4/a64, of c2d/x2 hebt :)

toen was intel in de meeste multimediabenchmarks beter, en in sommige gavallen zelfs in games...

tegenwoordig is intel zowat overal beter in > veel groter verschil

en dat zie ik met de phenom niet echt veranderen, want de 45nm intel yorkfields staan ook al om de hoek te wachten

[ Voor 17% gewijzigd door Mr. Detonator op 04-11-2007 12:51 ]


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 20:50
Mr. Detonator schreef op zondag 04 november 2007 @ 12:47:
[...]


dat viel wel mee...ik vind het huidige (c2d>amdx2) verschil veel groter dan in het p4>a64 tijdperk...
Nou nee... Je zag dat een 2GHz Athlon 64 een 3GHz Pentium 4 aankon. Kan een 2GHz Core 2 Duo een 3GHz Athlon 64 X2 aan? Nee. Het verschil tussen Core 2 Duo en Athlon 64 X2 is opzich niet zo groot, een 2.8GHz Athlon 64 X2 is denk ik even snel als een Core 2 Duo op 2.4 GHz, wat dus 'maar' 400 MHz verschil is ipv 1000.
Pagina: 1 ... 3 ... 6 Laatste

Dit topic is gesloten.

Let op:
Dit is het ATi Nieuwsdiscussie Topic.
Niet het "Stel-hier-algemene-ATi-vraagjes" topic. Post dus relevant over ATi Nieuwsberichten, benchmarks, mijlpalen, etc en niet "Mijn X1950 wordt heet, welke alternatieve koeler is leuk" e.d.

Verder gewoon lukraak posten dat de ATi HD serie "brak" zou zijn zonder enige vorm van onderbouwing is ook _niet_ de bedoeling. Brandstichten doe je niet.
Ook is dit niet het "Kleine Mededelingen" topic.

Zie ook de startpost voor topicregels.