[Algemeen] ATi Nieuwsdiscussie Topic - Deel 46 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 6.133 views sinds 30-01-2008

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Astennu schreef op donderdag 30 november 2006 @ 13:28:
[...]De Xenos heeft wel 48 4D Shaders. Ik heb trouwens het idee dat dat ED-Ram niet gebruikt wordt om AA mee te berekenen.
Xenos heeft 48 5D shaders. R580 heeft 48 4D shaders.

Xenos: Vec4 + Scalar
R580: Vec3 + Scalar

Het dochtergedeelte van de Xenos waar het eDRAM in zit, heeft ook de logica in zich om AA te doen. Dat is een van de redenen waarom Xenos 4xAA zonder al te grote performance penalty kan doen (max zo'n 4 a 5%).
RappieRappie schreef op donderdag 30 november 2006 @ 14:57:
Zou die R600 ook zulke goeie AF kunnen produceren? Want dat heeft nV wel HEEL goed voor elkaar op dit moment. We hebben het wel aldoor over snelheid, maar what about the IQ? (Dat was/is toch "het belangrijkste" van ATi? ;) )
Dat komt wel goed met de IQ. En wat dat betreft zit ATI al op een goed peil wat betreft IQ. Bij nVidia viel de stap van G71 naar G80 meer op omdat de IQ van de G71 op veel een lager peil stond dan de R580. Bv het shimmeringprobleem was gewoon een voorbeeld van iets wat niet had mogen voorkomen op een high end kaart.

R580:
- tot 6xMSAA
- HiQ AF
- HDR + AA
- hardware matige ondersteuning voor verschillende formaten HDR

Dat zijn allerlei dingen die G80 er bij heeft gekregen, maar die het ATI kamp al een jaar lang had. NVs marketing machine weet het echter zo te brengen dat zij de eersten zijn. Als je het moet inschalen op een schaal van 1 tot 10 wat betreft de balans van IQ (en IQ opties) dan zou je een enkele R580 bv een 8 kunnen geven, terwijl G71 een 6 zou krijgen. G80 is nu richting de 9 gegaan en ATI gaat hier weer over heen. Slechter doen ze niet, dus ga er maar van uit dat er iets interessants aan staat te komen. ;)
RappieRappie schreef op donderdag 30 november 2006 @ 15:21:
[...]

Ik heb net nog ff dat stukje van HWI gelezen, en de G80 heeft idd "gewoon" shaders ipv pipelines zoals ik dacht.

Dus pipelines zoals we die kenden"zijn niet meer"?
Dat is nou net wat ATI al meer dan een jaar de mensen aan hun verstand probeert te peuteren... Shaderpipelines bestaan niet meer! Al sinds de X1600XT en X1900 is ATI afgestapt van het hele shaderpipeline gedoe, sinds die tijd spreken ze daarom van Shaderprocessors. nVidia noemt het natuurlijk net iets anders... bij hun heten ze Streamprocessors, maar ze bedoelen eigenlijk het zelfde.

Alles is los gekoppeld. Pipelines zoals we die vroeger kenden, bestaan niet meer.
Hacku schreef op donderdag 30 november 2006 @ 15:29:
[...]


nVidia ook. Juist daarom verwacht ik zeker geen 50% boost van de R600 over de G80. De chip is 4 jaar in ontwikkeling, deze zomer hadden ze de eerste samples, kortom een chip die zo goed als klaar is.
4 jaar is bijna net zo lang als ATI. ATI begon in 2001 met de R400, wat later evolueerde in de Xenos en R600. Wist je trouwens dat er binnen ATI mensen waren die van R520 al een unified architecture wilden maken?
Pas in oktober wordt de G80 performance bekend gemaakt en op die paar maanden tijd kan ATI onmogelijk die chip zo gaan aanpassen dat het plots een monster wordt.
De performance van G80 was al wel een tijd terug gelekt en ik neem aan dat dat soort dingen slecht geheim blijven, zeker gezien het feit dat er veel nV medewerkers bij ATI werken, maar ook omgekeerd. Ook al weet men niet precies wat er aan gaat komen, ik denk dat het beeld wat men heeft van de concurrentie wel vrij nauwkeurig is.
ATI heeft inderdaad reeds ervaring met unified shaders maar dat geldt ook voor nVidia, aangezien de G80 ook zo'n 4 jaar in ontikkeling is. ATI heeft wel voordeel met het 80nm procédé om daarmee waanzinnige kloks te halen (700 MHz ?) maar het blijft opvallend dat ATI steeds hogere kloks nodig heeft om minimaal dezelfde performance van nVidia te halen.
Of 80nm (High Speed) nou zo'n voordeel is, weet ik niet. ATI's trackrecord met het klokken van GPUs is niet zo goed (op R300 na dan). R420 stond ook eerst gepland voor 600Mhz. Wel een voordeel is dat dit de tweede generatie unified is voor ATI en dat veel gamedevelopers al voor ATI unified hardware hebben geprogrammeerd namelijk voor de Xbox360.

Overigens ben ik het niet eens met de stelling dat ATI steeds hogere kloks nodig heeft om minimaal dezelfde performance van nVidia te halen. Dan kijk je puur naar de kloksnelheid en niet naar het aantal bewerkingen die gedaan kunnen worden per klokslag.

Neem als voorbeeld R420 vs NV40 of R520 vs G70. De shader engines in de kaarten van nV konden meer bewerkingen aan per klokslag, waardoor een lagere kloksnelheid nodig was. Bij G70 kwam daarnaast nog eens het feit dat deze 8 fragment pipelines meer had. R520 moest dus hoger geklokt worden om dezelfde performance te halen en nog iets hoger om sneller te zijn. Maar daarnaast had de R520 wel betere IQ.

Bij R580 veranderde de boel weer. ATI maakte de shaderpipelines breder. In vergelijking met de gelijk geklokte G71, wint de R580 de meeste DX9 benchmarks. Dus hier gaat het al niet op dat ATI steeds sneller geklokte kaarten moet hebben om nV bij te houden.

Waarom denk je dat G80 z'n shaders op 1350Mhz heeft geklokt en niet op 675Mhz? De shaderengines zijn simpeler geworden, dus moeten ze sneller draaien om meer performance te leveren. Als R600 inderdaad 96 shaders heeft die allemaal 4D (of zelfs 5D) zijn ipv de 1D (scalar) shaders van de G80, dan zou R600 helemaal geen hogere snelheid hoeven te hebben om de G80 te verslaan. Als de geruchten van 700Mhz echt waar zijn... dan is de performance van de R600 echt through-the-roof, wat ik dus eigenlijk niet verwacht.

De eerste geruchten berichten over een R600 die niet sneller wilde draaien dan 400Mhz. Deze zou dan moeite hebben met de G80. Volgens diezelfde geruchten was het doel zo'n 600Mhz en zou deze de G80 met gemak omver moeten blazen. Deze geruchten kwamen uit dezelfde geruchtenmachine die een paar maanden voor de launch de exacte 3DM06 scores van G80 goed bleek te hebben. Klokt ATI de R600 op zo'n 500Mhz dan verwacht ik dat het steeds stuivertje wisselen is met de G80.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Anoniem: 23009 schreef op donderdag 30 november 2006 @ 16:20:
[...]


what heb ik nou weer gedaan, als ik hier niet welkom bent, zeit dat dan.!!! :')
Toch heeft hij gelijk want het valt me ook op. Je post gewoon teveel in de zin van "ATI is de beste" en alles daarrond. De R600 _moet_ wat jou betreft sneller zijn enzovoort. Ik lees liever een interessant topic dan steeds van dezelfde user te moeten lezen "woot, ATI dit dat".
Anoniem: 23009 schreef op donderdag 30 november 2006 @ 16:27:
sja ach als jullie zo over me gaan denken dan ga ik toch ergens anders heen ;) see ya. of dat die belemmmering van die nVidiots van een pagina terug wel mag dan?
sorry maare ik heb hier geen zin meer in. schiet dan liever een kogel door me hoofd, dan is iedereen van me af.
Loop je altijd weg als mensen je een opmerking geven? Als mensen zich storen aan jouw posts moet je dat inzien en er wat aan doen. Kom op zeg, je bent 30 jaar niet? Gedraag je er dan ook naar.
Ik ben een 3dfx / ATi fan oke dat mogen jullie best weten maar zeg niks dat ik een heken aan de lui die een NV kaart hebben dat is hun optie niet de meine en ook niet van een andre die weer wat anders heeft.
Niemand zegt toch dat jij een hekel hebt aan nVidia mensen? Het gaat er gewoon om dat mensen zich aan jouw posts storen. Heeft helemaal niks met fanboy gehalte te maken.

[ Voor 86% gewijzigd door XWB op 30-11-2006 16:49 ]

March of the Eagles


Anoniem: 23009

sja ach als jullie zo over me gaan denken...

kan ik beter uit het raam gaan springen heb het al een paar keer geprobeerd, maar dat lost dingen ook niet meer op, maar soms denk ik dat ik dan uit de weg bent van anderen, maar zoals genoemd heeft dat geen zin, dit soort gebeure heb ik vaak als alles op me afkomt, kijk aub daarmee uit.

Ik ben een 3dfx / ATi fan oke dat mogen jullie best weten maar zeg niks dat ik een heken aan de lui die een NV kaart hebben dat is hun optie niet de meine en ook niet van een andre die weer wat anders heeft.

ieder heeft zijn eigen plekje

[ Voor 135% gewijzigd door Anoniem: 23009 op 30-11-2006 16:34 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
De eerste geruchten berichten over een R600 die niet sneller wilde draaien dan 400Mhz. Deze zou dan moeite hebben met de G80.
Met 64 of 96 shaders?
Wist je trouwens dat er binnen ATI mensen waren die van R520 al een unified architecture wilden maken?
Ja, alleen was de markt er nog niet klaar voor.

[ Voor 200% gewijzigd door XWB op 30-11-2006 16:50 ]

March of the Eagles


  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Ik ben het wel met CJ's post eens op een paar dingen na:

1: Over die Xbox. het lijkt of AA niet werkt. Ligt denk in aan de game Defs maar op de pc heb ik gewoon scherper beeld met minder kartel randen.

2: ATi mag de IQ van de HQ AF ook iets verbeteren op dit moment is die van Nvidia iets beter. Hopelijk maken ze er een optie bij dat de IQ op het zelfde niveau komt.

3: De clock speeds zouden een probleem kunnen zijn. Echter denk ik dat de R600 op 500 MHz geen 225 watt nodig zou hebben. Dit is dezelfde clockspeed als de Xenox. Alleen de core heeft het dubbele aantal shaders en een ringbus + grote memory controller. Maar is wel op 80nm.

Maar 500 MHz zou dan idd krap aan worden. Echter denk ik dat die clock speeds wel iets hoger zijn. Maar ATi moet denk ik wel rekening houden met de G81. Dat zal wel een G80 zijn met hogere clocks. Dus het gaat nog spannend worden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Anoniem: 23009

Hacku schreef op donderdag 30 november 2006 @ 16:31:
[...]


Met 64 of 96 shaders?


[...]


Loop je altijd weg als mensen je een opmerking geven? Als mensen zich storen aan jouw posts moet je dat inzien en er wat aan doen. Kom op zeg, je bent 30 jaar niet? Gedraag je er dan ook naar.
ligt er aan hoe die opmerking overkomt, en ja het klonk allemaal erg negatief en dank ik van dat is niet zo mooi dan, dan loop ik liever een andere kant op.

Heb genoeg ellende aan me hoofd en ja nu maar hopen dat ik niet op gespoord wordt, ben namelijk bang van mensen waaar ook een ellendige reden achter zit.

[ Voor 41% gewijzigd door Anoniem: 23009 op 30-11-2006 16:42 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Anoniem: 23009 schreef op donderdag 30 november 2006 @ 16:38:
[...]


Mja die opmerking slaat gewoon nergens op, ik krijg weer deschuld as usual, terwijl het niet ergs is geweest dat gedoe van die NV poppen die op me zaten te blaten wordt wel geaccepteerd en omdat ik iets leuk vind mag het dan weer niet, sorry maare ooit gehoord van het genieten van je leven terwijl dat nog kan?
Wat hebben NV poppen hier nou mee te maken? Ik zei juist dat je posts storend zijn omdat 80% daarvan wel iets bevat in de zin van "woot, ATI is super". Moet dat nou echt in zoveel posts staan?
Heb genoeg ellende aan me hoofd en ja nu maar hopen dat ik niet op gespoord wordt, ben namelijk bang van mensen waaar ook een ellendige reden achter zit.
En geven jouw persoonlijke problemen dan het recht om je hier in een technisch discussie topic uit te leven?

[ Voor 17% gewijzigd door XWB op 30-11-2006 16:43 ]

March of the Eagles


Anoniem: 23009

Hacku schreef op donderdag 30 november 2006 @ 16:41:
[...]


Wat hebben NV poppen hier nou mee te maken? Ik zei juist dat je posts storend zijn omdat 80% daarvan wel iets bevat in de zin van "woot, ATI is super". Moet dat nou echt in zoveel posts staan?
hoeveel posts staat dat als ik vragen mag?

Of dat ik perfect moet zijn om hier te posten begint het wel erg op te lijken heh?
Fouten maken mag dat niet is dat nou zo'n belemmering?

Als je het echt wil weten waarom ik ATi Must Live On geschreven hebt was een eind zin van mijn post als antwoord voorfrankknopers was meer niet oftewel deze post van hem :)
frankknopers schreef op woensdag 29 november 2006 @ 21:43:
[...]

Dat ziet er zeker strak uit, join the Crossfire family ;) Door met een X1950 CF te draaien heeft de master een beetje het overwicht, wat alleen maar goed kan zijn. Ik draai zelf met 2x X1900 (XTX & CF), maar ik heb nog wel wat kleine probleempjes met Crossfire.

Met Catalyst 6.10 was de performance in Farcry echt bagger (lees: 10-20FPS), en kreeg ik in CoD2 vreemde verkleuringen aan de onder en rechterzijde van het scherm. Nou heb ik Catalyst 6.11 erop staan, maar nu geeft 3DMark06 weer problemen, namelijk dezelfde verkleuring op het scherm als in CoD2.

Het lijkt erop dat er bij elke driver-release weer wat games worden gefixed, en dat daar weer nieuwe problemen voor in de plaats komen.

Games die wél erg lekker draaien in CF zijn NFS Carbon en Company of Heroes, maar ik had eigenlijk wel verwacht dat Crossfire in elke game goed zou werken (techniek bestaat immers al sinds de R4xx serie).

Nou is mijn vraag aan jou of jij ook problemen ondervindt met een spel of grafische benchmark. Ik begin namelijk steeds meer te twijfelen aan software problemen, ik denk dat er iets mis is met mijn crossfire dongle.

Anyways, veel plezier met je CF setup. ATi is the way to go. 8) :+

Plaatje - Thumbnail
en ja dat lees ik en daar zeg ik gewoon wat op terug, dus dat mag dan ook jiet?

Doe AUB niet zo vreemd, dat ben ik niet gewend van hier.

[ Voor 80% gewijzigd door Anoniem: 23009 op 30-11-2006 16:48 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Anoniem: 23009 schreef op donderdag 30 november 2006 @ 16:42:
[...]


hoeveel posts staat dat als ik vragen mag?
Dat weet je zelf wel, lees het topic eens door. Of ga je nu al je posts wijzigen?
Of dat ik perfect moet zijn om hier te posten begint het wel erg op te lijken heh?
Fouten maken mag dat niet is dat nou zo'n belemmering? heh
Niemand is perfect, er wordt gewoon gevraagd om wat op je posts te letten. Maar in plaats van dat te doen zie je dat als een flame en ga je door het lint, je voelt je niet meer welkom enzovoort.
nee ja ik vind het niet gek dat ik me zo voelt het kwam gewoon erg naar over meer niet, net als ik zei ben bang van mensen die op me te veel letten die niet eens mods zijn. maar als ik ze moet wijzigen of verwideren dan doe ik dat wel no problems
Je hoeft ze niet te wijzigen, je moet er gewoon wat op letten in de toekomst. Zeg nou zelf, als iedereen hier "ati is super, ati dit, dat, ..." gaat posten dan hebben we toch helemaal niks maar aan dit topic en is het totaal niet interessant meer om hier te komen. En daarom hebben we niks tegen jou ofzo hoor, dus voel je zo niet aangevallen.

[ Voor 33% gewijzigd door XWB op 30-11-2006 16:55 ]

March of the Eagles


Anoniem: 23009

nee ja ik vind het niet gek dat ik me zo voelt het kwam gewoon erg naar over meer niet, net als ik zei ben bang van mensen die op me te veel letten die niet eens mods zijn, maargoed die post zijn nu gewijzigd was idd een beetje over teh nipple.

[ Voor 18% gewijzigd door Anoniem: 23009 op 30-11-2006 16:53 ]


  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 20:00
Anoniem: 23009 schreef op donderdag 30 november 2006 @ 16:49:
nee ja ik vind het niet gek dat ik me zo voelt het kwam gewoon erg naar over meer niet, net als ik zei ben bang van mensen die op me te veel letten die niet eens mods zijn. maar als ik ze moet wijzigen of verwideren dan doe ik dat wel no problems
Dude, je hoeft niet alles te verwijderen/veranderen, het is meer voor in de toekomst bedoeld. Het is en blijft toch echt een topic bedoeld voor ATi Nieuwsdiscussie, en tuurlijk zijn jouw posts leuk en ik ben blij voor je dat je je X1950 CF editie hebt, maar dat is niet veel nieuwsdiscussie... Het is niet een nieuwe kaart, en je kan er ook niet over discussieren... Dus let er dan voortaan een beetje op in de toekomst.

Anoniem: 23009

Zal ik wel doen ja, maar goed ben ook erg deprisief geweest van rare dingen van vroeger enzo dus ja sorry voor het ongemak. Het is wel gefixxed als een andere die pagina leest dan zien ze het overtollige niet.

Mijn excusses voor het ongemak.

[ Voor 44% gewijzigd door Anoniem: 23009 op 30-11-2006 16:58 ]


Anoniem: 107573

Ik denk niet dat het verstandig is om Obi-Wan hier verder terecht te blijven wijzen. Deze man heeft duidelijke problemen imho. En als hij dan ook nog is wordt " aangevallen" in dit topic, waar hij zich denk ik gewoon veilig voelt, is dat voor hem waarschijnlijk een behoorlijke klap.

Het enige wat er van je gevraagd wordt ( en op een nette manier ), is om je posts niet te laten doordrenken van een al te hoog Ati rulezzz gehalte, want hoewel dit natuurlijk een Ati topic is, er komen hier niet alleen Ati fanboys. Ik blijf zelf ook graag op de hoogte van de laatste ontwikkeling uit het Ati kamp.

  • biobak
  • Registratie: Augustus 1999
  • Laatst online: 19:06
Anoniem: 107573 schreef op donderdag 30 november 2006 @ 17:00:
En als hij dan ook nog is wordt " aangevallen" in dit topic, waar hij zich denk ik gewoon veilig voelt, is dat voor hem waarschijnlijk een behoorlijke klap.
Aangevallen vind ik erg overdreven. Iemand wijst hem terecht en met een valide reden. Er zijn gewoon topicregels en er staat een waarschuwing onder elke pagina. Daar moet iedereen zich gewoon aan houden want anders gaat dit topic straks ook (tijdelijk) op slot net als het 8800 topic. Dat zou erg zonde zijn.

Anoniem: 23009

@ everyone

ja idd heb er zelf ook over nagedacht het kwam me wel erg geschrokken over heb ook alles gewijzigd enzo. maargoed ben ook graag op de hoogte van Nvidia hoor dat is het niet :) Ik ging uiteraard iets te ver in het Rode kamp gebeure zal ik maar zeggen.

[ Voor 5% gewijzigd door Anoniem: 23009 op 30-11-2006 17:27 ]


Anoniem: 107573

biobak schreef op donderdag 30 november 2006 @ 17:24:
[...]

Aangevallen vind ik erg overdreven.
Daarom zette ik het ook tussen aanhalingstekens. Wij interpreteren het waarschijnlijk niet zo, maar hij misschien juist wel.

Back on-topic :)

  • Oet
  • Registratie: Mei 2000
  • Laatst online: 20-04 18:01

Oet

[DPC]TG & MoMurdaSquad AYBABTU

The Source schreef op woensdag 29 november 2006 @ 19:27:
http://www.dailytech.com/article.aspx?newsid=5127
RD600, nog 2 weekjes...

Post ik hier, want dit is het laatste (intel) chipset van ATI, rest zal allemaal AMD genaamd worden en past wellicht beter in AMD topic.
Zei je niet een tijdje terug dat ASUS ook met een RD600 bord zou komen? Is daar al nieuws over?

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Even snel tussendoor, viel me best tegen imho, maar ATi had geadverteerd met Dynamic Voltage Control op de X16x0-series... nu lees ik dus in een aantal reviews dat dat dus niét zo is...

Wilde ik daar net op overstappen *wegens SM3.0* maar dan kan dat weer niet, en een beetje extra sap is altijd welkom met titels als SC:DA op het oog.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Jejking schreef op donderdag 30 november 2006 @ 18:51:
Even snel tussendoor, viel me best tegen imho, maar ATi had geadverteerd met Dynamic Voltage Control op de X16x0-series... nu lees ik dus in een aantal reviews dat dat dus niét zo is...

Wilde ik daar net op overstappen *wegens SM3.0* maar dan kan dat weer niet, en een beetje extra sap is altijd welkom met titels als SC:DA op het oog.
Volgens mij hebben alleen de X18xx en de X19xx serie dat. Maar waarom geen X1950 Pro kaartje ? Die is maar iets duurder dan een X1650 XT en heeft aanzienlijk meer power. En een 256 Bit bus :P En dat voor 180 euro. Echt veel power voor je geld.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • winwiz
  • Registratie: September 2000
  • Laatst online: 19:33
Je hebt grote kans dat ze de R600 zo klokken dat hij in kale snelheid iets trager is dan de G80 en met de IQ aan een paar procent sneller. Waarschijnlijk kan hij best wel een tandje harder, maar waarom zouden ze. Als de G81 uitkomt doen ze een speedbump en je hebt weer een nieuwe kaart en gegarandeerd mensen die weer overstappen.......... weer extra centjes.......

Nee misschien wel potentie om veel sneller te zijn maar ik zie het niet gebeuren

zoals
7800 - 1800
7900 - 1900

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Anoniem: 23009

oke lekker terug al dat na denken enzo heeft wel geholpen idd, , wat ik me nou afvraag is, zou er nou ook een AGP versie van de R600 komen?

Bedoel, zodat de mensen die nog AGP hebben en dat zijn er best nog een boel, dat die ook lekker Vista met de glorie van DX10 op hun AGP setjes kunnen beleven.
Ik neem aan dat er genoeg Athlon64/Opteron/Pentium4 bordjes die makkelijk met DX10 om zouden kunnen gaan maar de vraag is kan AGPx8 dit ook aan?

Dus de kaart zou dan bevoorbeeld AMD ATi Radeon X2800 Pro AGP 256MB/512MB GDDR3/GDDR4?
Dat zu ook erg chill zijn voor de mensen die nog AGP hebben want sociaal gezien zijn die systemen nog sterk zat :)

[ Voor 18% gewijzigd door Anoniem: 23009 op 30-11-2006 21:41 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
winwiz schreef op donderdag 30 november 2006 @ 21:24:
Je hebt grote kans dat ze de R600 zo klokken dat hij in kale snelheid iets trager is dan de G80 en met de IQ aan een paar procent sneller. Waarschijnlijk kan hij best wel een tandje harder, maar waarom zouden ze. Als de G81 uitkomt doen ze een speedbump en je hebt weer een nieuwe kaart en gegarandeerd mensen die weer overstappen.......... weer extra centjes.......

Nee misschien wel potentie om veel sneller te zijn maar ik zie het niet gebeuren

zoals
7800 - 1800
7900 - 1900
Zou kunnen. De R520 had er eerder moeten zijn maar was gewoon te laat. Het zou kunnen dat de R650 rond de tijd van de G81 komt.
Anoniem: 23009 schreef op donderdag 30 november 2006 @ 21:39:
oke lekker terug al dat na denken enzo heeft wel geholpen idd, , wat ik me nou afvraag is, zou er nou ook een AGP versie van de R600 komen?

Bedoel, zodat de mensen die nog AGP hebben en dat zijn er best nog een boel, dat die ook lekker Vista met de glorie van DX10 op hun AGP setjes kunnen beleven.
Ik neem aan dat er genoeg Athlon64/Opteron/Pentium4 bordjes die makkelijk met DX10 om zouden kunnen gaan maar de vraag is kan AGPx8 dit ook aan?

Dus de kaart zou dan bevoorbeeld AMD ATi Radeon X2800 Pro AGP 256MB/512MB GDDR3/GDDR4?
Dat zu ook erg chill zijn voor de mensen die nog AGP hebben want sociaal gezien zijn die systemen nog sterk zat :)
Nope. Je ziet nu al dat snellere PCI E busses helpen hogere fps te halen laat staat met dit soort kaarten. En het stroomverbruik wordt dan veel te hoog. En moet je speciale voedingen hebben die extra veel op die losse 12v lijnen kunnen leveren. Dat is denk ik ook de rede dat de G80 2 losse heeft. Dan moet je dus wel 2 apparte lijnen pakken.

Heel misschien komt er wel een low / Mid range kaart. Die net iets sneller is dan de X1950 Pro. Maar dat zal misschien nog wel een jaar of langer duren. Zo i Zo in het begin alleen maar high end.

[ Voor 4% gewijzigd door Astennu op 30-11-2006 21:58 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Thandor
  • Registratie: Juni 2002
  • Laatst online: 21:24

Thandor

SilverStreak

Er is dan ook nog maar de vraag of een nóg snellere AGP kaart nodig is. De ATi Radeon X1950Pro AGP is een interessante kaart voor mensen met nog een AGP slot. Maar het kopen van dergelijke kaarten kan een flinke pil zijn wat geld betreft. Immers koopt men dan een goede kaart voor een oud platform. Eenmaal die snelle AGP kaart in huis kun je de rest van het systeem niet meer upgraden omdat er praktisch geen snellere / betere AGP moederborden (waar ook de moderne processoren op passen) meer beschikbaar zijn. Ik denk dat de X1950Pro AGP (en evt. vergelijkbare kaarten) een leuke "afsluiter" zijn voor het AGP platform :).

Diegene die nóg snellere graphics nodig hebben zouden hoogstwaarschijnlijk ook een snellere processor nodig hebben. Voor de snelste processoren van AMD en Intel is een modern moederbord met een nieuwe chipset en uiteraard een PCIe interface geen overbodige luxe.

Profiel | https://thandor.net - hardware
And the rest of us would be carousing the aisles, stuffing baloney.


  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Thandor schreef op donderdag 30 november 2006 @ 22:09:
Er is dan ook nog maar de vraag of een nóg snellere AGP kaart nodig is. De ATi Radeon X1950Pro AGP is een interessante kaart voor mensen met nog een AGP slot. Maar het kopen van dergelijke kaarten kan een flinke pil zijn wat geld betreft. Immers koopt men dan een goede kaart voor een oud platform. Eenmaal die snelle AGP kaart in huis kun je de rest van het systeem niet meer upgraden omdat er praktisch geen snellere / betere AGP moederborden (waar ook de moderne processoren op passen) meer beschikbaar zijn. Ik denk dat de X1950Pro AGP (en evt. vergelijkbare kaarten) een leuke "afsluiter" zijn voor het AGP platform :).

Diegene die nóg snellere graphics nodig hebben zouden hoogstwaarschijnlijk ook een snellere processor nodig hebben. Voor de snelste processoren van AMD en Intel is een modern moederbord met een nieuwe chipset en uiteraard een PCIe interface geen overbodige luxe.
Idd Het zou voor mensen met een S939 AGP plank wel interessant zijn maar voor alle andere is een X1950 Pro al een beetje overkill. Zo i zo als je een R600 wil en kan betalen kun je ook wel een pci E mobo betalen eventueel inc cpu en ram. Maar als je een S939 plank hebt kun je makkelijk een goedkoop PCI E plankje kopen.

[ Voor 7% gewijzigd door Astennu op 30-11-2006 22:18 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Anoniem: 23009

ja ook aangezien me buurman nog met S754 werkt en wil toch voor een leuke upgrade is zo'n X1950 Pro AGP wel de moeite waard :) voor Call of Duty2 is dat geneog hehe dat doet hij toch meestal als hij vrijetijd heeft :)

Maare idd jullie hebben gelijk hehe het zou de arme AGP bus niet veel liefs doen hehe :X

[ Voor 17% gewijzigd door Anoniem: 23009 op 30-11-2006 23:14 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 29-04 23:32

edward2

Schieten op de beesten

Als ATI idd met een 512 bit brede bus komt met snel GDDR4 geheugen geeft dat mij al een indicatie
van de perf. Zo'n massa bandbreedte rechtvaardigt een monster GPU.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Ik weet bijna zeker dat er geen AGP versie komt van de R600 serie. In een artikel van Tomshardware heeft men eens bekeken hoe de CPU zich tot een highend GPU verhoudt. In die test was de 8800 serie opgenomen, alsmede de highend van de vorige generatie (7900GTX & X19...XTX).

De conclusie was dat de G80 pas goed tot zijn recht kwam bij een Intel Core 2 Duo X6800 of een andere gelijkgeklokte Conroe CPU. Met een van de snelst denkbare AGP systemen (AMD FX-60) ben je vaak tot 1600x1200 CPU limited, en niet zo'n beetje ook. De resultaten op deze pagina laten dat verschil duidelijk zien.

En aangezien er geen serieuze AGP moederborden meer ontwikkeld worden zul je het moeten doen met wat er nu in de markt ligt.

Conclusie is: De meeste AGP systemen (inclusief de highends als de FX-60 en de Intel 965 (3,73GHz)) gewoonweg te weinig CPU power kunnen leveren om de R600 rendabel te maken.

Wat ik wél waarschijnlijk acht, is dat er een AGP versie komt van de midstream R6xx videokaarten, zoiets als X2600 ofzo. Hiermee voorzie je een AGP systeem van technieken als SM4.0, DX10, Avivo, HDR rendering enz, zonder dat je een hoop GPU performance laat liggen. :)

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
FX 60 is meer dan snel genoeg. Als je kijkt naar de min fps is er bijna geen verschil. ( bij de meeste games ) en is de VGA kaart nog steeds de bottelnek. Als je met AA en AF speeld zeker op resoluties boven de 1600-1200. En wat boeit het nu of je 100 of 150 FPS hebt. 60 is meer dan genoeg. Het gaat om de Min FPS die gewoon boven de 40 moet blijven. En dat is vaak moeilijk genoeg vooral in nieuwe games.

Maar idd een Singel core P4 zonder HT @ 2.4 Ghz is niet veel soeps.

Maar ik zal het gaan testen zodra ik mijn R600 heb. want ik heb dus ene Opteron 165 die 1800 kan en ga vandaag kijken wat me Opteron 170 kan. Maar dan test ik ook wel even FX 60 speeds. En kijken of het wat verschil maakt tussen 1.8 GHz en 2.8 GHz. Ik verwacht in games geen giga verschillen. Alleen in de max FPS.

[ Voor 25% gewijzigd door Astennu op 01-12-2006 09:22 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 23009

hmm ik dacht dat de FX60 net als de 185 was aka 2x 2.6Ghz hehe, alleen dat de Opteron 185 een mindere stroom verbruik heeft en dat die unlocked zijn dus ook lekkerder op te voeren :)

Maare idd das well een goed id Astennu kijken of het nog wel uit maakt qua CPU types en die X2600 AGP lijkt me ook wel een intressant ontwerp.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Anoniem: 23009 schreef op vrijdag 01 december 2006 @ 09:40:
hmm ik dacht dat de FX60 net als de 185 was aka 2x 2.6Ghz hehe, alleen dat de Opteron 185 een mindere stroom verbruik heeft en dat die unlocked zijn dus ook lekkerder op te voeren :)

Maare idd das well een goed id Astennu kijken of het nog wel uit maakt qua CPU types en die X2600 AGP lijkt me ook wel een intressant ontwerp.
Je hebt ook gelijk :) Die va nmij clockt tot 2800. Dus FX 62 speeds. Alleen er is nooit een FX 62 voor S939 geweest.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Astennu schreef op vrijdag 01 december 2006 @ 09:14:
FX 60 is meer dan snel genoeg. Als je kijkt naar de min fps is er bijna geen verschil. ( bij de meeste games ) en is de VGA kaart nog steeds de bottelnek. Als je met AA en AF speeld zeker op resoluties boven de 1600-1200. En wat boeit het nu of je 100 of 150 FPS hebt. 60 is meer dan genoeg. Het gaat om de Min FPS die gewoon boven de 40 moet blijven. En dat is vaak moeilijk genoeg vooral in nieuwe games.
Nu misschien nog wel ja.

De spellen van nu halen nog wel voldoende FPS met een FX-60 of iets soortgelijks. Maar wat als de DirectX10 games eraan komen? De CPU bepaalt dan bijna volledig je FPS, en met de toekomstige spellen zal dat vrij snel onder de gewenste 60FPS gaan zakken. Dus wat is dan nog het nut van een (te) snelle GPU als de processor de framerate beperkt.
Maar ik zal het gaan testen zodra ik mijn R600 heb. want ik heb dus ene Opteron 165 die 1800 kan en ga vandaag kijken wat me Opteron 170 kan. Maar dan test ik ook wel even FX 60 speeds. En kijken of het wat verschil maakt tussen 1.8 GHz en 2.8 GHz. Ik verwacht in games geen giga verschillen. Alleen in de max FPS.
Ik ben eveneens van plan een R600 te kopen, mits deze aan de verwachtingen voldoet (dat houdt in dat de R600 tov de 8800GTX sneller is, niet (veel) duurder is, en een aanvaardbaar stroomverbruik heeft). ;)

Ik ben benieuwd wat voor framerates je haalt met de verschillende CPU's op een realistische resolutie van 1280x1024 met 4xAA/8xAF.

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Ik denk dat met DX 10 games je GPU just belangrijker wordt. Er zullen ook wat games komen die gebruik gaan maken van Dual core en zelfs Quad core. dus het verschil wordt wel groter als je nog geen Dual/Quad core hebt. Maar ik denk niet dat het verschil Dual core 2.0 of Dual core 2.6 heel veel uitmaakt. Het aantal cores wel.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Milmoor
  • Registratie: Januari 2000
  • Laatst online: 22:38

Milmoor

Footsteps and pictures.

frankknopers schreef op vrijdag 01 december 2006 @ 09:51:
[...]
De CPU bepaalt dan bijna volledig je FPS, en met de toekomstige spellen zal dat vrij snel onder de gewenste 60FPS gaan zakken. Dus wat is dan nog het nut van een (te) snelle GPU als de processor de framerate beperkt.
[...]
Ik ben benieuwd wat voor framerates je haalt met de verschillende CPU's op een realistische resolutie van 1280x1024 met 4xAA/8xAF.
Wat realistisch is, en wat de beperkende factor is, is ontzettend persoonsgebonden. Ik ben naar een nieuwe videokaart aan het kijken, en mijn conclusie is juist dat de CPU nauwelijks uitmaakt aangezien de GPU de beperkende factor is. Maar ik wil dan ook op 1900x1200 spelen.

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Nieuwste R600 gerucht...

De eerste samples van R600 scoren rond de 10800 punten in 3DM06 op.... de snelste AMD hardware die er op dit moment uit is.... G80 scoort zo rond de 9900 punten op de snelst beschikbare AMD hardware op dit moment en is iets sneller op Intel hardware. Dwz dat R600 op de snelste Intel CPU die op dit moment verkrijgbaar is nog beter zou moeten kunnen presteren.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
CJ schreef op vrijdag 01 december 2006 @ 11:54:
Nieuwste R600 gerucht...

De eerste samples van R600 scoren rond de 10800 punten in 3DM06 op.... de snelste AMD hardware die er op dit moment uit is.... G80 scoort zo rond de 9900 punten op de snelst beschikbare AMD hardware op dit moment en is iets sneller op Intel hardware. Dwz dat R600 op de snelste Intel CPU die op dit moment verkrijgbaar is nog beter zou moeten kunnen presteren.
Klopt 3dmark is een erg slechte test. Vooral omdat de cpu score mee genomen wordt in de test. En die score is 1/3e van je totaal. Je zou die cpu score niet mee moeten testen. en dan op 1600-1200. Dan krijg je denk ik een beter beeld. Maar dus 900 Punten meer. Dat is geen dikke overwinning. Dan zal het wel weer een beetje om en om zijn in welke game welke kaart beter presteerd. De vraag is wel of dit de final versie van de R600 is. Er zijn al G80 scores waar 13k wordt gehaald. Dat is dan wel met een quad core cpu. Dus geen goede vergelijking. Kan best dat er 2000 punten bij komen doordat er een quad core gebruikt wordt ipv een dual core.

Ik ben heel benieuwd naar de vergelijking van een 2800 MHz AMD vs een 3600 MHz Intel met 3dmark. En dan alleen de SM 2.0 en SM 3.0 scores en die cpu test niet bekijken. Volgens mij scheelt dat niet veel in FPS.

En nu is de vraag of nvidia snel met een G81 komt die weer net wat sneller is. En hoe presteren de kaarten in DX 10.

[ Voor 12% gewijzigd door Astennu op 01-12-2006 12:00 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
zoals verwacht wordt ie dus waarschijnlijk iets van 5-10% sneller (wie zei ook alweer 50% ? )

nou de IQ nog :) (en het overklok-potentieel natuurlijk)
Astennu schreef op vrijdag 01 december 2006 @ 11:58:
[...]

En nu is de vraag of nvidia snel met een G81 komt die weer net wat sneller is. En hoe presteren de kaarten in DX 10.
als bovenstaande klopt, hebben ze aan een tweede revisie g80 ook al genoeg :X

[ Voor 74% gewijzigd door Mr. Detonator op 01-12-2006 12:14 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Misschien is de R600 wel op een Quad core (4x4) AMD getest. Welke core wss hoger scoort in 3DMark06, wat weer extra winst oplevert in de eindscore...

Weet je op wat voor core hij is getest CJ? Dual Core X2 of 4x4?

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • catfish
  • Registratie: December 2000
  • Laatst online: 01-05 09:33
frankknopers schreef op vrijdag 01 december 2006 @ 08:22:
...
Wat ik wél waarschijnlijk acht, is dat er een AGP versie komt van de midstream R6xx videokaarten, zoiets als X2600 ofzo. Hiermee voorzie je een AGP systeem van technieken als SM4.0, DX10, Avivo, HDR rendering enz, zonder dat je een hoop GPU performance laat liggen. :)
Daar zou ik niet op wedden hoor, je hoort nu al van alle kanten dat de huidige AGP kaarten maar in beperkte reeksen worden gemaakt, maw na enkele weken/maanden stijgt de prijs zelf!

de kaartbakkers zijn gewoon bang om met een overschot aan AGP kaarten te zitten die zo nooit meer kwijtraken (en ik geef ze daar groot gelijk in)
voor die paar tweakers die in 2007 nog hun AGP kaart willen upgraden loont het gewoon niet om nog een kaart te ontwerpen + productie + distributie
als de aantallen te klein zijn, wordt de prijs gewoon te hoog (je ziet nu al duidelijk dat de PCIE kaarten goedkoper zijn dat de AGP varianten)

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
RappieRappie schreef op vrijdag 01 december 2006 @ 12:02:

Weet je op wat voor core hij is getest CJ? Dual Core X2 of 4x4?
''het snelste wat er van amd uit is''

klinkt alsof ze met 2x fx74 (3gig) hebben getest (of zijn die nog niet uit ?)


Ook heb ik vorige week iets gelezen van dx10 vs dx 10.1......schijnt dat de g80 dx10.1 heeft ?, maar het is nog niet bekend of de r600 dit ook heeft..

weet jij daar misschien iets van CJ ?

[ Voor 29% gewijzigd door Mr. Detonator op 01-12-2006 14:18 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Er is niet vermeld waarop het gedraaid is. Er is weinig bekend en er zijn dus nog te veel factoren die de boel kunnen beinvloeden...

Zoals... Als het op een QuadFX gedraaid is, dan is het teleurstellend. Is het op een FX62 gedraaid, dan is het best goed. Een G80 op een X6800 scoort ook rond de 10800. Een G80 op een Kentsfield QX6700 zit rond de 14000.

Het verschil tussen de R600 en G80 schijnt groter te worden in de nieuwe geupdate versie van 3DMark die gebruik maakt van shadermodel4... in het voordeel van AMD.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Mr. Detonator schreef op vrijdag 01 december 2006 @ 12:09:
[...]


''het snelste wat er van amd uit is''

klinkt alsof ze met 2x fx74 (3gig) hebben getest (of zijn die nog niet uit ?)
Precies; dat is de hamvraag.

Anders lijkt het er idd op dat het weer stuivertje wisselen wordt met de G80.

LOL. _O- Leuk is dit toch altijd. Speculaties en vermoedens... :P

@ hierboven/ CJ: op een Quad Core Intel scoort een G80 tegen de 12,5 a 13k dacht ik. En er zijn dus meerdere factoren om rekening mee te houden zoals je zelf al zegt. Het kan positief zijn wat de R600 laat zien, of "gematigd" positief. :)

[ Voor 71% gewijzigd door Format-C op 01-12-2006 12:36 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Nja zoals ik al zij die hele cpu test moet er uit. Van quad naar dual core heeft makkelijk een verlies van 1000-2000 punten. Zonder dat de fps verandert alleen maar omdat die cpu test hoger scoort.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Volgens -the one and only infamous- fuad mogen we de R600 in februari verwachten. :|
ATI R600 slated for February launch

Dammit and blast off

By Fuad Abazovic: Friday 01 December 2006, 09:49
IF AMD manages to stick to its latest plan, it will launch ATI's R600 in February. The original postponed plan indicated that the chip would be launched in Q1 but we got a slightly more precise date.

ATI has been pushing hard for January but it seems it won't make it. Nvidia is also preparing the faster version of G80 for around Cebit time but this is nothing new, as Nvidia traditionally likes to spoil ATI's launches.

The launch and availability will take place together, so as soon as DAAMIT officially introduces the card it should be widely available. It is an 80 nanometre part and should prove to be very powerful DX 10 hardware. It will arrive around the time of Microsoft's Vista DirectX 10 announcement, or shortly thereafter. µ

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
offtopic:
Wat heeft The Inq toch altijd met dat Dammit :?


Vraag me af of het waar is, maar dat horen we wel wanneer ze het NDA opschuiven (of juist niet).

En vergeet AGP maar, de OEM's zitten op PCI-Express en dan heeft het geen nut meer om voor een handvol tweakers nog AGP kaarten te maken.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • m277755
  • Registratie: Februari 2004
  • Laatst online: 24-01-2022

m277755

leest meer dan hij typt

Hacku schreef op vrijdag 01 december 2006 @ 15:24:
offtopic:
Wat heeft The Inq toch altijd met dat Dammit :?
Ik vind het ook nogal flauw worden ondertussen, net zo als mensen die the inquirer afkorten tot l'inq ;)
Mr. Detonator schreef op vrijdag 01 december 2006 @ 12:00:
als bovenstaande klopt, hebben ze aan een tweede revisie g80 ook al genoeg :X
Een g81 is juist een 2e revisie van de g80 ;)

Ik vraag me trouwens af wat beter is: launch ergens laat in januari met slechte beschikbaarheid, of launch in februari met direct goede beschikbaarheid. Voor de enthousiasten is de eerste optie denk ik beter denk ik (die krijgen hem toch wel te pakken) maar voor de reputatie van de fabrikant is de tweede misschien beter

[ Voor 19% gewijzigd door m277755 op 01-12-2006 15:30 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Direct goede beschikbaarheid uiteraard, anders sla je jezelf in het gezicht. Zeker wanneer de G80 goed beschikbaar is kan ATI dit niet hebben. De G81 launch zal waarschijnlijk gepaard gaan met de low- en mid end kaarten, dus ATI moet direct voor die markt ook kaarten klaar hebben.

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Volgens -the one and only infamous- fuad mogen we de R600 in februari verwachten.
En ja hoor, daar gaan we weer. 20 januari was natuurlijk ook véél te vroeg. :/

Wat zal Ati weer lang kunnen genieten van een eventuele performance voorsprong op de G80, not dus.

[ Voor 21% gewijzigd door Anoniem: 38733 op 01-12-2006 15:32 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
m277755 schreef op vrijdag 01 december 2006 @ 15:27:
[...]


Een g81 is juist een 2e revisie van de g80 ;)
zou kunnen....maar wat ook nog tot de mogelijkheden behoort, is dat nvidia een soort van 8800gtx1024 (zelfde als de gtx512) uitbrengt op 90nm (tegen die tijd hebben ze 3 maanden gehad om de goeie core's apart te houden) met gddr4 erop...ongeveer tegelijk met de r600...alleen de prijs zal dan heel hoog zijn....en de leverbaarheid slecht...zelfde als de gtx512 toendertijd

En dat dan 2 maanden later de g81 uitkomt op 80nm met gddr4/512bit (halverwege maart ergens)

ik doe maar een gokje ?

[ Voor 20% gewijzigd door Mr. Detonator op 01-12-2006 15:46 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Ik denk niet dan Nvidia er even een 512 Mbit memory controller in zetten. Dan moeten ze de hele core verbouwen. Als ze dat hadden willen doen had de G80 dat al meteen gehad. Dus de G81 zal gewoon 384 Bit hebben/

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 23009

maar hoe zit het dan met R580+ dan werd die ook opnieuw ontworpen voor GDDR4 ondersteunignof was dat al iets wat zelfs de Host aka R520 ondersteunde?

Hoe zal dat zitten met R600 voor GDDR4 en GDDR5 als dat ooit komt? zal dat meer een update worden qua bios van de kaart of zal de hardware helemaal opnieuw moeten onworpen?
Modbreak:Leuke vragen, maar net zo goed als dat we hier geen ononderbouwde helpdeskvragen willen, is het stellen van dit soort "pie-in-the-sky" vragen zonder onderbouwing niet zo zinnig. Beter zou het zijn om zelf de rekensommen te maken, de bronnen die er zijn over roadmaps erbij te pakken en dan zo aan te geven wat *jij* dan denkt dat er gaat gebeuren...

[ Voor 36% gewijzigd door dion_b op 01-12-2006 20:08 ]


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Astennu schreef op vrijdag 01 december 2006 @ 16:23:
Ik denk niet dan Nvidia er even een 512 Mbit memory controller in zetten. Dan moeten ze de hele core verbouwen. Als ze dat hadden willen doen had de G80 dat al meteen gehad. Dus de G81 zal gewoon 384 Bit hebben/
Ik denk dat je gelijk hebt. Met de refresh van G70>G71 toendertijd werd er ook niet iets eenvoudigers als HDR+AA toegevoegd, ik verwacht daarom dan ook geen 512bit bus voor de G81/82.
Grote architecturele veranderingen zijn er nooit met refreshes.

[ Voor 64% gewijzigd door Anoniem: 38733 op 01-12-2006 16:42 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Anoniem: 23009 schreef op vrijdag 01 december 2006 @ 16:36:
maar hoe zit het dan met R580+ dan werd die ook opnieuw ontworpen voor GDDR4 ondersteunignof was dat al iets wat zelfs de Host aka R520 ondersteunde?

Hoe zal dat zitten met R600 voor GDDR4 en GDDR5 als dat ooit komt? zal dat meer een update worden qua bios van de kaart of zal de hardware helemaal opnieuw moeten onworpen?
Ik heb het ook niet over GDDR 4 maar wel over het aantal bit van de memory controller. De memory controller van de R580 had al GDDR 4 support van het begin al. De R520 had dat volgens mij al. Ik neem aan dat de G80 dat ook heeft. Maar het aantal bit verander je niet even. Je hebt dan veel meer connecties nodig naar het geheugen. En de hele pcb moet dan verandert worden. Wordt dan gewoon veel te duur. Heeft nVidia ook niet gedaan bij de G70.

De R580 had ook dezelfde pcb als de R520 of ja na genoeg hetzelfde met wat kleine veranderingen. Dus ik zeg G81 = G80 op 80nm met een G80 PCB 384 Bit memory en hogere clocks en GDDR 4 ram.

@ Obi. Voor de X1950 hebben ze de R580 gepakt ander geheugen er op andere bios klaar. Was niet veel voor nodig memory controller was er al klaar voor. De R600 heeft een nieuwe versie van die controller met 512 Bit en nog steeds GDDR 3/4. GDDR 5 komt voorlopig nog niet.

[ Voor 11% gewijzigd door Astennu op 01-12-2006 16:46 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Anoniem: 38733 schreef op vrijdag 01 december 2006 @ 16:38:
[...]


Ik denk dat je gelijk hebt. Met de refresh van G70>G71 toendertijd werd er ook niet iets eenvoudigers als HDR+AA toegevoegd, ik verwacht daarom dan ook geen 512bit bus voor de G81/82.
Grote architecturele veranderingen zijn er nooit met refreshes.
Maar hij zal wel snel zat wezen denk ik. Snel genoeg om de R600 bij te houden of nét even een tikkeltje sneller. Of iig even snel.

512bit zal nog wel niet nodig zijn om toch snel genoeg te zijn volgens nVidia. Anders hadden ze dat vast wel gedaan. Ze zijn vast niet dom daaro.

ATi is graag vooruitstrevend bezig. Dat vind ik wel mooi. Alleen kost ze dat telkens een hoop tijd en soms wat her-werk heb ik het idee.

Wat ATi doet is eigenlijk vooruitstrevender en technisch hoogstaander dan wat nV doet. Maar toch houdt nV ATi bij. En nV is telkens sneller met releasen. Zo winnen ze weer tijd om alles te perfectioneren en op die manier een nog sneller produkt op de markt te zetten.
Idd zonder architecturele veranderingen, maar wel sneller dan het "vorige produkt".

Tja, dit gaat nu al een paar jaar zo... Ze maken elkaar niks/ weinig op performancegebied, alleen vind ik wat ATi laat zien "knapper" qua architectuur, en nV is gewoon snel.

Ik zie het zo;

ATi: verfijnde (bekeken) snelheid
nV: ruwe snelheid.

:)

Edit: voorkeur voor 1 van de 2 heb ik al niet meer. Ik vind het allemaal wel best/ interessant wat ze doen. En qua performance maakt het al een tijdje niet veel meer uit welk high end produkt je van 1 van de 2 neemt. :)

[ Voor 22% gewijzigd door Format-C op 01-12-2006 16:54 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Astennu schreef op vrijdag 01 december 2006 @ 16:23:
Ik denk niet dan Nvidia er even een 512 Mbit memory controller in zetten. Dan moeten ze de hele core verbouwen.
Wat ik heb begrepen is dat de g80 core al ''klaar'' is voor 512bit (wat daaronder ook te verstaan valt)....alleen dat heeft nog geen nut met 768mb gddr3 ?!....en nvidia heeft nou eenmaal niet zo'n memory ringbus die intern op een andere snelheid draait (kan draaien?)

Als ze bij de huidige g80 al 512bit hadden geintroduceerd, haden ze daarom ook 1 gig geheuegen moeten gebruiken (geheugenchips x aantal bits), en was de kaart misschien te duur geworden vanwege de hoeveelheid geheugen (gddr3/1800mhz).....dan zijn er namelijk 16 geheugenchips nodig ipv 12 (x32bit)

[ Voor 34% gewijzigd door Mr. Detonator op 01-12-2006 17:23 ]


Acties:
  • 0 Henk 'm!

Anoniem: 23009

heh op het ATi topic van me favo 3dfx forum kwam ik deze tegen :9 :9
http://images.dailytech.c...MBDDR3_Box_Card_Fixed.jpg

toch wel een 512MB GDDR3 X1950 Pro AGP W00t! _/-\o_ Sapphire did it again :)
Hiermee heeft AMD.ATi ook de snelste AGP kaart in handen die FSAA, AF en HDR tergelijk kan.
Modbreak:Beetje rustiger aan mag ook wel. Ja, het is mogelijk de snelste AGP kaart, maar:

1) het is hier geen nVidia vs ATi topic, die laatste zin is daarom vrij overbodig
2) ik heb je er in het verleden ook al op gewezen dat het beter is om gelijk een goede post neer te zetten ipv eerst met iets volstrekt onacceptabels te komen en dan te editen. Aub voortaan graag diep inademen en tot tien tellen voor je post, dat is voor iedereen wat prettiger.

[ Voor 66% gewijzigd door dion_b op 01-12-2006 20:06 ]


Acties:
  • 0 Henk 'm!

Anoniem: 149755

Mr. Detonator schreef op vrijdag 01 december 2006 @ 17:09:
[...]


Wat ik heb begrepen is dat de g80 core al ''klaar'' is voor 512bit (wat daaronder ook te verstaan valt)....alleen dat heeft nog geen nut met 768mb gddr3 ?!....en nvidia heeft nou eenmaal niet zo'n memory ringbus die intern op een andere snelheid draait (kan draaien?)

Als ze bij de huidige g80 al 512bit hadden geintroduceerd, haden ze daarom ook 1 gig geheuegen moeten gebruiken (geheugenchips x aantal bits), en was de kaart misschien te duur geworden vanwege de hoeveelheid geheugen (gddr3/1800mhz).....dan zijn er namelijk 16 geheugenchips nodig ipv 12 (x32bit)
Ik geloof niet dat de prijs van geheugen hier een rol speeld. Als de G80 werkelijk 512bit bandbreedte had, dan had nVidia prijstechnisch gekozen voor goedkopere 1.4ns geheugen met uiteindelijk dezelfde (of meer) bandbreedte met 1GB geheugen.
Ik denk dat de huidige G80 al tegen de grens aanloopt van 90nm in combinatie met transistoraantal waarmee 512bit niet rendabel is voor het productieproces.
Anoniem: 38733 schreef op vrijdag 01 december 2006 @ 16:38:
[...]


Ik denk dat je gelijk hebt. Met de refresh van G70>G71 toendertijd werd er ook niet iets eenvoudigers als HDR+AA toegevoegd, ik verwacht daarom dan ook geen 512bit bus voor de G81/82.
Grote architecturele veranderingen zijn er nooit met refreshes.
Het toevoegen van HDR+AA kan veel moeilijker zijn dan de 512bit toevoegen. Bij HDR+AA zit je op shader niveau (zeer diep) waardoor een refresch zeer veel tijd kost.
Het toevoegen van 512bit zit veel minder diep. De FX5900 (refresh) had ook een bredere bus dan de FX5800.
Daarnaast onderscheiden high-end en mainstream meestal van geheugenbus (in dezelfde generatie) terwijl features als HDR+AA hetzelfde zijn. Ook het verhaal van CJ dat de G80 eerst een 256bit bus had, en later 384 is geworden wijst op dat de geheugencontroller als modulair systeem opgeschaald kan worden.


Mocht de R600 een 512bit bus hebben, dan zal een hoger geklokte G80 niet volstaan. 33% geheugenbandbreedte voordeel klok je niet even zomaar bij. Een G81 met 512bit bus is wellicht de meest aannemelijk. Zou zomaar kunnen dat de G80 over een paar maand bekend staat als de "mislukte" G81.....
Een R600 met 256bit bus is kanonvoer, ook met GDDR4

Time will tell.

[ Voor 12% gewijzigd door Anoniem: 149755 op 02-12-2006 09:57 ]


Acties:
  • 0 Henk 'm!

Anoniem: 7379

33% geheugenbandbreedte voordeel klok je niet even zomaar bij.
Als de R600 een 512-bit geheugenbus heeft en ook nog eens gebruik gaat maken van GDDR4 dan is het voordeel zelfs nog groter dan 33%. Dan kom je al gauw op zo'n 141GB/s uit en dat is 63% meer dan de 86,4GB/s van de 8800GTX. Met sneller GDDR4 geheugen kan bandbreedte verschil nog verder oplopen.

Zelf wacht ik ook op de R600. De GTX past niet in de kast die ik ga aanschaffen en de R600 schijnt kleiner te worden.

edit:
Ben nog niet helemaal wakker geloof ik... 8)7

[ Voor 31% gewijzigd door Anoniem: 7379 op 01-12-2006 20:47 ]


Acties:
  • 0 Henk 'm!

  • Tarry
  • Registratie: November 2006
  • Laatst online: 15-02-2024
Grappig dat er op de zijkant van de doos ook een CrossFire logo staat. (Dit bestaat niet voor AGP) Dus die jongen bij Sapphire mag nog even door paintshoppen. ;)

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 06-05 08:33
Hacku schreef op vrijdag 01 december 2006 @ 15:24:
offtopic:
Wat heeft The Inq toch altijd met dat Dammit :?


Vraag me af of het waar is, maar dat horen we wel wanneer ze het NDA opschuiven (of juist niet).

En vergeet AGP maar, de OEM's zitten op PCI-Express en dan heeft het geen nut meer om voor een handvol tweakers nog AGP kaarten te maken.
Van wie ga je dat horen dan? De persoon die verantwoordelijk is voor ATI marketing noord europa (waaronder NL) heeft sinds kort een andere baan en Chris Hook (marketing EMEA) weet ook nog niet precies wat zijn positie binnen AMD gaat zijn. De jongens van het oude AMD weten zelfs nog niet wie wat moet gaan doen mbt ATI producten. Chipsets die hebben al wel hun plaats gevonden, maar ATI vga kaarten zweven nog steeds rond.

Daarnaast zullen er zeker DX10 AGP kaarten komen. Echter zal het geen ultra high-end worden, maar een mainstream. Zo heb je ook geen 7900GTX op AGP, maar wel een 7900GT

Oh en tegen de tijd dat de R600 in volume in de markt is heeft nVidia al weer een snellere G80 op de planken staan. Dus het is weer zoals vorige keer.

[ Voor 26% gewijzigd door The Source op 01-12-2006 20:34 ]


Acties:
  • 0 Henk 'm!

Anoniem: 7379

Tarry schreef op vrijdag 01 december 2006 @ 20:22:
[...]


Grappig dat er op de zijkant van de doos ook een CrossFire logo staat. (Dit bestaat niet voor AGP) Dus die jongen bij Sapphire mag nog even door paintshoppen. ;)
Dat is op een enkel moederbord wel mogelijk, zoals deze. Heeft zowel een AGP slot als een PCI-E slot. Voor zover ik weet is dual AGP CrossFire niet mogelijk, maar PCI-E+AGP dus wel.

[ Voor 8% gewijzigd door Anoniem: 7379 op 01-12-2006 20:32 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 38733 schreef op vrijdag 01 december 2006 @ 16:38:
[...]


Ik denk dat je gelijk hebt. Met de refresh van G70>G71 toendertijd werd er ook niet iets eenvoudigers als HDR+AA toegevoegd, ik verwacht daarom dan ook geen 512bit bus voor de G81/82.
Grote architecturele veranderingen zijn er nooit met refreshes.
Ik dacht dat G80 eigenlijk al stiekem een 512-bits memory interface ondersteunt, maar dat vanwege de yields het nu op 384-bit gehouden wordt... G80GTX heeft namelijk 6 ROP clusters die elk verbonden zijn aan het geheugen dmv een 64-bits memory interface, wat samen dus 384-bits is. G80GTS heeft er 5, wat dus weer samen 320-bits is... Maar ik meende maanden terug geruchten gehoord te hebben over 8 clusters in totaal, wat dus uit zou komen op 512-bits... Diezelfde geruchten zeiden ook dat G80 8 clusters zou hebben, maar nV zou beginnen met 7 (nu dus 6) vanwege de yields.

Maar goed, misschien zijn het niets meer dan geruchten. Altijd leuk om de discussie op gang te houden... :+

[ Voor 5% gewijzigd door CJ op 01-12-2006 20:32 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 18:03
CJ schreef op vrijdag 01 december 2006 @ 20:31:
[...]
Maar goed, misschien zijn het niets meer dan geruchten. Altijd leuk om de discussie op gang te houden... :+
Van de 7800GTX werd ook gezegt dat hij 32 pipes had. Als wat je zegt waar is dan is standaard 25 tot 33% van de chips uitgeschakeld, nogal extreem imho. Een probleem lijkt me dat je de package onnodig compex maakt met zoveel pinnen waarvan je er uiteindelijk maar een klein deel gebruikt.

Het is trouwens erg interessant dat de G80 opgebouwd is uit zelfstandige clusters, inclusief geheugen controller. Bij ATi pakken ze dit anders aan (denk ik).

[ Voor 4% gewijzigd door oeLangOetan op 02-12-2006 00:16 ]


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Anoniem: 23009 schreef op vrijdag 01 december 2006 @ 16:36:
maar hoe zit het dan met R580+ dan werd die ook opnieuw ontworpen voor GDDR4 ondersteunignof was dat al iets wat zelfs de Host aka R520 ondersteunde?

Hoe zal dat zitten met R600 voor GDDR4 en GDDR5 als dat ooit komt? zal dat meer een update worden qua bios van de kaart of zal de hardware helemaal opnieuw moeten onworpen?
[modbreak]Leuke vragen, maar net zo goed als dat we hier geen ononderbouwde helpdeskvragen willen, is het stellen van dit soort "pie-in-the-sky" vragen zonder onderbouwing niet zo zinnig. Beter zou het zijn om zelf de rekensommen te maken, de bronnen die er zijn over roadmaps erbij te pakken en dan zo aan te geven wat *jij* dan denkt dat er gaat gebeuren...[/modbreak]
Om een antwoord te geven op de "pie-in-the-sky"-helpdeskvraag (scrablewoord?): 'late 2007' is een goede gok voor GDDR5, aldus hkepc. In dat artikel over S3's wat laatst op frontpage gepost was, stond in hun roadmap GDDR5 voor 1H2008 gepland. Tja met DDR5 zal waarschijnlijk weer een tikkie minder spanning gebruiken, net wat lagere latencies en natuurlijk meer IO bandwidth hebben. Een mooi klusje voor de IC en process designers. :P

Acties:
  • 0 Henk 'm!

  • jimbojansen
  • Registratie: Mei 2005
  • Laatst online: 04-04 17:52
Leuk geruchtje erbij voor de R600 geruchtenmolen

AMD R600 to use GDDR4 only

GDDR4 alleen.. dus ook voor low end??

[ Voor 5% gewijzigd door jimbojansen op 02-12-2006 01:20 ]


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 20:00
jimbojansen schreef op zaterdag 02 december 2006 @ 01:19:
Leuk geruchtje erbij voor de R600 geruchtenmolen

AMD R600 to use GDDR4 only

GDDR4 alleen.. dus ook voor low end??
R600 is high end, low end afgeleiden ervan zullen geen GDDR4 gebruiken, is nog steeds te kostbaar, zal wel weer lager geklokt GDDR3 worden! (misschien DDR2 op echte lowend...?)

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Hacku schreef op vrijdag 01 december 2006 @ 15:24:
offtopic:
Wat heeft The Inq toch altijd met dat Dammit :?


Vraag me af of het waar is, maar dat horen we wel wanneer ze het NDA opschuiven (of juist niet).

En vergeet AGP maar, de OEM's zitten op PCI-Express en dan heeft het geen nut meer om voor een handvol tweakers nog AGP kaarten te maken.
Wat een genante uitspraak. en niet recht gezet door de mod ...
Waar haal je het vandaan?
AGP is nog steets goed voor ca. 50% in de upgradechannel en globaal helemaal dominant in de maarkt. Eerder is het een handjevol tweakers, die perse pci-e toppertjes kopen.
OEM verkopt IGP of hooguit low-mid-range! :D
BTW- krijg ik het gevoel dat je haast niet blij mag zijn als je toch nog een "vette" agp card in het ATI Nieuwsdiscussie mag melden - zijn nog agp bezitters soms 2de klas ofzo?

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
Astennu schreef op vrijdag 01 december 2006 @ 13:25:
Nja zoals ik al zij die hele cpu test moet er uit. Van quad naar dual core heeft makkelijk een verlies van 1000-2000 punten. Zonder dat de fps verandert alleen maar omdat die cpu test hoger scoort.
óf games moeten óók multi-core's gaan gebruiken ... dan kun je 3dmark scores tenminste vertalen naar game-prestaties (in de meeste gevallen)

[ Voor 5% gewijzigd door Mr. Detonator op 02-12-2006 08:46 ]


Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 17:50

TGEN

Hmmmx_

Anoniem: 7379 schreef op vrijdag 01 december 2006 @ 20:30:
[...]
Dat is op een enkel moederbord wel mogelijk, zoals deze. Heeft zowel een AGP slot als een PCI-E slot. Voor zover ik weet is dual AGP CrossFire niet mogelijk, maar PCI-E+AGP dus wel.
In theorie staat het gebruik van AGP+PCIe CrossFire dan wel SLI niet in de weg, aangezien beide programmeertechnisch gewoon een PCI bus zijn. Elke beperking die men erin stopt is in principe overbodig, alhoewel er natuurlijk wel rekening gehouden dient te worden met de bandbreedte van de gebruikte bussen. AGP 8x valt dan nog mee, immers, CrossFire werkt tegenwoordig officieel ook op iP965 borden met een x16 en een x4 PCIe slot. De enige belemmeringen zijn de restricties die de fabrikanten in hun drivers stoppen.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 05-03 19:55
TGEN schreef op zaterdag 02 december 2006 @ 15:47:
[...]

In theorie staat het gebruik van AGP+PCIe CrossFire dan wel SLI niet in de weg, aangezien beide programmeertechnisch gewoon een PCI bus zijn.
behalve dan dat PCIe tweerichtingsverkeer is, en agp maar een kant opgaat

en is het bij sli/cf niet noodzakelijk dat de kaarten met elkaar communiceren ?

[ Voor 10% gewijzigd door Mr. Detonator op 02-12-2006 17:37 ]


Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 04-05 12:06

Krizzie

Progressive Music \o/

Mr. Detonator schreef op zaterdag 02 december 2006 @ 16:39:
[...]


behalve dan dat PCIe tweerichtingsverkeer is, en agp maar een kant opgaat

en is het bij sli/cf niet noodzakelijk dat de kaarten met elkaar communiceren ?
Daar heb je die CF bridge dan toch voor? :)

Geluidswolk


Acties:
  • 0 Henk 'm!

Anoniem: 23009

iemand nog Software CF geprobeerd? heb wel Cat 6.11 maare nog geen Software CF functie gevonden :/

Acties:
  • 0 Henk 'm!

  • m277755
  • Registratie: Februari 2004
  • Laatst online: 24-01-2022

m277755

leest meer dan hij typt

Joepi schreef op zaterdag 02 december 2006 @ 02:23:
[...]


Wat een genante uitspraak. en niet recht gezet door de mod ...
Waar haal je het vandaan?
AGP is nog steets goed voor ca. 50% in de upgradechannel en globaal helemaal dominant in de maarkt. Eerder is het een handjevol tweakers, die perse pci-e toppertjes kopen.
OEM verkopt IGP of hooguit low-mid-range! :D
BTW- krijg ik het gevoel dat je haast niet blij mag zijn als je toch nog een "vette" agp card in het ATI Nieuwsdiscussie mag melden - zijn nog agp bezitters soms 2de klas ofzo?
Als iemand informatie post en het klopt niet hoeft het niet veranderd worden door een mod? Dat kan ook prima opgemerkt worden door een user in een latere post. Overigens mist bij beide posts een bron voor de cijfers ;)

Agp is nou eenmaal minder snel dan pci-e 16x. Het is niet zo dat agp beter is dan pci-e, waarom zou je er dan zo lang aan vast willen houden? Ik begrijp wel dat je niet direct met een nieuwe videokaart een heel nieuw systeem koopt, maar je kan toch nog prima vooruit voor midend met de videokaarten die nu uit zijn. Tegen de tijd dat dat niet meer gaat is het waarschijnlijk toch tijd om de rest van je systeem te vernieuwen. High end systemen kosten helaas gewoon veel geld :/

Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 17:50

TGEN

Hmmmx_

Mr. Detonator schreef op zaterdag 02 december 2006 @ 16:39:
[...]


behalve dan dat PCIe tweerichtingsverkeer is, en agp maar een kant opgaat

en is het bij sli/cf niet noodzakelijk dat de kaarten met elkaar communiceren ?
Ik zeg ook, programmeertechnisch. Verder, ook het aloude PCI (en AGP en PCI-X) zijn tweerichtingsverkeer, behalve dan dat het niet tegelijk plaats kan vinden, maar het elkaar afwisselt :). Full duplex vs. half duplex. De softwarekant ziet dat verschil niet, die ziet alleen een PCI bus adapter en PCI bussen. DMA tussen verschillende kaarten op dezelfde bus en tussen kaarten op verschillende bussen moet in principe altijd kunnen.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 06-05 08:33
Zeer rot voor mijn opties bedoel je!
Anyway, ik betwijfel ten zeerste of ATI (AMD) en nVidia prijsafspraken hebben gemaakt over de VGA chips. Het is zo'n competieve markt en beide aandelen daar wordt veel in belegd, dus winst maximaliseren ok, maar marktaandeel is nog belangrijker.

Acties:
  • 0 Henk 'm!

Anoniem: 38733

The Source schreef op zaterdag 02 december 2006 @ 21:25:
[...]
Anyway, ik betwijfel ten zeerste of ATI (AMD) en nVidia prijsafspraken hebben gemaakt over de VGA chips.
Als je maar 2 serieuze aanbieders hebt in een markt is het zowiezo slim om prijsafspraken te maken; je concurreert elkaar niet kapot en waar moet de consument anders heen voor een beetje leuke 3D performance?

Acties:
  • 0 Henk 'm!

Anoniem: 135195

Is de NDA datum verschoven nu de launch in februari verwacht wordt? De NDA was 7 januari, als ik me niet vergis (zoeken op NDA is lastig... maANDag, staNDAard, vANDaar, etc.: handig dat spaties niet gezocht worden ;) ) Ik ben (zoals iedereen) toch echt wel benieuwd naar ECHTE cijfers. Ik was twee weken geleden echt van plan een 8800GTX te kopen maar die plannen zijn door omstandigheden iets verlaat, dus tja... nu wordt ik toch ook echt benieuwd naar de verhouding tussen de R600-kaarten en de 8800-serie!

Acties:
  • 0 Henk 'm!

Anoniem: 51473

Anoniem: 135195 schreef op zondag 03 december 2006 @ 21:39:
Is de NDA datum verschoven nu de launch in februari verwacht wordt? De NDA was 7 januari, als ik me niet vergis (zoeken op NDA is lastig... maANDag, staNDAard, vANDaar, etc.: handig dat spaties niet gezocht worden ;) ) Ik ben (zoals iedereen) toch echt wel benieuwd naar ECHTE cijfers. Ik was twee weken geleden echt van plan een 8800GTX te kopen maar die plannen zijn door omstandigheden iets verlaat, dus tja... nu wordt ik toch ook echt benieuwd naar de verhouding tussen de R600-kaarten en de 8800-serie!
Zie de post van aca die een quote van fuad heeft gepost die zegt dat de R600 februari verwacht word.. CJ heeft volgens mijn ook zijn bevindingen los gelaten over de geruchten van de R600 en die melde dacht ik dat deze niet veel onder doet van de 8800GTX.. Echter komt de G81 core ook rond die tijd ben ik bang en heeft NVIDIA weer een kleine voorsprong..

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Anoniem: 51473 schreef op maandag 04 december 2006 @ 07:47:
[...]


Zie de post van aca die een quote van fuad heeft gepost die zegt dat de R600 februari verwacht word.. CJ heeft volgens mijn ook zijn bevindingen los gelaten over de geruchten van de R600 en die melde dacht ik dat deze niet veel onder doet van de 8800GTX.. Echter komt de G81 core ook rond die tijd ben ik bang en heeft NVIDIA weer een kleine voorsprong..
Zeker als het verhaal van CJ klopt en de G81 misschien 8 clusters heeft. Want dan komen er gewoon 42 Shader units bij ? Ik ben bang dat de R600 met 96 Shaders dan ook omver geblazen gaat worden. Dus nu maar hopen dat dat niet zo is....

Alleen ik vraag me dan af waarom Nvidia dan relatief koel weet te houden. Terwijl de R600 meer dan 200 watt moet gaan gebruiken.

[ Voor 8% gewijzigd door Astennu op 04-12-2006 08:53 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 23009

Astennu schreef op maandag 04 december 2006 @ 08:52:
[...]


Zeker als het verhaal van CJ klopt en de G81 misschien 8 clusters heeft. Want dan komen er gewoon 42 Shader units bij ? Ik ben bang dat de R600 met 96 Shaders dan ook omver geblazen gaat worden. Dus nu maar hopen dat dat niet zo is....

Alleen ik vraag me dan af waarom Nvidia dan relatief koel weet te houden. Terwijl de R600 meer dan 200 watt moet gaan gebruiken.
Mischien wordt er zilvere lagen of een zilvere kern in de cooler gebruikt aangezien zilver hitte het beste kan afvoeren ;)

Weet je die Noise Control Silverado's voor de Thunderbird 1400 Mhz CPU's Die hadden ook het heatsink gedeelte wat in contact kwam met de core van zilver, bleek erg goed te koelen, goede hitte afweer.

dus dit id met een basis kopere koelblok met wat heatpipes en de kern voor de core van zilver?

[ Voor 8% gewijzigd door Anoniem: 23009 op 04-12-2006 12:28 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Anoniem: 23009 schreef op maandag 04 december 2006 @ 12:25:
[...]


Mischien wordt er zilvere lagen of een zilvere kern in de cooler gebruikt aangezien zilver hitte het beste kan afvoeren ;)

Weet je die Noise Control Silverado's voor de Thunderbird 1400 Mhz CPU's Die hadden ook het heatsink gedeelte wat in contact kwam met de core van zilver, bleek erg goed te koelen, goede hitte afweer.

dus dit id met een basis kopere koelblok met wat heatpipes en de kern voor de core van zilver?
Ik heb het meer over de het vermogen dat de chip verbruikt. De G80 gebruikt 180 watt. Stel er gaan 8 clusters gebruikt worden. zal het gebruik misschien 200 watt zijn. Want volgens sommige geruchten zitten die clusters er al in. ( of het waar is is een ander verhaal ). Maar de ATi die dan dus langzamer is ( want 170 Shader prosessors op een iets hogere clock gaan 96 5d Shaders denk ik niet bijhouden ) gebruikt 225 watt ( cooler kan max 250 afvoeren ).

1: Of de G80 heeft geen 8 clusters
2: De R600 gebruikt ook maar iets van 180 watt of minder

De Xbox 360 met 48 Shaders prossesors op 500 + een 10 MB ED ram en een tripplecore IBM cpu op 3200 gebruikt in totaal 172 Watt in 3d Load (Xbox 360 premium ). Dus waarom zou de R600 dan niet zuinig kunnen zijn ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Newsflash: AMD presenteert nieuw logo voor graphics

Tadaaaa....

Afbeeldingslocatie: http://img.hexus.net/v2/news/newslogos/ati-newlogo.png

Oh en een leuk interview met Dave Orton is nu hier te vinden: http://www.hexus.tv/?show=5

[ Voor 24% gewijzigd door CJ op 04-12-2006 14:27 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 20:00
CJ schreef op maandag 04 december 2006 @ 14:26:
Newsflash: AMD presenteert nieuw logo voor graphics
[afbeelding]
Da's best strak! En gelukkig toch ook nog ATi Rood! Ik ben er tevree mee! Zal dit logo van nu af aan gebruikt worden, of pas vanaf R600 kaarten?

Acties:
  • 0 Henk 'm!

Anoniem: 23009

@ CJ

dat ziet er idd strak uit, niet veel veranderd, ook wel te begrijpen ATi bestaat al sinds 1985 dus oook wel logisch dat AMD het logo de zelfde rode kleur en layout heeft behouden en ook de naam Radeon is een goede marketings naam net als GeForce dat is dus ook goed te begrijpen :)

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 06-05 08:33
Anoniem: 135195 schreef op zondag 03 december 2006 @ 21:39:
Is de NDA datum verschoven nu de launch in februari verwacht wordt? De NDA was 7 januari, als ik me niet vergis (zoeken op NDA is lastig... maANDag, staNDAard, vANDaar, etc.: handig dat spaties niet gezocht worden ;) ) Ik ben (zoals iedereen) toch echt wel benieuwd naar ECHTE cijfers. Ik was twee weken geleden echt van plan een 8800GTX te kopen maar die plannen zijn door omstandigheden iets verlaat, dus tja... nu wordt ik toch ook echt benieuwd naar de verhouding tussen de R600-kaarten en de 8800-serie!
Launch is niet in Jan.
Nog niets bekend over hoeveel 'stock' er beschikbaar gaat zijn.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
The Source schreef op maandag 04 december 2006 @ 21:55:
[...]

Launch is niet in Jan.
Nog niets bekend over hoeveel 'stock' er beschikbaar gaat zijn.
Arf they are F****ng up again :(.

En in 2007 pas laptops met ATi AMD als platform. OF igg meer dan nu.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Astennu schreef op maandag 04 december 2006 @ 22:21:
[...]


Arf they are F****ng up again :(.
Wacht nou maar eerst totdat t januari wordt. Dan zijn er vast meer geruchten. Over de G80 was een maand voor de release ook bijna niks bekend. :P


Wat nieuws over Folding@home:
The original beta GPU client expires as of Dec 1st.
There is a new beta GPU client now available for download at http://folding.stanford.edu/download.html
This client now officially supports all X1600/1650/1800/1900/1950 cards (AGP and PCIe). No word yet if they resolved the serious lag issue with the X1900AIW 256MB, X1900GT 256MB and X1900XT 256MB cards (and probably the X1950XT 256MB as well). Other 256MB cards (e.g. X1950Pro 256MB) apparently don't have this issue.
No news yet of what has been corrected in this new version and the ATI FAQ hasn't been updated.
Also unconfirmed reports say that current Catalyst 6.12 drivers apparently have some problems with the folding client. (6.11 works properly).

[...]

The 3 main changes were to extend the beta deadline, add support for x1600 cards and up, and combine the single and multi GPU clients in to one.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Tja ik ben gewoon bang dat de G81 eventueel toch die extra clusters heeft en dan wordt de R600 denk ik wel verslagen. En zo i zo zal de G81 er vrij snel achteraan komen. ( 2-3 maanden later ).

[ Voor 24% gewijzigd door Astennu op 05-12-2006 09:45 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 107626

Astennu schreef op dinsdag 05 december 2006 @ 09:44:
Tja ik ben gewoon bang dat de G81 eventueel toch die extra clusters heeft en dan wordt de R600 denk ik wel verslagen. En zo i zo zal de G81 er vrij snel achteraan komen. ( 2-3 maanden later ).
Ik denk dat nV weer lui is en alleen maar een verkleining gaat toepassen. Zelfde idee als G70-G71. Als t verleden zich herhaalt krijgen we een R600 die wat sneller is dan de G81, waardoor nVidia zich weer moet beroepen op zijn GX2 engineers, en zie daar, de 8850GX2 is geboren. :')

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Anoniem: 107626 schreef op dinsdag 05 december 2006 @ 10:13:
[...]


Ik denk dat nV weer lui is en alleen maar een verkleining gaat toepassen. Zelfde idee als G70-G71. Als t verleden zich herhaalt krijgen we een R600 die wat sneller is dan de G81, waardoor nVidia zich weer moet beroepen op zijn GX2 engineers, en zie daar, de 8850GX2 is geboren. :')
Tja echter lijkt een 8850 GX2 niet heel waarschijnlijk door het stroomverbruik. De 7950 GX2 had 2 notebook chips. En de G70 was ook geen stroom slurper. De G80 gebruik heel veel. Als je daar een mobile versie van wil maken kom je al snel op een 256 Bit dus met maar 4 Clusters. 2 van die zouden dus iets sneller kunnen zijn dan een 8800 GTX maar dan is het verschil dus niet zo groot. Bij de 7950 GX2 en de 7900 GTX was dit verschil groter. Maar een 7900 GTX SLI setup versloeg een 7950 GX2 makkelijk.

Dus ik hoop dat de G81 een hoger geclockte versie van de G80 is op 80nm. Dan is de R600 denk ik wel iets sneller vooral in DX 10.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 23009

ik denk ook dat de R600 sneller is in DX10 en met alle eye candy aan en de G81 meer op het gebied van pure speed, dus zonder FSAA, AF en HDR enzo. vraag me ook afdat ATi met een dual GPU opstelling komt net als het GX2 concept :D Quad CrossFire lijkt me ook wel iets alleen de CPU's van vandaag zouden het niet echt kunnen trekken.

[ Voor 51% gewijzigd door Anoniem: 23009 op 05-12-2006 12:32 ]


Acties:
  • 0 Henk 'm!

  • PassieWassie
  • Registratie: Mei 2004
  • Laatst online: 30-03 09:55
Anoniem: 23009 schreef op dinsdag 05 december 2006 @ 12:30:
Vraag me ook afdat ATi met een dual GPU opstelling komt net als het GX2 concept :D Quad CrossFire lijkt me ook wel iets alleen de CPU's van vandaag zouden het niet echt kunnen trekken.
Dit lijkt mij ook wel interessant. Vooral omdat het tegenwoordig mogelijk is om software crossfire te draaien is het misschien ook mogelijk om op een niet-crossfire moederbord een dualcore videokaart te laten draaien :) Dat zou voor mensen zoals mij misschien erg handig zijn!

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Waarom wil je een R600 alla GX2 ? je kunt nooit 400 watt aan vermogen coolen. Gebruik dan gewoon Crossfire ?

Als er een R600 GX2 zou komen loopt die op 300 MHz en gebruikt i na genoeg geen stroom. En zakt je peformance giganties in. Of je krijg een R600 Mobile met 64 shaders ipv 96.

Als er al Gimini kaarten komen zullen het mid range kaarten zijn. De High end gebruiken nu te veel stroom. In de toekomt krijg je gewoon kaarten met 8 gpu's er op voor de high end. 4 min enz.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 23009

warom geen dual core techniek dat lijkt me vel verstandiger net als AMD en Intel dat doen :)

2 apparte CPU's trok meer stroom als 2 cores op 1 package :)

[ Voor 28% gewijzigd door Anoniem: 23009 op 05-12-2006 13:21 ]


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 20:00
Anoniem: 23009 schreef op dinsdag 05 december 2006 @ 13:20:
warom geen dual core techniek dat lijkt me vel verstandiger net als AMD en Intel dat doen :)

2 apparte CPU's trok meer stroom als 2 cores op 1 package :)
Met het verschil dat een dualcore CPU in een heeeel slecht geval maximaal 120 watt kan trekken, en dat de R600 met een enkele GPU daar al overheen gaat (hoeveel, is nog onduidelijk....) Is gewoon niet meer redelijkerwijs te koelen, zou waterkoeling aan te pas moeten komen wat prijstechnisch weer niet te verantwoorden is....

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Anoniem: 23009 schreef op dinsdag 05 december 2006 @ 13:20:
warom geen dual core techniek dat lijkt me vel verstandiger net als AMD en Intel dat doen :)

2 apparte CPU's trok meer stroom als 2 cores op 1 package :)
Dat heeft meer te maken met het moederbord dat veel meer componenten had. En de dubbele memory controller. Die de 2 losse cpu's hebben. Maar bepaalde dingen heb je dan maar 1x nodig en met 2 cpu's heb je die dan dubbel.

In de toekomt worden de gpu's zo gemaakt dat je er zo veel aan elkaar kan hangen als je wilt. Volgens geruchten zijn dit de laatste groote en krachtigste Singel chips ( G80 en R600 ) Daar na krijg je meer het idee waar voodoo al mee bezig was in de tijd van de Voodoo 5. Daar hadden ze ook al 4 Chips aan elkaar gehangen. Dus dan gebruik je een core voor kaartje die je gebruikt voor office. En bv 16 voor een gaming kaart.

Zoals ik al zij de huidige cores hebben een te hoog verbruik en zijn dan niet meer te coolen. De R600 en G80 hebben echt monsters van coolers. En een chip wordt dan al meer dan 70c laat staan 2.

[ Voor 9% gewijzigd door Astennu op 05-12-2006 13:40 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • PassieWassie
  • Registratie: Mei 2004
  • Laatst online: 30-03 09:55
Astennu schreef op dinsdag 05 december 2006 @ 12:59:
Waarom wil je een R600 alla GX2 ? je kunt nooit 400 watt aan vermogen coolen. Gebruik dan gewoon Crossfire ?
Waarom zou je een crossfire setup willen, die levert ook 400 watt om het effe ruw in te schatten. Dat moet ook gekoeld worden. Echter heeft een crossfire setup het voordeel dat je eventueel later kunt upgraden. Voor mensen die echter meteen het snelste willen is een R600 dual (om het zo maar te noemen) best aantrekkelijk. De GX2 was toch ook populair? Misschien is het wel mogelijk om een R600 samen met een x1650Gpu op één pcb te prikken, zodat je een physx oplossing en VGA in één hebt.

Ik zie mezelf nog geen crossfire bord aanschaffen, aangezien die van mezelf nog ruim voldoet. vanuit dat oogpunt is een dergelijke kaart misschien toch wel aantrekkelijk.

Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 20:00
PassieWassie schreef op dinsdag 05 december 2006 @ 13:55:
[...]


Waarom zou je een crossfire setup willen, die levert ook 400 watt om het effe ruw in te schatten. Dat moet ook gekoeld worden.
Maar dan is het 400 watt verdeeld over 2 kaarten, en dus 2 koelers. Als je het op 1 kaart zou doen, zou je het dus ook met 1 koeler moeten koeler. En dat gaat je gewoonweg niet lukken...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
PassieWassie schreef op dinsdag 05 december 2006 @ 13:55:
[...]


Waarom zou je een crossfire setup willen, die levert ook 400 watt om het effe ruw in te schatten. Dat moet ook gekoeld worden. Echter heeft een crossfire setup het voordeel dat je eventueel later kunt upgraden. Voor mensen die echter meteen het snelste willen is een R600 dual (om het zo maar te noemen) best aantrekkelijk. De GX2 was toch ook populair? Misschien is het wel mogelijk om een R600 samen met een x1650Gpu op één pcb te prikken, zodat je een physx oplossing en VGA in één hebt.

Ik zie mezelf nog geen crossfire bord aanschaffen, aangezien die van mezelf nog ruim voldoet. vanuit dat oogpunt is een dergelijke kaart misschien toch wel aantrekkelijk.
Omdat CF wel mogelijk is. Elke kaart heeft een eigen cooler die de GPU coolt. De cooler van de R600 is giganties. Hij kan maximaal 250 Watt afvoeren. 2x R600 zou al meer dan 400 watt gebruiken. Dat krijg je dus niet gecooled. Het PCB is nu al super complex door de 512 Bit bus. En dan wil je er ook nog een 2e Core op gooien met het dubbele aantal geheugen chips. een dubbeldekker zoals de GX2 is niet mogelijk aangezien de R600 cooler in ieder geval 2 slots is misschien zelfs 3. De GX2 gebruikte Notebookchips. Die op lagere clock speeds liepen. En ook gemaakt waren om zuinig te zijn. Daardoor kon er een kleine singel slot cooler gebruikt worden. En er dus 2 op elkaar geplakt worden. Ik denk ook niet dat een een 8850 GX2 komt maar we zullen zien......

Als er al een 8850 GX2 of R600 Gemini komt zal 2x 8800 GTX of 2xR600 in SLi/CF veel sneller zijn. Met nog veel grotere verschillen als bij de 7900 GTX SLi vs 7950 GX2. En die verschillen waren al heel groot. Want je kunt het vermogen niet leveren en de warmte niet kwijt. Dus niet echt interessant imo.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 24-04 21:47

Ultraman

Moderator Harde Waren

Boefje

Vol ! :D

Als je stil blijft staan, komt de hoek wel naar jou toe.

Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.

Let op:
Helaas blijken sommige mensen het nog niet te begrijpen: dit is een ATi discussietopic, geen plek voor nVidia en ATi mensen om elkaar te bestoken. Hou het on-topic (patsen met de nieuwste nVidia chip is niet relevant hier) en hou het -wat dan ook anderen doen- beleefd en onderbouwd. Flames, trolls en flamebaits kunnen op Officiele Waarschuwingen rekenen. Ook als "de ander begon"!