Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 26 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 5 6 Laatste
Acties:
  • 2.185 views sinds 30-01-2008

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
CJ schreef op woensdag 02 november 2005 @ 12:41:
Ik kan op dit moment niet zo veel aan toevoegen aan je R580 info... behalve het bekende 'in-house and working'...

Ik kan je wel vertellen dat je naar de performancejump moet kijken die je krijgt als je van een X1300Pro naar een X1600XT gaat. Deze hebben dezelfde core kloksnelheden, hetzelfde aantal TMUs en hetzelfde aantal ROPs.... maar de performance van een X1600XT ligt zo'n 100% hoger dan een X1300Pro. En dat allemaal doordat elke ROP 3x zo veel shaderprocessors heeft in de X1600XT en een ringbus heeft. Trek het lijntje nu door naar de R580 in vergelijking tot de R520 en probeer je dan voor te stellen wat een R580 op 625Mhz doet. Houdt er rekening mee dat de core ook groter wordt en de R580 misschien dus op lagere kloksnelheden loopt en dat de ringbus waarschijnlijk hetzelfde blijft.
De X1600 had toch een setup van : 4-3-1-2
En de R520 had: 16-1-1-1
De R580 zou krijgen: 16-3-1-1 ???

Want ik neem aan dat i niet het dubbele Aantal TMu's krijgt. Aangezien die steeds minder gebruikt gaan worden. Dus een echte 100% zul je niet gaan krijgen zoals bij de X1300 > X1600 aangzien:

-Clockspeeds lager worden
-Bijde kaarten al ringbus hebben
-En het aantal tmu's niet verdubbelt is

Dus ik denk dat het dan de nieuwe GTX en de R580 toch aardig aan elkaar gewaagt zullen zijn. Alleen de shader prformance van de R580 zou een stuk hoger kunnen zijn. En dat i daar mischien dus mischien net zijn voordeel meer zal halen. Maar er valt niet veel over te zeggen op dit moment. Hopelijk weten ze wat aan het stroom verbruik te doen want een nog grotere chip met zelfde voltages en clocks zoals de huidige XT gaat wel erg veel verbruiken. Mischien meer dingen net als Low K gaan gebruiken ?? ik weet niet of er nog meer opties zijn hoor maar wie weet.....

[Voor 5% gewijzigd door Astennu op 02-11-2005 12:58]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • TerranGhost
  • Registratie: januari 2004
  • Laatst online: 10-08-2008
Astennu schreef op woensdag 02 november 2005 @ 12:24:
[...]


Jah ik vraag me idd af hoe dat dan zit bij die 550 mhz. Zouden de shaders dan 550 lopen ? of alles ? en is dat 1.1 ns geheugen niet super duur ? ik neem aan dat het dat wordt als je 1.8 ghz stock wilt doen dan neem je meestal een marge op de modules.

En de R580 zou iets van 3x de shader power krijgen van de X1800 ( op gelijke snelheden ) Dus de vraag is of de rest niet de limiet wordt. Aangezien de GTX in zijn geheel sneller wordt door de clocks.

Ik gok dat de R580 ongeveer de zelfde clocks krijgt als de XT. En dat i het dan van die verbeterde shader power moet hebben. CJ mischien heb jij hier wat op toe te voegen ?
Is 1.6ns geheugen niet gemaakt om op 600Mhz te lopen (1200 effectief), ditzelfde geheugen loopt op de Asus kaarten (GTX Top) op 675Mhz.
Zit dus meestal ook nog een goede marge in ;)

Dell XPS M1710, Intel C2D T7200, 2GB Mem, 7900GS 610/560Mhz


  • Garta
  • Registratie: oktober 2005
  • Laatst online: 04-08-2012
msi
Grafische engine: ATi Radeon X1300Pro
Geheugen: 256 MB
Type geheugen: DDR2
Engine kloksnelheid: 600 MHz
Geheugen kloksnelheid: 800 MHz
RAMDAC: 400 MHz


is dit een goede videokaart hij kost 130euro.


zal deze beter zijn dan een g6600?
Modbreak:Totaal offtopic en vrij lui - lees gewoon reviews ipv een topic die over iets anders gaat te vervuilgen :o

[Voor 21% gewijzigd door dion_b op 03-11-2005 12:06]

heb dislexie, sorry

Astennu schreef op woensdag 02 november 2005 @ 12:57:
[...]


De X1600 had toch een setup van : 4-3-1-2
En de R520 had: 16-1-1-1
De R580 zou krijgen: 16-3-1-1 ???
X1600: 4-1-3-2
X1800: 16-1-1-1
R580: 16-1-3-1
Want ik neem aan dat i niet het dubbele Aantal TMu's krijgt. Aangezien die steeds minder gebruikt gaan worden. Dus een echte 100% zul je niet gaan krijgen zoals bij de X1300 > X1600 aangzien:

-Clockspeeds lager worden
-Bijde kaarten al ringbus hebben
-En het aantal tmu's niet verdubbelt is
X1300 heeft 4 TMUs. X1600 heeft 4 TMUs.
X1800 heeft 16 TMUs. R580 heeft 16 TMUs.

Het aantal TMUs blijft dus hetzelfde bij de X1600 als bij de X1300, dus de performancewinst ligt hier vooral bij de shaderprocessors en ringbus. De ringbus is inderdaad hetzelfde, maar de verdriedubbeling in shaderprocessors (van 16 naar 48) zal straks zeker voor een leuke boost zorgen. De TMUs bij de X1K serie zijn echter los gekoppeld van de shaderpipelines en ATi kan daar nu ook de aantallen flexibel aanpassen naar wens.
Hopelijk weten ze wat aan het stroom verbruik te doen want een nog grotere chip met zelfde voltages en clocks zoals de huidige XT gaat wel erg veel verbruiken. Mischien meer dingen net als Low K gaan gebruiken ?? ik weet niet of er nog meer opties zijn hoor maar wie weet.....
Low-K wordt al gebruikt door ATi dus daar zal ATi niet veel meer profijt van kunnen hebben. De enige stap die er nog aan zou kunnen komen is de stap naar 0.08u + lowk voor de R590 (de backupchip van ATi voor noodgevallen..). De specs van de nieuwe GTX zijn de trouwens voor zover ik weet de specs van de RSX. Dat geeft meteen een goed beeld over de grafische capaciteiten van de PS3, zeker als je weet dat de Xbox360 de grafische kracht heeft van 32 standaard pipelines op 500Mhz.

Aan het stroomverbruik wordt gewerkt. Ook de R520 zal straks minder stroom verbruiken in 2D modes. Dit wordt straks een standaard onderdeel van Catalyst. Nogmaals, door de problemen heeft men minder kunnen sleutelen aan de drivers dan ATi zelf voorzien had. En als je straks M58 ziet, dan geeft dat misschien een beter beeld over de mogelijkheden van R580 wat betreft stroomverbruik.

De interessante periode is nu echt begonnen. De nieuwe NV komt er aan en R580 is inhouse en working. G75 zou nu ook al min of meer klaar moeten zijn en ATi heeft R590 als backup op de roadmap staan. Daar heeft NV natuurlijk G80 voor klaar staan, terwijl ATi al flink heeft kunnen experimenteren met Xenos en R600 ook al in een ver gevorderd stadium is. Ben benieuwd wie de DX9 eindstrijd gaat winnen en wie het comfortabelst het DX10 tijdperk in gaat.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • TripNRaVeR
  • Registratie: september 2004
  • Laatst online: 16-06-2012

TripNRaVeR

Voorzitter..

TripNDroid Mobile Engineering


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
CJ schreef op woensdag 02 november 2005 @ 13:46:
[...]


X1600: 4-1-3-2
X1800: 16-1-1-1
R580: 16-1-3-1


[...]


X1300 heeft 4 TMUs. X1600 heeft 4 TMUs.
X1800 heeft 16 TMUs. R580 heeft 16 TMUs.
Huh :?

Het was toch Robs - Z Stincels ( of hoe je het schrijft :D ) - Shader Pipes - TMU's ??

Waar staat die 2 dan voor bij de X1600 ? waren dat die Z stincels ? waar i er 8 van had ?.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

MarkoZ schreef op woensdag 02 november 2005 @ 13:45:
Grafische engine: ATi Radeon X1300Pro
is dit een goede videokaart hij kost 130euro.
zal deze beter zijn dan een g6600?
De X1300Pro zet voor het geld dat hij kost ronduit bedroevende prestaties neer. Zie deze review van Anandtech maar eens.
Doe jezelf dus een plezier en ga voor een X800GT of een 6600GT. Ook de X700Pro is sneller dan de X1300Pro. Als je minder geld wilt spenderen kun je ook kijken naar de standaard 6600 en X700. Die zijn een stuk goedkoper dan de X1300Pro, maar doen er qua prestaties niet of nauwelijks voor onder.

Deze reactie slaat trouwens ook op je vraag, en laat aan duidelijkheid weinig te wensen over:

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 20:20

XanderDrake

Genetics is the key

MarkoZ schreef op woensdag 02 november 2005 @ 14:39:
me budget is maar 130euro helaas :|
Dan raad ik een 6800LE aan :) . Zoek maar eens rond, en kijk voor scores en info op het grote 6800LE topic!
Modbreak:Erg behulpzaam, maar om de topic een beetje schoon te houden is het beter niet te reageren op dergelijke offtopic dingen en gewoon een topicreport te doen :)

[Voor 27% gewijzigd door dion_b op 03-11-2005 12:08]

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

XanderDrake schreef op woensdag 02 november 2005 @ 14:46:
Dan raad ik een 6800LE aan :) . Zoek maar eens rond, en kijk voor scores en info op het grote 6800LE topic!
En als je nog minder geld wilt uitgeven laat een 9800 Pro de X1300 ook nog wel alle hoeken van je systeem zien ;)

Als je PCI-e moet hebben, kijk dan naar de X700 Pro of X800GT.
Wil je geld over houden, pak dan een normale 6600...

[Voor 7% gewijzigd door Cheetah op 02-11-2005 15:02]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

Astennu schreef op woensdag 02 november 2005 @ 14:29:
[...]


Huh :?

Het was toch Robs - Z Stincels ( of hoe je het schrijft :D ) - Shader Pipes - TMU's ??

Waar staat die 2 dan voor bij de X1600 ? waren dat die Z stincels ? waar i er 8 van had ?.
Het was ROP - TMU per ROP - Shader Processors per ROP - Z/Stencils unit per ROP.

Ik heb het al een aantal keren uitgelegd... ;)

Zie hier: [rml]CJ in "[ Algemeen] ATi Nieuwsdiscussie Topic - D..."[/rml]
En vooral hier: [rml]CJ in "[ Algemeen] ATi Nieuwsdiscussie Topic - D..."[/rml]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
CJ schreef op woensdag 02 november 2005 @ 15:39:
[...]


Het was ROP - TMU per ROP - Shader Processors per ROP - Z/Stencils unit per ROP.

Ik heb het al een aantal keren uitgelegd... ;)

Zie hier: [rml]CJ in "[ Algemeen] ATi Nieuwsdiscussie Topic - D..."[/rml]
En vooral hier: [rml]CJ in "[ Algemeen] ATi Nieuwsdiscussie Topic - D..."[/rml]
Ik heb ze door elkaar gehaald :D de X1600 heeft dus 8 z/stencils neeh dan is het me duidelijk.

Maar in dat opzigt heeft de R580 X4 de shader power van de X1600, x4 de TMU power en 2x de z/stencil power. Dus hij zal geen 100% sneller worden dan de R520.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • AntonH
  • Registratie: augustus 2004
  • Laatst online: 09-09 16:35
Even een klein probleempje tussendoor:

Een paar dagen terug heb ik me een MSI RX800PRO aangeschaft. Vandaag heb ik de kaart ingebouwd en geïnstalleerd. De videokaart werkt uitstekend in mijn pc (XP2400+: 9000 punt in 3dmark03). Echter heb ik dus één klein probleempje: ik kan nergens mijn temperatuur uitlezen, dus niet bij het tabblad overdrive zoals bij mijn oude 9600XT. Ook kan ATI Tool geen temperatuur uitlezen. Betekent dit dat de kaart helemaal geen temperatuursensor heeft of moet ik het nog ergens anders mee proberen?

Ik gebruik de nieuwste ATI Catalyst drivers met control panel (5.10). Verder heb ik een 360 Watt Chieftec voeding, welke ook met deze kaart prima voltages levert.

Laat maar, kheb het al voor elkaar gekregen in ATI Tool: even wat beter zoeken in de instellingen.
Modbreak:Niks geen 'kleine probleempjes tussendoor' :X

Het is een nieuwsdiscussietopic, hou het on-topic :o

[Voor 17% gewijzigd door dion_b op 03-11-2005 12:04]


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Het lijkt erop dat er vandaag geen XT kaarten zijn binnen gekomen bij OCUK shop.

Niet op voorraad.


  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

edward2 schreef op woensdag 02 november 2005 @ 17:01:
Het lijkt erop dat er vandaag geen XT kaarten zijn binnen gekomen bij OCUK shop.
Verkeerde shop gekozen?
http://www.allstarshop.co...37PPB8LCH0GTVXGKVRTCUBS67

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Ghehe. Ik denk dat ik me XL er dan maar uit donder en een XT pak. Dan heb je teminste 100% zeker een goede kaart :) Maar ik wacht wel even op salland die zou ze voor 530 euro krijgen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • HaLDoL
  • Registratie: februari 2003
  • Laatst online: 10-10-2006

HaLDoL

First Class Anti-Psychotic

Astennu schreef op woensdag 02 november 2005 @ 17:10:
[...]


Ghehe. Ik denk dat ik me XL er dan maar uit donder en een XT pak. Dan heb je teminste 100% zeker een goede kaart :) Maar ik wacht wel even op salland die zou ze voor 530 euro krijgen.
Vreemd dat Newegg ze nog niet heeft.

.:3700+ SDE4 :: DFI NF4u :: OCZ VX :: My 6800 GT overclocking guide:.


  • K
  • Registratie: mei 2002
  • Laatst online: 28-10-2012

K

I (L) ATI

Welke tools zijn er btw beschikbaar voor het overklokken van een X1800XL? Overclocker gebruik ik al, maar die onthoudt mijn kloksnelheden niet. En ATi Tool herkent mijn kaart niet. (25B8)

  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Verkeerde shop?, eerder verkeerd merk en type :D
Geen verzending buiten de US namelijk en geen fysieke voorraad (zij melden wel vaker 1-2 days.

OC UK heeft het nu over 28 nov... ik stop er waarschijnlijk mee. Ik ben het zat om iedere keer weer zoveel moeite te doen voor die ATI-kaarten. Dit bedrijft zuigt zo ongelooflijk vwb de beschikbaarheid, van de toprange het is elke keer weer een onmogelijke missie zo'n ding normaal te bestellen als je niet tot een paar uitverkoren personen behoord.... :(

[Voor 58% gewijzigd door edward2 op 02-11-2005 19:19]

Niet op voorraad.


  • TerranGhost
  • Registratie: januari 2004
  • Laatst online: 10-08-2008
Astennu schreef op woensdag 02 november 2005 @ 17:10:
[...]


Ghehe. Ik denk dat ik me XL er dan maar uit donder en een XT pak. Dan heb je teminste 100% zeker een goede kaart :) Maar ik wacht wel even op salland die zou ze voor 530 euro krijgen.
Of je spaart je geld en wacht op de R580 :P Het is niet alsof je het verschil gaat merken tussen je XL op XT snelheden (of bijna XT) en een echte XT. Tenzij je op een dusdanig hoge resolutie met AA en AF wil spelen dat je niet zonder die extra 512mb kunt, maar dan betwijfel ik so wie so of de kaart er snel genoeg voor is.

Dell XPS M1710, Intel C2D T7200, 2GB Mem, 7900GS 610/560Mhz


  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
edward2 schreef op woensdag 02 november 2005 @ 18:17:
[...]


Verkeerde shop?, eerder verkeerd merk en type.
Geen verzending buiten de US namelijk en geen fysieke voorraad (zij melden wel vaker 1-2 days.

OC UK heeft het nu over 28 nov... ik stop er waarschijnlijk mee. Ik ben het zat om iedere keer weer zoveel moeite te doen voor die ATI-kaarten. Dit bedrijft zuigt zo ongelooflijk vwb de beschikbaarheid,het is elke keer weer een onmogelijke missie zo'n ding normaal te bestellen als je niet tot een paar uitverkoren personen behoord.... :(
Wacht je toch gewoon ff op de 7800GTX 512MB? :P

specs desktop | specs laptop


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
K schreef op woensdag 02 november 2005 @ 17:53:
Welke tools zijn er btw beschikbaar voor het overklokken van een X1800XL? Overclocker gebruik ik al, maar die onthoudt mijn kloksnelheden niet. En ATi Tool herkent mijn kaart niet. (25B8)
De nieuwe versie wel van ATi tool werkt wel of i ook dingen kan onthouden weet ik niet. Iff mem clocks werken niet,

Maar hij kan wel uitlezen hoeveel ampere de gpu gebruikt. En hoe warm de power regualtors worden. Nice progje igg.


Jah ik wacht denk ik wel op de R580. 2 maanden moet ik nog wel overleven op niet XT speeds :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • RSSfeed
  • Registratie: oktober 2005
  • Laatst online: 09-11-2005
Hier een interessant artikel over een nieuwe ATI avivo feature die het transcoden van video met een factor 5 moet verminderen:
"ExtremeTech's Jason Cross got a lead about a technology ATI is developing called Avivo Transcode that will use ATI graphics cards to cut down the time it takes to transcode video by a factor of five. It's part of the general-purpose computation on GPU movement. The Aviva Transcode software can only work with ATI's latest 1000-series GPUs, and the company is working on profiles that will allow, for example, transcoding DVDs for Sony's PSP."
Met een complete wizard erin:
http://common.ziffdavisinternet.com/util_get_image/11/0,1425,sz=1&i=111127,00.jpg
Ze hebben het werkend gekregen en dus echt 400% winst gemerkt. Echt massive, vooral als je veel DVD-shrinkt.

En de Inquirer denkt nu dat de GTX 512 op 550/1800 loopt:
http://theinquirer.net/?article=27400

[Voor 16% gewijzigd door RSSfeed op 02-11-2005 18:51]

Hall of Fame


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

shuogg schreef op woensdag 02 november 2005 @ 18:28:
[...]


Wacht je toch gewoon ff op de 7800GTX 512MB? :P
Als het echt onmogelijk is om een XT te pakken te krijgen (het is echt een sport) en de 512 mb 7800GTX veel sneller blijkt te zijn, wie weet.

Maar ik wil old scool AF (iig hoek onafhankelijk, misschien nog wel brilinear), HDR+AA, branching power (voorlopig alleen mooie demos ;) ) en vind gewoon de ATI-tech erg mooi.

[Voor 9% gewijzigd door edward2 op 02-11-2005 18:52]

Niet op voorraad.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
edward2 schreef op woensdag 02 november 2005 @ 18:49:
[...]


Als het echt onmogelijk is om een XT te pakken te krijgen (het is echt een sport) en de 512 mb 7800GTX veel sneller blijkt te zijn, wie weet.

Maar ik wil old scool AF (iig hoek onafhankelijk, misschien nog wel brilinear), HDR+AA, branching power (voorlopig alleen mooie demos ;) ) en vind gewoon de ATI-tech erg mooi.
Daar zeg je me wat :D eens kijken of ik die toy shop kan downloaden :D

Uhmm kan geen link vinden van de realtime versie :'(. Mischien is die niet vrij gegeven ?

[Voor 9% gewijzigd door Astennu op 02-11-2005 19:34]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • The Source
  • Registratie: april 2000
  • Laatst online: 20:55
FYI 7800GTX 512MB zal in NL incl BTW ongeveer 680 euro gaan kosten.

  • Aight!
  • Registratie: juli 2004
  • Laatst online: 22:26

Aight!

'A toy robot...'

Dat moet wel zakken als de X1800XT 550 kost. Of de performance moet zeker 10 a 20 % meer zijn.

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

The Source schreef op woensdag 02 november 2005 @ 19:35:
FYI 7800GTX 512MB zal in NL incl BTW ongeveer 680 euro gaan kosten.
Wat is de MSRP dan? $699? Dat zou hem wel $100 boven de X1800XT positioneren...

Weet jij toevallig ook hoe het zit met die aanhaling van HalDol dat er 2 versies komen: 550/1600 om 600/1800? De 1ste zou dan mooi gelijkgeprijst kunnen worden aan de XT en de 2e wat hoger...

Maar goed, de GTX kwam ook binnen voor 600 Euro en zat binnen een maand op ~530... deze zullen dus ook wel in no time onder de 600 euri zakken... :)

[Voor 15% gewijzigd door Cheetah op 02-11-2005 20:16]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Aight!
  • Registratie: juli 2004
  • Laatst online: 22:26

Aight!

'A toy robot...'

Trouwens, jullie hadden het over dat ATI's crossfire bepaalde berekingen van physics op zich deed nemen, hier is een artikel over software die dat mogelijk moet maken:
By now, many have heard of AGEIA and its startling announcement: they will produce a processor used exclusively to process physics related computations. Called the PPU, or Physics Processing Unit, its role will be to offload highly intensive mathematics such as realistic water movement, realistic character physical reactions to objects and the world, from the CPU to a dedicated processor. This all seems like the natural progression of things, since dedicated sound, network and other processors are commonplace.

Today, however, most processors spend their time mostly idling - you're rarely ever pushing your hardware to its limits consistently. Thus Havok, a company that's well known to game developers, has announced that it has plans to do for you what AGEIA promises, but save you money and maximize your dollar spent at the same time. Indeed, Havok has confirmed with us that they are competing with AGEIA.

The Havok FX engine is what Havok claims will provide the functionality of a PPU, but its approach is entirely different than AGEIA's. What's special about Havok FX is that it's a software engine that is currently based on Havok's widely used physics engines. However, Havok FX is designed to offload many intensive physics functions from the CPU to the GPU. Using technology available in Shader Model 3.0 and beyond, the Havok FX engine will be able to take advantage of unused resources of today's powerful GPU's and put them to use.

Many games today are intensive, but while they don't use a lot of what your graphics card is capable of doing (features, etc.), they do stress the majority of GPUs that are out there - often to their very limits. For example, a given scene can be utilizing 80% of GPU rendering resources (bus, memory bandwidth, etc.) while another scene uses 20%. How Havok aims to utilize the resources in a GPU to accelerate physics calculations remains to be seen. Havok did mention to us however, that they believe having two GPUs would be better suited to handle such duties as load balancing would be the key issue. Microsoft's Shader Model 3.0 requires compliance for full programmability, so with today's DX9 compliant GPUs, it's entirely possible for Havok FX to program a Radeon X1800 or GeForce 7800 GT (and beyond) on the fly, with specific physics processing instructions.

Havok also pointed out to us that its Havok FX engine will allow a Shader Model 3.0 compliant GPU to accelerate "game-play" physics and not only the resulting visual effects of such physics, which Havok says, AGIEA's product only does. Havok explains that its engine is able to offload such physics operations as collision detection, which on today's general purpose GPUs are very slow to compute. We spoke to Havok and they said:

"It is definitely the case that load-balancing is a key challenge for both effects physics and graphics. Enabling effects physics via the GPU offers much greater flexibility for addressing that type of problem versus a proprietary physics hardware device that will inevitably sit idle while the GPU may be overtaxed. We believe that two GPU's stand a far better chance of collaborating more effectively."

One important fact to keep in mind is that Havok is playing a significant role in the development of console technology, and has not specifically stated that the PC desktop is the ideal platform for Havok FX. Consoles have the advantage of being a closed system, in which dedicated solutions such as Havok FX will have long term applications. It will be interesting to see if Havok can achieve this and how well.

Havok's physics engines are featured in many of today's games, including F.E.A.R., Age of Empires 3, Brothers in Arms: Road to Hill 30, Halo 2 and many others. The full list can be found here on Havok's website.
http://www.anandtech.com/video/showdoc.aspx?i=2585

[Voor 3% gewijzigd door Aight! op 02-11-2005 20:28]


  • The Source
  • Registratie: april 2000
  • Laatst online: 20:55
FirefoxAG schreef op woensdag 02 november 2005 @ 20:15:
[...]
Wat is de MSRP dan? $699? Dat zou hem wel $100 boven de X1800XT positioneren...

Weet jij toevallig ook hoe het zit met die aanhaling van HalDol dat er 2 versies komen: 550/1600 om 600/1800? De 1ste zou dan mooi gelijkgeprijst kunnen worden aan de XT en de 2e wat hoger...

Maar goed, de GTX kwam ook binnen voor 600 Euro en zat binnen een maand op ~530... deze zullen dus ook wel in no time onder de 600 euri zakken... :)
1800XT in NL zal ongeveer 90 euro goedkoper zijn qua end user price.
Dit is een gemiddelde prijs. Disty en retailers kunnen natuurlijk elk een andere marge nemen.
Dollar koers kan ook schommelen.

  • Krizzie
  • Registratie: mei 2004
  • Laatst online: 16-10 16:42

Krizzie

Progressive Music \o/

Weet je ook iets over de snelheid van de GTX512? :)

Geluidswolk


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
En hoe gaat het met de beschikbaarheid zitten?

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
oeLangOetan schreef op woensdag 02 november 2005 @ 21:45:
En hoe gaat het met de beschikbaarheid zitten?
Jah dat is idd de grote vraag. Ik vraag me echt af of nvidia veel kaarten met 550-1800 gaat maken. Lijkt me een dure bedoeling. En je hebt er veel goede cores voor nodig.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • The Source
  • Registratie: april 2000
  • Laatst online: 20:55
oeLangOetan schreef op woensdag 02 november 2005 @ 21:45:
En hoe gaat het met de beschikbaarheid zitten?
Net genoeg om ons een indruk te geven hij goed beschikbaar is :)

nVidia kan de kaart op dit moment nog niet leveren, heb paar uur geleden nog om allocatie gevraagd. Dan verwijzen de sales mensen mij heel makkelijk naar Taiwan toe met wat smoesjes. Ach ja... zo gaat dat spelletje. Anyway alle overgeklokte kaarten (Top, etc) kaarten zijn al ruim een maand in shortage, dus ik denk dat nVidia al een tijdje goed yields aan het opsparen is. Maar het zou me nog niet verbazen als ze zelf nog niets definities weten mbt de clockspeed. Ze kijken wel wat ze max kunnen halen en dan wordt het in de bios ingebakken. Het zou me echt verbazen als die kaarten nog veel ruimte over hebben.

Iemand zei ook iets over 90nm bij nVidia dat het nog half jaar ging duren. Ik denk / vermoed echter dat G72 en G73 al op 90nm zullen zijn. Dit omdat een die shrink relatief makkelijk is tov een compleet nieuwe chip ontwerpen in 90nm zoals ATI dat deed. Voor high end is het enkel logischer om naar 90nm over te gaan om een hogere snelheid te behalen, volume zit niet in high end dus kosten zijn niet het issue. G72 en G73 zijn midrange en lowend, dus daar gaat wel volume in zitten. Als nVidia daarvan meer GPU's op een waffer kan krijgen betekent dat meer winst.

  • Garta
  • Registratie: oktober 2005
  • Laatst online: 04-08-2012
Sapphire Radeon X800 GT 128MB DDR3 (PCI-e, DVI) 135euro


zou deze kaart goed samen gaan met een nforce4 nb of zijn er betere kaarten >135euro
Modbreak:Lees reviews ipv zo'n post te doen. Als losse topic zou een ononderbouwde vraag als deze gelijk op slot gaan, in een grote topic is het ook niet gewenst :o

[Voor 39% gewijzigd door dion_b op 03-11-2005 12:03]

heb dislexie, sorry


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
MarkoZ schreef op donderdag 03 november 2005 @ 00:06:
Sapphire Radeon X800 GT 128MB DDR3 (PCI-e, DVI) 135euro


zou deze kaart goed samen gaan met een nforce4 nb of zijn er betere kaarten >135euro
Werkt prima kaarten. Ik zou zekers voor ATi gaan omdat ik op dit moment de drivers prettiger vind werken en het overclocken voor mij ook makkelijker is. Maar dat is een persoonlijke mening. de 6600 GT van nvidia is net zo goed maar ik weet nie twat de prijs daar van is.

Ik heb een nieuwe bios in me kaart gestopt ( HiS XL bios ). Voltage probleem blijft maar de clock speeds zijn wel omhoog gegaan. Ik draai nu 650-765 @ 1.175V en 2.0 voor het geheugen. Bij 660 kreeg ik vastlopers.

Edit:

Ben nu LC aan het testen op 1.95 volt gpu en 2.0v op het geheugen. Clocks zijn 650-800. Dat is nog te doen denk ik zo :)

[Voor 9% gewijzigd door Astennu op 03-11-2005 00:50]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Interview met ATi: Driving To The Next Level with Terry Makedon of ATi
Hardware Fanatics heeft een 7 pagina tellende interview online gezet met Terry Makedon aka Catalyst Maker. Het is een zeer vermakelijk interview maar biedt verder niet echt veel nieuws. Natuurlijk wordt er in gegaan op zaken als OpenGL performance waar direct gewezen wordt op de performance van de X1K serie met de laatste beta drivers (straks standaard in Catalyst 5.11), maar ook wordt er gesproken over een OpenGL rewrite:
There is also a secondary project going on to re-write certain parts of our OpenGL driver. This is not expected to give big performance boosts, but just generally will improve stability, and clean up the code a bit.
Lees het complete interview hier: http://hardwarefanatics.c...e=News&file=article&sid=6

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
oeLangOetan schreef op woensdag 02 november 2005 @ 01:07:
Was het btw niet een van de sterke punten van de ring bus architectuur datie heel hoge clockspeeds van het geheugen toeliet terwijl dat de warmte goed verspreid werd?
Misschien wil nVIdia wel maar kunnen ze niet...
Lijkt me marketingpraat. De geheugencontroller heeft ondersteuning voor GDDR4 geheugen aan boord, en dat geheugen werkt op hoge snelheden (2,5GHz ...). Natuurlijk is het leuker om te zeggen "het ring bus architectuur is ontworpen voor hoge snelheden", dat geeft een betere indruk op mensen.

It takes two fools to argue.

Het is niet alleen marketingpraat. De memorycontrollers van bv de X800 serie kunnen bv niet hoger gaan dan de maximale GDD3 snelheid. En ik geloof dat de efficientie zelfs omlaag gaat wanneer men voorbij een bepaalde snelheid gaat op GDDR3. Daarom is men bij ATi overgestapt op een ringbus architectuur en werkt men met blokken van 8x32 bits ipv 4x64 bits om uit te komen op 256-bits. Kleinere brokken zijn sneller te verwerken en de oude memorycontrollers zouden zich dusdanig kunnen verslikken in de hogere snelheden waardoor je dus eigenlijk niets hebt aan de hoge snelheden. De nieuwe MC is dus wel degelijk efficienter, anders was ATi wel bij de oude MC gebleven. Verwacht de nieuwe MC uit de X1K serie dan ook in de R600 serie... En zoals je al gezien hebt met de beta drivers is de programmeerbaarheid enorm groot waardoor per game een profiel met de meest efficiente instellingen kan worden gemaakt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • SG
  • Registratie: januari 2001
  • Laatst online: 09-10 20:01

SG

SG surft naar info hardewaren

Hacku schreef op donderdag 03 november 2005 @ 02:11:
[...]


Lijkt me marketingpraat. De geheugencontroller heeft ondersteuning voor GDDR4 geheugen aan boord, en dat geheugen werkt op hoge snelheden (2,5GHz ...). Natuurlijk is het leuker om te zeggen "het ring bus architectuur is ontworpen voor hoge snelheden", dat geeft een betere indruk op mensen.
Lijkt mij niet zo voorhandend at het marketing praat is.

1 ) ze zeggen dat een centrale MEmcontroler 'n hot spot is. En dat dat als gevolg heeft dat bij klok limiet van de GPU er dan ook snel mem artifact komen terwijl d ekern eigenlijk nog wel verder kan. Doordat de MC niet verder wil of te heet wordt omdat het 'n hotspot is.
2 ) Door de MC te verdelen spreid je één groot hotspot in kleiner stukken je verdeeld de warmte beter.
3 ) 'n Centralle MC leid ook tot andere mem pin layout. Die ringbus leid naar mem layout waarbijn de uitgangen rond om de chip komen. aangezien de memchip's ook rondom de chips komen is er makelijker en optimaler te tracen op de PCB en vaak ook minder layer's nodig.

Marketing's blaat misschien maar is wel erg aannemelijk dus denk dat het toch wel waar kan zijn, hoeft niet.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
Bovendien gebruikt de CELL processor ook een dergelijke geheugenbus om de L2 cache, SPEs, FlexIO interface, en PPE met elkaar te verbinden. Het lijkt me een bewezen concept.

[Voor 26% gewijzigd door oeLangOetan op 03-11-2005 09:35]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Ik ben nu ook benieuwd wat voor een geheugen ATi op de R580 gaat zetten. Aanzien Nvidia iets van 1.6 a 1.8 ghz er op zet. ATi was super snel met zijn 1.5 Ghz. Maar wordt nu overtroffen.

Ik wil wel zo een R580 hebben als de specs kloppen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

Astennu schreef op donderdag 03 november 2005 @ 09:45:
Ik wil wel zo een R580 hebben als de specs kloppen.
Tja, wie niet ;)
Modbreak:Geen slowchat aub, ook niet in 'grote topics'

[Voor 16% gewijzigd door dion_b op 03-11-2005 12:00]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
CJ schreef op donderdag 03 november 2005 @ 02:37:
Het is niet alleen marketingpraat. De memorycontrollers van bv de X800 serie kunnen bv niet hoger gaan dan de maximale GDD3 snelheid.
Dat wil niet zeggen dat ATI de memorycontrollers kan updaten zodat ze ook GDDR4 gaan ondersteunen.

@SuperG, ik had het niet over de warmte verdeling - elke fabrikant zal de warmte van z'n producten wel zo optimaal mogelijk verdelen - maar ik wou gewoon zeggen dat huidige memorycontrollers ook best met GDDR4 overweg kunnen (uiteraard met de nodige aanpassingen van de controller en het PCB).
Kleinere brokken zijn sneller te verwerken en de oude memorycontrollers zouden zich dusdanig kunnen verslikken in de hogere snelheden waardoor je dus eigenlijk niets hebt aan de hoge snelheden.
Lijkt me gewoon een aanpassing van de controller, zoals ik hierboven zei. Het zou me allesinds verwonderen dat je voor GDDR4 geheugen plots een totaal andere geheugencontroller moet ontwerpen. Het ring bus architectuur is in de eerste plaats toch ontworpen voor het optimaal gebruik van geheugenbandbreedte?

[Voor 32% gewijzigd door XWB op 03-11-2005 11:36]

It takes two fools to argue.

Zelfs al zou de MC die in de R4x0 serie gebruikt werd gebruik kunnen maken van GDDR4, dan zou deze niet optimaal gebruik zou kunnen worden. Aan de hogere snelheden heb je dan niets meer omdat de efficientie mist. Dit zou zelfs het geval zijn bij hoge snelheid GDDR3 geheugen.

Overigens is het ontwerp van GDDR4 sterk gebaseerd op GDDR3, dus zou het theoretisch gezien moeten kunnen werken op oudere MCs. Maar zoals ik al zei, je hebt dan weinig aan de hogere snelheden. Om hier goed gebruik van te kunnen maken heeft ATi dus de ringbus en 8x32 bits ipv 4x64 bits crossbar MC geimplementeerd. Ik geloof dat 8x32-bits zelfs onmogelijk was geweest als ATi geen ringbus had ingevoerd. Dus het nut van GDDR4 op de 'oude' ATi MCs is eigenlijk nihil.

De ringbus architectuur is dus gemaakt voor zowel optimaal gebruik van de bandbreedte en om de reden die SuperG al noemde. Hogere snelheid geheugen als GDDR4 zorgt voor hotspots bij een centrale MC zeker als een chip zo groot is als R520. Je zou bij ATi bij heel snel geklokt GDDR4 geheugen (Samsung begint met snelheden van 2.5 Ghz) dus artifacts krijgen als je geen ringbus had. Misschien dat nVidia dit heel anders op lost, maar een ringbus lijkt op dit moment een logische oplossing.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Ik ben het met CJ eens. Je merkte dat al een beetje vanaf de 9800 pro en ook met de X850. Die hadden vaak problemen met hoge geheugen snelheden. Mijn XL clockt veel makkelijker door op het geheugen. Mijn X850 deed dat totaal niet. Die kon maar 10 mhz extra hebben daar na kreeg ik al problemen. geheugen was 1.6 dus had meer kunnen hebben. Je zag ook dat er wel hogere snelheden werden gehaald maar dat was wel met extreme coolings methoden.

Dus die nieuwe MC heeft wel degelijk geholpen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Format-C
  • Registratie: maart 2005
  • Nu online
CJ schreef op donderdag 03 november 2005 @ 12:22:
Misschien dat nVidia dit heel anders op lost, maar een ringbus lijkt op dit moment een logische oplossing.
Waarom lijkt jou dat zo te zijn? Weet jij wat voor eventuele nieuwe technologieen fabrikanten ontwikkelen dan?

Misschien hebben ze wel iets compleet anders bedacht. En als dat zo is, dan weet niemand het. Althans niet totdat zo'n eventuele kaart er daadwerkelijk is.

[Voor 12% gewijzigd door Format-C op 03-11-2005 13:51]

Idle @ 23.6C, load @ 4850MHz -all core- 58C


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
RappieRappie schreef op donderdag 03 november 2005 @ 13:50:
[...]
Waarom lijkt jou dat zo te zijn? Weet jij wat voor eventuele nieuwe technologieen fabrikanten ontwikkelen dan?

Misschien hebben ze wel iets compleet anders bedacht. En als dat zo is, dan weet niemand het. Althans niet totdat zo'n eventuele kaart er daadwerkelijk is.
Als het over warmte gaat is der niet veel aan te doen dan het gebied dat de warmte maakt proberen uit te smeren over een groter gebied...
RappieRappie schreef op donderdag 03 november 2005 @ 13:50:
[...]


Waarom lijkt jou dat zo te zijn? Weet jij wat voor eventuele nieuwe technologieen fabrikanten ontwikkelen dan?

Misschien hebben ze wel iets compleet anders bedacht. En als dat zo is, dan weet niemand het. Althans niet totdat zo'n eventuele kaart er daadwerkelijk is.
Omdat ATi niet de eerste is die een ringbus architectuur gebruikt om dit soort bottlenecks bij complexe chips en hoge snelheden te omzeilen. Zie ook het eerder door oeLangOetan genoemde voorbeeld van Cell. En ook omdat er geruchten gaan van een rotationbus (ander woord voor Ringbus? ) voor de G70...

Maar goed, ik heb niet uitgesloten dat nV iets anders zou kunnen verzinnen. Ik geef alleen aan wat het meest voor de hand zou liggen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

Ik kan me an sich ook wel goed vinden in het ringbus idee, dat de "hete" memorycontroller effectief in meerdere eenheden verdeed, waardoor betere koeling mogelijk is. Gezien er hierboven werd gesproken over een nV "rotation circle" voor het kunnen opvoeren van de geheugensnelheden lijkt het er op dat ze ook een ongeveer gelijk principe hebben gehanteerd voor de GTX512: ofwel opsplitsing van een single memorycontroller in meerdere middels een "ring" met elkaar verbonden eenheden.
Dit zou ook een van de verklaringen voor het totaal nieuwe PCB ontwerp kunnen zijn... maar goed, dat gaan we dus binnenkort merken :)
Misschien hebben ze wel iets compleet anders bedacht.
Wie weet, maar gemiddeld genomen kun je er van uit gaan dat functioneel ongeveer dezelfde technieken gehanteerd worden voor stroombesparing en hittevermindering, ook al hebben ze een iets andere technische invulling (i.v.m. patenten) en een totaal andere naam ;)

De innovatie van de fabrikanten in de CPU/GPU wereld valt heel wat meer mee dan ze ons allemaal willen laten geloven... :Y)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
HaLDoL schreef op woensdag 02 november 2005 @ 17:21:
[...]
Vreemd dat Newegg ze nog niet heeft.
De X1800XT op voorraad over 3 dagen. (vreemd, 6-11-05 is zondag)

http://www.newegg.com/Pro....asp?Item=N82E16814102624

Edit: in stock!

[Voor 11% gewijzigd door Apple|IA op 04-11-2005 01:12]

Raadt eens wat Asus op de planning heeft staan?

Asus Dual X1800. :o

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Cyberamp
  • Registratie: april 2004
  • Laatst online: 21-09 17:09

Cyberamp

Multithreaded Tweaker

CJ schreef op donderdag 03 november 2005 @ 19:18:
Raadt eens wat Asus op de planning heeft staan?

Asus Dual X1800. :o
Dat zou een mooie set worden x2. En crossfire heeft geen limiet he? Dus quad gpu crossfire of meer kan zelfs. Mits je het geld hebt ja ;) Ben benieuwd dus.

Deze benchmarks vs SLi zijn misselijkmakend. Hopen dat die drivers aangepast worden.

[Voor 23% gewijzigd door Cyberamp op 03-11-2005 19:25]

Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

CJ schreef op donderdag 03 november 2005 @ 19:18:
Raadt eens wat Asus op de planning heeft staan?

Asus Dual X1800. :o
XT of XL?

Een XT zou wel heel erg heftig worden, zowel qua prestaties als qua stroomverbruik en hitte...

Het is leuk dat het gemaakt wordt maar ik zie niet helemaal het nut (net zoals bij de 7800gt dual overigens ;) )
Erg duur en je kunt eigenlijk net zo goed gewoon de crossfire versie kopen. Toch?


PS:
Denk of weet jij of ATI een 1800XT PE achter de hand heeft om de "ultra" te weerstaan. (vogeltje, je weet wel... ;) )

Ik wacht uiteraard eerst de reviews af maar ben waarschijnlijk van plan mijn 7800gtx 256 in te ruilen voor een 1800XT of een 7800GTX 512.

Ik verwacht dat de nieuwe nVidia de 1800XT qua FPS overtuigend zal verslaan maar de 1800XT heeft imo de interessantere features met o.a. AVIVO, AA+HDR, vrijwel zeker betere SM3/HDR implementatie en hoekonafhankelijke AF. Bovendien zijn de OGL prestaties eindelijk sterk verbeterd.

Echter, at the end of the day, geeft de GTX ook erg mooi beeld en zijn FPS voor mij erg belangrijk...

[Voor 3% gewijzigd door Help!!!! op 03-11-2005 19:31]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
vrijwel zeker betere SM3/HDR
Leg uit?

It takes two fools to argue.

Moet dat dan nog? Dynamic branching ("dè SM3.0 feature") en HDR + AA.

Zelfs een opgevoerde G70 kan het gebrek aan snelle dynamic branching niet compenseren. En ook het gebrek aan verschillende formaten HDR met AA komt er niet bij tenzij de core drastisch veranderd is.

Overigens geen idee of Asus echt uit komt met de kaart. Waarschijnlijk is het alleen voor de liefhebbers:
There was lots of talk about R580 and RD580 between all the manufacturers. R580, ATI’s successor to R520 (X1800), seems far too distant in the future to really talk about, unfortunately. One vendor in particular had already stated plans to build a practical dual-R580 board, but without specs, we could not confirm this. ASUS is apparently the only vendor with a dual X1800 graphics card, but like their individually numbered dual-G70 cards, don’t expect this to be an item that you’ll be able to buy at Fry's anytime soon.
Bron: http://www.anandtech.com/...s/showdoc.aspx?i=2586&p=4

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

De precieze formulering zou ik even op moeten zoeken maar het komt er op neer dat ATI de Microsoft SM3 implementatie nauwkeuriger volgt dan ATI. Er is slechts 1 functie die ATI niet volgt en nVidia volt er meerdere niet.

Verder zijn er meerdere manieren om HDR te doen echter ATI kan hiermee beter overweg.

Sorry dat ik niet specifieker kan zijn. Ik onthoud vaak de hoofdlijnen maar CJ/Apple/Oelangoetan enzo zullen e.e.a. ongetwijveld preciezer kunnen en willen formuleren incl. links.... ;)

[Voor 3% gewijzigd door Help!!!! op 03-11-2005 19:42]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
Help!!!! schreef op donderdag 03 november 2005 @ 19:42:
[...]

De precieze formulering zou ik even op moeten zoeken maar het komt er op neer dat ATI de Microsoft SM3 implementatie nauwkeuriger volgt dan ATI. Er is slechts 1 functie die ATI niet volgt en nVidia volt er meerdere niet.
Bedoel je niet dat stuk dat nVidia faalt in bepaalde SM3.0 testen? Lees dan dit even.
CJ schreef op donderdag 03 november 2005 @ 19:41:
[...]

Moet dat dan nog? Dynamic branching ("dè SM3.0 feature") en HDR + AA.

En ook het gebrek aan verschillende formaten HDR met AA komt er niet bij tenzij de core drastisch veranderd is.
Ik had het niet op dat, zie hierboven ;)
En is de combinatie HDR en AA niet op te lossen met drivers? Kan me niet inbeelden dat het aan de hardware zelf moet liggen.

[Voor 8% gewijzigd door XWB op 03-11-2005 20:04]

It takes two fools to argue.


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Het is wel de vraag wanneer de X1800-serie van die snelle branching kan profiteren, anders krijg je hetzelfde effect als de 6800-serie met SM3.0. Anderzijds maakt dat die serie wel meer furureproof omdat het niet alleen een checkbox implementatie is, maar wel degelijk een grote stap vooruit is in performance en bruikbaarheid.
Het zou mooi zijn als het in de games van morgen geimplementeerd kan worden.

Niet op voorraad.


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Hacku schreef op donderdag 03 november 2005 @ 20:01:
[...]


Bedoel je niet dat stuk dat nVidia faalt in bepaalde SM3.0 testen?
Dat bedoel ik maar het komt toch op hetzelfde neer? ;)
Lees dan dit even.
Dank. Ik ken het artikel. Echter, als gamedevelopers, om wat voor reden dan ook, kiezen om zo te coden dat zij zaken gebruiken waar nVidia voor "faalt" dan is het ondanks MS zijn WHQL certificering nadelig voor de eindgebruiker van nVidia kaarten...

Ik ben heel simpel in die dingen: Voor sommige tests faalt ATI niet en nVidia wel. Logica is dat, ceteris paribus, niet falen altijd beter is dan wel falen.... ;)

Verder zijn er synthetische? tests ( heb helaas even geen link maar staan wel ergens in dit topic ) die aantonen dat ATI zeer waarschijnlijk in een aantal IQ zaken (SM3/ HDR ? )beter kan scoren.

Maar er zijn hier zeker mensen die die linkjes nog wel weten en het helemaal niet erg vinden om ze nog ns te posten..... (pro ATI enzo... ;) )

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Waar ATI het meest in faalt, is die XI800XT nou eindelijk eens in volume op de markt te brengen, want na zoveel vertraging nog met een Phantom of the Opera te komen...
Ik zou me er niet zo druk om maken, als het niet zo'n interssante tech was, dat maakt het wachten iedere keer zo moeilijk.

Bij OC.uk zijn ook nog geen kaarten binengekomen en ATI doet vaag over de XT leveringstermijn.

[Voor 41% gewijzigd door edward2 op 03-11-2005 20:38]

Niet op voorraad.

Wat betreft de X1800 zie ik dit als de R300. Op het moment van release waren er geen games die vol gebruik maakten van SM2.0 (er waren alleen DX8 games) en was de GF4Ti vaak net zo snel op standaardinstellingen. Een half jaar later kwam de NV30 uit en die kon ook goed mee komen met de R300 in DX8. Toen kwamen er in de maanden daarna echter steeds meer echte DX9 games uit met SM2.0, waar de R300 echt begon uit te blinken. nVidia plakte er een 256-bit memory interface op om ook met eye-candy modes de R3x0 bij te kunnen houden, maar uiteindelijk lieten de echte SM2.0 games als HL2 goed het verschil zien. Het zou me niets verbazen als hetzelfde gaat gebeuren met de X1800... niet zo heel erg drastisch als toendertijd, maar ik denk dat een verschil wel te merken zal zijn.

En het is 'maar' een benchmark, maar de dynamic branching/flow control tests in Shadermark laten ook al zien dat ATi zich enorm gefocussed heeft op snelle dynamic branching. De hele ultra-threaded architecture is hieromheen gebouwd.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
CJ schreef op donderdag 03 november 2005 @ 20:32:
Wat betreft de X1800 zie ik dit als de R300. Op het moment van release waren er geen games die vol gebruik maakten van SM2.0 (er waren alleen DX8 games) en was de GF4Ti vaak net zo snel op standaardinstellingen. Een half jaar later kwam de NV30 uit en die kon ook goed mee komen met de R300 in DX8. Toen kwamen er in de maanden daarna echter steeds meer echte DX9 games uit met SM2.0, waar de R300 echt begon uit te blinken. nVidia plakte er een 256-bit memory interface op om ook met eye-candy modes de R3x0 bij te kunnen houden, maar uiteindelijk lieten de echte SM2.0 games als HL2 goed het verschil zien. Het zou me niets verbazen als hetzelfde gaat gebeuren met de X1800... niet zo heel erg drastisch als toendertijd, maar ik denk dat een verschil wel te merken zal zijn.

En het is 'maar' een benchmark, maar de dynamic branching/flow control tests in Shadermark laten ook al zien dat ATi zich enorm gefocussed heeft op snelle dynamic branching. De hele ultra-threaded architecture is hieromheen gebouwd.
Denk dat de X1800 serie zeker langer mee zal gaan, maar goed, het is ook 6 maanden nieuwer dan de 7800GTX. Dus dan mag het ook wel 6 maanden langer meegaan :).

specs desktop | specs laptop

Het is inderdaad al een aantal maanden nieuwer, maar aan de technologie is al tijden niets meer veranderd. R520 was eind vorig jaar/begin dit jaar klaar. Men had een half jaar de tijd om de boel te tweaken en op snelheid te krijgen voor een release in Mei/Juni. Helaas zat het tegen zoals bekend is.

Maar wat ik bedoel te zeggen is dat de technologie al sterk geoptimaliseerd is voor snelle dynamic branching. GF6 en GF7 zijn snel in SM2.0, maar de SM3.0 features zijn er eigenlijk min of meer opgeplakt voor checkmarkfeatures op de doos. Ze kunnen het wel, maar zijn er eigenlijk te langzaam voor. R580 zal hier nog sneller in zijn dan R520 omdat er 3x zoveel branching prediction units per ROP in zitten dan de R520 en dit dus niet zo maar een 'speedbump refresh' is:

http://www.beyond3d.com/reviews/ati/r520/images/pipes1.gif
R520/RV515 Pipeline

http://www.beyond3d.com/reviews/ati/r520/images/pipes2.gif
RV530/R580 Pipeline

En doe die RV530 pipeline nu x16 voor de R580.
Paars = Branching Prediction Unit

Tel daarbij op dat de Ultra Threaded Dispatch Processor gefinetuned is voor dynamic branching doordat hij gebruik maakt van vele kleine threads die onafhankelijk van elkaar kunnen werken waardoor de shader units zelden idle zijn... en je hebt al een zeer efficiente SM3.0 kaart die zeer geschikt is voor de toekomst.
Breaking down each of the pixel shader commands into small threads also brings another benefit specific to the Shader Model 3.0 and above specification, and that is in the region of dynamic, per pixel branching. Dynamic Branching in the pixel shader allows such techniques as "early out", whereby redundant parts of a shader can be skipped, and can also reduce state change overheads by grouping lined shaders in a single, branched, shader. Developers may also like to use dynamic branching in a similar manner but for different reasons - using dynamic branching to group shaders together can reduce their code maintenance and hence their development costs.

[Voor 47% gewijzigd door CJ op 03-11-2005 21:11]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
CJ schreef op donderdag 03 november 2005 @ 19:41:
[...]
Moet dat dan nog? Dynamic branching ("dè SM3.0 feature") en HDR + AA.
Zelfs een opgevoerde G70 kan het gebrek aan snelle dynamic branching niet compenseren. En ook het gebrek aan verschillende formaten HDR met AA komt er niet bij tenzij de core drastisch veranderd is.
Overigens geen idee of Asus echt uit komt met de kaart. Waarschijnlijk is het alleen voor de liefhebbers:
Bron: http://www.anandtech.com/...s/showdoc.aspx?i=2586&p=4
de branching kan bij de nv40 derivaten verbeterd worden door meer quads toe te voegen, de 90nm G70 zal waarschijnlijk 8 quads (32 pixel shaders) hebben en door die extra quads wordt de branch "granularity" nog eens verbeterd. Het zal de R520 branching niet evenaren maar het zal toch de branching wat verbeteren.
Ik denk niet dat we moeten verwachten dat de 1800XT de 7800GTX ooit met enorme marges zal overtreffen in performance (zeker als men de HQ driver settings van ati tov de normale Quality settings van nVidia blijft vergelijken, en die "bug" is nog steeds niet verdwenen in de laatste WHQL det80).

[Voor 3% gewijzigd door oeLangOetan op 03-11-2005 21:19]


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
Help!!!! schreef op donderdag 03 november 2005 @ 20:24:
Dank. Ik ken het artikel. Echter, als gamedevelopers, om wat voor reden dan ook, kiezen om zo te coden dat zij zaken gebruiken waar nVidia voor "faalt" dan is het ondanks MS zijn WHQL certificering nadelig voor de eindgebruiker van nVidia kaarten...
The reason for failing some of the PS 3.0 tests is not the shader itself. The reason is that nVidia use a different mipmap selection than refrast. Because of this the card take the samples sometime from a different mipmap than refrast. As every mipmap have a different content (colors or rotated) they can not reach 85% identity with the refrast image. As there is no Direct3D specification about how mipmap selection have to work MS can not blame nVidia. Because of this the driver still get WHQL even if it don’t pass all tests.
Een hardwarematige optimalisatie in de texturing unit is de reden van het falen.

  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
En is de combinatie HDR en AA niet op te lossen met drivers? Kan me niet inbeelden dat het aan de hardware zelf moet liggen.
FP blending HDR, de manier gebruikt in Farcry (en door Valve in een Driverheaven.net artikel aangeduidt als dé toekomstige manier vanwege de beste kwaliteit/precisie) kan niet op Nv40/G70 samen met AA toegepast worden, dit is een hardware limitatie. De betreffende unit op de kaart doet óf blending, óf AA. Beide samen kan dus niet.

De HDR methode die Valve nu in Lost Coast gebruikt (waar HDR + AA dus wel mogelijk mee is op Nv40/G70 + alle Dx9.0 kaarten) is beperkt, ondermeer op licht refraction effects kan geen HDR toegepast worden.

  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
supersampeling zou eventueel wel kunnen maar de extra performancehit zou catastrofaal zijn
multi sampling + HDR is vooralsnog niet mogelijk op nvidia hardware, iets zegt me dat het uitvoeren van MSAA met fpblending zeer ingewikkeld is of om een speciale oplossing vraagt waarop nvidia tot voor kort niet over had gedacht (de topman van nvidia had namelijk enkele maanden geleden verklaart dat hij het niet mogelijk achte om MSAA te doen met fp blending maar dat de developers hun eigen antialiassing moesten doen met shaders)

  • shuogg
  • Registratie: juli 2002
  • Laatst online: 29-12-2020
CJ schreef op donderdag 03 november 2005 @ 21:02:
Het is inderdaad al een aantal maanden nieuwer, maar aan de technologie is al tijden niets meer veranderd. R520 was eind vorig jaar/begin dit jaar klaar. Men had een half jaar de tijd om de boel te tweaken en op snelheid te krijgen voor een release in Mei/Juni. Helaas zat het tegen zoals bekend is.
Tja, daar heeft de consument niks mee te maken natuurlijk, ze kijken puur naar hoe lang het meegaat vanaf wanneer ze het gekocht hebben.

specs desktop | specs laptop


  • epo
  • Registratie: november 2000
  • Laatst online: 21:35
edward2 schreef op donderdag 03 november 2005 @ 20:31:
Waar ATI het meest in faalt, is die XI800XT nou eindelijk eens in volume op de markt te brengen, want na zoveel vertraging nog met een Phantom of the Opera te komen...
Ik zou me er niet zo druk om maken, als het niet zo'n interssante tech was, dat maakt het wachten iedere keer zo moeilijk.

Bij OC.uk zijn ook nog geen kaarten binengekomen en ATI doet vaag over de XT leveringstermijn.
idd. een hoop blah blah met dynamic branching, maar ja wat moet je ermee als de kaart WEER NIET te krijgen is :(

  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
epo schreef op donderdag 03 november 2005 @ 23:36:
[...]
idd. een hoop blah blah met dynamic branching, maar ja wat moet je ermee als de kaart WEER NIET te krijgen is :(
zijn we dan al 5 november?

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
Was het niet 11 november voor de 256MB XT en 15 november voor de 512MB XT?

It takes two fools to argue.


  • ScytheNL
  • Registratie: februari 2005
  • Laatst online: 27-03-2020

ScytheNL

Mooiste deal ooit.

Ik wacht mooi lekker tot de 580 of misschien zelfs wel op de 620/80? De x1800 serie is lekker makend maar ik denk dat ik mn geld dan beter op kan sparen voor de 580 of later...ik heb zo het vermoeden dat die series heilig makend gaan worden...Goed mn x800xl kan niet echt meer opboksen tegen al dat grafische geweld wat de G70 en R520 veroorzaken maar het is goedkoper (voor mij dan) om gelijk een stapje over te slaan ipv eerst een x1800.. en dan de x2800.. (of hoe die dan ook gaat heten)

FEAR speelt overigens nog wel redelijk netjes op mn kaartje met veel op max dus ik heb (nog) geen haast..

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

Apple schreef op donderdag 03 november 2005 @ 21:58:
FP blending HDR, de manier gebruikt in Farcry (en door Valve in een Driverheaven.net artikel aangeduidt als dé toekomstige manier vanwege de beste kwaliteit/precisie) kan niet op Nv40/G70 samen met AA toegepast worden, dit is een hardware limitatie. De betreffende unit op de kaart doet óf blending, óf AA. Beide samen kan dus niet.
oeLangOetan schreef op donderdag 03 november 2005 @ 22:18:
supersampeling zou eventueel wel kunnen maar de extra performancehit zou catastrofaal zijn multi sampling + HDR is vooralsnog niet mogelijk op nvidia hardware
Het is inderdaad zo dat de X1800 OpenEXR HDR + AA kan doen. Dit is overigens ook de enige vorm waarbij de X1800 voordeel heeft t.o.v. de GTX, gezien met alle andere vormen van HDR ook AA gedaan kan worden op alle SM2.0 compliant kaarten.

Echter de performancehit van OpenEXR HDR in combinatie met AA is momenteel zo catastrofaal voor de performance van de 512mb X1800XT (hebben we het nog niet gehad over de 256mb XT en XL)dat de feature zo goed als onbruikbaar is. We praten rustig over een 70%+ drop in framerate bij inschakeling van beide tegelijk. FarCry op 512mb XT: 1600x1200, HDR, 2xAA: 28 fps...
Dit is hetzelfde als dat een 6800NU OpenEXR HDR welliswaar ondersteund, maar er gewoonweg te langzaam voor is: feature onbruikbaar.

Zolang de performance van de X1800 op dit vlak niet drastisch verbeterd word zie ik het dus ook als niets meer dan een nutteloze gimmick. Je koopt een dergelijke kaart niet om op 1024x768 HDR+AA te spelen... nog afgezien van dat FarCry nog steeds de enige game is met een OpenEXR implementatie... :/

[Voor 4% gewijzigd door Cheetah op 04-11-2005 00:07]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
FarCry is niet de enige applicatie die van HDR gaat gebruik maken, ik geloof dat er iemand van het ATi driverteam recent op beyond3d had gezegt dat er momenteel te weinig applicaties zijn die HDR+AA gebruiken zodat het voor hen zeer moeilijk is om de functie goed te kunnen optimaliseren (ofdat het optimaliseren van de feature daarom voor het ogenblik uitgestelt is ofzo, het stond in het topic over de Q4 geheugenbus optimalisaties)

//edit
na die pagina van de b3d review te hebben herlezen zie ik dat FirefoxAG goed zijn best heeft gedaan het slechtste voorbeeld uit de review te halen :)

een performance drop van 20% per 2 samples HDR-MSAA
de performance drop van inschakelen van HDR loopt op tot bijna 70% in de hoge resoluties

[Voor 27% gewijzigd door oeLangOetan op 04-11-2005 00:28]


  • edward2
  • Registratie: mei 2000
  • Laatst online: 02-09 00:22

edward2

Schieten op de beesten

Niet op voorraad.


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
FarCry op 512mb XT: 1600x1200, HDR, 2xAA: 28 fps...
Dit was met "HDR rendering 7". Zover ik me kan herinneren zorgt "HDR rendering 2" in Farcry voor +10/20fps extra en ziet er nog beter uit ook (minder overdreven). Tel daarbij op dat er hoogstwaarschijnlijk nog wel wat optimalisatie's zullen komen in de drivers (Ati's schreden op FP blending gebied staat nog érg in de kinderschoenen). 1280x1024/4xAA is iig nu al goed speelbaar, leuk voor alle 17/19 inch LCD eigenaren.

[Voor 5% gewijzigd door Apple|IA op 04-11-2005 00:30]


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
Alle HDR met blending die op de G70 wordt gedaan is volgens de OpenEXR standaard, OpenEXR is trouwens gewoon een manier om FP-beeldmateriaal op te slaan, op dat gebied is ATi een stuk verder met een aantal eigen formaten met betere performance.

  • Cheetah
  • Registratie: oktober 2000
  • Laatst online: 30-09 02:25

Cheetah

Try to live without WWW ;)

oeLangOetan schreef op vrijdag 04 november 2005 @ 00:17:
FarCry is niet de enige applicatie die van HDR gaat gebruik maken
Nee, er zijn nu al meerdere apps die van HDR gebruikmaken. Het +AA voordeel geld echter (tot nu toe) alleen voor de specifieke OpenEXR implementatie van HDR.
ik geloof dat er iemand van het ATi driverteam recent op beyond3d had gezegt dat er momenteel te weinig applicaties zijn die HDR+AA gebruiken zodat het voor hen zeer moeilijk is om de functie goed te kunnen optimaliseren (ofdat het optimaliseren van de feature daarom voor het ogenblik uitgestelt is ofzo, het stond in het topic over de Q4 geheugenbus optimalisaties)
Ze mogen anders flink aan de slag... bij inschakelen van OpenEXR alleen dropt de XT al dramatisch.
//edit
na die pagina van de b3d review te hebben herlezen zie ik dat FirefoxAG goed zijn best heeft gedaan het slechtste voorbeeld uit de review te halen :)
Het slechtste voorbeeld :?
Ik pak juist de meest speelbare variant van hoge reso HDR+AA. Had je dan liever 1600x1200 HDR @4xAA aan 26fps? Of 1600x1200 HDR only: 35fps? You name it...
Of wil je mss verwijzen naar de HDR+AA prestaties op 1024x768..? Ik vind 1280+HDR+AA namelijk al niet overtuigend met gemiddeld ~40fps... dat is bijna gegarandeerd drops onder de 25fps...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Seekless
  • Registratie: februari 2004
  • Laatst online: 08-09-2006

Seekless

Doelloos zoekende

Hacku schreef op donderdag 03 november 2005 @ 23:40:
Was het niet 11 november voor de 256MB XT en 15 november voor de 512MB XT?
Ja, dat heet schuiven met de data naar achteren. :P

@CJ

En al leuke performance gains in DX-applicaties gezien door getweak aan de drivers van de X1800 serie?


Als er kaarten zijn die bepaalde applicaties niet kunnen draaien door een hardware matig gebrek dan zullen gamedevelopers deze applicaties dus niet gebruiken in hun programma's totdat het mainstream segment in de markt over kaarten beschikt die dat wel kunnen. Of wij dat nu leuk of niet vinden.

In darkness we were born, in darkness we will live, till the enlightenment of death.


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
OpenEXR is trouwens gewoon een manier om FP-beeldmateriaal op te slaan
Idd, het is niets meer of minder dan een image file format. En de naam zegt het al; OpenEXR, iedereen mag het gebruiken.

http://www.openexr.net

[Voor 3% gewijzigd door Apple|IA op 04-11-2005 00:38]


  • DoO_darkrush_NL
  • Registratie: mei 2004
  • Laatst online: 10-09-2011

DoO_darkrush_NL

is my name

oeLangOetan schreef op donderdag 03 november 2005 @ 21:19:
[...]

de branching kan bij de nv40 derivaten verbeterd worden door meer quads toe te voegen, de 90nm G70 zal waarschijnlijk 8 quads (32 pixel shaders) hebben en door die extra quads wordt de branch "granularity" nog eens verbeterd. Het zal de R520 branching niet evenaren maar het zal toch de branching wat verbeteren.
Ik denk niet dat we moeten verwachten dat de 1800XT de 7800GTX ooit met enorme marges zal overtreffen in performance (zeker als men de HQ driver settings van ati tov de normale Quality settings van nVidia blijft vergelijken, en die "bug" is nog steeds niet verdwenen in de laatste WHQL det80).
Jah nouja, waarom wacht je dan ook niet meteen op de opvolgers van deze videokaarten? BTW, er komt geen 32 pipes G70. Wel komt er een met erg hoge klocksnelheden... geruchten spreken over snelheden van 550 tot 600mhz. Een videokaart die een kwartaal later uitkomt dan die van de conurentie word geacht beter te presteren. In die zin maakt de X1800XT dat waar. Jammer dat er binnenkort een 512mb 7800gtx komt met die 'ultra' snelheden. Maar ATI zal vast een antwoord klaar hebben. Ik ben niet rood ik ben niet groen. Als ik nu zou kopen ga ik beslist voor een X1800XT.

Ik vind trouwens dat de geforce 6 reeks het nog steeds erg goed doet. FarCry met HDR is prima speelbaar, Zij het zonder AA. Games als f.e.a.r. en BF2 draaien vlekkeloos (alleen geen softshadows). HF2 The lost coast doet het ook goed. Een demo die trouwens bewezen heeft dat er ook andere manieren van HDR implementatie zijn, die wel op een X800 werken.

[Voor 20% gewijzigd door DoO_darkrush_NL op 04-11-2005 01:00]

AMD Athlon 64 3200+ I MSI K8N Neo Platinum I 1536mb DDR 400 I Nvidia Geforce 6800 GT 256mb GDDR3 I Creative Audigy 2 ZS Platinum Pro I Creative Megaworks THX 550 I 1x Zalman Casefan I 1X Glacialtech Casefan I Philips CD-Rewriter 48x I PSU 400 Watt No-Name


  • Apple|IA
  • Registratie: oktober 2001
  • Laatst online: 22-01-2012
Lol, die gozer kon niet wachten met het uitpakken en fotograferen van z'n nieuwe aanwinst. Foto's zijn in de auto gemaakt. :+

http://home.socal.rr.com/rickcain/images/X1800XT%201.JPG

  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
DoO_darkrush_NL schreef op vrijdag 04 november 2005 @ 00:56:
[...]
Jah nouja, waarom wacht je dan ook niet meteen op de opvolgers van deze videokaarten?
Omdat de 1800XT er straks is, en dat de opkomende kaarten alleen meer van hetzefde brengen. Ik zit nu op een 9700pro, het wordt tijd voor een upgrade. Het duurt trouwens nog een jaar of 3 eer we het eerste DX10 spel gaan zien, dus qua technologie zal ik safe zitten. De 1800XT heeft trouwens een heleboel extra features die de kaart gewoon meer compleet maken tov nvidia.
Ik ben niet bang van een GTX-ultra, er zitten geen reserves meer in de nv40/G70 generatie, de volgende nvidia kaart wordt wel interessant en daarna komen de dx10 kaarten ...

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
Dit kwam ik juist tegen op AnandTech:
After speaking with several AIBs today, we have some confirmation that Foxconn already has design kits for ATI's R580 socket. Pipe and clock information for R580 is still not firm, so we will not comment on that at this moment. However, your ATI video card will most likely come with a socket flip chip from ATI. Unlike the NVIDIA socket prototype we commented about yesterday, the R580 socket is geared specifically for a PCIe graphics adaptor, rather than a motherboard-housed GPU socket.

However even with a dedicated socket, graphic card memory would still need to be soldered onto the board. The narrow tolerances of GPU memory would not allow for a DIMM-like solution. ATI's newest R520 GPU already advertises support for a wide range of memory products, including memory that has not even been announced yet.

Vendors tell us R580 is some ways away, so don't expect anything between now and CeBit. However, now that ATI's XBOX 360 project is winding down, expect the company to utilize more resources for R580, Crossfire and the Xpress chipset in the coming weeks.

AGEIA might have a run for it's money if ATI has anything to say about it. One AIB commented today that the idea of a dedicated scalar mathematics processor for game physics could already be replicated on ATI's R520 series silicon, although drivers for such a project only exist in R+D departments (the vendor wouldn't let us have them, we tried). The idea of offloading math to a GPU is not a new idea; many projects exist for Linux for this already. However, the indication we had was that ATI could actually do physics calculations on the card with the graphics processing simultaniously -- the bandwidth is already there. AGEIA's physics processor has already been delayed well into Q2 next year.
Dit zal Astennu niet graag horen :p

It takes two fools to argue.

shuogg schreef op donderdag 03 november 2005 @ 23:04:
[...]


Tja, daar heeft de consument niks mee te maken natuurlijk, ze kijken puur naar hoe lang het meegaat vanaf wanneer ze het gekocht hebben.
Hmm, ik was me niet bewust dat we het hier vanuit consumenten oogpunt bekeken. Ik dacht meer dat we vanuit het technisch oogpunt spraken. Door je uitspraak leek het er op dat je bedoelde dat de X1800 wel technisch geavanceerder moest zijn en langer moest mee gaan, juist omdat-ie 4 maanden later gelanceerd werd. Mijn reactie was hierop dus dat dit niet het geval was, aangezien de ontwikkeling aan de R520 op technisch vlak al heel lang afgerond was.

Dat R520 laat is wil trouwens niet zeggen dat R580 ook later komt. Zie bv ook NV30 die snel opgevolgd werd door NV35. Ik vermoed echter dat de X1800 serie niet snel zal verdwijnen wanneer de R580 verschijnt, maar snel in prijs zal zakken richting het hogere midrange segment.
FirefoxAG schreef op vrijdag 04 november 2005 @ 00:02:
[...]


[...]
Het is inderdaad zo dat de X1800 OpenEXR HDR + AA kan doen. Dit is overigens ook de enige vorm waarbij de X1800 voordeel heeft t.o.v. de GTX, gezien met alle andere vormen van HDR ook AA gedaan kan worden op alle SM2.0 compliant kaarten.
Zoals al een aantal keren gezegd is... dat is niet helemaal waar.

De G70 kan:
- FP 16 OpenEXR HDR formaat (OpenEXR vereist minimaal FP16 en SM3.0 ondersteunen en dat is wat G70 biedt)
- SM2.0 manier van HDR (inclusief AA)

De R520 kan:
- FP16 (64-bit Floating Point, hoogste precisie, maar grootste performancedrop)
- Int 16 (64-bit Integer, iets minder hoge precisie dan FP16 en minder grote performancedrop)
- Int 10 (32-bit via 10:10:10:2, minder hoge precisie, maar snelheid van normale 32-bits rendering )
- Custom formats HDR (combinaties naar wens te gebruiken door devs)
Allemaal hardwarematige manieren van HDR inclusief alle vormen van AA (normaal, temporal, adaptive en superAA). Daarnaast dus nog eens natuurlijk de SM2.0 manier die alle DX9 kaarten zouden moeten kunnen.

"Alle andere vormen van HDR".. dat is er dus maar eentje. En die werkt inderdaad op alle DX9 kaarten maar heeft beperkingen zoals dat HDR niet werkt met refractions. Je kan bijvoorbeeld een cabriolet renderen waar de zon naar binnenschijnt via het open dak en dan hele mooi HDR effecten hebben, maar wanneer je door de voorruit kijkt, dan missen de HDR effecten. Dat is het nadeel van de Valve methode.

Volgens mij heeft ATi ook best veel transistoren besteed aan het laten werken van AA met HDR. En als kleine bonus kan de R520 ook 3Dc+ gebruiken op HDR om dit te versnellen. Aangezien 3Dc standaard in DX10 komt te zitten en de Xbox360 ook gebruik zal maken van HDR + AA en 3Dc, lijkt me dat dit straks een leuke bijkomstigheid is voor X1K bezitters. En ook wordt Tone Mapping standaard geacceleerd door alle X1K kaarten via de Avivo Display Engine (want alles werkt hier al op 10 bits precisie dus standaard worden effecten als color/gamma correction, tone mapping, light transport allemaal al hardwarematig versneld).
[b]Echter de performancehit van OpenEXR HDR in combinatie met AA is momenteel zo catastrofaal voor de performance van de 512mb X1800XT (hebben we het nog niet gehad over de 256mb XT en XL)dat de feature zo goed als onbruikbaar is. We praten rustig over een 70%+ drop in framerate bij inschakeling van beide tegelijk. FarCry op 512mb XT: 1600x1200, HDR, 2xAA: 28 fps...
Dit is hetzelfde als dat een 6800NU OpenEXR HDR welliswaar ondersteund, maar er gewoonweg te langzaam voor is: feature onbruikbaar.

Zolang de performance van de X1800 op dit vlak niet drastisch verbeterd word zie ik het dus ook als niets meer dan een nutteloze gimmick. Je koopt een dergelijke kaart niet om op 1024x768 HDR+AA te spelen... nog afgezien van dat FarCry nog steeds de enige game is met een OpenEXR implementatie... :/
En daarom heeft ATi naast 64-bit (FP16/Int16) ook 32-bit HDR (Int10) geintegreerd (via 10:10:10:2). Eerst werd gedacht dat er FP10 HDR in zou zitten, maar Int10 doet er voor zover ik weet niet enorm voor onder. Het is een iets mindere kwaliteit HDR dan met een FP16 framebuffer of Int16 framebuffer, maar wel een stuk beter dan Valve's SM2.0 oplossing wat volgens mij 16-bit HDR met een Int8 framebuffer is. Correct me if I'm wrong want op dit tijdstip beginnen de framebuffer formats en interne precisies me een beetje te duizelen waardoor ik ongetwijfeld iets door elkaar haal :+ .. En verder heeft het geen last van de performancedrop die FP16 HDR wel heeft.

Het is alleen aan de devs om dit te implementeren in games. Ik geloof dat de Far Cry patch met HDR + AA in enkele uren geschreven was, dus zo veel moeite is het niet blijkbaar. De flexibiliteit van ATi's verschillende vormen van HDR + AA geeft developers een enorme vrijheid om toch betere HDR kwaliteit te krijgen dan de Valve methode en ook nog eens AA toe te kunnen passen, terwijl de performancedrop niet eens zo enorm groot hoeft te zijn (Int10 vs FP16). 62-bit HDR (FP16/Int16) gebruik je wanneer je de beste IQ wilt hebben met het grootste bereik. 32-bit (Int10) gebruik je als je de hoogste snelheid wilt gebruiken), custom formaten zoals Int10+L16 gebruik je voor de meest optimale performance.

Als je dan kijkt naar Far Cry, dan denk ik dat Cry Tek nog niet de meest optimale vorm van HDR gebruikt op ATi kaarten, maar ook dat de drivers (en de memorycontroller) nog veel kunnen bijdragen aan de performance in hogere resoluties. Percentueel gezien zorgt het aanzetten van 4xAA of 6x niet voor zo'n enorme performancedrop, maar is het HDR zelf wat voor de grote drop zorgt.

Als je dan kijkt naar SC:CT... die gebruikt ook HDR, en wel FP16 textures & surfaces, net zoals de FP16 HDR mode in Far Cry. Alleen het postfilteringprocess is anders als ik het me goed herinner. Als je hier de performance bekijkt, dan zie je dat het activeren van HDR in SC:CT op 16x12 maximaal een performancedrop heeft van 16.5% (55.8 fps normal vs 46,6 fps HDR). Bij de GTX is dit 22,7%. Bij Far Cry zie je juist dat ATi enorm veel inkakt, terwijl de GTX constanter daalt wat betreft performance. Dus het lijkt me dat zowel de devs van de games als de driverafdeling van ATi nog veel kunnen doen aan de HDR performance.

Overigens is SC:CT voor ATi ook niet echt een optimale vergelijkingsgame aangezien het SM3.0 path nog niet voor de X1K serie was geoptimaliseerd (zorgt bij nV voor een boost, terwijl ATi juist trager is met het SM3.0 path, maar sneller met het ATi SM2.0 path).
:( Dat kan natuurlijk niet. Het is nog geen 5 november. En ja, Amerika is natuurlijk altijd eerder in vergelijking met Europa, maar 2 dagen eerder dan beloofd is natuurlijk waanzin. :/ En helemaal belachelijk dat het ook nog eens twee verschillende versies zijn, een BBA en een Sapphire. Het is gewoon 1 groot complot van ATi om ons te laten denken dat de markt nu overspoeld wordt met X1800XTs, getuige het feit dat meerdere (online) winkels ze ineens op voorraad hadden maar binnen no-time uitverkocht waren. :| Overigens was die ene gozer meteen klaar voor CrossFire. X1800XT + DFI CF mobo... nu nog wachten op de CrossFire editions.
Seekless schreef op vrijdag 04 november 2005 @ 00:33:
[...]
@CJ

En al leuke performance gains in DX-applicaties gezien door getweak aan de drivers van de X1800 serie?
Catalyst 5.11 zou ook wat boosts moeten brengen in een aantal DX applicaties, maar ook weer in specifieke gevallen en vooral in eye-candy modes en zeker niet zo groot als bij OpenGL. DX was meer geoptimaliseerd dan OGL voor de launch.
Hacku schreef op vrijdag 04 november 2005 @ 01:21:
Dit kwam ik juist tegen op AnandTech:


[...]


Dit zal Astennu niet graag horen :p
Check ook de link die ik iets eerder postte van Anandtech met het nieuws van de Asus X1800 Dual. Daar staat ook in dat we de R580 nog niet zo gauw hoeven te verwachten, maar dat 1 fabrikant al zat te praten over een R580 Dual. Aangezien Asus ook al een X1800Dual klaar heeft staan (en waarschijnlijk ook een X1800XT TOP) lijkt het me dat die R580 Dual dus van Asus afkomstig zou moeten zijn:
There was lots of talk about R580 and RD580 between all the manufacturers. R580, ATI’s successor to R520 (X1800), seems far too distant in the future to really talk about, unfortunately. One vendor in particular had already stated plans to build a practical dual-R580 board, but without specs, we could not confirm this. ASUS is apparently the only vendor with a dual X1800 graphics card, but like their individually numbered dual-G70 cards, don’t expect this to be an item that you’ll be able to buy at Fry's anytime soon. RD580, on the other hand, was widely cited all over Taiwan. In fact, RD580 will already start sampling this month – officially giving RD480 one of the shortest life cycles in computer product history. However, RD580 does boast some awesome features including 36 native lanes. Two of those will still be used for the interconnect to the south bridge (maybe even an ATI Southbridge!), leaving two lanes for PCIe 1x slots. The other 32 lanes could be configured however the manufacturer desires, but almost all will jump on the opportunity to have dual x16 lanes for Crossfire. NVIDIA new MCP, MCP55, will have only 28 PCIe lanes.
Nogmaals de link: http://www.anandtech.com/...s/showdoc.aspx?i=2586&p=4




CrossFire op nForce4 moederborden
VoodooPC is nu aan het testen met een X850 CrossFire setup op een nForce4 moederbord en als ik het goed heb begrepen dan werkt dit gewoon vlekkeloos. Ze zitten nu met smart te wachten op X1800 CF Editions zodat ze de performance op nForce4 vs Radeon Xpress200 kunnen gaan testen:
Here’s the ultimate test – when ATi finally releases their Crossfire edition x1800 board I can’t wait to test it with an nForce4 vs the latest ATi chipset. Everyone knows Crossfire works with nForce4, and I think we’ll see the difference a chipset makes. I think the fact that ATi designed it to work independently of the chipset is the best feature of Crossfire. We’re currently evaluating Crossfire on nForce4 using 850XT’s (ATi paid us a visit last week), it should be interesting once we get some of the better motherboards in with ATi chipsets.
http://voodoopc.blogspot.com//

[Voor 9% gewijzigd door CJ op 04-11-2005 05:48]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Hacku schreef op vrijdag 04 november 2005 @ 01:21:
Dit kwam ik juist tegen op AnandTech:


[...]


Dit zal Astennu niet graag horen :p
Ben ik ook niet blij mee :'( Dus ergens naar maart toe :\. Dan mischien toch maar een XT :P of die Asus Dual kaart :P. Alleen moet ik dan wel even een nieuwe voeding gaan kopen. Ik denk niet dat me 450 watter dat nog haald.

De Xt verbruikt bijna het dubbele van een XL. Na die 1.1 volt loopt het echt giganties op in stroom bverbruik.

Wanneer komt Asus dan met die Dual X1800 of TOP kaarten heeft iemand daar al een idee van ?

[Voor 9% gewijzigd door Astennu op 04-11-2005 07:58]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Jo mensen ik heb me probleem denk ik gevonden !!!

http://www.yourgame.net/x1800xt_big01.jpg
Click voor volle pic
Modbreak:Deze pic was wel erg layoutverneukend. Graag niet breder dan 600 pixels posten :o


Kijk naar de rode heatsink voor het stroom toevoer. Daar voor zitten zwarte blokjes. Bij mijn XL mist de onderste. Dus ik gok dat hij gewoon niet genoeg vermogen kan leveren voor 1.3 volt. Eigenlijk wel raar want stock gebruikt de XL 24 Ampere in Load. Met OC kwam ik tot 36 Ampere. Maar de XT zal daar ver boven zitten Want 36 ampere was op 1.225 volt of zo. En het zou wel raar zijn dat je met een blokje meer ineens wel 1.4 volt zou kunnen. Maar het is igg een verschil.

Igg kunnen andere mensen wel 1.3 halen zonder vastlopers. Vanmiddag maar eens kijken of hun wel al die blokjes hebben. Zou ook kunnen zijn dat die van mij net iets anders is.

Maar mensen cebit was toch in maart ? Dus voor maart geen R580 ???

Edit:

Ff een pic van de XL

http://www.bit-tech.net/content_images/sapphire_radeon_x1800xl/heatsink.jpg

Daar zie je het verschil.

[Voor 33% gewijzigd door dion_b op 04-11-2005 10:29]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
kun je me eens vertellen wat er op dat blokje staat astennu?

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
oeLangOetan schreef op vrijdag 04 november 2005 @ 09:53:
kun je me eens vertellen wat er op dat blokje staat astennu?
Ik ben niet thuis. Dus dat kan ik nu niet doen. Maar het zal ongetwijfeld voor de stroomtoevoer zijn. Maar ik heb denk ik ook een peg kaart. En als de 580 nog zo lang duurt wissel ik deze XL om voor een XT.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Astennu schreef op vrijdag 04 november 2005 @ 09:03:
Eigenlijk wel raar want stock gebruikt de XL 24 Ampere in Load. Met OC kwam ik tot 36 Ampere. Maar de XT zal daar ver boven zitten Want 36 ampere was op 1.225 volt of zo.
36A op de 12V ?!? Ook nog niet zomaar elke 500W voeding die dat trekt :)

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
Phuncz schreef op vrijdag 04 november 2005 @ 10:06:
[...]

36A op de 12V ?!? Ook nog niet zomaar elke 500W voeding die dat trekt :)
Jah ik vond het idd ook al erg veel. Ik zal idd eens kijken wat mijn PSU kan. Wat die heeft de 12 v gedeelt over 2 lijnen. Maar natuurlijk gaat niet alles over die 12v een deel zal ook via het moederbord lopen. Waar die het allemaal vandaan haald weet ik niet. Zal ook wel grootendeels 12v zijn.

http://www.coolermaster-europe.com/product_common_images/8cf7f4ca055153114c1805ceca991ed4.jpg

Volgens mij heb ik een probeem als ik mijn ampere op me 12v lijn zie. Mischien eens proberen om de 2 lijnen samen te voegen. K heb namelijk zelf een connector gemaakt die 2 molexen heeft. Moet ik em alleen weer terrug kunnen vinden :D

[Voor 27% gewijzigd door Astennu op 04-11-2005 10:21]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
zotjes, 36A op 12V, das geen electronica, das sterkstroom, die 36A op 1.225V da is electronica

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
oeLangOetan schreef op vrijdag 04 november 2005 @ 10:20:
zotjes, 36A op 12V, das geen electronica, das sterkstroom, die 36A op 1.225V da is electronica
Uhmm maar hoeveel moet je dan op je voeding hebben ? Ik bedoel er wordt wel 36 ampere afgenomen door die gpu. Dus je moet wel behoorlijk wat vermogen in je voeding hebben. K was niet al te goed in natuurkunde :Pdus heb even geen idee hoe ik dat moet zien/uitrekenen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • roertnl
  • Registratie: oktober 2005
  • Laatst online: 14-06-2012
Astennu schreef op vrijdag 04 november 2005 @ 10:23:
[...]


Uhmm maar hoeveel moet je dan op je voeding hebben ? Ik bedoel er wordt wel 36 ampere afgenomen door die gpu. Dus je moet wel behoorlijk wat vermogen in je voeding hebben. K was niet al te goed in natuurkunde :Pdus heb even geen idee hoe ik dat moet zien/uitrekenen.
P=vermogen (Watt)
U=spanning (Volt)
I=stroom (Ampere)

P=UxI
(nu weet ik niet hoe dat met computer gebeuren enzo zit met voedingen en alles maar zo reken je iig het vermogen uit)

  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 27-09 18:02
klopt roertnl, althans dat formuletje klopt voor alle gelijkstroom en sinds dat electronica altijd gelijkstroom is... (PUI is een formule om de rest van je leven te onthouden, hij klinkt goed :D)

[Voor 27% gewijzigd door oeLangOetan op 04-11-2005 10:46]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:57
okeey ff wat uitgerekend:

Stock = 1.075 X 24.6 ampere = 26,4 Watt
OC = 1.2volt x 36.4 amp= 43.6 watt

een aardige stijging dus

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • K
  • Registratie: mei 2002
  • Laatst online: 28-10-2012

K

I (L) ATI

Astennu schreef op vrijdag 04 november 2005 @ 07:57:
[...]


Ben ik ook niet blij mee :'( Dus ergens naar maart toe :\. Dan mischien toch maar een XT :P of die Asus Dual kaart :P. Alleen moet ik dan wel even een nieuwe voeding gaan kopen. Ik denk niet dat me 450 watter dat nog haald.

De Xt verbruikt bijna het dubbele van een XL. Na die 1.1 volt loopt het echt giganties op in stroom bverbruik.

Wanneer komt Asus dan met die Dual X1800 of TOP kaarten heeft iemand daar al een idee van ?
Foutje.

[Voor 6% gewijzigd door K op 04-11-2005 11:46]


  • wagnef
  • Registratie: juli 2005
  • Laatst online: 05-06-2007
Ik bedoel er wordt wel 36 ampere afgenomen door die gpu. Dus je moet wel behoorlijk wat vermogen in je voeding hebben.

Door de GPU wordt 36A met ongeveer 1,2Volt afgenomen. dus ongeveer 44 Watt De spanningsregelaar zorgt ervoor dat de energie uit de voeding met een hoog rendement kan worden afgenomen. laten we zeggen 90%. Dan is de stroom uit de voeding (44watt + 10watt (geheugen))/90%*100 = 60 Watt. Er word dus ongeveer 60 watt van de voeding afgenomen. dit is gelijk aan 60watt/12V= 5A.

Het nut van de spanningsregelaar is dus niet alleen om de juiste spanning te geven maar ook een hoog rendement te bahalen op de afgenomen energie.

De opmerking "36A bij 12V" kan natuurlijk niet, dit zou betekenen dat de kaart 12x36= 440 Watt opneemt. Dat is een halve broodrooster :|

  • hetnet
  • Registratie: januari 2001
  • Laatst online: 15-10 22:19
wagnef doe mij maar X1800 XT met Ham en Kaas dan })

  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

wagnef schreef op vrijdag 04 november 2005 @ 11:47:
De opmerking "36A bij 12V" kan natuurlijk niet, dit zou betekenen dat de kaart 12x36= 440 Watt opneemt. Dat is een halve broodrooster :|
Daarom dat ik dus wat moeite had dat te geloven :) Maar ok, 36A op 1.2V is al wat anders ;)
Pagina: 1 ... 4 5 6 Laatste

Dit topic is gesloten.



Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Bekijk de onderstaande instellingen en maak je keuze. Meer informatie vind je in ons cookiebeleid.

Functionele en analytische cookies

Deze cookies helpen de website zijn functies uit te voeren en zijn verplicht. Meer details

janee

    Cookies van derden

    Deze cookies kunnen geplaatst worden door derde partijen via ingesloten content en om de gebruikerservaring van de website te verbeteren. Meer details

    janee