Toon posts:

[Algemeen] ATi Nieuws & Discussie Topic OverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 7 Laatste
Acties:
  • 4.570 views sinds 30-01-2008

Anoniem: 93354

wat is er dan zo duur aan de r420 dat ze liever de r500 hebben? lijkt me toch dat het niet echt veel verschil zal maken.

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 13-05 16:34

swampy

Coconut + Swallow = ?

Anoniem: 93354 schreef op 15 april 2004 @ 20:05:
wat is er dan zo duur aan de r420 dat ze liever de r500 hebben? lijkt me toch dat het niet echt veel verschil zal maken.
r420 is een tussen fase ....

DX10 is nog niet uit en tja...

R420 is gewoon de "second wave" kaart van ati ..second wave in van second DX9 wave!

There is no place like ::1


Anoniem: 90915

Ik wil mn systeem upgraden (van mn moeders pc-prive :P) en dat gaat dit jaa gebeuren (iig na de zomervakantie) . Ik kan dus eigenlijk gewoon wachten totdat de r500 uit is, en gewoon bij de r420 te kat uit de boom kijken? Ik zit nu met een R9700PRO. Kan ik beter wachten op de r500

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
CJ schreef op 15 april 2004 @ 19:49:
[...]


En ik kan me nog goed herinneren dat nVidia hier zo op hamerde. NV30 zou de eerste stap zijn richting een unified shader architectuur, en alle cores die daarna uit zouden komen zouden hier steeds dichterbij komen. NV40 zou dan ook weer een grote stap voorwaarts zijn en gebaseerd zijn op de NV3x architectuur. Daar zien we nu echter weinig van terug.

En als je David Kirk mag geloven dan is ATi straks dus de eerste met een echte unified shader architectuur:

[...]

Bron: http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=7
Toch heeft de unified shader architectuur een paar zeer sterke voordelen
(zie ondermeer mn post op het nv40 forum ivm dx9+ architectuur)
Stel, je wilt een model renderen met volledige dynamische LOD (level of detail). Dat is een van de vele nieuwigheden van de toekomst. (De nv40 zou dat normaalgezien al moeten kunnen met VS3.0) Om de geometrie te generen op een bepaalt ogenblik moet je een complexe en veeleisende vertex( of in dxNext ook primiteve) shader gebruiken. Op dat ogenblik moet de hele pixel pijpijn wachten op de vertex shader en kunnen er dus geen pixels gerendert worden. In dit geval zou het dus optimaal zijn om ALLE rekenkracht van de chip te kunnen gebruiken voor de vertex(en primitive shader) shader te berekenen. In het geval van de nv40 zou de pixel pijplijn ongebruikt blijven totdat de vertex shaders de opdracht hebben afgehandelt!

  • Anoniem: 14124
  • Registratie: Oktober 2000
  • Niet online
Verwacht CJ toevallig dat ze niet eens de 420 gaan uitbengen maar direct de r500? ;) ?

Anoniem: 93354

Anoniem: 90915 schreef op 15 april 2004 @ 20:27:
Ik wil mn systeem upgraden (van mn moeders pc-prive :P) en dat gaat dit jaa gebeuren (iig na de zomervakantie) . Ik kan dus eigenlijk gewoon wachten totdat de r500 uit is, en gewoon bij de r420 te kat uit de boom kijken? Ik zit nu met een R9700PRO. Kan ik beter wachten op de r500
Volgens mij duurt het nog meer dan een jaar voor de r500 komt. En als de r500 eraan komt dan is er al weer wat beters aangekondigt wat allemaal nog mooier/sneller moet zijn op die manier blijf je wachten.

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
Zeg kassaa, de de geforce 6800U (of non Ultra) kan wel eens een heel mooie koop zijn, doe hem dus zo snel mogelijk, natuurlijk alleen als je denkt dat je voeding het aan kan. Games zijn voor het moment erg CPU limited op deze next-gen 3dkaarten en vroeg kopen betekent maximaal 'genot' .
(voor de R500 wachten is nu nog out of the question, nix is zeker)

[Voor 22% gewijzigd door oeLangOetan op 15-04-2004 20:54]


Anoniem: 90915

oeLangOetan schreef op 15 april 2004 @ 20:52:
Zeg kassaa, de de geforce 6800U (of non Ultra) kan wel eens een heel mooie koop zijn, doe hem dus zo snel mogelijk, natuurlijk alleen als je denkt dat je voeding het aan kan. Games zijn voor het moment erg CPU limited op deze next-gen 3dkaarten en vroeg kopen betekent maximaal 'genot' .
(voor de R500 wachten is nu nog out of the question, nix is zeker)
de upgrade is zeker pas na de vakantie, (en er moet een mobo, proc en geheugen en voeding bij de upgrade) dus echt snel heb ik em niet
Het wordt dus een GF6800U of een X800XT of Pro, want als de pro na een paar maanden 220€ is net zoals de 9800Pro nu, dan is de keuze natuurlijk snel gemaakt. Hoeven mn ouders geen 200€ meer uit te geven aan een XT, en kan ik een fatsoenlijke koeling voor de pro kopen, waarmee ik em gewoon overklok (en mod naar een xt).

/offtopic

ik heb nu dus een R9700PRO, een p4 2.66ghz 533FSB, 512MB RDRAM en een intel 850i mobo. Als ik ga upgraden, moet ik dan de snelste videokaart nemen (x800xt) en een tragere athlon 64, of moet ik beide vrij snelle nemen (niet de snelste) dus x800pro??

  • roodhoedje
  • Registratie: Maart 2003
  • Laatst online: 22:50
Dat is moeilijk aangezien bij veel hardware reviews blijkt dat met de nvidia nv40 de cpu limiteerd na een bepaalde hoogte dus eigenlijk zou cpu en gpu snelste het beste zijn maar ik denk dat als je een pro neemt toch er meer voordeel mee doet omdat je dan cpu limitatie zover mogelijk uit de weg gaat en ik neem aan dat er geen gigantische verschillen zijn in de benchmarks tussen de pro en de xt. Maarja da's een beetje afwachten.

Zou eerst kijken hoeveel % verschil er is tussen de proformance van een pro ten opzichte van een xt

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
Anoniem: 90915 schreef op 15 april 2004 @ 21:24:
[...]


de upgrade is zeker pas na de vakantie, (en er moet een mobo, proc en geheugen en voeding bij de upgrade) dus echt snel heb ik em niet
Het wordt dus een GF6800U of een X800XT of Pro, want als de pro na een paar maanden 220€ is net zoals de 9800Pro nu, dan is de keuze natuurlijk snel gemaakt. Hoeven mn ouders geen 200€ meer uit te geven aan een XT, en kan ik een fatsoenlijke koeling voor de pro kopen, waarmee ik em gewoon overklok (en mod naar een xt).

/offtopic

ik heb nu dus een R9700PRO, een p4 2.66ghz 533FSB, 512MB RDRAM en een intel 850i mobo. Als ik ga upgraden, moet ik dan de snelste videokaart nemen (x800xt) en een tragere athlon 64, of moet ik beide vrij snelle nemen (niet de snelste) dus x800pro??
offtopic:
Je zit met hetzelfde probleem als ik, ik heb momenteel een bijna identieke configuratie (allen 2ghz p4 is het verschil :p) Een nog groter probleem is dat ik waarschijnlijk mijn thesis met die kaart ga maken en dat de mogelijkheden voor mij misschien cruciaal gaan zijn. Ik ga de kat uit de boom kijken tot in augustus dan zien we wel weer.
http://www.gzeasy.com/itnewsdetail.asp?nID=14998

Korte samenvatting (met dank aan Babelfish):

De R420 die bij GDC is gebruikt draaide op 500 Mhz core en 500 Mhz mem. Micron schijnt echter op fullspeed 700 Mhz samples aan ATi te hebben geleverd (dus 1.4 Ghz effectief) en ook dus de 800 Mhz samples schijnen de deur uit te vliegen (wat al eerder vermeld werd in dit topic).

Performance inschatting 2 tot 3x Radeon9800XT.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Anoniem: 90915

roodhoedje schreef op 15 april 2004 @ 21:28:
Dat is moeilijk aangezien bij veel hardware reviews blijkt dat met de nvidia nv40 de cpu limiteerd na een bepaalde hoogte dus eigenlijk zou cpu en gpu snelste het beste zijn maar ik denk dat als je een pro neemt toch er meer voordeel mee doet omdat je dan cpu limitatie zover mogelijk uit de weg gaat en ik neem aan dat er geen gigantische verschillen zijn in de benchmarks tussen de pro en de xt. Maarja da's een beetje afwachten.

Zou eerst kijken hoeveel % verschil er is tussen de proformance van een pro ten opzichte van een xt
bedankt voor de info. Ik ging hier zelf eigenlijk al van uit. Een schatting: tegen die tijd heb je denk ik al de athlon fx-57, en de athlon 64 4000+ Dan kan ik bijv een athlon 3700+ nemen en een x800PRO, en mss kan ik via een mod alle pipelines inschakelen (als er dus 16 op de xt zitten en 12 op de pro) en bijv een 500W voeding, en 1536MB geheugen.

Is al bekend of de x800pro in pci-express versie komen?

offtopic:
is planet of the apes een leuke film?

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
vertaling:
Beautiful light: Provides for RadeonX800 high speed reveals saves? The material composes: Li Haoyi (2004-4-15 14:06:39) the NV40 like very rough sea waves are turbulent but to, facing the massive NV40 information, thought everybody thought somewhat was weary of! Which is good, below waits for me to bring some R420 for everybody the news. On-line spreads ATI R420 which demonstrated in GDC to reveal the card sample operating frequency is 500MHz/1000MHz, it is said Radeon X800 XT "determined" has 16 picture elements to exaggerate the series water line, but Radeon X800 Pro reduces in four to set at 12 assembly lines, only has 8 strip assembly lines as for Radeon X880 SE. Will hear Micron (beautiful light) the semiconductor company "the customer" to provide high speed GDDR3 in addition for some to reveal saves, but will provide reveals saves the frequency to have wide divided opinions, some saying will use 1400MHz in third Ji Ke the product, some indicated will reveal saves the frequency to be possible to reach 1600MHz. The ATI new generation of graph reveals the card definitely very formidable, but it is quick? It is said Radeon X800 XT performance 2-3 time to ATI now quickest R9800XT. If is real, which NV40 had to meet the powerful enemy. Source: GZeasy

Anoniem: 90915

oeLangOetan schreef op 15 april 2004 @ 21:48:
vertaling:
Beautiful light: Provides for RadeonX800 high speed reveals saves? The material composes: Li Haoyi (2004-4-15 14:06:39) the NV40 like very rough sea waves are turbulent but to, facing the massive NV40 information, thought everybody thought somewhat was weary of! Which is good, below waits for me to bring some R420 for everybody the news. On-line spreads ATI R420 which demonstrated in GDC to reveal the card sample operating frequency is 500MHz/1000MHz, it is said Radeon X800 XT "determined" has 16 picture elements to exaggerate the series water line, but Radeon X800 Pro reduces in four to set at 12 assembly lines, only has 8 strip assembly lines as for Radeon X880 SE. Will hear Micron (beautiful light) the semiconductor company "the customer" to provide high speed GDDR3 in addition for some to reveal saves, but will provide reveals saves the frequency to have wide divided opinions, some saying will use 1400MHz in third Ji Ke the product, some indicated will reveal saves the frequency to be possible to reach 1600MHz. The ATI new generation of graph reveals the card definitely very formidable, but it is quick? It is said Radeon X800 XT performance 2-3 time to ATI now quickest R9800XT. If is real, which NV40 had to meet the powerful enemy. Source: GZeasy
Kan ik hieruit opmaken dat de x800pro 'maar'12 pipelines heeft? En dat ik toch beter een X800XT kan nemen :P

Anoniem: 93354

dat klinkt mooi :D

Maar ik had nog een vraagje over cpu bounds. Ik heb een een 2500+@3200+ als ik dan bv de r420 of nv40 koop dan is het aantal fps wat ik in een game haal dus gelimiteerd aan me cpu en niet aan me gpu? Maar is het niet zo dat als er dan weer niewe spellen komen dat je daar toch minder last van heb omdat je videokaart nog steeds snel genoeg is voor die games?

ff met een voorbeeld (ja ik weet dat het niet klopt)

met far cry haal ik bv 50fps met een nv40 en een 3200+ maar met hl2 haal ik nogsteeds 50fps maar dat spel is dan wel een stuk gfx intensiver dan fc. Klopt mijn idee een beetje of zie ik het helemaal verkeerd?

  • Maverick
  • Registratie: Oktober 2001
  • Laatst online: 07:01
is al vaker langsgekomen, en dat is idd het geval.(reactie op kassaa)

[Voor 16% gewijzigd door Maverick op 15-04-2004 22:06]

PSN: DutchTrickle PVoutput


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
Anoniem: 90915 schreef op 15 april 2004 @ 22:02:
[...]
Kan ik hieruit opmaken dat de x800pro 'maar'12 pipelines heeft? En dat ik toch beter een X800XT kan nemen :P
jep

btw over ATi die zo snel mogelijk van de R420 af wil.
De R420 heeft voor ATi slechts 1 doel, de koppositie behouden. ATi heeft nog verklaart dat het bereid is winst voor "performance leadership" in te leveren. Het is ondertussen duidelijk dat de R420 een 'heksentoer' is van ATi.
Volgen mij is de R420 erg duur om te produceren (misschien niet alleen omwille van de chip maar ook het pcb) bovendien wil ATi dat de industrie uit het R3xx systeem stapt en verder gaat naar meer geavanceerde shaders. Men kan nu beginnen met SM3.0 engines te onwikkelen maar alleen op nVidia hardware en dat is op de lange duur niet goed voor ATi. Daarom moet de R500 liefst zo snel mogelijk de R420 (waarvan geen refresh komt) vervangen.

/edit CJ wanneer kom je nu met je gegevens POST MAN POST

[Voor 9% gewijzigd door oeLangOetan op 15-04-2004 22:19]

oeLangOetan schreef op 15 april 2004 @ 22:17:
[...]
/edit CJ wanneer kom je nu met je gegevens POST MAN POST
http://phoenix.interex-net.com/forum/html/emoticons/blink.gif

Het zijn geen nieuwe gegevens hoor... alleen maar dingen bij elkaar opgeteld... namelijk iets wat we al wisten van R420.... plus de informatie die gisteren in de recensies van NV40 naar buiten is gekomen... Ik heb daaruit proberen op te maken hoe we de prestatie van R420 ongeveer moeten inschatten. Met de nadruk op 'proberen'. http://phoenix.interex-net.com/forum/html/emoticons/unsure.gif

Maar het is niet iets opzienbarends ofzo, want iedereen kan het optelsommetje maken wat ik gemaakt heb. http://phoenix.interex-net.com/forum/html/emoticons/nerd.gif

Ben nu even aan het eten. Misschien dat ik het zo nog even online zet. http://phoenix.interex-net.com/forum/html/emoticons/popcorn.gif

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
CJ schreef op 15 april 2004 @ 22:46:
[...]


[afbeelding]

Het zijn geen nieuwe gegevens hoor... alleen maar dingen bij elkaar opgeteld... namelijk iets wat we al wisten van R420.... plus de informatie die gisteren in de recensies van NV40 naar buiten is gekomen... Ik heb daaruit proberen op te maken hoe we de prestatie van R420 ongeveer moeten inschatten. Met de nadruk op 'proberen'. [afbeelding]

Maar het is niet iets opzienbarends ofzo, want iedereen kan het optelsommetje maken wat ik gemaakt heb. [afbeelding]

Ben nu even aan het eten. Misschien dat ik het zo nog even online zet. [afbeelding]
Ik herinner me gewoon die topic van HB( denk ik ) op b3d, die was heel handig, vooral voor de dingen die ik over het hoofd had gezien. b3d wordt tegenwoordig zo overstelpt met n00bs dat ik niet veel zin meer heb al die topics te lezen.

  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
CJ schreef op 15 april 2004 @ 22:46:
[...]


[afbeelding]

Het zijn geen nieuwe gegevens hoor... alleen maar dingen bij elkaar opgeteld... namelijk iets wat we al wisten van R420.... plus de informatie die gisteren in de recensies van NV40 naar buiten is gekomen... Ik heb daaruit proberen op te maken hoe we de prestatie van R420 ongeveer moeten inschatten. Met de nadruk op 'proberen'. [afbeelding]

Maar het is niet iets opzienbarends ofzo, want iedereen kan het optelsommetje maken wat ik gemaakt heb. [afbeelding]

Ben nu even aan het eten. Misschien dat ik het zo nog even online zet. [afbeelding]
post!!!!!

specs desktop | specs laptop

Ok, bij deze dan mijn hersenspinsels. }:O

Op de IDF in Februari werd Colin McRae 04 (een DX9 titel) geshowed op een (hoogstwaarschijnlijk 12 pipes uitvoering van de) R420 en men was er trots op dat men gemiddeld 100 haalde met uitschieters naar 120 fps. En men vermeldde er toen vooral bij dat dit 2 tot 3x sneller was dan "todays DX9 hardware". Er werd echter niet vermeld op wat voor instellingen dit behaald werd. En wat met "todays DX9 hardware" bedoeld wordt. Ik ga bij dit laatste uit van de FX5950U en de 9800XT.

Nu zijn er gisteren dus recensies verschenen waarin CMR 04 gebruikt is op de GF6800U.... :D Dus afgaande op de 100-120 fps informatie die we al hebben van R420, lijkt het me niet onmogelijk om een kleine inschatting te geven van wat we kunnen verwachten van R420...

Ik probeer dit nu aan de hand van de 6800U recensie van Toms Hardware een beetje te achterhalen. Zie het volgende:

http://www.lindaestelle.com/temp/9800xt-01.gif
Dus ik denk dat we er van uit kunnen gaan dat dit niet de instellingen zijn waarop R420 draaide tijdens IDF, aangezien het niet aan het criterium "2 tot 3x sneller" voldoet.

http://www.lindaestelle.com/temp/9800xt-02.gif
Dit zou meer in de lijn liggen van 2x de performance van de vorige generatie (dus niet 3x), en kunnen wijzen op een gelijksoortige performance tussen 6800U en R420.

Zetten we de eyecandy aan dan zien we het volgende:
http://www.lindaestelle.com/temp/9800xt-01-hi.gif
Zou het in dit plaatje passen dat R420 rond de 100-120 fps haalt? Ja, vooral ten opzichte van de performance van 6800U en FX5950U (2*52,3 = 104.6 dus tussen 100-120). Maar niet ten opzichte van 9800XT aangezien ze dan op 141 fps uit zouden moeten komen...

http://www.lindaestelle.com/temp/9800xt-03-hi.gif
Deze zou beter in het straatje passen bij R420, vooral als je kijkt naar de performance van zowel 9800XT als 5950U (beide 2 tot 3x de performance).

http://www.lindaestelle.com/temp/9800xt-02-hi.gif
Ook deze zou passen, alhoewel het dan 3-4x de performance van 5950U is, maar wel 3x de performance van 9800XT.

--------

Tot zover dus de puzzelstukjes....

In de laatste twee gevallen zou R420 dus over 6800U heen gaan.... En als het hier inderdaad om de 12 pipeline versie ging, dan zal de 16 pipe versie er helemaal over heen gaan.... vooral als je de performance door trekt naar andere games. Echter is hier in dit geval gebruik gemaakt van de 16 pipe versie, dan liggen GF6800U en X800XT dus vlak bij elkaar wat performance betreft.

We hebben ook min of meer bevestiging gekregen dat de R420 samples op GDC op 500 Mhz core en 500 Mhz mem liepen... dus het kan zijn dat ze nu hoger geklokt worden om de performance op te krikken... Of het kan zijn dat tijdens IDF de R420 lager geklokt was... Allemaal speculaties dus....

Zelf denk ik dat CMR04 geshowed is op 1600x1200 zonder eyecandy of op 1024x768 of 1280x1024 met eyecandy aan. En ik denk dat we hieruit kunnen opmaken dat R420 zeker niet onderschat moet worden.... Het leuke is dat je dit kan doortrekken naar andere nieuwere games omdat CMR04, voor zover ik weet, gebruik maakt van DX9.

Misschien dat iemand nog iets anders kan opmaken uit deze cijfers? Speculeren blijft leuk. :)

[Voor 4% gewijzigd door CJ op 15-04-2004 23:36]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Miki
  • Registratie: November 2001
  • Nu online
Vaak ben ik het niet eens met speculaties, maar ik kan er niet omheen dat het zeer goed onderbouwd is. Tijd zal is uit wijzen in hoeverre het op waarheid berust, alhoewel... ik vind dat het TE stil is in het ATi kamp. Dat duid meestal op dat het wel snor zit, dat was met de komst van de R300 ook zo. Uit het niets dook deze kaart op, terwijl de Fx de hemel werd ingeprezen zonder enige benchmarks.

Samsung TV QE55Q9F 2018 | Sonos Beam gen1 | Sonos Sub gen3 | Sonos One 2x | APsystems 14x315Wp - ZW |  MacBook Pro 13" 2017 |  MacBook Air 13" 2017 I  iPad 2018 |  iPhone 12 |  TV 2021 4K |  AirPods Pro gen2


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Ik denk dat je dat onmogelijk (goed) kan inschatten op basis van één game met drivers in zo'n vroeg stadium, maar je moet wat nu we nog niets weten ;).
Ook de reviews van de NV40 lieten soms een heel wisselvallig beeld zien, wat naar mijn idee op ruwe drijvers wijst.

Ik was zelf erg onder de indruk van de shaderspeed van de NV40, zie Xbit, en zeker gezien het feit dat deze nu wel op de volle 32 bits fp precisie draait.

[Voor 14% gewijzigd door edward2 op 15-04-2004 23:55]

Niet op voorraad.


  • The PyroPath
  • Registratie: November 2000
  • Laatst online: 17-04 20:48

The PyroPath

Go Tweak your ass off

Tom gepakt met zn ballen uit zn broek? :X

AquaMark2003 (4xFSAA & 8x Aniso)

*****************1024x768****1280x1024****1600x1200
X-bit Labs
------------
6800U(OC435/1150)*****53.6*******42.2********33.2
6800U (no OC)**********40.7*******30**********23
Radeon 9800XT*********36.7*******27.5********21.4


Tom's Hardware
-------------------
6800U (no OC)**********53*********42.7*********34
Radeon 9800XT*********39.7********30.1********23.4


hoop voor tom dat dit een foutje is bij X-bit....als je ziet dat daar op een snellere PC de 6800 overclockt net iets sneller zn werk doet dan de standaard snelheid bij tom :?

Breek je nek voorzichtig


  • epo
  • Registratie: November 2000
  • Laatst online: 27-05 18:17
lijkt me niet, die prestaties van de oc vergeleken met de non oc lijken mij niet erg realistisch, bedoel 35 mhz meer zorgt niet voor een 40 procent performance verhoging, dus jammer joh.

  • inquestos
  • Registratie: November 2001
  • Laatst online: 27-05 10:30
CJ schreef op 15 april 2004 @ 23:33:
Ok, bij deze dan mijn hersenspinsels. }:O

Misschien dat iemand nog iets anders kan opmaken uit deze cijfers? Speculeren blijft leuk. :)
Leuk, maar heb je hierbij wel aan het volgende gedacht:
- Dat beide videokaarten wellicht in een totaal ander systeem hebben gezeten. Ik denk eerlijk gezegd dat Ati een beter systeem tot de beschikking had
- De R420 wellicht nog niet helemaal af was, en er dus nog enige performance-winst te behalen was.
- Er wordt gesproken over ongeveer 100 FPS, niet 100-120.

Ik denk eerlijk gezegd zelf dat Colin MCRae Rally op 1024*768 werd gedraaid, aangezien de verhoudingen van de screens 4:3 zijn. Zou dus betekenen dat Ati's prestaties minder zijn. Zou goed kunnen, maar ik denk dat de XT die minstens goed zal gaan maken

Fotografie: | Flickr | Canon 5DII + 20mm + 35mm + 50mm + 100mm || Hardlopen: Strava PR 5km: 20:26 10km: 44:35 HM 1:39:58


  • The Source
  • Registratie: April 2000
  • Laatst online: 26-05 14:50
Ik lees in dit topic een hoop wishfull thinking, wel leuk overigens :)

Je kunt 2 verschillende dingen stellen

- nVidia is zo overtuigd van haar product dat ze het als eerste (voor ATI) in de markt durft te zetten. (en gezien de benchmarks hoeven ze zich ook niet te schamen).

- ATI heeft nu een referentie score, echter nog geen officiele launchdate. Zij zullen nu toch alles doen mbt het maximale uit de kaart halen, extra verborgen render pipelines activeren, drivers optimaliseren, etc om ook al is een klein beetje, hoger te scoren dan nvidia

We wachten rustig af en zien wel wat het gaat brengen. Iig is het te hopen dat beide producten gelijkwaardige performance geven, dan kan er een leuke prijsoorlog ontstaan die voor de consument interessante prijzen kan opleveren.
The_PyroPath schreef op 16 april 2004 @ 00:44:
Tom gepakt met zn ballen uit zn broek? :X

...
hoop voor tom dat dit een foutje is bij X-bit....als je ziet dat daar op een snellere PC de 6800 overclockt net iets sneller zn werk doet dan de standaard snelheid bij tom :?
Hothardware laat bijna dezelfde cijfers zien als Tom: http://www.hothardware.co...s/S&V/nv40_debut(6).shtml
inquestos schreef op 16 april 2004 @ 00:51:
[...]

Leuk, maar heb je hierbij wel aan het volgende gedacht:
- Dat beide videokaarten wellicht in een totaal ander systeem hebben gezeten. Ik denk eerlijk gezegd dat Ati een beter systeem tot de beschikking had
Heb ik aan gedacht. Maar ik geloof dat het dezelfde bak was waar ook de voordelen van PCI Express op werden geshowed en dat was geloof ik iets van een P4 3.2? En dat is vergelijkbaar met de meeste systemen waar de 6800U op werd geshowed.
- De R420 wellicht nog niet helemaal af was, en er dus nog enige performance-winst te behalen was.
R420 is al een tijd lang af. Daar valt niet over te discussieren. Het enige waar echt over te discussieren valt zijn de kloksnelheden waarop het draait, en het aantal actieve pipelines van de R420 waarop CMR toendertijd werd gedraaid.
- Er wordt gesproken over ongeveer 100 FPS, niet 100-120.
Er werd gesproken over gemiddeld 100 FPS met vooral de bevestiging dat er uitschieters waren naar 120. Check het Beyond3D en/of Rage3D forum er maar eens op na voor uitspraken van mensen die tijdens IDF aanwezig waren en dit hebben bevestigd. ;)
Ik denk eerlijk gezegd zelf dat Colin MCRae Rally op 1024*768 werd gedraaid, aangezien de verhoudingen van de screens 4:3 zijn. Zou dus betekenen dat Ati's prestaties minder zijn. Zou goed kunnen, maar ik denk dat de XT die minstens goed zal gaan maken
Dat zou goed kunnen, maar dan wel met alle eye candy aan, aangezien de 9800XT ook met gemak 100 fps haalt zonder eye candy.
The Source schreef op 16 april 2004 @ 00:51:
Ik lees in dit topic een hoop wishfull thinking, wel leuk overigens :)

Je kunt 2 verschillende dingen stellen

- nVidia is zo overtuigd van haar product dat ze het als eerste (voor ATI) in de markt durft te zetten. (en gezien de benchmarks hoeven ze zich ook niet te schamen).
Nu hoefde ATi ook niet als eerste met iets nieuws te komen. De 9800XT kwam er in veel tests al als winnaar uit de bus en wat IQ betreft kon nVidia er toendertijd met haar AA-methodes niet aan tippen. Ik vind het dan ook niet meer dan normaal dat ze zo lang mogelijk proberen om winst te maken op hun 9800XT, zonder je eigen sales te verknoeien door het aankondigen van een nieuw sneller product.

nVidia aan de andere kant had veel te bewijzen, namelijk dat ze het dit keer niet zouden verpesten zoals bij de NV30, dat ze ook in DX9 applicaties supersnel konden zijn, dat ze verbeterde AA hadden, dat ze zich wel aan de DX standaarden kunnen houden etc. En met de 6800U hebben ze een mooi product neergezet waarmee ze hopelijk geen drivercheats meer nodig hebben om goed te scoren. :)
En meestal is het zo dat degene die achterstaat met iets nieuws moet komen.

Overigens heeft iemand anders ook het idee dat nVidia wacht met de uiteindelijke kloksnelheden van de 6800 non-ultra, totdat de 12 pipes X800Pro uit is gekomen?

[Voor 3% gewijzigd door CJ op 16-04-2004 01:17]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • The PyroPath
  • Registratie: November 2000
  • Laatst online: 17-04 20:48

The PyroPath

Go Tweak your ass off

CJ schreef op 16 april 2004 @ 01:16:
[...]


Hothardware laat bijna dezelfde cijfers zien als Tom: http://www.hothardware.co...s/S&V/nv40_debut(6).shtml
Had het ook gezien maar vind het nog steeds een maf fenomeen, wat is er mis gegaan bij X-bit?

Breek je nek voorzichtig


  • epo
  • Registratie: November 2000
  • Laatst online: 27-05 18:17
toch is het nep, om de koper zo lang te laten wachten en de volle prijs te laten betalen voor een oud product terwijl het nieuwe product al in de winkel had kunnen liggen. Dat vindt ik toch een soort van oplichten van Ati. Ik hoop vooral daarom dat de Nvidia sneller is, dat zal ze leren ! net als die driver die eindelijk eens profielen afzonderlijk kan instellen, die lancheren ze pas met de nieuwe kaart, erg flauw !

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 13-05 16:34

swampy

Coconut + Swallow = ?

epo schreef op 16 april 2004 @ 01:20:
toch is het nep, om de koper zo lang te laten wachten en de volle prijs te laten betalen voor een oud product terwijl het nieuwe product al in de winkel had kunnen liggen. Dat vindt ik toch een soort van oplichten van Ati. Ik hoop vooral daarom dat de Nvidia sneller is, dat zal ze leren ! net als die driver die eindelijk eens profielen afzonderlijk kan instellen, die lancheren ze pas met de nieuwe kaart, erg flauw !
En nvidia kwam toch ook weer uit met de FX5950 een paar maanden geleden? Mmm????

Leuker nog, nvidia heeft 3 weken geleden de FX5500 uitgebracht... ja ja...

Dus beide partijen zijn even schuldig/onschuldig.

Nu ja.....

There is no place like ::1

epo schreef op 16 april 2004 @ 01:20:
toch is het nep, om de koper zo lang te laten wachten en de volle prijs te laten betalen voor een oud product terwijl het nieuwe product al in de winkel had kunnen liggen. Dat vindt ik toch een soort van oplichten van Ati.
Joh, welcome in the real world. Wake up and smell the coffee. 8)7 Dat doet elk bedrijf... Neem bijvoorbeeld een Sony Ericcson, die heeft al lang z'n nieuwe generatie GSMs klaar staan, maar wil de verkoop van de huidige GSMs (die ook nog maar een paar maanden oud zijn) niet de kop in drukken... Hetzelfde geldt ook voor bv autofabrikanten, tv-fabrikanten, en alle andere electronicafabrikanten... Er is bijna altijd wel iets beters klaar...

Ik verdenk bijvoorbeeld de CPU fabrikanten er ook van dat ze eigenlijk al gigantisch snelle CPUs klaar hebben staan, maar nog flink willen verdienen aan ons... dus brengen ze elke 2 maanden een 'iets' snellere versie uit (AMD: 2800+, 300+, 3200+, 3400+... geef mij nou maar die 4000+, Intel: 3 Ghz, 3 Ghz + HT, 3.06 Ghz, 3.2 Ghz, 3.2 EE, 3.4 Ghz....) :P

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • epo
  • Registratie: November 2000
  • Laatst online: 27-05 18:17
CJ schreef op 16 april 2004 @ 01:35:
[...]


Joh, welcome in the real world. Wake up and smell the coffee. 8)7 Dat doet elk bedrijf... Neem bijvoorbeeld een Sony Ericcson, die heeft al lang z'n nieuwe generatie GSMs klaar staan, maar wil de verkoop van de huidige GSMs (die ook nog maar een paar maanden oud zijn) niet de kop in drukken... Hetzelfde geldt ook voor bv autofabrikanten, tv-fabrikanten, en alle andere electronicafabrikanten... Er is bijna altijd wel iets beters klaar...

Ik verdenk bijvoorbeeld de CPU fabrikanten er ook van dat ze eigenlijk al gigantisch snelle CPUs klaar hebben staan, maar nog flink willen verdienen aan ons... dus brengen ze elke 2 maanden een 'iets' snellere versie uit (AMD: 2800+, 300+, 3200+, 3400+... geef mij nou maar die 4000+, Intel: 3 Ghz, 3 Ghz + HT, 3.06 Ghz, 3.2 Ghz, 3.2 EE, 3.4 Ghz....) :P
dat cpu verhaal gaat niet op (paar mhz is wat anders dan een totaal nieuwe graifsche kaart duh) , en dat van de telefoons ook al niet. Maar wat ik wil zeggen is dat jouw lieve ATI echt niet zo lief is als je overal wil doen laten geloven, welcome to the real world :P
epo schreef op 16 april 2004 @ 01:43:
[...]


dat cpu verhaal gaat niet op (paar mhz is wat anders dan een totaal nieuwe graifsche kaart duh) , en dat van de telefoons ook al niet. Maar wat ik wil zeggen is dat jouw lieve ATI echt niet zo lief is als je overal wil doen laten geloven, welcome to the real world :P
Als je graag wilt gaan flamen, dan doe je dat maar ergens anders. Doe niet zo kinderachtig. :/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • epo
  • Registratie: November 2000
  • Laatst online: 27-05 18:17
CJ schreef op 16 april 2004 @ 01:46:
[...]

Als je graag wilt gaan flamen, dan doe je dat maar ergens anders. Doe niet zo kinderachtig.

Je wordt persoonlijk, speelt op de man
blijf nou maar mooi ontopic voordat er een modje


:/
Ik flame niet, vertel alleen de waarheid niks meer en niks minder dus niet gelijk onzinnig gaan doen als ik eens wat roep.

ermm reageerde jij niet al eerste kinderachtig op mijn reactie???? en ga je nou dreigen?? tjonge triest wie is hier nou kinderachtig zeg...

maar goed, i rest my case erg nuttleloos dit.

[Voor 54% gewijzigd door epo op 16-04-2004 02:09]

epo schreef op 16 april 2004 @ 01:54:
[...]


Ik flame niet, vertel alleen de waarheid niks meer en niks minder dus niet gelijk onzinnig gaan doen als ik eens wat roep :/
Je wordt persoonlijk, speelt op de man (en niet de bal) en doet dit ook nog eens op redenen die nergens op gebaseerd zijn (alsof het nodig is dat ik nVidia moet afkraken, want ze hebben daar in het afgelopen jaar anders zelf voor genoeg munitie gezorgd). Dus blijf nou maar mooi ontopic voordat er een modje bij moet komen om de boel hier op orde te houden. :/

[Voor 5% gewijzigd door CJ op 16-04-2004 01:59]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:24
Take it easy, take a sisi jongens ;)


over 10 dagen alweer de r420 launch :P

[Voor 7% gewijzigd door Sjah op 16-04-2004 02:01]

Sjah schreef op 16 april 2004 @ 02:00:
Take it easy, take a sisi jongens ;)


over 10 dagen alweer de r420 launch :P
En zo is het maar net. ;)

Dinsdag was er ook een ATi Shader Day. En ook daar horen natuurlijk weer de nodige geruchten bij:
Evildeus at Beyond3D @ Thu Apr 15, 2004 5:57 pm
The only thing i heard from someone who attended is:
The battle between the NV40 and R420 will be harsh. Hope it helps ;)
http://www.beyond3d.com/forum/viewtopic.php?t=11568

[Voor 30% gewijzigd door CJ op 16-04-2004 10:37]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

CJ schreef op 16 april 2004 @ 02:12:
[...]


En zo is het maar net. ;)

Dinsdag was er ook een ATi Shader Day. En ook daar horen natuurlijk weer de nodige geruchten bij:


[...]

http://www.beyond3d.com/forum/viewtopic.php?t=11568
Wat is harsh, zwaar, aan elkaar gewaagd?

Niet op voorraad.

edward2 schreef op 16 april 2004 @ 10:36:
[...]


Wat is harsh, zwaar, aan elkaar gewaagd?
Harsh = Hard, scherp, grof, ruw, wrang, stroef, krijsend, streng.

Maar in dit geval zou ik dus zeggen inderdaad aan elkaar gewaagd.

Dan nog iets anders. De R420 die tijdens GDC is gebruikt om de Unreal Engine 3 te showen schijnt er qua boardlayout net zo te hebben uitgezien als de 9800XT, dus singleslot.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

CJ schreef op 16 april 2004 @ 10:38:
[...]


Harsh = Hard, scherp, grof, ruw, wrang, stroef, krijsend, streng.

Maar in dit geval zou ik dus zeggen inderdaad aan elkaar gewaagd.

Dan nog iets anders. De R420 die tijdens GDC is gebruikt om de Unreal Engine 3 te showen schijnt er qua boardlayout net zo te hebben uitgezien als de 9800XT, dus singleslot.
Ok, dat zou leuk zijn. nVidia heeft een dijk van een GPU neergezet, als ze gelijk opgaan gaan vind ik dat een mooie uitslag voor beiden, ik zou niet willen dat ATI wer de vloer aanveegt met nV, das niet goed voor ons.

Niet op voorraad.


  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:24
Als Ati geen volledige SM3 zou hebben, en/of andere features mist, hoop ik dat ze sneller zijn, om het in evenwicht te houden. Aangezien Ati nu al betere AA heeft, denk ik dat het een "tough call"wordt om dan te beslissen voor 1 van de 2.
edward2 schreef op 16 april 2004 @ 10:48:
[...]


Ok, dat zou leuk zijn. nVidia heeft een dijk van een GPU neergezet, als ze gelijk opgaan gaan vind ik dat een mooie uitslag voor beiden, ik zou niet willen dat ATI wer de vloer aanveegt met nV, das niet goed voor ons.
Het ligt er maar net aan hoe je het bekijkt.

Het is natuurlijk niet goed als 1 bedrijf echt veel machtiger wordt, aangezien de prijzen dan waarschijnlijk hoog zullen blijven en dat ene bedrijf alles kan bepalen wat er gaat gebeuren in de games industrie...

Maar aan de andere kant... als 1 bedrijf wel de vloer aanveegt met het andere bedrijf, betekent dat dat het winnende bedrijf zo'n goed product moet hebben neer gezet dat de performance waarschijnlijk ook enorm omhoog is gegaan in vergelijking met andere producten...

En dat betekent dat games weer veel sneller en soepeler en mooier zullen draaien. En dat vind ik eigenlijk net zo belangrijk, naast een goede prijs.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

CJ schreef op 16 april 2004 @ 11:45:
[...]


Het ligt er maar net aan hoe je het bekijkt.

Het is natuurlijk niet goed als 1 bedrijf echt veel machtiger wordt, aangezien de prijzen dan waarschijnlijk hoog zullen blijven en dat ene bedrijf alles kan bepalen wat er gaat gebeuren in de games industrie...

Maar aan de andere kant... als 1 bedrijf wel de vloer aanveegt met het andere bedrijf, betekent dat dat het winnende bedrijf zo'n goed product moet hebben neer gezet dat de performance waarschijnlijk ook enorm omhoog is gegaan in vergelijking met andere producten...

En dat betekent dat games weer veel sneller en soepeler en mooier zullen draaien. En dat vind ik eigenlijk net zo belangrijk, naast een goede prijs.
Ik weet zeker dat het geen goede zaak is als 1 bedrijf de vloer aanveegt met zijn enige concurrent.

Bij de eerste keer hebben de consumenten idd relatief grote prestatiewinst maar daarna gaat de winnaar "controllegedrag vertonen" en probeert het niet zsm zijn beste produkten op de markt te brengen.
Dit gedrag zie je op allerlei "markten" en is niet in belang van de consument.

Bedrijfseconomisch is het wel te begrijpen. Aandeelhouders/eigenaren zullen slechts zoveel R&D doen als noodzakelijk om net te kunnen blijven winnen. Het restant kan gebruikt worden voor dividend of om andere deelmarkten te gaan bestrijken. Kijk maar wat nVidia heeft gedaan met zijn nForce chipsets. Erg succesvol maar het gingt ten koste van de focus bij de videochips.

Ik vind de geruchten dat ATI in eerste instantie slechts van plan was een chip met 12 pipelines uit te brengen dan ook tekenend. Zonder sterke concurrentie van nVidia zou ATI zeker proberen haar huidige topmodellen langer uit te melken.

Trouwens dat deed ATI al. De incrementele prestatiewinst die na de 9700pro bij elke refresh getoond werd was echt niet geweldig.

Het is echter zo dat nVidia hetzelfde deed toen ze nog de winnaar waren maar er om bekritiseerd werd. ATI is er in geslaagd op dit punt (en op bepaalde andere punten) hetzelfde gedrag te vertonen als nVidia maar er wel mee weg te komen.
Das ook marketing en dat is ook knap.

[Voor 16% gewijzigd door Help!!!! op 16-04-2004 12:14]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Help!!!! schreef op 16 april 2004 @ 12:06:
[...]
Ik vind de geruchten dat ATI in eerste instantie slechts van plan was een chip met 12 pipelines uit te brengen dan ook tekenend. Zonder sterke concurrentie van nVidia zou ATI zeker proberen haar huidige topmodellen langer uit te melken.
Je vergeet dat ATi met opzet verkeerde informatie heeft zitten lekken, net zoals nVidia. Alleen heeft nVidia nu haar kaarten op tafel gegooid, en zit iedereen gespannen te wachten op wat R420 nou echt is...

Net wat 'interessant' nieuws opgepikt op Rage3D.

Het schijnt dat sommige mensen van Rage3D al een NDA met ATi hebben getekend, waaronder de vaste moderators. Er zijn verschillende discussies gaande, en elke keer proberen de mods rustig te vertellen aan alle mensjes die flink gehyped zijn door NV40, dat ze nog even rustig moeten wachten tot alle kaarten uit zijn, voordat ze er eentje tot winnaar verklaren. Ook proberen ze steeds te zeggen dat mensen geen flauw idee hebben over wat ATi in petto heeft...

En toen kwam de interessante opmerkingen:
Posted by G.I.BRO
Fair enough, but, im have a hunch that people would want to grab an ATi card when all flavours are ready. Also, i too think its silly to go out and buy something asap. Best to wait a little bit before one goes out and buys. ITs good to see all the reviews and such so that you can get a better understanding on whats going on. The last thing you wanna do is to grab something and then realize that its not as good as the other choice at hand.
Posted by Kombatant
Listen to this man... he knows his stuff ;)
Iemand reageerde daar toen op met dat het "common sense" was om te wachten. Maar Kombatant reageerde daar toen weer op met:
Posted by Kombatant
Nope, it's not called that way. It's called knowing what ATI's upcoming babies can do. It's also called having signed an NDA so we can't reveal more.
Bron: http://www.rage3d.com/boa....php?s=&threadid=33753558

http://www.rage3d.com/board/images/smilies/wtf.gif

Interessant of niet? }:O

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • swampy
  • Registratie: Maart 2003
  • Laatst online: 13-05 16:34

swampy

Coconut + Swallow = ?

CJ schreef op 16 april 2004 @ 12:13:
[...]


Interessant of niet? }:O
Of de ATI kaarten nu sneller zijn of de Nvidia..het is hoe dan ook beter af te wachten wat er geboden wordt :-p

There is no place like ::1

swampy schreef op 16 april 2004 @ 12:17:
[...]


Of de ATI kaarten nu sneller zijn of de Nvidia..het is hoe dan ook beter af te wachten wat er geboden wordt :-p
Inderdaad. Maar de nieuwsgierigheid begint nu wel erg toe te nemen. :D Vooral nu er weer zo'n vervelende opmerking staat, namelijk:
Posted by Kombatant
Nope, because after seeing the NV40 there's absolutely no fear, uncertainty or doubt })
Hoe moet je dat nou in hemelsnaam weer opvatten? Zoals ik dat nu doe, interpreteer ik het als volgt: "We hebben gezien wat NV40 kan doen, en er bestaat nu absoluut geen angst, onzekerheid of twijfel meer, want R420 gaat er over heen...." :o

Onderdeel van de R420 hype? Of waarheid? Ik probeer hier een beetje na te gaan wat ze er aan hebben om dit soort opmerkingen te maken. Ze zouden het niet doen als R420 slechter zou presteren, aangezien ze hier later mee voor schut zouden staan... Echt vreselijk dit soort opmerkingen van hun. :/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

CJ schreef op 16 april 2004 @ 12:13:
[...]


Je vergeet dat ATi met opzet verkeerde informatie heeft zitten lekken, net zoals nVidia. Alleen heeft nVidia nu haar kaarten op tafel gegooid, en zit iedereen gespannen te wachten op wat R420 nou echt is...

Net wat 'interessant' nieuws opgepikt op Rage3D.

Het schijnt dat sommige mensen van Rage3D al een NDA met ATi hebben getekend, waaronder de vaste moderators. Er zijn verschillende discussies gaande, en elke keer proberen de mods rustig te vertellen aan alle mensjes die flink gehyped zijn door NV40, dat ze nog even rustig moeten wachten tot alle kaarten uit zijn, voordat ze er eentje tot winnaar verklaren. Ook proberen ze steeds te zeggen dat mensen geen flauw idee hebben over wat ATi in petto heeft...

En toen kwam de interessante opmerkingen:


[...]


[...]


Iemand reageerde daar toen op met dat het "common sense" was om te wachten. Maar Kombatant reageerde daar toen weer op met:


[...]

Bron: http://www.rage3d.com/boa....php?s=&threadid=33753558

[afbeelding]

Interessant of niet? }:O
Ondertussen had ik mijn post nog wat zitten editten. Ik doel op het stukje over de incrementele prestatiewinst na de 9700pro.

Over die misinformatie kan ik je geen ongelijk geven. Het stukje over het aantal pipelines wat ATI oorspronkelijk in gedachte had vind ik echter wel geloofwaardig.

Je links naar die gasten van RAGE3d is zeker interessant maar het zijn natuurlijk ook maar geruchten en de mensen achter de quote ken ik verder niet.
Op B3D lees ik ook geruchten/meningen die stellen dat ATI moeite zou hebben om de 6800U te evenaren.

Zelf vind ik dat nVidia een hele goede kaart heeft neergezet. Thumbs up voor nVidia. Een dergelijke prestatiewinst hebben we al lang niet gezien. Mijn voorgevoel is echter wel dat ATI idd met een hele goede kaart gaat uitkomen. Het zou me niets verbazen als ATI toch gewoon PS3.0 en VS3.0 volledig zal ondersteunen. Ik zie ATI zeker niet als verslagen.

Het zou dan ook idd dom zijn om nu al een 6800U te kopen als de X800XT om de hoek ligt. Ik ga dan ook absoluut wachten op de vergelijkende reviews.

ps (mijn hoop blijft dat het erg weinig zal schelen tussen de 6800U en de X800XT anders gooit nVidia vroeg of laat misschien de handdoek in de ring?)

[Voor 8% gewijzigd door Help!!!! op 16-04-2004 12:31]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Over de mensen die ik gequote heb. Die staan er om bekend dat ze zeer betrouwbaar zijn. Enkele zijn zelfs meerdere malen bij ATi uitgenodigd en ook op bezoek geweest. En de officiele chatsessies met ATi topmensen worden ook door hun georganiseerd. Daarom geef ik hun uitspraken een beetje meer credibiliteit dan de uitspraken van een gemiddelde forum bezoeker. :7

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

CJ schreef op 16 april 2004 @ 12:22:
[...]


Inderdaad. Maar de nieuwsgierigheid begint nu wel erg toe te nemen. :D Vooral nu er weer zo'n vervelende opmerking staat, namelijk:


[...]

Hoe moet je dat nou in hemelsnaam weer opvatten? Zoals ik dat nu doe, interpreteer ik het als volgt: "We hebben gezien wat NV40 kan doen, en er bestaat nu absoluut geen angst, onzekerheid of twijfel meer, want R420 gaat er over heen...." :o

Onderdeel van de R420 hype? Of waarheid? Ik probeer hier een beetje na te gaan wat ze er aan hebben om dit soort opmerkingen te maken. Ze zouden het niet doen als R420 slechter zou presteren, aangezien ze hier later mee voor schut zouden staan... Echt vreselijk dit soort opmerkingen van hun. :/
Tsja dit is behoorlijk klare taal, ze geven nu duidelijk aan dat de R420 de betere kaart zal zijn. De vraag is beter in alles? dus snelheid, features, zoals nieuwe AA en mimaplijnloze perf AF, toch PS3.0? PS3.0 heeft bij mij een streepje voor en ik heb al door de PRzeepbel geprikt ;)

En is er een vleugje fanboytalk in verwerkt? Het wordt heel erg tiijd voor een head to head race :)

[Voor 5% gewijzigd door edward2 op 16-04-2004 12:37]

Niet op voorraad.

edward2 schreef op 16 april 2004 @ 12:36:
[...]


Tsja dit is behoorlijk klare taal, ze geven nu duidelijk aan dat de R420 de betere kaart zal zijn. De vraag is beter in alles? dus snelheid, features, zoals nieuwe AA en mimaplijnloze perf AF, toch PS3.0? PS3.0 heeft bij mij een streepje voor en ik heb al door de PRzeepbel geprikt ;)
Of een kaart PS3.0 of niet ondersteunt is voor mij persoonlijk niet van doorslaggevende waarde. Vooral nu ik van verschillende kanten te horen heb gekregen (waaronder Dio van ATi) dat zo'n beetje alles wat gedaan kan worden in PS3.0, ook bereikt kan worden met PS2.0, en dat zelfs kaarten die wel PS3.0 ondersteunen moeite zullen hebben met bepaalde dingen.

Interessant topic hierover op: http://www.beyond3d.com/forum/viewtopic.php?t=11599

Ik ga dus zoals gewoonlijk weer voor het mooiste beeld voornamelijk AA + DVD Playback gecombineerd met pure kracht. Ben benieuwd wie die battle voor mij gaat winnen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

CJ schreef op 16 april 2004 @ 13:26:
[...]


Of een kaart PS3.0 of niet ondersteunt is voor mij persoonlijk niet van doorslaggevende waarde. Vooral nu ik van verschillende kanten te horen heb gekregen (waaronder Dio van ATi) dat zo'n beetje alles wat gedaan kan worden in PS3.0, ook bereikt kan worden met PS2.0, en dat zelfs kaarten die wel PS3.0 ondersteunen moeite zullen hebben met bepaalde dingen.

Interessant topic hierover op: http://www.beyond3d.com/forum/viewtopic.php?t=11599

Ik ga dus zoals gewoonlijk weer voor het mooiste beeld voornamelijk AA + DVD Playback gecombineerd met pure kracht. Ben benieuwd wie die battle voor mij gaat winnen.
Ja maar de vraag is, of het dan ook in ps2.0 gedaan wordt door gamedevs. nu blijkt dat er toch wel wat ps3.0 patches komen (hoewel de vraag is hoe groot het PR TWIMTBP-gehalte daarin een rol speelt ) En sommige dingen kunnen efficienter met ps3.0, wat natuurlijk weer gecompenseerd kan worden door een erg goede ps.2.0 performance.

Er zijn wel volgens mij wel degelijk een aantal voordelen met PS3.0 en er zullen games zijn waarin ook de voordelen bv. 32 bits FP precisie zichtbaar zullen zijn.

Maar ik ben natuurlijk ook erg nieuwsgierig naar het effect van ATI's R420 AF, als zij deze bv verbetert hebben dmv de mipmap overgangen te vervagen of te verwijderen dan is dat een groot pluspunt.
We'll see.

[Voor 16% gewijzigd door edward2 op 16-04-2004 13:42]

Niet op voorraad.


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
edward2 schreef op 16 april 2004 @ 13:35:
[...]


Ja maar de vraag is, of het dan ook in ps2.0 gedaan wordt door gamedevs. nu blijkt dat er toch wel wat ps3.0 patches komen (hoewel de vraag is hoe groot het PR TWIMTBP-gehalte daarin een rol speelt ) En sommige dingen kunnen efficienter met ps3.0, wat natuurlijk weer gecompenseerd kan worden door een erg goede ps.2.0 performance.

Er zijn wel volgens mij wel degelijk een aantal voordelen met PS3.0 en er zullen games zijn waarin ook de voordelen bv. 32 bits FP precisie zichtbaar zullen zijn.
We'll see.
Welke PS3.0 patches?? Ze draaien allemaal in PS2.0 (bekijk eens de launch video, die crytech dude zegt steeds "PS 2.0 or 3.0" en de nv dude zegt steeds "WoW what PS3.0 can do is amazing"

[Voor 3% gewijzigd door oeLangOetan op 16-04-2004 13:41. Reden: spelling]

edward2 schreef op 16 april 2004 @ 13:35:
[...]


Ja maar de vraag is, of het dan ook in ps2.0 gedaan wordt door gamedevs. nu blijkt dat er toch wel wat ps3.0 patches komen (hoewel de vraag is hoe groot het PR TWIMTBP-gehalte daarin een rol speelt ) En sommige dingen kunnen efficienter met ps3.0, wat natuurlijk weer gecompenseerd kan worden door een erg goede ps.2.0 performance.

Er zijn wel volgens mij wel degelijk een aantal voordelen met PS3.0 en er zullen games zijn waarin ook de voordelen bv. 32 bits FP precisie zichtbaar zullen zijn.
We'll see.
Voor zover ik weet is het verschil tussen 16 bit FP en 24 bit FP heeeeel erg groot. Maar het verschil tussen 24 bit FP en 32 bit FP is heeeeel erg klein. Ik zal de post er nog eens op na zoeken, waarin dit werd uitgelegd op Beyond3D. Het werd ongeveer uitgelegd als dat FP16 zeg maar 50% is, FP24 is 99,5% en FP32 is dan het overige die het vol maakt tot de 100%.

Sir Eric maakte toen ook duidelijk dat het heel simpel was voor ATi om 32 bit FP te integreren + ook nog eens de snelheid te behouden van 24 bit FP. Het enige nadeel wat er was, is dat het transistoraantal flink zou toenemen, en dat woog tijdens de ontwikkeling van R300 blijkbaar niet op tegen de kosten.

Dus ik denk zelf niet dat 32 bit FP zo veel zal uitmaken. Wat wel zal kunnen uitmaken is hoe efficient de devs de PS3.0 code zullen implementeren en of dit dan ook daadwerkelijk sneller zal zijn dan PS2.0.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

oeLangOetan schreef op 16 april 2004 @ 13:40:
[...]


Welke PS3.0 patches?? Ze draaien allemaal in PS2.0 (bekijk eens de launch video, die crytech dude zegt steeds "PS 2.0 or 3.0" en de nv dude zegt steeds "WoW what PS3.0 can do is amazing"
Het is toch ook nog niet zo ver.
Far Cry heeft onlangs ps3.0 support in de 1.1 patch, in afwachting van de nieuwe Dx-SDK met ps3.0 compiler kunnen we natuurlijk pas het onafhankelijke resultaat zien/merken.

En er komen patches en/of support voor minimaal de volgende games:

Half Life2
Lord of the Rings, Battle For Middle-earth
STALKER: Shadows of Chernobyl
Vampire: Bloodlines
Splinter Cell X
Tiger Woods 2005
Madden 2005
Driver 3
Grafan
Painkiller.

[Voor 34% gewijzigd door edward2 op 16-04-2004 14:02]

Niet op voorraad.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

CJ schreef op 16 april 2004 @ 13:44:
[...]


Voor zover ik weet is het verschil tussen 16 bit FP en 24 bit FP heeeeel erg groot. Maar het verschil tussen 24 bit FP en 32 bit FP is heeeeel erg klein. Ik zal de post er nog eens op na zoeken, waarin dit werd uitgelegd op Beyond3D. Het werd ongeveer uitgelegd als dat FP16 zeg maar 50% is, FP24 is 99,5% en FP32 is dan het overige die het vol maakt tot de 100%.

Sir Eric maakte toen ook duidelijk dat het heel simpel was voor ATi om 32 bit FP te integreren + ook nog eens de snelheid te behouden van 24 bit FP. Het enige nadeel wat er was, is dat het transistoraantal flink zou toenemen, en dat woog tijdens de ontwikkeling van R300 blijkbaar niet op tegen de kosten.

Dus ik denk zelf niet dat 32 bit FP zo veel zal uitmaken.
Ik moet eerlijk zeggen dat ik ook geen verschil zag in screenshots tussen de R9800 met 24 bits en de FX5950 met geforceerde 32 bits fp precisie in Far Cry.(behalve dan de FPS counter ;) )

JC heeft wel eens gezegd dat er wel verschil was, maar het is maar de vraag in hoeverre dat zichtbaar is voor ons ;)

Niet op voorraad.


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
edward2 schreef op 16 april 2004 @ 13:50:
[...]


Het is toch ook nog niet zo ver.
Far Cry heeft onlangs ps3.0 support in de 1.1 patch, in afwachting van de nieuwe Dx-SDK met ps3.0 compiler kunnen we natuurlijk pas het onafhankelijke resultaat zien/merken.

En er komen patches en/of support voor minimaal de volgende games:

Half Life2
Lord of the Rings, Battle For Middle-earth
STALKER: Shadows of Chernobyl
Vampire: Bloodlines
Splinter Cell X
Tiger Woods 2005
Madden 2005
Driver 3
Grafan
Painkiller.
Pure NV PR (misschien gaan ze VS3.0 gebruiken)
Ik wil wel eens zien wat er daarvan in huis gaat komen
btw het zou me niet verrassen dat nv, mensen naar die bedrijven zend om hun shaders te herschrijven voor PS3.0, PS3.0 kan met dynamic branching een lichte performance boost geven

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Ik ben me bewust van de commerciele PR-praktijken, en houdt me laatste oordeel tot het moment dat er onafhankelijke tests komen, maar die hebben we nu nog niet.
De vergelijking met Far Cry met shader 1.1 (als het niet minder is) en 3.0 zijn natuurlijk heel triest en misleidend.

Er is volgens mij nog een voordeel, hardware displacement mapping is veel makkelijker (en sneller) te implementeren in Shader Model 3 las ik ergens.

Ik geloof dat dit ook in ps2.0 kan, maar dat schijnt niet éénvoudig en/of snel genoeg te zijn. (de Parhelia kon het wel ;))

[Voor 65% gewijzigd door edward2 op 16-04-2004 14:32]

Niet op voorraad.

edward2 schreef op 16 april 2004 @ 13:50:
[...]


Het is toch ook nog niet zo ver.
Far Cry heeft onlangs ps3.0 support in de 1.1 patch, in afwachting van de nieuwe Dx-SDK met ps3.0 compiler kunnen we natuurlijk pas het onafhankelijke resultaat zien/merken.

En er komen patches en/of support voor minimaal de volgende games:

Half Life2
Lord of the Rings, Battle For Middle-earth
STALKER: Shadows of Chernobyl
Vampire: Bloodlines
Splinter Cell X
Tiger Woods 2005
Madden 2005
Driver 3
Grafan
Painkiller.
Tja, van meer de helft van die spellen is nog niet eens bekend dat wanneer die precies uit gaan komen. En als ik kijk naar mijn eigen smaak, dan interesseert alleen Vampire: Bloodlines me echt. Tel daarbij op dat ATi het in haar eigen presentatie had over haar 'eigen SM3.0 producten'... dus tegen de tijd dat SM3.0 echt ingeburgerd raakt hebben alle fabrikanten, dus ook XGI en S3 waarschijnlijk wel een PS3.0 kaartje.

Kijk naar HL2... de 9800XT zou de beste performance geven voor HL2, maar het kwam maar niet uit. Nu presteert de 6800U veel beter dan de 9800XT in HL2. Ik zie kans dat dit zelfde verhaaltje straks ook gaat gebeuren bij vele titels in dit lijstje. En door Valve wordt zelfs aangegeven dat ze geen prioriteit geven aan SM3.0 aangezien de meeste kaarten dit toch niet ondersteunen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:24
[bull]

[Voor 134% gewijzigd door Sjah op 16-04-2004 15:25]

Het begint wel heel erg grappige vormen aan te nemen met de specs van R420. Nu was er net een "guest" op B3D die het volgende postte:
ATI Radeon R420 Graphics ATI X800 Series
Manufacturing Process .13µ
Transistor Count(millions) 160
Core Speed(MHz) ~500
Memory Speed(MHz) ~500
Memory Interface 256bit
Rendering Pipelines 16
TMUs Per Pipeline 1
Peak Memory Bandwidth(GB/s) ~32.0
Pixel Fillrate(million pixels/sec) ~6,400
Texel Fillrate(million texels/sec) ~6,400
DX9 Pixel Shader Version 3.0
Vertex Shaders(version) 8 or 6 (3.0)
Memory Type GDDR3
FP / Internal precision 32
MAX Memory Size 512MB
AA Sample 8x
Native PCI Express Support Yes (R423)
Native AGP 8x Support Yes (R420)
DirectX Version Support 9.0c
Maar goed, zo kan ik er zelf ook wel meer verzinnen. :/ Ik wil feiten. :'(

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
op theinq
ATI to launch X800 PRO on 4th of May

X800XT to follow in two weeks


By Fuad Abazovic: Friday 16 April 2004, 12:56

EVEN THOUGH ATI doesn't want us in Canada without signing one of its famous NDAs, we always have our ways of getting information about its future plans.
Back at CeBIT we heard that new chip will be called X800 but simply could not confirm it at that time and we also heard that this chip will be introduced at System Builder Summit.

The date that is apparently being suggested is the 5th of May, and it could be that ATI will launch this chip during the SBS event.

Sources close to ATI claim that it can actually ship this card at the same day of launch and we know that there are quite some samples ready as we speak.

As for the specs, the R420PRO or should we call it X800PRO will be clocked at 475 MHz, 25 MHZ higher then we suggested since yields are better, while the memory will be clocked at 900MHz as we suggested before.

Everything is packed into 180 millions of transistors and the card has 12 pipelines as we suggested. The R420XT, Radeon X800XT will be higher clocked card with 16 pipelines which came as a huge surprise to us.

This card is meant to fight Geforce 6800 non Ultra - the one with 12 pipelines and should be in retail as soon as ATI launches it.

This means that you should be able to buy one on the 4th of May but let's wait and see if ATI can deliver on that day.

Faster Radeon X800XT will come just after E3, and soon after the 14th of May we are told. I cannot remember if I said this before, but the R420 is chip based on R300 marchitecture and you can clearly see this from its 96 bit precision support and lack of PS 3.0.

Performance wise it will give NV40 a good run for its money. µ

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
Urhm dat Ruby artikel was al een keertje eerder gepost. ;) [rml]CJ in "[ Algemeen] ATi Nieuws & Discussie Topic"[/rml]

Maar die Ninja nog niet. Waar is die van? :)

[Voor 3% gewijzigd door CJ op 16-04-2004 15:40]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
CJ schreef op 16 april 2004 @ 15:40:
[...]


Urhm dat Ruby artikel was al een keertje eerder gepost. ;) [rml]CJ in "[ Algemeen] ATi Nieuws & Discussie Topic"[/rml]

Maar die Ninja nog niet. Waar is die van? :)
je bedoelt die ninja op de achtergrond van het ruby artikel
hehe

/edit ruby heeft interessant haar
/edit2 http://www.upit.dk/files/haar.jpg

[Voor 14% gewijzigd door oeLangOetan op 16-04-2004 15:54]

Ah, dat komt natuurlijk uit die devdocs van GDC. :D

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Chriskonijn
  • Registratie: Augustus 2003
  • Laatst online: 24-07-2016
offtopic:
Voor geinteresseerden in floating point:
FP16 is s10e5, FP24 is s16e7, FP32 is s23e8. "s" staat hierin voor sign, ofwel 1 bit voor - of +, het getal erachter voor het aantal bits in de mantissa en het getal achter de "e" voor het aantal bits in de exponent (die zelf ook weer negatief kan zijn). Het uiteindelijke getal wordt gevormd door: mantissa * 2^exponent (met daarbij het goede teken). Voor FP16 heeft de mantissa dus een nauwkeurigheid van 1 op 2^10 = 1 op 1024. Getallen groter dan 1024 worden dus automatisch afgerond (bijvoorbeeld 1025 past niet en dus zal het laatste bit wegvallen en zal dit als 512 * 2^1 worden opgeslagen). FP16 heeft dan dus ook een groot nadeel als er textures groter dan 1024 pixels worden gebruikt; de coordinaten kunnen dan dus niet nauwkeurig genoeg opgeslagen worden, waardoor texturefouten kunnen ontstaan. Dit zal ook de reden zijn dat microsoft FP16 niet heeft opgenomen in de DX specs. FP24 heeft een nauwkeurigheid van 1 op 65536 (0.0000153) en FP32 is 1 op 8388608 (0.000000119).
FP16 werkt net op het randje (10 bits precisie met een 10 bits/channel RAMDAC) en zal dus relatief snel afrondingsfouten vertonen. Zelfs de "oude" DX8 integer (of fixed point) berekeningen werkten al op 12 bits nauwkeurigheid, maar dan zonder het grote bereik van FP (HDR). Ook in de vertex shader speelt deze nauwkeurigheid mee, maar dat is dan vooral te merken in fouten in de positie van objecten.


Hoewel Ati volgens de berichten geen PS3.0 zal ondersteunen in de R420, zou het best kunnen zijn dat ze er wel langzaam naartoe werken (bijvoorbeeld FP32).

Ook vind ik het vreemd dat bijna niemand zich lijkt af te vragen of er VS3.0 support in zal zitten. Of heb ik iets gemist? De meeste getoonde effecten, zoals displacement mapping, komen volgens mij uit de vertex shader.

Anoniem: 76207

Uhm, 5 mei? Ik dacht 26 april... 475mhz?? ik dacht 500 of 600 voor de XT... 900mhz geheugen??? Ik dacht 1200????? vaag nieuws......

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
Chriskonijn schreef op 16 april 2004 @ 16:02:
Hoewel Ati volgens de berichten geen PS3.0 zal ondersteunen in de R420, zou het best kunnen zijn dat ze er wel langzaam naartoe werken (bijvoorbeeld FP32).

Ook vind ik het vreemd dat bijna niemand zich lijkt af te vragen of er VS3.0 support in zal zitten. Of heb ik iets gemist? De meeste getoonde effecten, zoals displacement mapping, komen volgens mij uit de vertex shader.
Er wordt aangenomen dat de R420 VS3.0 heeft aangezien zijn vertex shaders van het originele R420 design komt. Vertex texturing is interessant maar (jammergenoeg) waarschijnlijk nog niet krachtig genoeg in de opkomende kaarten. Ook de filtering mogelijkheden van de vertex shaders zijn beperkt, in het techinische 3dcenter.de artikel staat er dat dat wordt op gelost in de nv50 :/ .
(*oelangoetan wil shader model 4 met primitive shaders*).
Ik begin eigenlijk het idee te krijgen dat de nv40 een goede sm2.0 kaart is die sm3.0 kan gebuiken om optimalisaties door te voeren maar niet krachtig genoeg is om volledig op sm3.0 te werken.

(mooi van die offtopic van je, ik had het niet beter gekunt _/-\o_ )

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Thanx voor de toelichting.
Het is jammer dat het meeste leesvoer in het Engels is ondanks dat m'n Engels redelijk is, valt het soms niet mee alles te begrijpen.

3Dcenter had ook weer zo'n mooi stuk :

http://www.3dcenter.org/artikel/nv40_technik/index_e.php

[Voor 131% gewijzigd door edward2 op 16-04-2004 16:26]

Niet op voorraad.

Anoniem: 76207 schreef op 16 april 2004 @ 16:03:
[...]


Uhm, 5 mei? Ik dacht 26 april... 475mhz?? ik dacht 500 of 600 voor de XT... 900mhz geheugen??? Ik dacht 1200????? vaag nieuws......
Dit gaat over de Pro. Alhoewel The Inq weer andere kloksnelheden als 'origineel' ziet.

Zij dachten dus X800Pro op 450 Mhz core en 450 Mhz mem. Dit zou dus verhoogt zijn naar 475 Mhz voor de core, terwijl het geheugen gelijk blijft.

Zelf was ik altijd in de veronderstelling dat dit de X800SE snelheden waren. Maar volgens de laatste geruchten is de X800SE uit de line up gehaald.

Wat wel interessant is uit het stukje van The Inq is dat de X800Pro direct op de launchdag beschikbaar moet zijn voor verkoop.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • ErikRo
  • Registratie: Juni 2001
  • Laatst online: 17-05 01:38
Ehum misschien heb ik erover heen gelezen. Maar is er al bekend of de x800 ook een stroomvreter gaat zijn dwz 2 molexstekkers en een 480watt voeding?

Of zou deze wel in de huidige kasten passen?

in tegenstelling tot die nieuwe Nvdia kaart.

"I don't have any solution but I certainly admire the problem." -- Ashleigh Brilliant


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
ErikRo schreef op 17 april 2004 @ 14:01:
Ehum misschien heb ik erover heen gelezen. Maar is er al bekend of de x800 ook een stroomvreter gaat zijn dwz 2 molexstekkers en een 480watt voeding?

Of zou deze wel in de huidige kasten passen?

in tegenstelling tot die nieuwe Nvdia kaart.
DB van b3d heeft duidelijk laten weten dat hij dat heel onwaarschijnlijk zou vinden. Ik verwacht dat binnen een week er op het net fotos gaan verschijnen, nog ff wachten.
oeLangOetan schreef op 17 april 2004 @ 14:04:
[...]


DB van b3d heeft duidelijk laten weten dat hij dat heel onwaarschijnlijk zou vinden. Ik verwacht dat binnen een week er op het net fotos gaan verschijnen, nog ff wachten.
Tel daarbij op de melding dat op GDC de Unreal Engine 3 ook gedraait werd op een R420 die als twee druppels water leek op een Radeon9800XT, dan denk ik ook niet dat er 2 molexen nodig zijn. Maar goed, je weet het nooit zeker natuurlijk.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:24
oeLangOetan schreef op 16 april 2004 @ 14:18:
[...]


Pure NV PR (misschien gaan ze VS3.0 gebruiken)
Ik wil wel eens zien wat er daarvan in huis gaat komen
btw het zou me niet verrassen dat nv, mensen naar die bedrijven zend om hun shaders te herschrijven voor PS3.0, PS3.0 kan met dynamic branching een lichte performance boost geven
Hoe weet je dat nou? Misschien is het wel vrij makkelijk. En die video heb ik ook gekeken, en behalve die lijst die ze lieten zien , zoals aangegeven door Edward.... ze zeiden ook dat de lijst langer was dan die ze toonden. Wie weet is er wel een langere lijst, ik heb hem nog niet gezien, of misschien is het idd wel marketingleugens. Who knows.

[Voor 4% gewijzigd door Sjah op 17-04-2004 15:21]


  • epo
  • Registratie: November 2000
  • Laatst online: 27-05 18:17
ErikRo schreef op 17 april 2004 @ 14:01:
Ehum misschien heb ik erover heen gelezen. Maar is er al bekend of de x800 ook een stroomvreter gaat zijn dwz 2 molexstekkers en een 480watt voeding?

Of zou deze wel in de huidige kasten passen?

in tegenstelling tot die nieuwe Nvdia kaart.
Als je een beetje de reviews heb gelezen zie je dat hij in de 1 op de 5 gevallen meer stroomt trek dan een 9800xt in alle andere gevallen dus minder ( zie tomshardware).

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
epo schreef op 17 april 2004 @ 22:19:
[...]
Als je een beetje de reviews heb gelezen zie je dat hij in de 1 op de 5 gevallen meer stroomt trek dan een 9800xt in alle andere gevallen dus minder ( zie tomshardware).
:) lol die is goed, de GF6800 verbruikt een 20W meer dan de R9800XT
Je bent goed er goed ingetuimeld. De GF kaarten verbruiken minder in 2d modus, in 3d modus gaan ze pas op volle snelheid lopen. De R9800XT verbruikt altijd even veel. Alleen het verbruik in 3d modus telt als je je PSU kiest :)

Anoniem: 22619

epo schreef op 17 april 2004 @ 22:19:
[...]


Als je een beetje de reviews heb gelezen zie je dat hij in de 1 op de 5 gevallen meer stroomt trek dan een 9800xt in alle andere gevallen dus minder ( zie tomshardware).
Om te bepalen welke PSU je nodig hebt is het belangrijk te weten wat de max hoeveelheid watt is die het systeem trekt. Aan dingen als idle of overall power usage heb je niet zoveel natuurlijk.

Tijdens gamen gebruikt een identiek systeem met een 6800U gemiddeld ongeveer 27 watt meer dan een 9800XT: 288 watt (tenminste, dit is wat de PSU trekt uit het stopcontact). Het relatieve verschil in gebruik tussen (alleen) de twee videokaarten is niet bekend.

Daar je toch een zekere speling wilt inbouwen in verband met pieken in verbruik (dat niet als je dvd speler gaat draaien tijdens het gamen opeens je pc crasht), dalen in PSU efficientie (als het warmer is in je kamer bijvoorbeeld) of te zware gemiddelde belasting van je PSU (je PSU lange tijd 100% belasten is niet zo best) is het jammergenoeg aan te raden een stevige PSU aan te schaffen (exact wattage valt erg moeilijk te zeggen daar dit afhangt van de omgeving waarin de PSU wordt gebruikt als wel de efficientie van de PSU).

Over niet al te lange tijd krijg je waarschijnlijk bij je nieuwe NVIDIA/ATI een mini-kernreactor ;)

  • epo
  • Registratie: November 2000
  • Laatst online: 27-05 18:17
ingetuimeld nee niet echt,maar wtf is 20w ??

  • Bliep
  • Registratie: September 2003
  • Laatst online: 27-05 09:13
epo schreef op 17 april 2004 @ 22:43:
ingetuimeld nee niet echt,maar wtf is 20w ??
20W = 20 Watt, en dat is vermogen

Algemene formule om vermogen te berekenen:
P = U x I
20= U x 12
U=20/12
U=1,67 A

Dus de 6800U gebruikt 20 watt en 1,67 Ampere meer dan de 9800XT :)

[Voor 3% gewijzigd door Bliep op 18-04-2004 00:04]


  • k5052
  • Registratie: April 2002
  • Laatst online: 22-05 13:24
weet iemand hoe ik SMARTGART kan laten werken zodat mijn agp speeds aangaan? ze staan nu "off"en als ik op 8x klik dan reboot hij en staat hij op "off":(
( msischien is het omdat ik de vid. drivers eerst heb geinstallt en daarna mobo? )

  • Maverick
  • Registratie: Oktober 2001
  • Laatst online: 07:01
kenny89 schreef op 18 april 2004 @ 00:24:
weet iemand hoe ik SMARTGART kan laten werken zodat mijn agp speeds aangaan? ze staan nu "off"en als ik op 8x klik dan reboot hij en staat hij op "off":(
( msischien is het omdat ik de vid. drivers eerst heb geinstallt en daarna mobo? )
Euhm, heb dit ook al eens gehad, probeer eens je nieuwste chipset drivers te installeren, dat verhielp het bij mij.

edit:
Overigens is dit topic niet voor zulk soort problemen bedoelt ;)

[Voor 11% gewijzigd door Maverick op 18-04-2004 00:26]

PSN: DutchTrickle PVoutput


  • melly
  • Registratie: Mei 2001
  • Laatst online: 03-03 22:37
kenny89 schreef op 18 april 2004 @ 00:24:
weet iemand hoe ik SMARTGART kan laten werken zodat mijn agp speeds aangaan? ze staan nu "off"en als ik op 8x klik dan reboot hij en staat hij op "off":(
( msischien is het omdat ik de vid. drivers eerst heb geinstallt en daarna mobo? )
En ik had dit dus ook op mijn asus bordje:)
Agp heb ik in bios aangezet (8x) en de nieuwste Agp drivers geinstalleerd.
Toen deed hij het wel..
melly schreef op 18 april 2004 @ 00:46:
[...]


En ik had dit dus ook op mijn asus bordje:)
Agp heb ik in bios aangezet (8x) en de nieuwste Agp drivers geinstalleerd.
Toen deed hij het wel..
Uit de TOPICREGELS
Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laaste nieuwtjes op het gebied van ATi-GPUs! Dus plaats hier geen posts met vragen over problemen met je videokaart!!
Nu weer ontopic aub. :)

ATi heeft nu alle drie de teasers achter elkaar gezet op de site. http://www.ati.com (voor als je het nog niet gezien hebt ;) )

[Voor 12% gewijzigd door CJ op 18-04-2004 02:01]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • epo
  • Registratie: November 2000
  • Laatst online: 27-05 18:17
Killerhond schreef op 18 april 2004 @ 00:03:
[...]


20W = 20 Watt, en dat is vermogen

Algemene formule om vermogen te berekenen:
P = U x I
20= U x 12
U=20/12
U=1,67 A

Dus de 6800U gebruikt 20 watt en 1,67 Ampere meer dan de 9800XT :)
lol joh, ik bedoel who cares about 20w meer?
epo schreef op 18 april 2004 @ 02:10:
[...]


lol joh, ik bedoel who cares about 20w meer?
Dat kan voor een grote groep potentiele 6800U gebruikers heel wat uitmaken.

Ik geloof dat de meeste mensen nu standaard zo'n 300W a 350W in hun PC hebben zitten, aangezien dit de minimumspecs waren voor de R300 en NV30. Standaard zitten nu in de meeste computers ook nog eens een DVD-drive, brander, soms multiple harde schijven etc.

Dan kan 20W minder of meer het verschil zijn tussen bijvoorbeeld reboots tijdens het gamen wanneer je CD-Rom opeens om aandacht vraagt of gewoon lekker kunnen gamen zonder problemen.

En daarnaast is het stroomverbruik natuurlijk voor bedrijven als Dell heel erg belangrijk. Een van de grote redenen waarom Dell over is gestapt op het gebruik van de Radeon 9800XT in hun topmodellen is dat ATi aan hun stroomverbruikseisen voldoet. En geloof het of niet, maar dankzij Dell zitten er nu heel wat 9800XTs bij de 'normale consument'. En onder andere daardoor is ATi nu dus de nummer 2 wat betreft marktaandeel na Intel.

[Voor 8% gewijzigd door CJ op 18-04-2004 03:20]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
epo schreef op 18 april 2004 @ 02:10:
[...]
lol joh, ik bedoel who cares about 20w meer?
offtopic:
1.67A hé, wel 0.100+A is voldoende om een mens te doden (het voltage doet er niet toe)

[Voor 5% gewijzigd door oeLangOetan op 18-04-2004 10:09]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

CJ schreef op 18 april 2004 @ 03:19:
[...]
En daarnaast is het stroomverbruik natuurlijk voor bedrijven als Dell heel erg belangrijk. Een van de grote redenen waarom Dell over is gestapt op het gebruik van de Radeon 9800XT in hun topmodellen is dat ATi aan hun stroomverbruikseisen voldoet. En geloof het of niet, maar dankzij Dell zitten er nu heel wat 9800XTs bij de 'normale consument'. En onder andere daardoor is ATi nu dus de nummer 2 wat betreft marktaandeel na Intel.
De verbruiksmetingen hier:
http://www.tomshardware.c...0414/geforce_6800-19.html
tonen aan dat de 9800XT tov 5950Ultra in alle situaties meer stroom gebruikt behalve bij 3d spellen, maar dan is het verschil slechts 3 watt. Dit is natuurlijk erg belangrijk daar ook het absolute verbruik dan het hoogst is. 261w tov 264w is 1.15% meer.

Het lijkt me sterk dat deze 3 watt 1 vd grote redenen is geweest voor dell.

Het stroomverbruik van de 9800XT is altijd hoger dan de 6800Ultra behalve weer bij 3D spelen. Dit is natuurlijk erg belangrijk daar ook het absolute verbruik dan het hoogst is. Hier is het verschil aanmerkelijk groter: 27 watt. 288w tov 261w is 10%. Eigenlijk valt dit m.i. nog wel mee.

Echter, het is aannemelijk dat het verschil tussen de x800xt en de 6800ultra (aanmerkelijk) kleiner zal zijn. Normaal gesproken zal de X800XT meer stroom gebruiken dan de 9800XT.

Ook interessant is de volgende opmerking:
"The requirements seem to vary from game to game, but at the same time, ATi and NVIDIA cards also seem to respond to the games differently. In FarCry, for example, the cards need much less juice than in 3DMark 2003. And while the power requirements of the NVIDIA cards spike in Game Test 4, the Radeon 9800XT appetite for electricity is most pronounced in Game Test 1. "

[Voor 52% gewijzigd door Help!!!! op 18-04-2004 10:45]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:24
Dat denk ik ook. Voor mij persoonlijk is het stroomverbruik niet zo een probleem echter wel die 2 connectoren-eis. Maar aangezien ik sowieso voor de non-ultra of x800pro ga, speelt dat verder niet.
Ik vind het niet zo slim van nVidia dat ze 480 voorschrijven, als ik het zo inschat hadden ze ook kunnen zeggen:"een goede 420 watt". Klinkt al heel anders, zeker als Ati wel zegt 420 oid, terwijl ze amper minder gaan gebruiken misschien.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sjah schreef op 18 april 2004 @ 10:45:
Dat denk ik ook. Voor mij persoonlijk is het stroomverbruik niet zo een probleem echter wel die 2 connectoren-eis. Maar aangezien ik sowieso voor de non-ultra of of x800pro ga, speelt dat verder niet.
Ik vind het niet zo slim van nVidia dat ze 480 voorschrijven, als ik het zo inschat hadden ze ook kunnen zeggen:"een goede 420 watt". Klinkt al heel anders, zeker als Ati wel zegt 420 oid, terwijl ze amper minder gaan gebruiken misschien.
nVidia heeft een goede zet gedaan door eerlijk te zijn over de power requirements. Als ze dat niet hadden gedaan en mensen met minder goede voedingen hadden een probleem gekregen dan was de ellende helemaal niet te overzien geweest. Maar zijn ze een keer eerlijk, dan is het wéér niet goed.
Ze hadden die 480 watt heel anders moeten marketeren.

Kijk als ATI zegt: jongens onze kaart rockt the boat maar hij heeft wel een goede voeding van 480 watt nodig. Dan zegt iedereen waarschijnlijk: "wel jammer van die eis en 480w is wel veel maar wat eerlijk en goed van ATI dat ze dat zo duidelijk zeggen."
Als nVidia het doet: nu ja je weet wat er gebeurd is.
Dit illustreert voor mij heel goed dat ATI in de marketing naar de high end kopers/tweakers gewoon zijn marketing veel beter voor elkaar heeft. Ze kunnen gewoon bijna geen kwaad meer doen.

BTW het is altijd moeilijk om de eerste te zijn om met "slecht nieuws" te komen.

Je laatste opmerking vind ik erg terecht. Ipv alleen een getal te noemen hadden ze beter ook een paar voorbeeldconfiguraties met de benodigde voedingen kunnen noemen.
Omdat het wattage relatief weinig zegt hadden idd ze ook beter in kunnen gaan op de kwaliteit van de voeding.

[Voor 33% gewijzigd door Help!!!! op 18-04-2004 12:05]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
Help!!!! schreef op 18 april 2004 @ 10:33:
[...]

De verbruiksmetingen hier:
http://www.tomshardware.c...0414/geforce_6800-19.html
tonen aan dat de 9800XT tov 5950Ultra in alle situaties meer stroom gebruikt behalve bij 3d spellen, maar dan is het verschil slechts 3 watt. Dit is natuurlijk erg belangrijk daar ook het absolute verbruik dan het hoogst is. 261w tov 264w is 1.15% meer.

Het lijkt me sterk dat deze 3 watt 1 vd grote redenen is geweest voor dell.

Het stroomverbruik van de 9800XT is altijd hoger dan de 6800Ultra behalve weer bij 3D spelen. Dit is natuurlijk erg belangrijk daar ook het absolute verbruik dan het hoogst is. Hier is het verschil aanmerkelijk groter: 27 watt. 288w tov 261w is 10%. Eigenlijk valt dit m.i. nog wel mee.

Echter, het is aannemelijk dat het verschil tussen de x800xt en de 6800ultra (aanmerkelijk) kleiner zal zijn. Normaal gesproken zal de X800XT meer stroom gebruiken dan de 9800XT.

Ook interessant is de volgende opmerking:
"The requirements seem to vary from game to game, but at the same time, ATi and NVIDIA cards also seem to respond to the games differently. In FarCry, for example, the cards need much less juice than in 3DMark 2003. And while the power requirements of the NVIDIA cards spike in Game Test 4, the Radeon 9800XT appetite for electricity is most pronounced in Game Test 1. "
http://techreport.com/reviews/2004q2/geforce-6800ultra/power.gif
whatever, ik heb meer vertrouwen in techreport dan tom
punt blijft dat je alleen de maximale resultaten mag meetellen!

/edit
Btw de x800 zal waarschijnlijk ook clock throlling gebruiken in 2d (gewoon omdat het stiller is). Vergeet ook niet dat de x800 met gddr3, .13µ, low-k,.. in vergelijking met de R9800XT al op 412MHz een stuk minder zal verbruiken (als de - die - nie te groot is)
/edit 2
toevallig of niet, het is op b3d ter sprake gekomen dat de R420 wel eens Fast14 zou kunnen gebuiken 8)

[Voor 18% gewijzigd door oeLangOetan op 18-04-2004 11:05]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

oeLangOetan schreef op 18 april 2004 @ 10:53:
[...]


[afbeelding]
whatever, ik heb meer vertrouwen in techreport dan tom
punt blijft dat je alleen de maximale resultaten mag meetellen!
ik heb wel vertrouwen in tom. ;)

De maximale resultaten zijn idd het belangrijkst omdat het verschil tussen dat verbruik en bijv gebruik@idle significant groter zijn.
Mijn post toonde echter aan dat het verschil @maximum helemaal niet zo groot is als men voor doet komen en dat bij verbruik in andere situaties de 9800XT er ongunstiger uitkomt. Er zijn nl. ook een hoop mensen die over hun stroomrekening begonnen. De metingen tonen aan dat een 9800XT ongunstiger is voor je stroomrekening.

En tja, wie je wilt geloven, techreport, tom of de waarheid die wellicht in het midden ligt dat is persoonlijk :D >:)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:24
Help!!!! schreef op 18 april 2004 @ 10:51:
[...]

nVidia heeft een goede zet gedaan door eerlijk te zijn over de power requirements. Als ze dat niet hadden gedaan en mensen met minder goede voedingen hadden een probleem gekregen dan was de ellende helemaal niet te overzien geweest. Maar zijn ze een keer eerlijk, dan is het wéér niet goed.
Ze hadden die 480 watt heel anders moeten marketeren.
Precies, wat is er tegen om een extra pagina op nvidia.com te maken, met daar voorbeeldsysytemen; 1 met dual-cpu en 5 scsi HD, 1 met 1 cpu en 1 HD etcetera. Gemiste kans, die hopelijk wordt rechtgezet.
Kijk als ATI zegt: jongens onze kaart rockt the boat maar hij heeft wel een goede voeding van 480 watt nodig. Dan zegt iedereen waarschijnlijk: "wel jammer van die eis en 480w is wel veel maar wat eerlijk en goed van ATI dat ze dat zo duidelijk zeggen."
Als nVidia het doet: nu ja je weet wat er gebeurd is.
Dit illustreert voor mij heel goed dat ATI in de marketing naar de high end kopers/tweakers gewoon zijn marketing veel beter voor elkaar heeft. Ze kunnen gewoon bijna geen kwaad meer doen.
Mmm, weet ik niet, zou best kunnen. Wat ik wel weet is dat die optimalisatie's ze bergen met krediet hebben gekost. Ik vraag me af wat er gebeurt als de XT wederom sneller is in 3dMark. Toch geen nieuw gedonder bid ik. De 6800 heeft dat helemaal niet nodig, blijft een mooie kaart.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

oeLangOetan schreef op 18 april 2004 @ 10:53:
[...]
/edit
Btw de x800 zal waarschijnlijk ook clock throlling gebruiken in 2d (gewoon omdat het stiller is). Vergeet ook niet dat de x800 met gddr3, .13µ, low-k,.. in vergelijking met de R9800XT al op 412MHz een stuk minder zal verbruiken (als de - die - nie te groot is)
/edit 2
toevallig of niet, het is op b3d ter sprake gekomen dat de R420 wel eens Fast14 zou kunnen gebuiken 8)
vergelijk je nu de x800pro met de 6800ultra of de x800xt? Ik neem aan dat je de XT vergelijkt anders zou het niet kloppen.

Ondanks verbeteringen in het produktieproces ga ik er toch wel vanuit dat de X800XT behoorlijk wat meer stroom zal verbruiken omdat ze niet op zullen wegen tegen het effect van de hogere verwachte kloksnelheden en de grotere die size.

Maar ja, voor mij maakt het toch niet uit, ik heb al een goede voeding :o >:) ;)

ps1
(alhoewel een 430watt Antec Truepower voldoet niet aan de eisen van nVidia. Als jouw hoop/verwachtingen tav de X800XT uitkomen val ik misschien wel onder de eisen van ATI. Haha ;) :P )

ps2
het enige wat wel irritant is is die eis van dedicated lijnen naar de molexen. Weet niet of dat me :o gaat lukken.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sjah schreef op 18 april 2004 @ 11:07:
[...] Ik vraag me af wat er gebeurt als de XT wederom sneller is in 3dMark. Toch geen nieuw gedonder bid ik. De 6800 heeft dat helemaal niet nodig, blijft een mooie kaart.
M.i. is de 6800 zeker een mooie kaart en een goede prestatie van de makers. Ik wil hem sowieso wel hebben maar of ik hem wil kopen hangt toch ook af van de X800XT.

ATI, waar blijf je met dat mailtje.... :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Help!!!! schreef op 18 april 2004 @ 10:51:
[...]
Kijk als ATI zegt: jongens onze kaart rockt the boat maar hij heeft wel een goede voeding van 480 watt nodig. Dan zegt iedereen waarschijnlijk: "wel jammer van die eis en 480w is wel veel maar wat eerlijk en goed van ATI dat ze dat zo duidelijk zeggen."
Als nVidia het doet: nu ja je weet wat er gebeurd is.
Dit illustreert voor mij heel goed dat ATI in de marketing naar de high end kopers/tweakers gewoon zijn marketing veel beter voor elkaar heeft. Ze kunnen gewoon bijna geen kwaad meer doen.

BTW het is altijd moeilijk om de eerste te zijn om met "slecht nieuws" te komen.
Herinneren we ons de lancering van de R300 nog? Toen reageerden veel mensen ook zo van "Jezus, de Radeon9700Pro heeft een externe powerconnector! :o " en veel mensen hebben toen ook moeten upgraden. Ik was één van die mensen die toen heeft moeten upgraden. :D
oeLangOetan schreef op 18 april 2004 @ 10:53:
[...]
/edit
Btw de x800 zal waarschijnlijk ook clock throlling gebruiken in 2d (gewoon omdat het stiller is). Vergeet ook niet dat de x800 met gddr3, .13µ, low-k,.. in vergelijking met de R9800XT al op 412MHz een stuk minder zal verbruiken (als de - die - nie te groot is)
Dat denk ik ook. R3x0 was 0.15u, FX5950U en 6800U zijn 0.13u. Dus dan vind ik het alsnog vrij goed dat ATi er om en nabij hangt wat betreft verbruik, en ook nog eens tijdens 3D apps (waar je zo'n kaart toch voor koopt) minder verbruikt. Als R420 low-k + 0.13u is dan moet het stroomverbruik over de hele linie kleiner zijn.

Overigens als ATi ook clockthrottling gaat toepassen in R420 dan ga ik er van uit dat ze in alle gevallen onder de 6800U blijven hangen wat betreft stroomverbruik. Als ze het kunnen op het mobiele vlak, dan moet dat ook op hun desktop kaarten lukken.
oeLangOetan schreef op 18 april 2004 @ 10:53:
[...]
/edit 2
toevallig of niet, het is op b3d ter sprake gekomen dat de R420 wel eens Fast14 zou kunnen gebuiken 8)
Fast14? Woooooot. Nu al? :o Kan dat dan in 2 maanden tijd geintegreerd worden? Het kan natuurlijk ook zijn dat ATi al lang gebruik maakt van Fast14, maar dat het bericht pas in Februari naar buiten is gekomen zodat de concurrentie niets meer aan hun eigen design kon doen... Overigens stond er op de ATi site in de press-releases niets over Fast14, maar wel op de site van Intrinsity zelf.

Wie heeft er nog meer geruchten? }:O
Help!!!! schreef op 18 april 2004 @ 11:20:
[...]

M.i. is de 6800 zeker een mooie kaart en een goede prestatie van de makers. Ik wil hem sowieso wel hebben maar of ik hem wil kopen hangt toch ook af van de X800XT.
Hehe, same here. Ik zou geen nee zeggen tegen de 6800U als-ie beter presteert dan de X800XT. Maar aangezien we nog geen vergelijkingen hebben, wachten ik nog rustig even af.

Overigens als je snel genoeg kijkt bij het laadscherm van de teaser van ATi, dan zie je het schaduwfiguur van Ruby (a la James Bond en Charlie's Angels schaduwlogo).

[Voor 9% gewijzigd door CJ op 18-04-2004 12:05]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

CJ schreef op 18 april 2004 @ 12:03:
[...]
Herinneren we ons de lancering van de R300 nog? Toen reageerden veel mensen ook zo van "Jezus, de Radeon9700Pro heeft een externe powerconnector! :o " en veel mensen hebben toen ook moeten upgraden. Ik was één van die mensen die toen heeft moeten upgraden. :D
nu je het zegt, ik herinner het me wel. Alleen gaven ze niet een vrij heftig voedingsadvies van 480w. Dat valt nog wat slechter omdat dat expliciet maakt voor veel mensen dat ze een nieuwe voeding moeten kopen. Destijds moest je alleen 1 molex vrij hebben en die hoefde niet dedicated te zijn.
Maar goed destijds was daar idd ook wel wat over te doen ja.

Trouwens, die Antec 430w heb ik destijds gekocht omdat mijn ti4600 niet stabiel liep op mijn Aopen 300w. Hij werkt nu echter ook prima met een 9800pro. ;)
Fast14? Woooooot. Nu al? :o Kan dat dan in 2 maanden tijd geintegreerd worden? Het kan natuurlijk ook zijn dat ATi al lang gebruik maakt van Fast14, maar dat het bericht pas in Februari naar buiten is gekomen zodat de concurrentie niets meer aan hun eigen design kon doen... Overigens stond er op de ATi site in de press-releases niets over Fast14, maar wel op de site van Intrinsity zelf.
Fast 14 ? had ik nog niet van gehoord. Ik heb hier ff gekeken: http://www.intrinsity.com...technology_fast14_set.htm
voor een uitleg. Wel wat technisch.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Help!!!! schreef op 18 april 2004 @ 12:18:
[...]
Fast 14 ? had ik nog niet van gehoord. Ik heb hier ff gekeken: http://www.intrinsity.com...technology_fast14_set.htm
voor een uitleg. Wel wat technisch.
Hier staat ook nog wat info: nieuws: ATi neemt Intrinsity's Fast14-technologie in licentie

Edit: Oooh, volgens Anandtech zouden retailers de R420 al op de 26ste moeten krijgen, maar dat ze 'm waarschijnlijk pas mogen verkopen op de 4de Mei...

Reviewers, waaronder Dave Baumann van Beyond3D, schijnen de R420 al in huis te hebben om hun preview artikelen te schrijven! :D

http://www.rage3d.com/boa....php?s=&threadid=33753958
http://forums.anandtech.c...catid=27&threadid=1292344

[Voor 37% gewijzigd door CJ op 18-04-2004 13:23]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Anoniem: 81502

Nog wat hersenspinsels :) :

Nvidia lijkt te wachten op de uiteindelijke specs van de X800pro om de 6800 non-ultra te lanceren. Dit wil zeggen dat de X800pro als concurent wordt geplaatst voor de 6800 non-ultra. Het zou dus nogal onlogisch zijn als de X800pro even snel of zelf sneller is dan de 6800 ultra. Ati zou dan in de problemen zitten met zijn prijzen. De X800pro is voor ati mid-end, maar is dan sneller dan de high-end van Nvidia.
Anoniem: 81502 schreef op 18 april 2004 @ 13:28:
Nog wat hersenspinsels :) :

Nvidia lijkt te wachten op de uiteindelijke specs van de X800pro om de 6800 non-ultra te lanceren. Dit wil zeggen dat de X800pro als concurent wordt geplaatst voor de 6800 non-ultra. Het zou dus nogal onlogisch zijn als de X800pro even snel of zelf sneller is dan de 6800 ultra. Ati zou dan in de problemen zitten met zijn prijzen. De X800pro is voor ati mid-end, maar is dan sneller dan de high-end van Nvidia.
Ok, zou natuurlijk kunnen... maar je hebt geen rekening gehouden met de laatste geruchten die zeggen dat ATi de X800SE heeft geschrapt na het zien van de prestaties van de 6800U.... deze was bedoeld voor de mid-range. Tel daarbij op dat de lancering van de X800Pro en X800XT dichter bij elkaar zijn gezet met directe beschikbaarheid...

De 800Pro en 800XT zijn geen mid-end kaarten maar hi-end. Je vergeet ook dat ATi de X600 heeft voor de echte midrange en de X300 voor de low-end.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Pagina: 1 ... 5 6 7 Laatste

Dit topic is gesloten.


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee