Het grote GeForce FX topic ( Deel 2 )

Pagina: 1 ... 8 ... 10 Laatste
Acties:
  • 2.251 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • stylezzz
  • Registratie: April 2000
  • Nu online
Vaag. Waarom scoort de FX in de CPU tests lager als bij de radeon? Zou toch niet uit moeten maken denk ik. CPU test moet videokaart onafhankelijk zijn toch?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
dominator schreef op 11 februari 2003 @ 22:44:
[...]


Vaag. Waarom scoort de FX in de CPU tests lager als bij de radeon? Zou toch niet uit moeten maken denk ik. CPU test moet videokaart onafhankelijk zijn toch?
Misschien ontlast de 9700P de CPU meer dan een FX dat doet? :? Blijkbaar gebruikt de FX toch meer CPU-kracht dan de 9700P dat doet.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
CJ schreef op 11 February 2003 @ 22:39:
FX5800Ultra - 9700Pro

Det 42.67 - Cat 3.1

Score: 5113 - 4803
GT1 175.6 - 175.1
GT2 35.2 - 30.5
GT3 28.5 - 28.6
GT4 30.7 - 27.1

CPU Score 666 - 713
T1: 69.9 - 79.2
T2: 12.6 - 12.7

ST: 1294.8 - 1499.0
MT: 3269.6 - 2270.0
Vertex: 13.8 - 14.9
Pixel 2.0: 15.5 - 41.1!!
Ragtroll: 17.7 - 20.1

De 9700Pro wint 7 van de 11 tests, maar verliest desondanks toch de totaalscore (vanwege alleen meetellen test 1 t/m 4).

Bron: www.hardocp.com
ALERT!

Release notes Catalyst 3.1:
3Dmark2003 GT4 runs a little slower than expected on certain chipsets where AGP writes are disabled. A future CATALYST? will resolve this and provide a higher benchmark score!

Dus HET KAN zijn na de Catalyst 3.2 de GT4 score nog iets oploopt.

Ps. gewoon strak om te zien dat die 9700PRO gewoon een beest van een kaart is. Nvidia Geforce FX 35% faster then a Radeon9700PO heb ik ooit nog gelezen :o ROFL!

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 10-06 14:15

edward2

Schieten op de beesten

Tsja, het kan aan de drivers liggen van de FX, dus misschien wordt het nog wat meer, maar het is toch nou wel duidelijk dat de R9700 een ontzettend effiecient stukje hardware is, wat volledig in balans is met goede drivers...de R9700 heeft wel heel wat fillrate minder maar houd het nog steeds bij!

[ Voor 23% gewijzigd door edward2 op 12-02-2003 00:35 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
En het wordt alsmaar leuker met nVidia en de FX:
On a related note, Nvidia has contacted us to say that it doesn't support the use of 3DMark 2003 as a primary benchmark in the evaluation of graphics cards, as the company believes the benchmark doesn't represent how current games are being designed. Specifically, Nvidia contends that the first test is an unrealistically simple scene that's primarily single-textured, that the stencil shadows in the second and third tests are rendered using an inefficient method that's extremely bottlenecked at the vertex engine, and that many of the pixel shaders use specific elements of DX8 that are promoted by ATI but aren't common in current games.

In response to Nvidia's statements, Futuremark's Aki Jarvilehto said, "We've been working for the last 18 months to make 3DMark 2003 an accurate and objective benchmark. Nvidia was one of our beta members until December, and it's not our place to comment on why they've decided to withdraw from the program. After working on the project for almost two years with all the leading manufacturers, we do strongly believe that 3DMark 2003 is an accurate representation of game performance for modern 3D accelerators."
Bron: www.gamespot.com

nVidia zegt nu dus min of meer dat ze 3DMark niet meer geloofwaardig vinden, terwijl ze in het verleden altijd hun steun aan MadOnion hebben betuigt, getuige de vergelijkingsprogrammaatjes op hun site waar ze als eerste mee kwamen. :/ Wel interessant om te zien dat nVidia tot aan December lid was van het beta-team, en er daarna is uitgestapt.

[ Voor 6% gewijzigd door CJ op 12-02-2003 00:53 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 74065

Topicstarter
Volgens X-Bit Labs zal nVidia nog dit jaar twee belangrijke nieuwe chips op de markt zetten, alsmede een flink aantal afgeleiden daarvan. De 'refresh' van GeForce FX (NV35) zou al in de zomer moeten verschijnen, wat op zich ook overeenkomt met de berichten over de mogelijk korte levensduur van de eerste generatie. De vernieuwde core zou 130 miljoen transistors hebben, 5 miljoen meer dan er op dit moment gebruikt worden. Tegen het einde van het jaar zou echter ook daar de opvolger daarvan alweer op de markt moeten komen. De 0,13 micron NV40-core is weer een verdere doorontwikkeling van de GeForce FX-architectuur, die volgens de geruchten uit 150 miljoen transistors zou bestaan.

Hoewel dit allemaal wel erg snel lijkt te gaan moeten we niet vergeten hoe lang het duurde voor de GeForce FX met enigzins acceptabele yields geproduceerd kon worden. In de tussentijd hebben ze de chipdesigners natuurlijk niet stil laten zitten. Bovendien heeft nVidia altijd volgehouden dat ze door willen gaan met het halen van een halfjaarlijks release-schema. Doordat de Xbox-GPU er tussendoor kwam is deze planning ooit grondig in de war geschopt, maar dat speelt op dit moment geen rol meer. Bovendien heeft het bedrijf de laatste jaar een aantal flinke deuken in zijn imago opgelopen, en die wil het management natuurlijk zo snel mogelijk weer gladstrijken, het liefst nog voor ATi met R350 en R400 komt.

Het grote geld zit echter niet in de high-end markt, maar juist bij de middenmoters. nVidia zal daarom op CeBIT drie uitvoeringen van NV31 lanceren. Deze 0,13 micron chips zijn in feite gestripte GeForce FX VPU's met 80 miljoen transistors en vier pipelines in plaats van acht. Onderling verschillen ze alleen in kloksnelheid; deze varieert van 250 tot 350MHz. De snelheid van het geheugen moet nog bepaald worden, maar de schattingen liggen tussen de 500 en 650MHz DDR. Als NV30 in de zomer wordt opgevolgd door NV35 zou NV31 plaats moeten maken voor NV34, die nog meer variatie kent

The number of NV34 versions is going to be huge: from three to six maybe (four is the current estimation). NVIDIA may even allow some of its partners to clock the graphics cards according to their vision of the market and clients’ requirements. It is said that the chip contains 45 million of transistors and features 4 rendering pipes. The VPU will run at 300 to 375MHz, according to preliminary information. I wonder if there are going to be any NV34 derivatives specially developed for integration into NVIDIA's next-generation nForce IGPs since 45 million of transistors is too lot for a graphics core integrated into a North Bridge.

Afbeeldingslocatie: http://www.tweakers.net/ext/i.dsp/1045002280.jpg

Tevens wordt er nog gerept over NV33 en NV36 die op de planning zouden staan voor het komende jaar. Mogelijk gaat het om gereïncarneerde Ultra-versies, maar de bron is eigenlijk te vaag om daar iets zinnigs over te kunnen zeggen.

Bron ;)

Acties:
  • 0 Henk 'm!

Anoniem: 68311

Nvidia is weer back in action

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Inderdaad. is het niet opvallend dat tot vorig jaar zomer nVidia nooit enorme problemen heeft gemaakt van bepaalde zaken? Dat kwam waarschijnlijk omdat ze een comfortabele voorsprong hadden op de concurrentie. En nu kijk ik er niet meer van op als ik hoor dat nVidia het ergens niet mee eens is. :{

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Spice
  • Registratie: Augustus 2000
  • Laatst online: 25-06-2024

Spice

- Mijn vader is een tovenaar -

news update:
Looking at the new heatsink assembly for the Chaintech’s new graphics card, we find that the main complaint of the GeForce FX samples has been addressed. Here, the unique design of the new heatsink allows for a dramatic drop in noise levels. In this case, the user can expect to see noise levels roughly around 25-30db which is considerably less than the typical 55-60db for the reference heatsink assembly.
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1044965033G6hhbYK5WW_1_5_l.jpg
op: http://www.hardocp.com/article.html?art=NDI5

Just call me angel of the morning, angel. Just touch my cheek before you leave me, baby. Just call me angel of the morning, angel.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Wow slechts 25-30db. Waarom kon nVidia zoiets niet ontwikkelen?

March of the Eagles


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
http://www.xbitlabs.com/news/story.html?id=1045147250
Many of you have asked me to dig more information about NVIDIA’s NV33 and NV36 graphics processors that are due to come later this year. As always, it was hard to get any details on the yet unannounced products from the Santa Clara-based company, but fortunately VIDILab Croatian magazine publishes this in their upcoming issue available this weekend and now I can share the basics about the NV33 with you.

Apparently, NV33 is a chip with extremely low power consumption that is intended for use in mobile devices, such as Tablet PCs and sub-notebooks. It will feature just two rendering pipelines with one TMU per each, but will be DirectX 9.0 compatible. There is no word about performance figures of the newcomer to our great upset, as currently no processors have been taped-out. Any precise information about power consumption is also absent.

NVIDIA is still not presented widely in mobile devices with low power consumption, such as Tablet PCs, sub-notebooks and other similar products. With the NV33 the world’s largest graphics solutions suppliers has a great chance to penetrate the market with a feature-rich product. Up to the moment I have heard nothing about similar devices from ATI Technologies to come.
De NV33 voor Tablet PCs & sub-notebooks :)
De NV36 zal dan waarschijnlijk een zwaardere versie zijn.

March of the Eagles


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Wow

GF FX: 42.63
Radeon: Catalyst 3.0

Afbeeldingslocatie: http://www.hardocp.com/images/articles/1044928685ymTd7LNuhM_4_1_l.gif

GF FX: 42.67
Radeon: Catalyst 3.1

Afbeeldingslocatie: http://www.hardocp.com/images/articles/1044928685ymTd7LNuhM_4_4_l.gif

Wat een verschil met die nieuwe drivers voor de FX.

http://www.hardocp.com/article.html?art=NDI4LDQ=

March of the Eagles


  • collission
  • Registratie: Oktober 2001
  • Niet online

collission

I'm back! :P

Spice schreef op 13 February 2003 @ 17:15:
news update:
Looking at the new heatsink assembly for the Chaintech’s new graphics card, we find that the main complaint of the GeForce FX samples has been addressed. Here, the unique design of the new heatsink allows for a dramatic drop in noise levels. In this case, the user can expect to see noise levels roughly around 25-30db which is considerably less than the typical 55-60db for the reference heatsink assembly.
licht het aan mij of steken die pinnen wel heel ver boven het AGP-slot uit?

M'n Pimprig :P | [EiP] Granite Bay | [CiP] Pimp My PC-70 8)


  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Hacku schreef op 13 februari 2003 @ 18:10:
Wow

GF FX: 42.63
Radeon: Catalyst 3.0

[afbeelding]

GF FX: 42.67
Radeon: Catalyst 3.1

[afbeelding]

Wat een verschil met die nieuwe drivers voor de FX.

http://www.hardocp.com/article.html?art=NDI4LDQ=
Die scores waren al eens eerder gepost. ;)

Maar nVidia heeft hier trouwens de drivers puur voor 3DMark2003 geoptimaliseerd.

Nature Test: score ligt iets hoger dan de 9700Pro
PS 2.0 Test: score ligt ver beneden de 9700Pro

Opvallend? Ja, want de Nature Test maakt gebruikt van PS2.0. Er is duidelijk geoptimaliseerd voor de Game Tests, omdat alleen die tests mee tellen voor de einduitslag. Als het echt goede drivers waren geweest, dan was de PS2.0 test ook zeker omhoog gegaan.

En zie je dat zelfs met de nieuwe drivers, de FX 'maar' in 4 tests wint (waarvan opvallend genoeg ook nog eens 3 gametests)? De 9700Pro wint de overige 7.

Er gaan trouwens speculaties dat nVidia de tests op 64-bit floatingpoint precisie laat uitvoeren ipv op 128-bit precisie, terwijl ATi standaard alles op 96-bit precisie doet. De FX kan namelijk switchen tussen 128-bit en 64-bit.

Dit zou verklaren waarom de PS2.0 test trager is, want die wordt gewoon nog op 128-bits gedaan. De eerste drivers deden ALLES op 128-bits en dat zie je in de score terug. Dus terugschakelen naar 64-bits FP levert een stuk hogere score op (bijna verdubbeling).

Een ander iets wat dit vermoeden bevestigt, is het feit dat John Carmack een speciale NV30-path heeft ingebakken in Doom III, die op lagere precisie werkt dan de RBA2 mode. De NV30 is namelijk twee keer zo traag in ARB2 als de R300, omdat NV30 alles op 128-bit FP berekent, en R300 alles op 96-bit.

Technisch gezien zou ARB2 op de NV30 mooier zijn dan op de R300, maar de NV30 is dus enorm traag in ARB2. Daarom heeft Carmack er voor gezorgt dat de boel op een lagere FP wordt uitgevoerd (ten koste van wat beeldkwaliteitverslechtering), zodat de snelheid tenminste hoog ligt.

My guess is dus dat nVidia hier ook alles op 64-bits floatingpointprecisie berekent om toch een redelijke score te halen in 3DMark2003.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • D3ton4tor72
  • Registratie: December 2000
  • Laatst online: 06-06 12:51

D3ton4tor72

HardwareFetisjist

Die FX is wel een bijzonder mislukte kaart zeg, als ze hier een jaar geleden mee hadden uitgekomen ok, maar dit is echt bar slecht.
Begrijp me goed ik ben Nvidia fanboy, maar op dit moment zou ik (bijna) een Radiator 9700 pro kopen :P

Wat nog het ergste is, is dat Nvidia over de methodiek en/of implementatie van benchmarks gaat janken, beetje jammer Nvidia, ik kijk met smart uit naar de NV35.
Alle maandenlange opgeklopte hype op hun site met slogans als: it's coming zijn eigenlijk niets dan gebakken lucht geweest.

Ze kunnen zaken wellicht nog recht trekken door (zoals ze wel eerder deden) met een onwijs goede driver op de proppen komen, ik vrees echter met grote vrees....

typo's; het is laat aan het worden

[ Voor 4% gewijzigd door D3ton4tor72 op 13-02-2003 23:57 ]


Acties:
  • 0 Henk 'm!

  • T.T.
  • Registratie: April 2000
  • Laatst online: 16-05 12:09

T.T.

Sowieso

Even wat leuk nieuws over de GeForceFX :)
GeForce FX cards will indeed ship from the 20th, but there's trouble at the fab mill, Jim.

According to her, there's an allocation of 2,000 cards for the US, 1400 for the European Union and a measly 750 for the whole of Asia.

And Terratec, Creative, PNY, BFG, Gainward, Leadtek, Asus, and MSI will all have to share this generous amount between themselves.

These cards will be 128MB cards, apparently, and you can kiss the 256MB cards farewell until the NV35 arrives.
Volgens the inquirer zijn er dus 1400 GeForceFX kaarten met 128MB DDR beschikbaar voor heel Europa. Succes :+

Acties:
  • 0 Henk 'm!

Anoniem: 32156

Wel, als dat de Ultraversie is, jammer dan.

Echter, is dat de gewone NV30 chip op 400 MHz, dan heeft nvidia zichzelf aardig voor lul gezet.

Overigens, een bedrijf dat beweert geen deel meer uit te willen maken van een industriele standaard (DirectX van MS) impliceert hiermee voortaan een eigen semicompatibele standaard te ontwikkelen.
Volgens mij is het niet volgens van MS-standaarden Dé manier om zelfmoord te plegen.
Ofwel, over 3 jaar ondersteunen spellen iig DirectX10.1 en 'misschien' een nVidia-kaart. Ben benieuwd welke loser dan nog een nVidia koopt, maar uiteindelijk zal het bedrijf wel weer bijdraaien.

* Anoniem: 6728 ziet dat nVidia met 3dFX wel heel erg veel overgenomen heeft........

[ Voor 67% gewijzigd door Anoniem: 32156 op 14-02-2003 13:26 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 10-06 14:15

edward2

Schieten op de beesten

Mikado schreef op:
Wel, als dat de Ultraversie is, jammer dan.

Echter, is dat de gewone NV30 chip op 400 MHz, dan heeft nvidia zichzelf aardig voor lul gezet.

Overigens, een bedrijf dat beweert geen deel meer uit te willen maken van een industriele standaard (DirectX van MS) impliceert hiermee voortaan een eigen semicompatibele standaard te ontwikkelen.
Volgens mij is het niet volgens van MS-standaarden Dé manier om zelfmoord te plegen.
Ofwel, over 3 jaar ondersteunen spellen iig DirectX10.1 en 'misschien' een nVidia-kaart. Ben benieuwd welke loser dan nog een nVidia koopt, maar uiteindelijk zal het bedrijf wel weer bijdraaien.

* Anoniem: 6728 ziet dat nVidia met 3dFX wel heel erg veel overgenomen heeft........
Dat schijnt alweer bijgelegd te zijn.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Op http://www.vr-zone.com staan wat NV40 specs.

* 0.09 Micron Process
* 300-350 Million Transistors
* 750-800 MHz Core
* 16MB Embedded DRAM (134M trans.)
* 1.4 GHz 256-512MB DDR-II Memory
* 8 Pixel Rendering Pipelines (4 texels each)
* 16 Vertex Shader Engines
* 204.8 GB/sec Bandwidth (eDRAM)
* 44.8 GB/sec Bandwidth (DDR-II)
* 25.6 GigaTexels per Second
* 3 Billion Vertices per Second
* DirectX 10 (or extended 9.1)
* Release H2 2004

Wat is dat 16MB Embedded DRAM en waar dient het voor?

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 4288

1st level cache, zoals in een CPU, vermoed ik.

Acties:
  • 0 Henk 'm!

Anoniem: 47893

Hacku schreef op 14 februari 2003 @ 21:08:
Op http://www.vr-zone.com staan wat NV40 specs.

* 0.09 Micron Process
* 300-350 Million Transistors
* 750-800 MHz Core
* 16MB Embedded DRAM (134M trans.)
* 1.4 GHz 256-512MB DDR-II Memory
* 8 Pixel Rendering Pipelines (4 texels each)
* 16 Vertex Shader Engines
* 204.8 GB/sec Bandwidth (eDRAM)
* 44.8 GB/sec Bandwidth (DDR-II)
* 25.6 GigaTexels per Second
* 3 Billion Vertices per Second
* DirectX 10 (or extended 9.1)
* Release H2 2004

Wat is dat 16MB Embedded DRAM en waar dient het voor?
Ik kan je niet precies zeggen wat het is, maar van wat ik gehoord heb is het heeeel snel :P (bitboys wilden volgens mij op hun kaart ook eDram gebruiken...out of business, too bad >:))

Acties:
  • 0 Henk 'm!

  • T.T.
  • Registratie: April 2000
  • Laatst online: 16-05 12:09

T.T.

Sowieso

Als je wat meer wilt weten over Embedded DRAM:
linkje

Lijkt mij overigens sterk dat ze 16MB E-DRAM gaan gebruiken, 8 maximaal...

Acties:
  • 0 Henk 'm!

Anoniem: 47893

Ben benieuwd in hoeverre de FX nog sneller gaat worden door driver updates. Ik lees namelijk wel eens, dat men een vergelijkbare performance boost verwacht als bij de geforce 3, die eerst ook onder presteerde...

Ik ben aldus op zoek gegaan naar de performance van de geforce 3 van vroeger en van nu. Hiervoor heb ik de bench 'aquanox' uitgezocht, omdat deze niet zo cpu-limited is en omdat ik er 3 benchjes bij ome tom van kon vinden :P.

Anyway:

Aquanox // 1024x768x32

Nvidia driver 11.01 => 33.0 fps
Nvidia driver 28.32 => 48.7 fps
Nvidia driver 41.09 => 50.3 fps

De driverupdate van 28.32 naar 11.01 zorgde wel voor een performance increase van (!!) 47.5% en de update van 28.32 naar 41.09 een kleine 3.3%. In totaal dus een performance increase van 52.4%.

Ik kan trouwens nauwelijks geloven, dat zoiets ook voor de FX weggelegd zou zijn :P...zeg nou zelf -> 50%, das toch wel een behoorlijke boost :).

(dit gaat natuurlijk niet helemaal op voor hi-res, maar misschien wel voor de FSAA/AF vormen)

ps.

Dit is een hele kromme vergelijking en is niet representatief voor de Geforce Fx, het is alleen een voorbeeld om te laten zien, dat goede drivers een wereld van verschil kunnen maken. Het is niet duidelijk of de huidige Geforce Fx drivers te vergelijken zijn met 11.01 of met 28.32, maar bij 41.09 zijn ze iig nog niet...


Yai,

Een gigantische Geforce FX review bij IXBT...o.a. ook Doom3 Alpha ;):
http://www.ixbt.com/video2/gffx-ref-p1.shtml#p1

[ Voor 34% gewijzigd door Anoniem: 47893 op 17-02-2003 00:59 ]


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 08:36

SG

SG surft naar info hardewaren

De GFX Ultra heeft 'n 54% hogere Core clock alleen minder membandbreedte.

In standaard resoluties zou ie max dus 50% sneller kunnen zijn 30% moet dan geen probleem zijn.

in hogere resoluties zal ie terugvallen en vooral ook bij zware memory belastende instellingen zoals AF & FSAA met gemiddelde tot hoge resoos.

Dan komen de 9700Pro en de GFX dichter bij elkaar

This normaal dat de eerste drivers tijdens release tegen vallen bij ATI is het effect nog erger.

8500 UT 20Fps(CD-rom driver) naar 100fps gegaan ('n latere)

Driver prestaties merk je vooral in CPU afhankelijke situaties aangezien de driver door de CPU verwerkt wordt.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Masselink
  • Registratie: April 2000
  • Laatst online: 09:46

Masselink

Voor de dorst

Ik vind het wel weer vreemd dat niemand op die performance winst van die drivers reageerd. Toen ATi met de nieuwe drivers kwam voor de 8500 was er een behoolijke snelheidswinst, toen had iedereen commentaar dat het niet normaal was een product uit te geven waar de drivers niet voor klaar waren. Nu is er weer 50% winst, maar nu voor nVidia, en je hoort niemand erover. Dit is geen flame-intend. Ik verwonder mij alleen maar over het feit dat de leveranciers liever een kaart eerder op de markt gooien alvorens de ondersteuning voor minimaal 90% in orde te maken.

Koffie en meer...


Acties:
  • 0 Henk 'm!

Anoniem: 55194

Masselink schreef op 17 February 2003 @ 08:27:
Ik vind het wel weer vreemd dat niemand op die performance winst van die drivers reageerd. Toen ATi met de nieuwe drivers kwam voor de 8500 was er een behoolijke snelheidswinst, toen had iedereen commentaar dat het niet normaal was een product uit te geven waar de drivers niet voor klaar waren. Nu is er weer 50% winst, maar nu voor nVidia, en je hoort niemand erover. Dit is geen flame-intend. Ik verwonder mij alleen maar over het feit dat de leveranciers liever een kaart eerder op de markt gooien alvorens de ondersteuning voor minimaal 90% in orde te maken.
Ja boeiuh :Z . De FX is in mijn ogen geflopt. En ja hij is sneller als de 9700pro maar nog is de fx voor mij een no go.

all flames intended tegen nvidia O-) .

Acties:
  • 0 Henk 'm!

Anoniem: 77043

Masselink schreef op 17 February 2003 @ 08:27:
Ik vind het wel weer vreemd dat niemand op die performance winst van die drivers reageerd. Toen ATi met de nieuwe drivers kwam voor de 8500 was er een behoolijke snelheidswinst, toen had iedereen commentaar dat het niet normaal was een product uit te geven waar de drivers niet voor klaar waren. Nu is er weer 50% winst, maar nu voor nVidia, en je hoort niemand erover. Dit is geen flame-intend. Ik verwonder mij alleen maar over het feit dat de leveranciers liever een kaart eerder op de markt gooien alvorens de ondersteuning voor minimaal 90% in orde te maken.
het is ook niet normaal dat nvidia een kaart uitbrengt waar de drivers nog niet eens van klaar waren, ach nvidia heeft de afgelopen tijd voor mij zoveel steken laten vallen, ik vindt ook dat nvidia ook nu steeds ligt te zeuren, het is net een kind die zijn zin niet krijgt, ik weet het niet met nvidia, ik dacht dat ze een beetje proffesioneel waren, maar als iets nvidia tegen zit, dan is het gelijk weer waardeloos, ik dacht dat ze zo'n goeie kaartmaker waren, nou als ze zo goed zijn dan, waarom hebben ze het gelijk niet goed gedaan dan, want ati weet blijkbaar wel hoe het moet, en wie dit als een flame wil zien, nou dat moet dan maar, maar ik dacht dat ik toch wel een beetje gelijk heb. :)

Acties:
  • 0 Henk 'm!

  • Masselink
  • Registratie: April 2000
  • Laatst online: 09:46

Masselink

Voor de dorst

ik dacht dat ze zo'n goeie kaartmaker waren, nou als ze zo goed zijn dan, waarom hebben ze het gelijk niet goed gedaan dan, want ati weet blijkbaar wel hoe het moet,
Het heeft ook behoorlijk lang geduurd alvorens ATi met fatsoenlijke drivers kwam voor de 8500 series.

Ik ben PRO-ATi, maar laten we wel eerlijk wezen. Dat had beter gemoeten. Nu hebben ze alles wel op de rit.

Koffie en meer...


Acties:
  • 0 Henk 'm!

Anoniem: 77043

Masselink schreef op 17 February 2003 @ 08:53:
[...]


Het heeft ook behoorlijk lang geduurd alvorens ATi met fatsoenlijke drivers kwam voor de 8500 series.

Ik ben PRO-ATi, maar laten we wel eerlijk wezen. Dat had beter gemoeten. Nu hebben ze alles wel op de rit.
ja oke, daar geef ik je wel gelijk in, dat heeft ook een tijdje geduurd, maar met nvidia zijn ervaring op drivers gebied, hadden ze toch gelijk het goed moeten doen, en nou doen ze precies wat ati vroeger deed met de 8500 serie.

maar je hebt wel gelijk wat betreft ati en de drivers voor de 8500 serie, inderdaad dat heeft ook een tijd geduurd.

maar begrijp me goed, als ati zo'n fout had gemaakt, had ik het ook gezegd, en ik zeg ook niet dat ati altijd nummer 1 blijft, als nvidia straks met een kaart komt, die echt indruk maakt, ben ik de eerste die dat zal zeggen. :)

edit

maar ik zal altijd een ati-fanboy blijven. :)
en over die 8500, daar is toen al genoeg kritiek op geweest, zoals je zelf ook zegt.

[ Voor 15% gewijzigd door Anoniem: 77043 op 17-02-2003 09:12 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Masselink schreef op 17 February 2003 @ 08:27:
Ik vind het wel weer vreemd dat niemand op die performance winst van die drivers reageerd. Toen ATi met de nieuwe drivers kwam voor de 8500 was er een behoolijke snelheidswinst, toen had iedereen commentaar dat het niet normaal was een product uit te geven waar de drivers niet voor klaar waren. Nu is er weer 50% winst, maar nu voor nVidia, en je hoort niemand erover. Dit is geen flame-intend. Ik verwonder mij alleen maar over het feit dat de leveranciers liever een kaart eerder op de markt gooien alvorens de ondersteuning voor minimaal 90% in orde te maken.
Ik had er nog op gereageerd hoor! ;) CJ in "Het grote GeForce FX topic ( Deel 2 )"

Volgens mij heeft niemand heeft deze nieuwe drivers voor de FX nog getest in reallife games. Het zou me niets verbazen als deze 50% performancewinst alleen maar in 3DMark2003 optreedt. :7

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 08:36

SG

SG surft naar info hardewaren

De eerste indruk heeft de grootste impact.
Die Driver verbetering is een pleister op die wond.

De 8500 kreeg ook niet die credit die het verdiende na betere drivers en dat zal ook zo zijn geweest met de Parhilia die viel zo tegen dat de massa niet meer wachte op betere drivers.

Alleen als er steeds nieuwere drivers uitkomen voor de GFX komt de release van de R350 ook steed dichterbij.

dus als de GFX optimal gaat lopen is de 9700PRO niet zijn tegenstander meer.

Tenminste als ATI op schema blijft.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 10-06 14:15

edward2

Schieten op de beesten

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 77043

wat is daar zo echt aan dan, wat de andere reviews zo nep maakt: :?

Acties:
  • 0 Henk 'm!

Anoniem: 21737

Men kan natuurlijk ook gewoon even wachten tot de drivers wel goed zijn.
Dat zal ongetwijfeld gebeuren, met als prettige bijkomstigheid dat de kaart dan ook wat goedkoper is.

Acties:
  • 0 Henk 'm!

  • Madrox
  • Registratie: Mei 2002
  • Laatst online: 20-05 13:56

Madrox

Oh, Pharaoh!

Fanboy dit, fanboy dat..... belachelijk.

Ben jarenlang Matrox "fanboy" geweest, al zeg ik liever een tevreden Matrox gebruiker. Heb het gebruik van de G400 zolang mogelijk gerekt met de hoop dat ze met een snellere en competatievere 3D kaart zouden komen. Toen die er uiteindelijk kwam, de Parhelia, was ik teleurgestelt en aarzelde geen moment om net zo makkelijk over te stappen naar een ander merk. Aangezien TV-out en een goede 2D voor mij belangrijk zijn werd het een Ati Radeon 8500. Als ik zeker wist dat ik met een GF4 Ti4200 dezelfde 2D kwaliteit en Tv-out zou hebben zou ik zeker niet schuwen om een Nvidia-kaart te nemen.

Ma.w.: Het merk boeit me niet, wel de prijs/prestatie/kwaliteit van een produkt.

Wat ik nu bijv. bijzonder irri vind, is dat ik telkens als ik opstart weer de TV-weergave moet "aanzetten". Ondanks dat de kabel nooit eruit is geweest raak ik die telkens kwijt.

Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Sorry, maar ik vind dit dus een echte prutreview. :/

Voorbeeldjes waarom ik het slecht vindt:

1) Ze testen 8x AF op de GFFX tegen 16x AF op de Radeon9700Pro, terwijl 8x AF p[ de 9700Pro al beter is dan 8x AF op de GFFX
2) Daarnaast zetten ze AF op de 9700Pro op Quality (=trilinear AF) en de GFFX zetten ze op Balanced (=Hi Q Bilinear AF, en voor de volledigheid Aggressive by NV = Low Q Bilinear AF)
3) Ze houden geen rekening met de kwaliteit van AF. Als ze dat gedaan hadden dan waren ze tot de conclusie gekomen dat Performance AF (dus Bilinear AF) op de 9700Pro goed te vergelijken is met Balanced AF op de GFFX. En dan hadden ze ook gezien dat de GFFX niet kan tippen aan de Quality AF van de 9700Pro.

De manier zoals Anandtech dat gedaan had, dus gelijke beeldkwaliteit met elkaar vergelijken is eerlijker. Als je de keuze moet maken tussen bijvoorbeeld 2 stereo-installaties, dan kijk je niet alleen maar naar het aantal Watt dat de versterker heeft, maar kijk je naar welke het helderste geluid weer kan geven, want alleen het aantal W zegt niets.

4) Een gelekte ALPHA versie van Doom III gebruiken om tot de conclusie te komen dat de GFFX z'n ware kracht laat zien. :/

En zo zijn er nog wat dingen die gewoon heel erg vreemd zijn. :X

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 10-06 14:15

edward2

Schieten op de beesten

CJ schreef op 19 February 2003 @ 20:42:
[...]


Sorry, maar ik vind dit dus een echte prutreview. :/

Voorbeeldjes waarom ik het slecht vindt:

1) Ze testen 8x AF op de GFFX tegen 16x AF op de Radeon9700Pro, terwijl 8x AF p[ de 9700Pro al beter is dan 8x AF op de GFFX
2) Daarnaast zetten ze AF op de 9700Pro op Quality (=trilinear AF) en de GFFX zetten ze op Balanced (=Hi Q Bilinear AF, en voor de volledigheid Aggressive by NV = Low Q Bilinear AF)
3) Ze houden geen rekening met de kwaliteit van AF. Als ze dat gedaan hadden dan waren ze tot de conclusie gekomen dat Performance AF (dus Bilinear AF) op de 9700Pro goed te vergelijken is met Balanced AF op de GFFX. En dan hadden ze ook gezien dat de GFFX niet kan tippen aan de Quality AF van de 9700Pro.

De manier zoals Anandtech dat gedaan had, dus gelijke beeldkwaliteit met elkaar vergelijken is eerlijker. Als je de keuze moet maken tussen bijvoorbeeld 2 stereo-installaties, dan kijk je niet alleen maar naar het aantal Watt dat de versterker heeft, maar kijk je naar welke het helderste geluid weer kan geven, want alleen het aantal W zegt niets.

4) Een gelekte ALPHA versie van Doom III gebruiken om tot de conclusie te komen dat de GFFX z'n ware kracht laat zien. :/

En zo zijn er nog wat dingen die gewoon heel erg vreemd zijn. :X
Je hebt gelijk, ik zag pas later dat ze niet met dezelfde instellingen testen, das natuurlijk zwaar fout.

Wat ik er zo goed aan vond was het feit, dat ze proggies hadden gebruikt om AF en lodbias te meten en de grote serie screenshots.

Digit-Life was lang één van m'n geliefde reviewsites maar met dit soort missers boeten ze snel aan geloofwaardigheid in.

Niet op voorraad.


Anoniem: 77043

Madrox schreef op 19 februari 2003 @ 19:56:
Fanboy dit, fanboy dat..... belachelijk.

Ben jarenlang Matrox "fanboy" geweest, al zeg ik liever een tevreden Matrox gebruiker. Heb het gebruik van de G400 zolang mogelijk gerekt met de hoop dat ze met een snellere en competatievere 3D kaart zouden komen. Toen die er uiteindelijk kwam, de Parhelia, was ik teleurgestelt en aarzelde geen moment om net zo makkelijk over te stappen naar een ander merk. Aangezien TV-out en een goede 2D voor mij belangrijk zijn werd het een Ati Radeon 8500. Als ik zeker wist dat ik met een GF4 Ti4200 dezelfde 2D kwaliteit en Tv-out zou hebben zou ik zeker niet schuwen om een Nvidia-kaart te nemen.

Ma.w.: Het merk boeit me niet, wel de prijs/prestatie/kwaliteit van een produkt.

Wat ik nu bijv. bijzonder irri vind, is dat ik telkens als ik opstart weer de TV-weergave moet "aanzetten". Ondanks dat de kabel nooit eruit is geweest raak ik die telkens kwijt.
matrox, ik zou er niet dood mee gevonden willen worden, hele slechte ervaring mee gehad, echt bagger merk, dat hadden ze moeten verbieden de merk matrox.
})

Anoniem: 74065

Topicstarter
nVidia GeForce FX 5800 Ultra 128MB review

De jongens van Digit Life hebben zich blijkbaar niet zitten vervelen, een 34 pagina's tellende review van de GeForce FX 5800 Ultra is het resultaat. Na een uitgebreid overzicht, waarin alle door nVidia en ATi uitgebrachte chips vanaf het jaar 2001 de revue passeren, worden alle technische specificaties van de NV30-chip uitgebreid besproken. Wie geïnteresseerd is in het hele FX-verhaal wordt doorverwezen naar een ander artikel op hun website, aldus Digit Life. De in deze review bekeken kaart heeft een AGP 4x/8x interface en is in het bezit van 128MB GDDR-II SDRAM van het merk Samsung, verdeeld over 8 chips op iedere zijde van de kaart.

Afbeeldingslocatie: http://www.tweakers.net/ext/i.dsp/1045743442.jpg Afbeeldingslocatie: http://www.tweakers.net/ext/i.dsp/1045743301.jpg

Het geheugen spint zijn cycli op 500MHz in 3D en op 300MHz in 2D. Door het gebruikte DDR-geheugen is dit respectievelijk 1000 en 600MHz. De echte blikvanger op de videokaart is de gigantische koeler. Digit Life heeft de koeler er niet afgehaald, simpelweg omdat deze te gecompliceerd zit vastgemaakt. Door deze grote koeler zal het eerste PCI-slot onbruikbaar zijn. Naast de standaard VGA-connector is de kaart voorzien van een DVI-aansluiting en een S-Video-connector. De reviewer van Digit Life gaat zeer uitgebreid in op de koeling en de werking daar van. Als laatste punt wordt er nog even gewezen op de extra voedingsaansluiting die de 5800 vereist, vergelijkbaar met die van de Voodoo5 5500.

Na deze uitgebreide bespreking van het uiterlijk van de kaart, is het tijd geworden om de 5800 te gaan testen. Het door Digit Life gebruikte testsysteem bestond uit een Asus P4G8X Granite Bay moederbord met daarop een Intel Pentium 4 3,06GHz, 1024MB DDR-geheugen en een Seagate Barracuda IV harde schijf van 40GB. Als besturingssyssteem werd er Windows XP met SP1 en DirectX 9.0 geïnstalleerd. Dit alles zat gekoppeld aan twee 21" schermen van ViewSonic. De voor deze review geïnstalleerde driver is versie 41.68 van nVidia. De uitleg van de alle driverinstellingen wordt flink gevisualiseerd door Digit Life, met maar liefst 10 screenshots wordt er duidelijk gemaakt welke instellingen er zijn gebruikt.

Na dit alles wordt er pas echt begonnen met testen. Ter vergelijking zijn de Albatron Medusa GeForce4 Ti 4600 en de Hercules 3D Prophet 9700 PRO ook onder handen genomen. Als eerste wordt er naar de 2D-kwaliteit gekeken. Deze is volgens de reviewer van Digit Life zeer goed, maar kan uiteraard verschillen per videokaart en monitor. Na de 2D-test worden alle benchmarks die RightMark3D rijk is toegelicht en uiteraard toegepast op de GeForce FX 5800 Ultra. Iedere test wordt duidelijk toegelicht en is voorzien van veel staafdiagrammen. Ook de begrippen anisotropic filtering en anti-aliasing worden nog even aangestipt.

Uiteraard wordt er ook nog gebenchmarked met 3DMark2001 SE en 3DMark03. Hierbij komt vrijwel altijd de nVidia-kaart als winnaar uit de bus, iets wat volgens Digit Life te danken is aan de betere anisotropic filtering. Al dit 3D-geweld is weer voorzien van veel staafdiagrammen. Na afloop van 3DMark03 vraagt de reviewer van Digit Life zich af of deze benchmark wel een goede reflectie is voor de gamerswereld. Om de performance van de 5800 in wat games te testen, heeft Digit Life gekozen voor Quake3 ARENA, Serious Sam, Return to Castle Wolfenstein, Code Creatures, Unreal Tournament 2003 Demo en de Alpha versie van Doom III.

In Quake3 is de kaart van nVidia nog de duidelijke winnaar, bij Serious Sam is dat anders. Daar wint de 9700 Pro van ATi veelal, behalve op de laagste resolutie. Daarna is de beurt weer aan de GeForce FX. In zowel Return to Castle Wolfenstein als de Unreal Tournament 2003 Demo en Doom III Alpha is nVidia de snelste, al is het verschil soms marginaal. Na al dit grafische geweld wordt de 3D-kwaliteit nogmaals besproken, allemaal weer voorzien van een overvloed aan plaatjes.

Uiteindelijk zijn de jongens van Digit Life bij de conclusie aangekomen. Eerst maken ze duidelijk hoe blij ze zijn dat ze deze mooie kaart hebben kunnen testen, alhoewel hij waarschijnlijk nooit in deze vorm op de markt zal verschijnen. De NV30 is volgens hen een stap in de juiste richting wat flexibele programmeerbare GPU's betreft. De kaart heeft zo zijn nadelen, al zijn deze volgens hun vrij simpel op te lossen, iets wat Digit Life hoopt te zien gebeuren in de komende versies van de NV3X-chips. Al met al is het een zeer uitgebreide review, die flink doorspekt is van extra uitleg en duidelijke diagrammen:

The weakest point of the GeForce FX 5800 is the 128bit memory bus because even such fast memory working at 500 (1000) MHz can't provide the required throughput for the 500MHz 8-pipeline chip. It had a very bad effect on the AA in spite of the frame buffer compression in MSAA modes. [...] As a result, the NV30 has a lower speed in the AA mode than the R300 (which has both compression and the 256bit memory bus). [...]

Another downside is a noisy cooler which can frighten users by unexpected starts or pauses (when the rotation speed gets lower). Because of such design a user has to sacrifice the first PCI slot. But this downside can be dealt with, and there are already cards with cooling systems free of shortcomings of the reference card. So, despite the above weak points, this is the fastest 3D accelerator for the beginning of 2003.

nieuws: nVidia GeForce FX 5800 Ultra 128MB review ;)

Anoniem: 78614

matrox, ik zou er niet dood mee gevonden willen worden, hele slechte ervaring mee gehad, echt bagger merk, dat hadden ze moeten verbieden de merk matrox.
Grappig dat je dat zo zegt... Dankzij Matrox worden een hoop mensen NIET dood gevonden :)
Ze maken namelijk hardware voor medische imaging.

Voor doorsnee gaming zijn hun kaarten niet zo geschikt, maar een ieder die zich een beetje informeert, ziet dat snel genoeg in de reviews. Het zijn kaarten voor een ander publiek, dat andere eisen stelt. "Bagger" is het zeker niet. Matrox-kaarten hebben wel degelijk bestaansrecht. Ik was zelf jarenlang een blije Matrox-gebruiker, vanwege hun enorm snelle geheugentoegang. Hun beste kaarten waren sneller dan de PCI-bus, en je haalde dus het maximum uit je PC met software-rendering.
De beeldkwaliteit was ook erg goed, drivers waren goed, en er waren altijd enorm veel mooie features aanwezig (zo waren ze heel vroeg met YUY2 hardware-decoding, wat gebruikt kan worden om mpg en aanverwante filmformaten te accelereren).
Helaas is Matrox in de 3d-race afgehaakt rond het TNT2/GF-tijdperk, en blijven nu slechts de beeldkwaliteit en de 2d-features over. Ik ben destijds ook maar overgestapt op nVidia.
Maar zodra Matrox weer een kaart op de markt brengt die qua features in de buurt komt van de topmodellen van ATi en/of nVidia, zal ik geen moment twijfelen, en meteen weer overstappen op Matrox.

Maar goed, de gemiddelde tweaker gebruikt z'n display-kaart iets anders dan ik, denk ik :)
De driverupdate van 28.32 naar 11.01 zorgde wel voor een performance increase van (!!) 47.5% en de update van 28.32 naar 41.09 een kleine 3.3%. In totaal dus een performance increase van 52.4%.
Bij tomshardware werd de hypothese geponeerd dat de nieuwe drivers misschien de precisie van de shaders naar 16 bit zetten, waar de oude drivers 32 bit gebruikten.
Dit ook naar aanleiding van uitspraken van John Carmack, die bemerkte dat de NV30-pipeline op 16 bits sneller was dan de R300 op de ARB2- en R200-pipelines (er is geen specifieke R300-pipeline), maar dat de ARB2-pipeline (op 32 bits dus) trager was dan de R300 (die altijd 24 bit gebruikt, wat weleens de gulden middenweg zou kunnen zijn).

Ik weet niet of dit waar is, maar het zou een en ander kunnen verklaren...
Tomshardware zette ook hun vraagtekens bij de WHQL DX9-compliance als de kaart op 16 bits loopt... De precisie is dan in feite te laag.

[ Voor 25% gewijzigd door Anoniem: 78614 op 20-02-2003 19:49 ]


Acties:
  • 0 Henk 'm!

Anoniem: 77043

Anoniem: 78614 schreef op 20 februari 2003 @ 19:13:
[...]


Grappig dat je dat zo zegt... Dankzij Matrox worden een hoop mensen NIET dood gevonden :)
Ze maken namelijk hardware voor medische imaging.

Voor doorsnee gaming zijn hun kaarten niet zo geschikt, maar een ieder die zich een beetje informeert, ziet dat snel genoeg in de reviews. Het zijn kaarten voor een ander publiek, dat andere eisen stelt. "Bagger" is het zeker niet. Matrox-kaarten hebben wel degelijk bestaansrecht. Ik was zelf jarenlang een blije Matrox-gebruiker, vanwege hun enorm snelle geheugentoegang. Hun beste kaarten waren sneller dan de PCI-bus, en je haalde dus het maximum uit je PC met software-rendering.
De beeldkwaliteit was ook erg goed, drivers waren goed, en er waren altijd enorm veel mooie features aanwezig (zo waren ze heel vroeg met YUY2 hardware-decoding, wat gebruikt kan worden om mpg en aanverwante filmformaten te accelereren).
Helaas is Matrox in de 3d-race afgehaakt rond het TNT2/GF-tijdperk, en blijven nu slechts de beeldkwaliteit en de 2d-features over. Ik ben destijds ook maar overgestapt op nVidia.
Maar zodra Matrox weer een kaart op de markt brengt die qua features in de buurt komt van de topmodellen van ATi en/of nVidia, zal ik geen moment twijfelen, en meteen weer overstappen op Matrox.

Maar goed, de gemiddelde tweaker gebruikt z'n display-kaart iets anders dan ik, denk ik :)


[...]


Bij tomshardware werd de hypothese geponeerd dat de nieuwe drivers misschien de precisie van de shaders naar 16 bit zetten, waar de oude drivers 32 bit gebruikten.
Dit ook naar aanleiding van uitspraken van John Carmack, die bemerkte dat de NV30-pipeline op 16 bits sneller was dan de R300 op de ARB2- en R200-pipelines (er is geen specifieke R300-pipeline), maar dat de ARB2-pipeline (op 32 bits dus) trager was dan de R300 (die altijd 24 bit gebruikt, wat weleens de gulden middenweg zou kunnen zijn).

Ik weet niet of dit waar is, maar het zou een en ander kunnen verklaren...
Tomshardware zette ook hun vraagtekens bij de WHQL DX9-compliance als de kaart op 16 bits loopt... De precisie is dan in feite te laag.
oh eeuuuuh, dat wist ik niet, van dat medisch imaging, shit,zeg ik eens een keer wat, zeg ik het verdorie weer op een verkeerde manier, nou ja 8)7

nou het was natuurlijk ook wel een beetje extreem hoe ik mij uitdrukte, zal best wel een goed kaartje zijn, maar ik had er wat slechte ervaringen mee, en dat heeft mij toen veel geld gekost, vandaar dat ik nog een beetje gefrustreerd ben, maar ik begrijp natuurlijk ook wel dat andere mensen betere ervaringen mee hebben gehad, ik zal het in de toekomst wat anders uitspreken, mischien was dit een beetje te grof. ;)


en idletoad hoe bedoel je dat precies over dat van tom hardware shop, ik zeg eerlijk ik ben niet zo techisch begaaft als de meesten van jullie, maar ik ben heel leergierig, en van sommigen van jullie hier op got, neem ik ook echt wat van aan, ik heb hier op got al veel bijgeleerd. dankzij een paar van jullie. :)

[ Voor 7% gewijzigd door Anoniem: 77043 op 21-02-2003 19:17 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ik van omver uit m'n stoel bij het lezen van dit:
IN A MARATHON INVESTIGATION that The Inquirer launched a couple of days ago, we have some solid stuff to present to you. From the time when Nvidia first questioned the validity of 3DMark03 and its single texturing as a method of rendering that is rarely used in games we knew that somthing was rotten in Denmark, sorry, Santa Clara.

An Nvidia technical marketing manager confirmed to us that Geforce FX has 4 Pipelines and 2 Texture Memory Units that can results with 8 textures per clock but only in multitexturing.

However, Nvidia did say that there were some cases where its chip can turn out 8 pixels per clock. Here is a quote:

"GeForce FX 5800 and 5800 Ultra run at 8 pixels per clock for all of the following:
a) z-rendering
b) stencil operations
c) texture operations
d) shader operations"

and

"Only color+Z rendering is done at 4 pixels per clock"

We talked with many developers and they said me that all games these days use Color + Z rendering. So all this Nvidia talk about the possibility of rendering 8 pixels in special cases becomes irrelevant.

The bottom line is that when it comes to Color + Z rendering, the GeForce FX is only half as powerful as the older Radeon 9700.

After further investigation, we learned that many games including Unreal Tournament 2003 use both single and multitexturing. In any cases where you don't need multitexturing and can make your scene with single texturing you want to do that as every bit of bandwidth you can save really counts. You don't want to lose your bandwidth just to make one graphics company happy.
http://www.theinquirer.net/?article=7920

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 61853

Hacku schreef op 21 February 2003 @ 21:09:
Ik van omver uit m'n stoel bij het lezen van dit:


[...]


http://www.theinquirer.net/?article=7920
Dat valt wel even tegen, 4 zijn iig niet erg veel.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ja 4 pipes maar volgens nVidia kan hij toch 8 pixels per clock berekenen in volgende gevallen:

a) z-rendering
b) stencil operations
c) texture operations
d) shader operations

alleen color+Z rendering wordt gedaan aan 4 pixels per clock

Een Radeon 9700 doet alles aan 8 pixels per clock :Y)

[ Voor 11% gewijzigd door XWB op 21-02-2003 21:21 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
4 pipes. :/ Ik hoop voor hun dat het niet waar is.

Is 8-pipes niet een vereiste van DX9.0?

Edit: Zou best kunnen trouwens die 4x2.

nVidia heeft NOOIT expliciet en officieel gezegd dat de FX een 8x1 architectuur is. Op hun website zal je daar niets over vinden. Wel staat er in de tech-documenten:

"8 pixels per clock cycle"

Bij ATi staat er echt "8 pixel pipeline architecture".

Het zou ook de resultaten van een flink aantal tests in 3DMark2003 verklaren (bv de lage Pixelshadertest resultaten) en het zou ook verklaren waarom een 500/1000-combinatie het niet overtuigend kan winnen van een 325/620-combinatie. Als je hier van uit gaat dan zou je denken dat zonder AA, AF en op standaardresoluties (dus minder bandbreedte afhankelijke tests) de FX over de 9700Pro heen zou walsen.

Een 4x2-architectuur op 500/1000 zou volgens mij in die bepaalde niet bandbreedte afhankelijke gevallen inderdaad ongeveer op gelijke hoogte moeten komen met de 9700Pro.

[ Voor 85% gewijzigd door CJ op 21-02-2003 22:20 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Upke dupke
  • Registratie: Januari 2003
  • Laatst online: 00:18

Upke dupke

Oompa Loompa

Dan kunnen we dus voor NV35 wel een 8 pixel pipeline architectuur verwachten of is dat gewoon niet te doen met het huidige chip design? Beetje triest dit verhaal :/ Dan zal een 256 bit bus ook wel niet veel uit maken, of wel?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Upke dupke schreef op 21 February 2003 @ 23:33:
Dan kunnen we dus voor NV35 wel een 8 pixel pipeline architectuur verwachten of is dat gewoon niet te doen met het huidige chip design? Beetje triest dit verhaal :/ Dan zal een 256 bit bus ook wel niet veel uit maken, of wel?
Ik zou bij God niet weten wat we nog kunnen verwachten van nVidia. Ze laten ook gewoon geen details vrij, of bevestigen of ontkennen iets. Alleen maar vage marketing BS.

Lees hier trouwens meer over dat 4x2 gedoe. The Inquirer heeft het min of meer gejat van een thread op Beyond3D die al meer dan een week loopt. (Daar zijn ze dan ook pissed dat B3D niet eens genoemd is als bron).

http://www.beyond3d.com/forum/viewtopic.php?t=4252

Ze hebben daar inmiddels ook een FX5800 Ultra gekregen van nVidia en die zijn ze nu uitvoerig aan het testen. Tot nu toe lijkt het alsof de vermoedens bevestigd worden.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 10-06 14:15

edward2

Schieten op de beesten

Anoniem: 61853 schreef op 21 February 2003 @ 21:16:
[...]


Dat valt wel even tegen, 4 zijn iig niet erg veel.
Dit verklaart heel veel, eigenlijk alles.

Je zou namelijk verwachten dat de FX op 500 mhz met een 8 pipeline architectuur gehakt maakt van de R9700 in bepaalde situaties (fillerate), nou dat hebben we gezien, die zijn er niet.

Die R9700 ga ik nog lang houden zo te zien, want als dit waar is zullen driververbeteringen niet brengen wat ik eerst van de FX verwacht had.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 78614

en idletoad hoe bedoel je dat precies over dat van tom hardware shop
Ik zal voor de volledigheid de URL er ook even bij doen: http://www.tomshardware.com/column/20030219/index.html

Ik zal het proberen wat duidelijker uit te leggen...
Sinds DX9 gebruiken we geen integers meer ('gehele getallen', 0, 1, 2, etc), maar floating-point ('reele getallen', 0.2133, 0.839*10^5 etc).
Maar die kun je in feite implementeren met zoveel bits als je zelf wilt... Je kunt de range van de getallen varieren, ten koste van de precisie, en andersom.
ATi heeft gekozen voor 1 systeem van 24 bits.... nVidia heeft 2 systemen, 16 bits en 32 bits.
16 bits is sneller dan 32 bits, maar ten koste van de precisie.
Dus men denkt nu dat de oude drivers de 32 bits mode gebruikten in DX9, en dat de nieuwe, snellere drivers de 16 bits mode gebruiken... Dan zijn ze wel sneller, maar is de precisie dan nog wel goed genoeg? En in hoeverre is het te vergelijken met ATi?

ATi heeft een goede zet gedaan met 24 bit, denk ik... 16 bit is net te weinig... en 32 bit is net te veel. Ik denk niet dat je het verschil tussen 24 en 32 bit kunt zien... Ik denk dat in de meeste gevallen het verschil niet eens bestaat (je moet wel erg veel gaan lopen rekenen en doen, wil je meer dan die 24 bits nodig hebben om niet genoeg precisie over te houden).
16 bit is gewoon net te weinig. Dat verschil is er zeker, en dat kun je waarschijnlijk nog wel zien ook (Carmack zegt dat hij het ziet).

Acties:
  • 0 Henk 'm!

Anoniem: 77043

Anoniem: 78614 schreef op 22 February 2003 @ 00:39:
[...]


Ik zal voor de volledigheid de URL er ook even bij doen: http://www.tomshardware.com/column/20030219/index.html

Ik zal het proberen wat duidelijker uit te leggen...
Sinds DX9 gebruiken we geen integers meer ('gehele getallen', 0, 1, 2, etc), maar floating-point ('reele getallen', 0.2133, 0.839*10^5 etc).
Maar die kun je in feite implementeren met zoveel bits als je zelf wilt... Je kunt de range van de getallen varieren, ten koste van de precisie, en andersom.
ATi heeft gekozen voor 1 systeem van 24 bits.... nVidia heeft 2 systemen, 16 bits en 32 bits.
16 bits is sneller dan 32 bits, maar ten koste van de precisie.
Dus men denkt nu dat de oude drivers de 32 bits mode gebruikten in DX9, en dat de nieuwe, snellere drivers de 16 bits mode gebruiken... Dan zijn ze wel sneller, maar is de precisie dan nog wel goed genoeg? En in hoeverre is het te vergelijken met ATi?

ATi heeft een goede zet gedaan met 24 bit, denk ik... 16 bit is net te weinig... en 32 bit is net te veel. Ik denk niet dat je het verschil tussen 24 en 32 bit kunt zien... Ik denk dat in de meeste gevallen het verschil niet eens bestaat (je moet wel erg veel gaan lopen rekenen en doen, wil je meer dan die 24 bits nodig hebben om niet genoeg precisie over te houden).
16 bit is gewoon net te weinig. Dat verschil is er zeker, en dat kun je waarschijnlijk nog wel zien ook (Carmack zegt dat hij het ziet).
ah, nu is het wat duidelijker voor me, bedankt idletoad dat je het nog een keer voor mij wou uitleggen. :)

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 08:36

SG

SG surft naar info hardewaren

Anoniem: 78614 schreef op 22 februari 2003 @ 00:39:
[...]


Ik zal voor de volledigheid de URL er ook even bij doen: http://www.tomshardware.com/column/20030219/index.html

Ik zal het proberen wat duidelijker uit te leggen...
Sinds DX9 gebruiken we geen integers meer ('gehele getallen', 0, 1, 2, etc), maar floating-point ('reele getallen', 0.2133, 0.839*10^5 etc).
Maar die kun je in feite implementeren met zoveel bits als je zelf wilt... Je kunt de range van de getallen varieren, ten koste van de precisie, en andersom.
ATi heeft gekozen voor 1 systeem van 24 bits.... nVidia heeft 2 systemen, 16 bits en 32 bits.
16 bits is sneller dan 32 bits, maar ten koste van de precisie.
Dus men denkt nu dat de oude drivers de 32 bits mode gebruikten in DX9, en dat de nieuwe, snellere drivers de 16 bits mode gebruiken... Dan zijn ze wel sneller, maar is de precisie dan nog wel goed genoeg? En in hoeverre is het te vergelijken met ATi?

ATi heeft een goede zet gedaan met 24 bit, denk ik... 16 bit is net te weinig... en 32 bit is net te veel. Ik denk niet dat je het verschil tussen 24 en 32 bit kunt zien... Ik denk dat in de meeste gevallen het verschil niet eens bestaat (je moet wel erg veel gaan lopen rekenen en doen, wil je meer dan die 24 bits nodig hebben om niet genoeg precisie over te houden).
16 bit is gewoon net te weinig. Dat verschil is er zeker, en dat kun je waarschijnlijk nog wel zien ook (Carmack zegt dat hij het ziet).
Ik mis hier iets dacht dat R300 96bit FP bewerking ondersteund en de nV30 32bit 64bit 128bit of hoe zit dat.

Dan DX9 zal altijd nog integers ondersteunen aangezien Frame buffers en Textures nog geen FP color waarden hoefen te hebben dus nog steeds integer RGBA waarden gebruiken.

Zodra er sprake is van een Fp color surface voor frame en texture surfaces dan is de integer gebruik geheel/grotendeels uitgeloten.

De R300 werkt dus gewoon met RGBA surfaces en verwerkt intern dus met FP waarden. en het resultaat naar 'n RGBA surface dus integer

iig dat dacht ik.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

Anoniem: 78614

De R300 werkt dus gewoon met RGBA surfaces en verwerkt intern dus met FP waarden. en het resultaat naar 'n RGBA surface dus integer
R300 kan ook 16:16:16:16 en 32:32:32:32 bit floating point rendertargets/textures aan (vereiste voor DX9). Maar we hadden het hier over de shaders. Shaders van R300 zijn altijd 24 bit, die van NV30 hebben dus 2 modes, 16 en 32 bit.
Integer shaders zullen hoogstwaarschijnlijk 'geemuleerd' worden op de fp shaderhardware (scheelt een hoop transistors, en is waarschijnlijk niet eens trager). Op de R300 wordt de fixed function pipeline iig al compleet 'geemuleerd' op shaders. Er zijn dus geen hardwired operaties meer.

R300 kan met zowel integer-RGBA als met fp-surfaces werken dus.
(Frontbuffer moet wel altijd integer-RGBA zijn, omdat er geen fp ramdacs bestaan. Dus frontbuffer is 8:8:8:8 of 2:10:10:10 in de meeste gevallen).

edit:
ATi heeft ook die "Rendering with natural light"-demo uitgebracht, die een floating-point high-dynamic-range lightmap gebruikt voor de belichting.
3dmark03 gebruikt in de Mother Nature game ook een dergelijke belichting.
En dat werkt dus feilloos op R300s :)

[ Voor 18% gewijzigd door Anoniem: 78614 op 23-02-2003 18:40 ]


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 08:36

SG

SG surft naar info hardewaren

Ik zal het proberen wat duidelijker uit te leggen...
Sinds DX9 gebruiken we geen integers meer ('gehele getallen', 0, 1, 2, etc), maar floating-point ('reele getallen', 0.2133, 0.839*10^5 etc).
Maar die kun je in feite implementeren met zoveel bits als je zelf wilt... Je kunt de range van de getallen varieren, ten koste van de precisie, en andersom.
...................................
"Maar we hadden het hier over de shaders."
Dát zie ik nergens in jouw lappie text staan, waar dit fragment uit komt, dus heb ik dat ook gemist.
R300 kan met zowel integer-RGBA als met fp-surfaces werken dus.
(Frontbuffer moet wel altijd integer-RGBA zijn, omdat er geen fp ramdacs bestaan. Dus frontbuffer is 8:8:8:8 of 2:10:10:10 in de meeste gevallen).
Zouden dan niet alle frame Buffers RGB integer moeten zijn aangezien bij Triple en Doublebuffer in een flipping chain in FullScreen mode alleen een pointer wordt gezet naar de volgende buffer met de next frame erin? De Backbuffers

Ik dacht ook gelezen te hebben dat ze ook bezig waren met FP surfaces ook voor primaire surface dan zou de ramdac ook FP color waarden moeten aankunnen maar of dat ook is met deze DX9 hardware zou ik niet weten.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

Anoniem: 78614

"Maar we hadden het hier over de shaders."
Dát zie ik nergens in jouw lappie text staan, waar dit fragment uit komt, dus heb ik dat ook gemist.
Het was ook een verdere uitleg van een eerdere post, waarin stond:
Bij tomshardware werd de hypothese geponeerd dat de nieuwe drivers misschien de precisie van de shaders naar 16 bit zetten, waar de oude drivers 32 bit gebruikten.
Wel handig als je het verhaal vanaf het begin volgt :)
Zouden dan niet alle frame Buffers RGB integer moeten zijn aangezien bij Triple en Doublebuffer in een flipping chain in FullScreen mode alleen een pointer wordt gezet naar de volgende buffer met de next frame erin? De Backbuffers
Nee, want als je een floating-point rendertarget wilt gebruiken, kun je per definitie geen flipping chain gebruiken. Het is de bedoeling dat je een filter schrijft dat de fp-target converteert naar een gewone integer-frontbuffer (hier kun je dus bloom en andere post-processing effecten nog in verwerken).
Dat wil dus zeggen... Het fp-rendertarget kan geen deel uitmaken van een flipping chain... Je kunt natuurlijk wel de resulterende RGB-surfaces double/triple/weetikhoeveel bufferen, en flippen.
Maar niet alle rendertargets hoeven deel uit te maken van de flipping chain(!).
Ik dacht ook gelezen te hebben dat ze ook bezig waren met FP surfaces ook voor primaire surface dan zou de ramdac ook FP color waarden moeten aankunnen maar of dat ook is met deze DX9 hardware zou ik niet weten.
Lijkt me onwaarschijnlijk. Het heeft helemaal geen voordelen om direct fp-waarden naar de ramdac te sturen. De high-dynamic-range kun je toch op een monitor niet gebruiken (wit is wit :)).
Het zou alleen de ramdac maar complexer en duurder maken.
Huidige DX9-hardware werkt in ieder geval niet zo.

[ Voor 9% gewijzigd door Anoniem: 78614 op 23-02-2003 19:26 ]


Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Raymond Koning (schrijft regelmatig in de Computer Totaal (Bekend op GoT als Slashhead)) meld dit op het C!T forum.
Ik krijg net te horen dat de GeForceFX 5800ultra niet doorgaat... nVidia kan de clocks niet halen en dus komt deze niet op de markt. Een afgeslankte versie zal wel verschijnen. In juni wordt de NV35 verwacht

Acties:
  • 0 Henk 'm!

Anoniem: 24036

hjs schreef op 25 februari 2003 @ 16:17:
Raymond Koning (schrijft regelmatig in de Computer Totaal (Bekend op GoT als Slashhead)) meld dit op het C!T forum.


[...]
Als het goed is krijgen alleen de mensen die een ultra besteld hadden er 1.
De normale versie zal wel te koop zijn.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 10-06 14:15

edward2

Schieten op de beesten

hjs schreef op 25 februari 2003 @ 16:17:
Raymond Koning (schrijft regelmatig in de Computer Totaal (Bekend op GoT als Slashhead)) meld dit op het C!T forum.


[...]
Dus toch waar...! van wie hoorde hij dat, van NV of de kaartenbakkers?

[ Voor 10% gewijzigd door edward2 op 25-02-2003 18:04 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 08:36

SG

SG surft naar info hardewaren

Dus de GFX Ultra wordt 'n soort van limeted edition

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • srblackbird
  • Registratie: Juni 2001
  • Laatst online: 03-06 12:43

srblackbird

ThinkGEEK

SuperG schreef op 25 February 2003 @ 18:55:
Dus de GFX Ultra wordt 'n soort van limeted edition
Zoals het er nu voor staat wel, maar wie wil er ook een hebben. 7(8)7

Acties:
  • 0 Henk 'm!

  • Royale de Luxe
  • Registratie: Juni 2002
  • Laatst online: 16-05 22:31

Royale de Luxe

The limit is out there

Vandaag kreeg ik te horen dat de NV30 maar een oplage heeft van Max. 15.000 stuks. Dus zij die er vlug eentje kopen zullen deze hebben degenen die iets zullen wachten vissen ernaast.

het nieuws kwam van bij NVidia zelf... . Zou de verkoop van hun topkaart dan effectief zo weining zijn invergelijking met de rest van hun gamma, of zijn de Yields inderdaad zo slecht dat ze er niet meer uitkrijgen?? :?

Is het verder al iemand opgevallen dat FX misschien volledig naar 3dFX verwijst, zij zijn volgens mij degenen die deze ontwikkeld hebben (het oude 3dfx team dan toch).

Ik hoorde ook al veel klagen over de immense cooler dat er op zit, en dat hij veel stof zou opzuigen, is dit geen gesloten circuit? zodat hij enkel en alleen zichzelf vervuilt?

Als ik bij een waarzegster ga, weet zij dan ook op voorhand dat ik geen geld bij heb?


Acties:
  • 0 Henk 'm!

Anoniem: 68598

Ik denk dat de oplage mede komt doordat NV30 chip slecht resultaten behaalt. Volgens de benchmark komt dat ding maar net boven de ATI 9700 Pro, dit is dus niet egt spannend.
Dus Nvidia zal wel weer aan nieuwe chip aan het knutsellen zijn. Maarjah dat geeft tog niet de RV350 gaat tog harderblazen :p.
Het beste dat Nvidia kan doen is verder gaan met 3dFX technologie hier kunnen ze waarschijnlijk wel wat meer uit halen.
Volgens mij zal ATI voorlopig de winner blijven.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 08:36

SG

SG surft naar info hardewaren

NV30 welke alle of alleen de ULTRA ?


Wat hebben jully toch met 3dfx

De Voodoo 5 6000 is niet uitgekomen en wat was zijn nVidia tegen hanger de GF2Ultra ???
DAn had je de Spectra core en rampage die in ontwikkeling waren.

Nou ATI en nVidia zijn dus nu ook alweer twee generaties verder 3DFX moest nog met T&L komen dus wat 3DFX in petto had is dus nu ook op, wat nVidia brengt hierna zal niet veel meer met 3DFX te maken hebben maar gewoon 'n gemeenschappelijk nieuw produkt van de techneuten uit beide kampen zijn

Die GPU bakkers werken hooguit 2 á 3 Gpu projecten verderuit

3DfX is is al een Héle tijd al game over dus wat ze toen opstapelhadden is dus nu ook al achterhaald.

Daarnaast was nVidia helemaal niet afhankelijk van 3DFX aangezien zij ook de kennis in huis hebben om nextgen GPU te maken en 3dfx te kijk zetten

dus verwacht niet te veel van 3DFX want in mijn ogen is dat allemaal reduncdant gedoe

In mijn ogen is de nVidia GFX team totaal verrast door de R300 en dus moest het sneller worden en dus die moest ie 500Mhz wat dus te hoog gegrepen is.

aangezien nu ATI ............................nVidia & 3dfx techneuten te kijk zet.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Anoniem: 68598 schreef op 25 February 2003 @ 23:00:
Dus Nvidia zal wel weer aan nieuwe chip aan het knutsellen zijn.
Klopt. NV35 heeft het tape-out stadium dicht genaderd en nVidia wil dit in Juli uit gaan brengen, nog voordat ATi met R400 komt. Dus ze hebben nu al hun geld op NV35 gezet.

In de tussentijd moeten NV31 (vervanger Ti4400) en NV34 (vervanger MX-serie) voor geld zorgen tot de tijd dat NV35 wordt gereleased (en de daarvan afgeleide mainstream variant NV36).

Als ze dit namelijk niet doen en de oorspronkelijke planning volgen, dan lopen ze straks weer achter de feiten aan. NV35 zou dan in het najaar gereleased worden, terwijl R400 al in de zomer gelaunched wordt. En R400 is volgens een aantal insiders (veel) sneller dan NV35. R400 is zeg maar zoiets als R300 was t.o.v. R200.

NV35, met 256-bits geheugeninterface, 50% koeler en minder energievragend, zou ook al op de laatste IDF geshowed worden behind the scenes aan een select groepje mensen, maar dat was volgens mensen die er geweest waren bullshit.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Royale de Luxe
  • Registratie: Juni 2002
  • Laatst online: 16-05 22:31

Royale de Luxe

The limit is out there

SuperG schreef op 26 February 2003 @ 07:38:
NV30 welke alle of alleen de ULTRA ?


Wat hebben jully toch met 3dfx

De Voodoo 5 6000 is niet uitgekomen en wat was zijn nVidia tegen hanger de GF2Ultra ???
DAn had je de Spectra core en rampage die in ontwikkeling waren.

Nou ATI en nVidia zijn dus nu ook alweer twee generaties verder 3DFX moest nog met T&L komen dus wat 3DFX in petto had is dus nu ook op, wat nVidia brengt hierna zal niet veel meer met 3DFX te maken hebben maar gewoon 'n gemeenschappelijk nieuw produkt van de techneuten uit beide kampen zijn

Die GPU bakkers werken hooguit 2 á 3 Gpu projecten verderuit

3DfX is is al een Héle tijd al game over dus wat ze toen opstapelhadden is dus nu ook al achterhaald.

Daarnaast was nVidia helemaal niet afhankelijk van 3DFX aangezien zij ook de kennis in huis hebben om nextgen GPU te maken en 3dfx te kijk zetten

dus verwacht niet te veel van 3DFX want in mijn ogen is dat allemaal reduncdant gedoe

In mijn ogen is de nVidia GFX team totaal verrast door de R300 en dus moest het sneller worden en dus die moest ie 500Mhz wat dus te hoog gegrepen is.

aangezien nu ATI ............................nVidia & 3dfx techneuten te kijk zet.
Ik heb niets met 3DFX in het geheel, ik vertelde enkel dat het weleens kan dat het team dat vroeger bij 3DFX werkte nu de geforceFX heeft ontwikkeld... . 8)

Ik begrijp verder je redenering maar heb dat niet zo bedoeld "so take it easy"

;)

Verder zullen er van de Ultra enkel 15.000 stuks uitkomen... .
HAd toch graag geweten of dit echt de totaal verkoop vertegenwoordigd van een "top of the hill" kaart!! weet iemand dit?

[ Voor 9% gewijzigd door Royale de Luxe op 26-02-2003 15:42 ]

Als ik bij een waarzegster ga, weet zij dan ook op voorhand dat ik geen geld bij heb?


  • PeGys
  • Registratie: Februari 2003
  • Laatst online: 03-06 12:41
Ach, maak jullie niet druk, na de zomer is de R450 (of was het R400) van ATI er en gaat nVidia nog maar eens afgaan, dat zullen ze nu al doen als de R350 van ATI op de markt komt.

nVidia kan de concurentie niet aan en probeert dus met behulp van de GeForce FX nog een graantje mee te pikken maar de prestaties kunnen niet meer op tegen de nieuwe ATI chipsets.

nVidia zou beter (net zoals ATI gedaan heeft) een tijdje terugtrekken en zich concentreren op een nieuwe GPU waarmee ze ATI wel aankunnen in plaats van veel show te maken rond chipsets die niet opkunnen tegen de concurentie. Het idee van de 0.13µ chips van de FX is goed, maar ze kunnen het niet echt goed realiseren. Hier is ATI zich nu op aan het concentreren, 9 kansen op 10 zal ATI het wel goed doen en dan is nVidia zeker verloren.

nVidia heeft gewoon het voordeel van de bekendheid ten opzichte van ATI. Ze zijn jaren de enige geweest tot ATI terugkwam. Maar, meer en meer mensen beginnen ATI aan te schaffen, dat wil dus zeggen dat de mensen in ATI toch de betere zien.

Een beetje verlies heb je altijd...


Anoniem: 77043

PeGys schreef op 27 februari 2003 @ 13:00:
Ach, maak jullie niet druk, na de zomer is de R450 (of was het R400) van ATI er en gaat nVidia nog maar eens afgaan, dat zullen ze nu al doen als de R350 van ATI op de markt komt.

nVidia kan de concurentie niet aan en probeert dus met behulp van de GeForce FX nog een graantje mee te pikken maar de prestaties kunnen niet meer op tegen de nieuwe ATI chipsets.

nVidia zou beter (net zoals ATI gedaan heeft) een tijdje terugtrekken en zich concentreren op een nieuwe GPU waarmee ze ATI wel aankunnen in plaats van veel show te maken rond chipsets die niet opkunnen tegen de concurentie. Het idee van de 0.13µ chips van de FX is goed, maar ze kunnen het niet echt goed realiseren. Hier is ATI zich nu op aan het concentreren, 9 kansen op 10 zal ATI het wel goed doen en dan is nVidia zeker verloren.

nVidia heeft gewoon het voordeel van de bekendheid ten opzichte van ATI. Ze zijn jaren de enige geweest tot ATI terugkwam. Maar, meer en meer mensen beginnen ATI aan te schaffen, dat wil dus zeggen dat de mensen in ATI toch de betere zien.
dat heb jij heel goed gezegd, en dat zie je ook heel goed, ik denk namelijk ook dat nvidia zich eerst maar een tijdje koest kan houden, dan inplaats elke keer zo'n herrie te maken. :)

  • T.T.
  • Registratie: April 2000
  • Laatst online: 16-05 12:09

T.T.

Sowieso

Digitimes heeft een interview met een CEO van nVidia.
Q: How has the market responded to Nvidia’s first 0.13-micron process graphics chip, the GeForce FX (NV30)? Could you tell us more about Nvidia’s production plans in 2003?

A: At the initial stage, Nvidia will ship 1.5 million NV30 chips and will also make cards based on the top-end GeForce FX 5800 Ultra (NV30 core) itself. The lower-end GeForce FX 5800 chips, however, will be released to downstream card manufacturers for production.

  • PeGys
  • Registratie: Februari 2003
  • Laatst online: 03-06 12:41
P.S. Stilstaande beelden zien er altijd gelikt uit, maar dat zegt nog niets over vloeiende beelden. Je kan een enorme high res pix ook weergeven op een 4 MB grafische kaart hoor. Dat zal gewoon wat meer laadtijd nodig hebben.

Die "screenshots" van de kwaliteit van de FX betekenen dus helemaal niets, ze kunnen die afbeeldingen gewoon gemaakt hebben en dan zet je erop wat je wil.

nVidia chips zijn ideaal.................om je nagels mee te kuisen.

Een beetje verlies heb je altijd...


Acties:
  • 0 Henk 'm!

  • Royale de Luxe
  • Registratie: Juni 2002
  • Laatst online: 16-05 22:31

Royale de Luxe

The limit is out there

T.T. schreef op 27 February 2003 @ 18:04:
Digitimes heeft een interview met een CEO van nVidia.


[...]
Yep, maar enkel 15000 Ultra's, Het is niet dat de NV30 enkel in Ultra bestaat, ze spelen hier natuurlijk op de markt in, iedereen weet dat het grote publiek nooit het duurste koopt.

Als ik bij een waarzegster ga, weet zij dan ook op voorhand dat ik geen geld bij heb?


Acties:
  • 0 Henk 'm!

Anoniem: 32156

http://www.theinquirer.net/?article=8031

NV31 = 2389 3dmark 2003
NV34 = 879

Nou, ik snap nu gelijk waarom nVidia een hekel heeft aan 3dMark2003 ..... Maar denk dat het meer een probleem van nVidia is dan van futuremark.

Wat een doodgeboren videokaart zeg.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 08:36

SG

SG surft naar info hardewaren

mijn 8500DV haalt 940

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
A REPORT ON the Finance Yahoo site claimed that Nvidia (NVDA) has lost a big design with big Taiwanese firm MSI (Microstar) to ATI (ATYT).

The win is supposed to be for giant German retailer Medion, which has done ever so well in the last year or two.

Microstar was originally an exclusive Nvidia partner.

Our info says that partners of Nvidia will line up with it for a big launch of other stuff on March 6th next.

Meanwhile, the same analyst claims that the GeForce FX will ramp more slowly than expected because of low yields.

But as we've pointed out, there is now product in the channel, just, perhaps, not very much of it.
http://www.theinquirer.net/?article=8053

March of the Eagles


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Hehe, dit had ik ook al in het Radeon topic gepost, maar dan met een link naar Yahoo aangezien het ook over ATi gaat. :7

CJ in "-= Radeon Topic - Deel 64 =-"

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 00:47
MSI heeft in Japan een demo stand in de retail staan met een GNB MAX2 (E7205)GeForce FX5800-TD die 3D mark 2003 draait. Het is de GeforceFX zoals elke fabrkant m op de markt zal brengen... het reference design dat geproduceerd is door nVidia en naar de VGA partners is verscheept. Die doen er de verpakking om en plakken een sticker op de koeler.

(misschien te veel plaatjes?)

Afbeeldingslocatie: http://watch.impress.co.jp/akiba/hotline/20030301/image/nfxd1.jpg
Afbeeldingslocatie: http://watch.impress.co.jp/akiba/hotline/20030301/image/nfxd2.jpg
Afbeeldingslocatie: http://watch.impress.co.jp/akiba/hotline/20030301/image/nfxd3.jpg
Afbeeldingslocatie: http://watch.impress.co.jp/akiba/hotline/20030301/image/nfxd4.jpg
Afbeeldingslocatie: http://watch.impress.co.jp/akiba/hotline/20030301/image/nfxd5.jpg
Afbeeldingslocatie: http://watch.impress.co.jp/akiba/hotline/20030301/image/nfxd6.jpg
Afbeeldingslocatie: http://www.zdnet.co.jp/news/0302/27/l_msi1.jpg
Afbeeldingslocatie: http://www.zdnet.co.jp/news/0302/27/l_msi2.jpg
Afbeeldingslocatie: http://www.zdnet.co.jp/news/0302/27/l_msi3.jpg
Afbeeldingslocatie: http://www.zdnet.co.jp/news/0302/27/l_msi4.jpg
Afbeeldingslocatie: http://www.zdnet.co.jp/news/0302/27/l_msi5.jpg

[ Voor 104% gewijzigd door The Source op 01-03-2003 00:05 ]


Acties:
  • 0 Henk 'm!

Anoniem: 4288

Hey, een Arkua koeler. :D

Acties:
  • 0 Henk 'm!

Anoniem: 78614

Hum, ik zie op die monitor dat ze 3dmark03 draaien... Vindt nVidia dat wel leuk? :)
Verder, heb je er geen soundsamples bij? :)
Ze beweren dat de retailcoolers minder geluid maken... Ik vraag me af of dat waar is. Deze ziet er (op de groen/gele kleur na) hetzelfde uit als die samples van nVidia.

Acties:
  • 0 Henk 'm!

Anoniem: 74065

Topicstarter
Geinige plaatjes, ze beweren idd dat de retailcoolers minder geluid maken, daar had gainward er ook over maar als dat waar is? Tja.. "we will see" Verder is dat ding ja dat ding erg groot. ;)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Jammer dat je er geen geluid bij hoort. >:)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 74065

Topicstarter
CJ schreef op 01 March 2003 @ 01:29:
Jammer dat je er geen geluid bij hoort. >:)
Idd, voor mensen die doof of slechthorend zijn is het een groot voordeel, voor ons ( mij ) goed horende(n) is het weer andersom: nadeel, omdat wij onze oortjes kunnen beschadigen. ;)

Wanneer is dat normale versie eingelijk verkrijgbaar? Ik heb geruchten gehoord dat hij midden Februari komt, maar we zitten nu op 1 Maart. :?

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 10-06 14:15

edward2

Schieten op de beesten

Terratec had er al een paar, bij oc-wear.de

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 77043

Anoniem: 32156 schreef op 28 February 2003 @ 09:30:
http://www.theinquirer.net/?article=8031

NV31 = 2389 3dmark 2003
NV34 = 879

Nou, ik snap nu gelijk waarom nVidia een hekel heeft aan 3dMark2003 ..... Maar denk dat het meer een probleem van nVidia is dan van futuremark.

Wat een doodgeboren videokaart zeg.
tja, als dit alles is wat de fx kan. :?

begrijpt men nu waarom nvidia in december hard weg rende bij futuremark, ze zagen de bui al hangen toen, en hard over nagedacht wat hun volgende strategie zal zijn, weet je wat, we rennen weg, en als 3d mark03 dan uitkomt, zeggen we dat hij niet representatief is, (kunnen de mensen op got er weer een topic over openenen ;) ).
nee zere neus, het is toch eigenlijk ook wat met die fx he, ik zal hem nog niet eens gratis willen hebben (nou, ik heb eigenlijks wel een grasmaaier nodig, wordt weer zomer ;) .)

Acties:
  • 0 Henk 'm!

Anoniem: 23009

Het enige wat ik me echt afvraagt is dit:

Kan de GeForceFX- series eigenlijk wel 3dfx Glide [NV-Blur :?] aan ?

Het staat niet op de nvidia site zelf, ik kon het bewijs van Glide ook nergens vinden in reviews en previews vinden.

Dus ja, waar blijft Glide, want als we geen bewijs daarop hebben, heb ik in ieder geval niets aan deze kaart, ik ben een Voodoo fannaat, en 80% van me oude games bestaan van de Glide API , daarvoor wou ik meer weten over het Glide gedeelte van de FX sieries :7

Acties:
  • 0 Henk 'm!

  • Okyah
  • Registratie: Maart 2002
  • Niet online

Okyah

wespachterrrrrfilm..

Anoniem: 23009 schreef op 01 maart 2003 @ 11:58:
Het enige wat ik me echt afvraagt is dit:

Kan de GeForceFX- series eigenlijk wel 3dfx Glide [NV-Blur :?] aan ?

Het staat niet op de nvidia site zelf, ik kon het bewijs van Glide ook nergens vinden in reviews en previews vinden.

Dus ja, waar blijft Glide, want als we geen bewijs daarop hebben, heb ik in ieder geval niets aan deze kaart, ik ben een Voodoo fannaat, en 80% van me oude games bestaan van de Glide API , daarvoor wou ik meer weten over het Glide gedeelte van de FX sieries :7
Voor zover ik weet zul je dan gewoon met een glide-wrapper aan de slag moeten. Ik heb ieg netis gehoord over t eventueel glide ondersteunen van de FX...
Overigens zou dit wel mogelijk zijn, als nvidia er drivers voor schreef, toch? :)
Ik bedoel, als het met een glide-wrapper werkt, moet het ook in drivers te verwerken zijn, zodat je ook oude spellen weer mooi kan spelen :)

Alone at last
Just nostalgia and I
We were sure to have a blast


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 08:36

SG

SG surft naar info hardewaren

Anoniem: 23009 schreef op 01 March 2003 @ 11:58:
Het enige wat ik me echt afvraagt is dit:

Kan de GeForceFX- series eigenlijk wel 3dfx Glide [NV-Blur :?] aan ?

Het staat niet op de nvidia site zelf, ik kon het bewijs van Glide ook nergens vinden in reviews en previews vinden.

Dus ja, waar blijft Glide, want als we geen bewijs daarop hebben, heb ik in ieder geval niets aan deze kaart, ik ben een Voodoo fannaat, en 80% van me oude games bestaan van de Glide API , daarvoor wou ik meer weten over het Glide gedeelte van de FX sieries :7
Tja als je perse bij de oude glide games wil blijven heb je 'n probleem
als je daarnaast ook nog nieuwe games er tussendoor wil spelen.

Glide is einde oefening alle Gkaart ontwikkelaars maken nu hardware op OpenGL/DirectX basis met T&L en Shaders in gedachten

Glide is dus verleden tijd en de GFX ondersteund dat dus niet native

3Dfx ontwikkelde toen Glide hardware voor hun Glide API

Als je naast je GFX ook glide wil spelen is zo'n wrapper 'n uitkomst als dat er wel is, of Voodoo II SLI add-on erbij zetten

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 10-06 10:45

Pubbert

random gestoord

is de GeForceFX al leverbaar (hebben gotters hem al???)

want als hij over paar weken pas leverbaar is dan heeftie helemaal een probleem (als de r350 dan ook uitkomt)

Ik weet dat de r350 dan aangekondigd word, maar het duurt bij ati nooit zolang voordat hij dan ook echt leverbaar is

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • collission
  • Registratie: Oktober 2001
  • Niet online

collission

I'm back! :P

De ABit OTES III:
Afbeeldingslocatie: http://active-hardware.com/images/nv30-small.jpg
deze vond ik op active hardware, ik weet de specs ervan niet, maar hij ziet er een stuk beter uit dan die standaard versie :)

[ Voor 5% gewijzigd door collission op 01-03-2003 19:12 ]

M'n Pimprig :P | [EiP] Granite Bay | [CiP] Pimp My PC-70 8)


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Sat Mar 1, 2003 10:12:33 pm - Hellbinder says interesting things about the NV35. He says it's 600/500 with a 256-bit memory bus and got 8 *real* pipelines. He also states it will not use Low K, and will thus not be cooler. - Reliability: Medium - Link

Sat Mar 1, 2003 9:59:00 pm - R350 samples clockspeed is 380/340, according to MuFu. Note, however, that this could change: ATI wasn't even sure for the R300 clockspeeds at launch! So no bashing if this isn't correct, please... - Reliability: Fairly High - Link

Sat Mar 1, 2003 9:55:13 pm - The NV31&NV34 are to be launched on the 6th, according to MuFu. Although his source doesn't seem that reliable ;) - Reliability: Medium - Link

Sat Mar 1, 2003 5:12:15 pm - The NV31 initial clockspeed is of 350/275, according to MuFu. He also says the NV31 won't use memory clocked faster than ~275MHz, because the boards don't have active termination to cut costs. - Reliability: High - Link

Information Overload - Sat Mar 1, 2003 5:08:32 pm - The Inquirer gives a lot of a interesting R350 & RV350 information. If this is true, it's quite amazing. 375Mhz for the R350, 350Mhz for the RV350. And a lot of *really* interesting features for both. - Reliability: Medium - Link

Sat Mar 1, 2003 3:55:26 pm - The RV350 is 4x1 & uses a 128-bit DDR-I memory bus, according to MuFu. The Inquirer says it's a 256-bit memory bus, but that seems to be BS. - Reliability: High - Link

Sat Mar 1, 2003 3:52:11 pm - The NV31 does have some software-based shader functionality and the NV34 got a lot of it, according to MuFu. But it'll be transparent to DX9, so the problem is only performance, unlike for the GF4 MX - Reliability: High - Link

Sat Mar 1, 2003 2:58:22 pm - UncleSam DL iXBT said at B3D that the R350 *and* the RV350 ( ! ) pipelines will be more programmable than the R300 pipelines. NV30's programmability advantage will thus be lower than expected. - Reliability: Medium - Link

Sat Mar 1, 2003 1:38:45 pm - MSI is going to sell ATI GPUs as well, instead of just nVidia GPUs. This is an important design win for ATI, since MSI is the world's largest videocard manufacturer. - Reliability: Very High - Link

BREAKING NEWS - Sat Mar 1, 2003 1:22:42 pm - The R400 has been delayed until next year, according to Hellbinder at nV News. He also adds that Ati will release a 9900 Pro later this year based on R350 to keep the performance lead agains the Nv35. - Reliability: High - Link
http://www.notforidiots.com/GPURW.php

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 68311

casemodderpoel schreef op 01 March 2003 @ 19:11:
De ABit OTES III:
[afbeelding]
deze vond ik op active hardware, ik weet de specs ervan niet, maar hij ziet er een stuk beter uit dan die standaard versie :)
W0W! echt mooi :9~

Acties:
  • 0 Henk 'm!

  • T.T.
  • Registratie: April 2000
  • Laatst online: 16-05 12:09

T.T.

Sowieso

Weer eens een GeForceFX review. Niet veel schokkends, maar altijd leuk om even te lezen.
Geforce FX has a rather complicated architecture though. With DirectX9 / PS2.0 compliancy calling for Floating point precision the FX’s PS2.0 shaders will have to execute over its floating point hardware, and in addition to the floating point processors, NVIDIA have also supplied a number of (legacy) integer operators. At present it's thought that these legacy integer operators have the same level of functionality as GeForce4, and hence would not be able to run PS1.4 shaders, so it's possible that they are running PS1.4 code via the floating point hardware. If this is the case then it would seem as though, given clock speed parity, the 5800 is worse at executing PS1.4 shaders over the floating point pipeline than GeForce 4 is running PS1.1 (at integer precision, as GeForce4 has no float support).

[ Voor 4% gewijzigd door T.T. op 03-03-2003 12:47 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 10-06 14:15

edward2

Schieten op de beesten

T.T. schreef op 03 March 2003 @ 12:33:
Weer eens een GeForceFX review. Niet veel schokkends, maar altijd leuk om even te lezen.


[...]
Tss, geen vergelijking met de R9700... :|(
Ik zal binnenkort mijn eigen bevindingen posten

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • T.T.
  • Registratie: April 2000
  • Laatst online: 16-05 12:09

T.T.

Sowieso

edward2 schreef op 03 maart 2003 @ 13:11:
Tss, geen vergelijking met de R9700... :|(
Ik zal binnenkort mijn eigen bevindingen posten
Inderdaad, dat vond ik ook erg slecht. Ze kunnen wel vergelijken met de GF4 4600, maar dat is toch niet de concurrent :/

Acties:
  • 0 Henk 'm!

  • VTec
  • Registratie: Januari 2000
  • Laatst online: 05-06 14:43
edward2 schreef op 03 maart 2003 @ 13:11:
[...]

Tss, geen vergelijking met de R9700... :|(
Ik zal binnenkort mijn eigen bevindingen posten
Id, vond ik ook erg vreemd dat ze niet de ATI er naast hebben gezet :?

Go Through Your Heart Shakra Into Your Cave, And Find Your Power Animal


Acties:
  • 0 Henk 'm!

Anoniem: 28172

VTec schreef op 03 March 2003 @ 14:01:
[...]

Id, vond ik ook erg vreemd dat ze niet de ATI er naast hebben gezet :?
Tja ...
In het forum van Beyond3d loopt een thread waarin wordt gezegt dat ze uitsluitend een test exemplaar kregen indien ze geen 3dmark2003 zouden draaien en niet vergelijken met de 9700Pro .
Ik weet wel niet wat ervan waar is, maar dat van die 3dmark2003 wil ik wel geloven.

edit: Typo's

Acties:
  • 0 Henk 'm!

  • VTec
  • Registratie: Januari 2000
  • Laatst online: 05-06 14:43
Ach, de vergelijking komen vanzelf wel tzt. Na 6 maart misschien ?
On March 6th, NVIDIA will announce newest members of the GeForce FX family (NV31 & NV34)

Go Through Your Heart Shakra Into Your Cave, And Find Your Power Animal


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ja,
NV31 = GF FX 5600
NV34 = GF FX 5200

En van de 5600 komen nog 3 versies 8)7

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 74065

Topicstarter
Hacku schreef op 03 March 2003 @ 15:41:
Ja,
NV31 = GF FX 5600
NV34 = GF FX 5200

En van de 5600 komen nog 3 versies 8)7
Maar toch heeft de NV31 & de NV34 lagere kloksnelheden dan de GeforceFX Ultra, en lopen de kloksnelheden dicht in de buurt van ATI 9700 Pro. Is dit nou een slimme zet van Nvidia? Nee toch? Aangezien de R350 binnenkort releast met mogelijk hogere kloksnelheden en mensen meer vertrouwen krijgt/heeft in ATI. ;)

Acties:
  • 0 Henk 'm!

  • VTec
  • Registratie: Januari 2000
  • Laatst online: 05-06 14:43
Hogere snelheden zijn momenteel (zo lijkt het) niet haalbaar bij de FX. Tzt de NV35 misschien ?

Go Through Your Heart Shakra Into Your Cave, And Find Your Power Animal


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 10-06 14:15

edward2

Schieten op de beesten

Grrrr, weer net naast de pot gepist, de laatste Terrateckaart weer uitverkocht bij oc-wear.de

Ik heb verschillende zaken gemailed en ze worden gek van de aanvragen, toch een populair kaartje zo lijkt het.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • VTec
  • Registratie: Januari 2000
  • Laatst online: 05-06 14:43
Edward: je weet ook zeker dat deze zaken het produkt op voorraad hadden ? Vaak moet ik in dit geval aan een lokkertje denken :)

Onze vrienden van Gayward hebben de FX ook al online staan, btw (voor de verkoop) :)

[ Voor 36% gewijzigd door VTec op 03-03-2003 16:50 ]

Go Through Your Heart Shakra Into Your Cave, And Find Your Power Animal


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 10-06 14:15

edward2

Schieten op de beesten

VTec schreef op 03 maart 2003 @ 16:45:
Edward: je weet ook zeker dat deze zaken het produkt op voorraad hadden ? Vaak moet ik in dit geval aan een lokkertje denken :)
Ik denk het wel, Terratect schijnt 150 kaarten in Europa naar retail kanalen versleept te hebben, volgens diverse bronnen, das atuurlijk een druppels op de ....plaat.
Toch is er voor de goed zoekende wel een te vinden, ik heb ze gezien, maar die leveren niet int . :(

Die gast van oc-wear.de wist te vertellen dat preordenen bij hun voor wat betreft de Terratect Ultra geen zin meer had, omdat het aantal preorders waarschijnlijk het beschikbare aantal overtreft.

[ Voor 12% gewijzigd door edward2 op 03-03-2003 16:56 ]

Niet op voorraad.

Pagina: 1 ... 8 ... 10 Laatste

Dit topic is gesloten.