Toon posts:

[Algemeen] nVidia NV40 / GeForce 6800 Topic! Deel 3. Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 2.193 views sinds 30-01-2008

Acties:
  • 0Henk 'm!

  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 06:56

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
nVidia NV40 / GeForce 6800 Topic! Deel 3

http://www.tweakers.net/ext/i.dsp/1081876688.jpg


Geschiedenis

Het grote NV40/GeForce 6800 topic Deel I
Het grote NV40/GeForce 6800 topic Deel II

Regeltjes

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Ook AMD vs. Intel reacties zijn hier niet welkom!

Informatie


De 222 miljoen transistors tellende chip op 0,13 micron wordt geproduceerd door IBM, en werkt op een kloksnelheid van 400MHz. Het GDDR3-geheugen werkt zoals verwacht op 1,1GHz. Het lijkt erop dat nVidia bij het ontwerpen van deze enorme chip één van de grootste zwakke punten van NV3x recht heeft willen zetten, door extra aandacht te besteden aan de pixel- en vertexshaders.

http://www.tweakers.net/ext/i.dsp/1081875862.jpg


De NV40-core heeft zestien pipelines die per kloktik acht shaderinstructies op een pixel uit kunnen voeren, voor een totale pixelshaderkracht van 128 instructies per kloktik. De NV35 kon met zijn vier pipelines in totaal slechts twaalf instructies per kloktik verwerken. Ook zijn er in NV40 zes vertexshader-units aanwezig als vervanging van het dynamische systeem van NV3x dat het equivalent van twee à drie vertexshader-units aan performance opleverde. De GeForce 6800 is bovendien de eerste met ondersteuning voor pixel- en vertex-shader versie 3.0, waarmee niet alleen sommige bestaande effecten efficiënter gedaan kunnen worden, maar ook nieuwe grafische hoogstandjes mogelijk zijn dankzij de ondersteuning van if-then constructies.

http://www.tweakers.net/ext/i.dsp/1081876224.png
http://www.tweakers.net/ext/i.dsp/1081876838.png


De shaders zijn echter niet het enige punt waar aandacht aan geschonken is. De GeForce 6-series ondersteunt displacement mapping, floating point textures, 16x anti-aliasing, adaptive AF (anisotropic filtering), UltraShadow II (een feature waar met name spellen als Doom 3 van zullen profiteren) en betere compressietechnieken om geheugenbandbreedte te sparen. Verder is het referentiemodel voorzien van uitgebreide mogelijkheden op het gebied van ViVo. Naast twee DVI-poorten vinden we een MPEG-decoder, WMV9-accelerator, NTSC/PAL-decoder en DVD/HDTV-decoder. Dit alles wordt aangestuurd door ForceWare-driver 60.xx.

Een mogelijke domper op het grafische geweld is echter de hoeveelheid vermogen die het apparaat moet opnemen om zijn kunstjes te kunnen doen. Het is zeker dat de kaart twee molex-connectors vereist en er gebruik gemaakt wordt van een koeler met een heatpipe. nVidia wil ons met de persfoto's laten geloven dat het mogelijk is om deze koeling in de bescheiden ruimte van één slot te realiseren, maar de kaarten die het bedrijf aan reviewers heeft gestuurd werden geleverd met een koeler die met gemak een extra PCI-slot in beslag neemt. De reviewers zijn bovendien aangeraden om tenminste een 480 Watt-voeding te gebruiken om de testexemplaren te benchmarken. Of de productiekaarten die uiteindelijk in de winkels terecht zullen komen ook zulke zware eisen aan koeling en voeding stellen is nog even afwachten.

http://www.tweakers.net/ext/i.dsp/1081875782.jpg


http://www.tweakers.net/ext/i.dsp/1081965449.jpg



De GeForce 6800 Ultra verstookt ongeveer 120 Watt wanneer hij volledig belast wordt. De AGP-versie kaart vereist dan ook twee molex-connectors en nVidia raadt het gebruik van een 480 Watt-voeding aan. Er zijn echter al berichten opgedoken die beweren dat het prima werkt met mindere voedingen, zolang deze maar van goede kwaliteit zijn. Het ziet er naar uit dat in ieder geval de eerste kaarten voorzien zullen zijn van een koeler met heatpipe die twee slots in beslag neemt. Reviewers melden dat het ding tot hun verbazing stiller en lichter is dan de beruchte dustbuster van NV30. De snelheid van de fan wordt dynamisch geregeld en komt in een kast met goede airflow niet boven de 'medium' instelling uit, waarin hij naar verluidt nog overstemd wordt door de gemiddelde processorkoeler. Zonder goede airflow zal hij iets meer decibels genereren tijdens het spelen van spellen, maar het is sowieso niet aan te raden om een NV40 aan te schaffen voor een kast die niet goed gekoeld wordt; de warme lucht die van de kaart afkomt kan zonder fatsoenlijke afvoer leiden tot instabiliteit.

Hier een aantal plaatjes van Xbit Labs, welke de koeler heeft ontleed:

http://www.xbitlabs.com/images/video/nv40/nv40_cooler1.jpg
http://www.xbitlabs.com/images/video/nv40/nv40_cooler2.jpg
http://www.xbitlabs.com/images/video/nv40/nv40_cooler3.jpg



Boven op het plaatje een impressie van de grootte van de kaart, vergeleken met een ATI Radeon 9800XT, Hierop zijn ook goed de 2 Molex Connectors te zien.

De Fabrikanten :+


Leadtek

WinFast A400 Ultra TDH MyVIVO on GeForce 6800 Ultra
http://vulcanus.its.tudelft.nl/tt/GoT/a400-1.jpg

http://vulcanus.its.tudelft.nl/tt/GoT/a400-2.jpg


Asus





Let-op, het onderste plaatjeis een Computer animatie van het koelblok van Asus, het pcb is niet degene van de NV40.

Chaintech

http://www.hardware.info/images/news/chaintech-nv40-card.jpg


Chaintech levert haar GeForce 6800 Ultra met het spel Commando's 3 en een speciale overklok utility, zie pic hieronder;

http://www.hardware.info/images/news/chaintech-nv40-oc.jpg


Gainward

Linkje naar Digit Life

Gainward heeft zoals te zien is een watergekoelde kaart geproduceerd. Prijskaartje is wel wat hoger, zown 899€! Géén kattepis dus!

Albatron

http://www.hardware.info/images/news/albatron6800.gif


Voorderest weinig nieuws te melden over deze kaart :+

Links & Reviews


Info:
Officiële Website
Tech Specs
T.net Frontpage
Demo's
Mirror van het demo filmpje Grootte: 20,4 MB

Reviews:
PC Stats De 6800 Ultra vergeleken met zijn broertje, de 5950 Ultra en de 9800XT & X800 XT van ATI!
Tomshardware
FiringSquad
Beyond3D
tecChannel
Hardware Analysis
X-bit labs
Guru3D
ExtremeTech
TechReport
AnandTech
HardOCP (Benchmarks)
HardOCP (Technieken)

Met dank aan de vorige Topicstart van mezelf en Hacku :) !

Met het verzoek van PolleWob om On-Topic te blijven Aub :)


Tips e.d. voor de TS zijn _altijd_ welkom :) !

edit:
Even de TS wat verbeterd en opgeschoond :)

[Voor 27% gewijzigd door MisteRMeesteR op 09-05-2004 12:28]

www.google.nl


Acties:
  • 0Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 24-05 13:10

Fr0zenFlame

LAN 'A Holic

Gaafe openings post ;) :) Nu maar hopen dat de Ultra Extreme versie beetje eerder in de schappen legt dan de meesten verwachten .. :(

GreetZz

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0Henk 'm!

  • Gipsy King
  • Registratie: September 2002
  • Laatst online: 02-06 21:18
van asus , fic,chaintech zijn ook al foto's onilne , onder andere staan ze bij www.hardwareinfo.net , maybe iets voorin je openings post ?

Acties:
  • 0Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 02-06 21:24

Deathchant

Don't intend. Do!

waar staan die foto's? Kep wel gehoord dat de Asus koeler erg goed moet zijn. Lijkt een beetje op de HIS koeler. Maar om nou te claimen dat die 11 graden koeler is t.o.v de standaard koeler.....

Canon: R6 | 16-35 | 70-200 II
Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR


Acties:
  • 0Henk 'm!

  • Gipsy King
  • Registratie: September 2002
  • Laatst online: 02-06 21:18
die kun je zoeken bij hun nieuws...


http://www.hardware.info/nieuws.php?id=3160

http://www.hardware.info/nieuws.php?id=3138

[Voor 59% gewijzigd door Gipsy King op 07-05-2004 18:28]


Acties:
  • 0Henk 'm!

  • biobak
  • Registratie: Augustus 1999
  • Laatst online: 09:35
Dit is een betere foto van de Asus kaart. Tenminste geen computer render:
http://www.gzeasy.com/newsphoto/y2k4/04/15/asus2.jpg

Acties:
  • 0Henk 'm!

  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 06:56

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
biobak schreef op 07 mei 2004 @ 19:07:
Dit is een betere foto van de Asus kaart. Tenminste geen computer render:
http://www.gzeasy.com/newsphoto/y2k4/04/15/asus2.jpg
:>
Gipsy King schreef op 07 mei 2004 @ 17:37:
van asus , fic,chaintech zijn ook al foto's onilne , onder andere staan ze bij www.hardwareinfo.net , maybe iets voorin je openings post ?
:>

www.google.nl


Acties:
  • 0Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 00:49
nette startpost !

Acties:
  • 0Henk 'm!

  • davey s.
  • Registratie: Januari 2004
  • Laatst online: 09:37
Hmmm die Asus zal straks mooi in mijn blauwe kast passen O-) :9~
Jah zeer nette start post _/-\o_

Acties:
  • 0Henk 'm!

  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 06:56

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
davey s. schreef op 07 mei 2004 @ 20:26:
Hmmm die Asus zal straks mooi in mijn blauwe kast passen O-) :9~
Jah zeer nette start post _/-\o_
dank je, over die Asus: ik ben bang dat je _ook al heb je een window_ weinig zal zien/merken van de ledjes in het koelblok, zeker als je ook nog CCFL's in je systeem hebt hangen. Dat neemt natuurlijk niet weg dat het een mooi kaartje is en blijft :P

www.google.nl


Acties:
  • 0Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 24-05 13:10

Fr0zenFlame

LAN 'A Holic

MisteRMeesteR schreef op 07 mei 2004 @ 21:03:
[...]

dank je, over die Asus: ik ben bang dat je _ook al heb je een window_ weinig zal zien/merken van de ledjes in het koelblok, zeker als je ook nog CCFL's in je systeem hebt hangen. Dat neemt natuurlijk niet weg dat het een mooi kaartje is en blijft :P
Klopt, ik had eerst alleen blauwe Neon Fans, maar sinds ik CCFL's heb vallen die amper op.. Maargoed een blauwe led in de 68oo mistaat niet hr ;)

GreetZz

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0Henk 'm!

Anoniem: 99613

Shit.. Net een 5900 XT gekocht.. Die kaart ten opzichte van 6800 Ultra dus nu net een verschil als GeForce 2 MX t.o. van GeForce FX 5950 Ultra.. :-( Het houdt niet op met die dingen hè!!

ontopic:
Hoe lang moet ik wachten tot zo'n juweeltje nou lekker rond de 200 € kost?? :+ Tot ik een ons weeg? :P In ieder geval, ik ben student dus errug huiverig om direct grote investeringen te maken.. :'( Maybe moet ik wachten tot ik volgend jaar eens een AMD-64 systeempje samenstel met een nVidia kaartje dat ook daadwerkelijk native PCI-express ondersteunt en niet met een vervelende bridge-chip.. |:( Ik ben anti-ATI omdat veel mensen zo vervelend overdreven pro-ATI doen :( , en ik heb altijd prima ervaringen met nVidia gehad.. Ook mijn Point of View kaartje van nu, om op te knuffelen!! O+ Ik zie al enkele signatures hierboven waar in staat dat ze bijv. de Asus 6800 Ultra hebben.. In Duitsland gekocht of gewoon wishful thinking?? :+

Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Die Asuskaart is een plaatje, in m'n "tuinkas" zal die wel mooi staan. Ik ben er nog niet uit wat ik wil. 32x0 in Doom3 is ook wel lekker ;)

Niet op voorraad.


Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
edward2 schreef op 08 mei 2004 @ 01:40:
Die Asuskaart is een plaatje, in m'n "tuinkas" zal die wel mooi staan. Ik ben er nog niet uit wat ik wil. 32x0 in Doom3 is ook wel lekker ;)
Ach die 32x0 zegt ook niet zo veel meer in Doom3, vooral nu ATi ook 32 Z/Stencil ops per clock aankan... ;)

Ok, het is dan wel alleen wanneer AA aanstaat, maar ik denk dat veel mensen toch Doom3 met AA aan willen spelen. Dus dan is de throughput van ATi gelijk aan die van nVidia. (8>

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

CJ schreef op 08 mei 2004 @ 01:57:
[...]


Ach die 32x0 zegt ook niet zo veel meer in Doom3, vooral nu ATi ook 32 Z/Stencil ops per clock aankan... ;)

Ok, het is dan wel alleen wanneer AA aanstaat, maar ik denk dat veel mensen toch Doom3 met AA aan willen spelen. Dus dan is de throughput van ATi gelijk aan die van nVidia. (8>
Heb jij al een keuze gemaakt, of ben je niet van plan één van deze kaarten te kopen?

De X800XT PE ligt voor de hand right now, maar ik vraag me nog steeds af wat de 6800 zal doen een paar drivers verder, de efficientie is soms gruwelijk hoog, alleen de AF is trager en de shadercompiler nog erg "ruw".

Niet op voorraad.


Acties:
  • 0Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:40
Anoniem: 99613 schreef op 08 mei 2004 @ 01:23:
Shit.. Net een 5900 XT gekocht.. Die kaart ten opzichte van 6800 Ultra dus nu net een verschil als GeForce 2 MX t.o. van GeForce FX 5950 Ultra.. :-( Het houdt niet op met die dingen hè!!
Nou ik denk dat je tevreden kan zijn hoor met je XT, tuurlijk is de 6800Ultra wel even beter, maar kijk eens naar het prijsverschil. Het verschil Xt - 6800U is veel kleiner dant Xt-2MX,ook 't verschil in features is veel kleiner.
ontopic:
Hoe lang moet ik wachten tot zo'n juweeltje nou lekker rond de 200 € kost?? :+ Tot ik een ons weeg? :P
De Ultra? Minimaal ruim een jaar, waarschijnlijker stukkie langer. Maar als je niet persee het beste van het beste hoeft, kan je voor de 6800 gaan, adviesprijs 300$, de specs zijn al min of meer bevestigd: 325Mhz, 700DDR, 12 pipes, Een OEM heeft al gezegd dat die kaart een leuk stukje sneller wordt dan de 5950, en dat voor minder dan 300€ denk ik.

Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Ik weet het nog niet helemaal zeker, maar neig nog steeds heel erg naar ATi. :|

Aan de ene kant is de GF6800 GT heel erg interessant, vooral door de prijs/prestatie verhouding en het grote overklokpotentieel. Maar als ik dan weer kijk naar de prestaties bij hoge IQ instellingen, het stroomverbruik en wie de meeste DX9 benchmarks wint, dan vind ik de GF6800-serie absoluut niet interessant in vergelijking met een X800XT PE.

Als ik dan kijk naar featuresets, dan doet SM3.0 me niet zo heel erg veel, vooral nu we uit alle developerhoeken zo'n beetje bevestigd krijgen dat SM3.0 voornamelijk alleen voor performanceverbetering 'kan' zorgen (met de nadruk op 'kan'), en niet echt voor een IQ verbetering zorgt, tenminste niet in het komende jaar. Dan vind ik een feature als Temporal AA toch interessanter.

3Dc is ook best interessant voor mij. Waarom? Vooral omdat toch minimaal 3 grote game-engines dit ondersteunent, namelijk de Cry Engine, Serious Sam 2 engine en Source Engine. En er zullen toch redelijk wat games uitkomen die gebaseerd zijn op deze engines... Far Cry ondersteunt het zelfs al, maar dus ook bv HL2 en de nieuwe Vampire game gaan intensief 3Dc gebruiken... Tel daarbij op dat Tribes Vengeance O+ ook gebruik maakt van 3Dc en dat Doom3 ook veel gebruik maakt van normal maps... Het is heel gemakkelijk om 3Dc support in te bakken, en als ID besluit om 3Dc te ondersteunen, dan kan dit wel eens het performanceverschil tussen ATi en nVidia opheffen.

En het feit dat er nieuwe OpenGL drivers voor ATi aankomen + compleet nieuwe shadercompilers door een ingehuurd team dat zich echt specialiseert op het gebied van compilen... en dan slaat de boel toch wel uit naar een X800XT.

Maar ik denk dat het er uiteindelijk op neer komt dat ik eerst nog de kat uit de boom kijk en om te zien hoe de drivers zich ontwikkelen van beide fabrikanten. :7

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Ik ben anti-ATI omdat veel mensen zo vervelend overdreven pro-ATI doen
Hmm, eigenaardig...

Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

CJ schreef op 08 mei 2004 @ 02:53:
Ik weet het nog niet helemaal zeker, maar neig nog steeds heel erg naar ATi. :|

Aan de ene kant is de GF6800 GT heel erg interessant, vooral door de prijs/prestatie verhouding en het grote overklokpotentieel. Maar als ik dan weer kijk naar de prestaties bij hoge IQ instellingen, het stroomverbruik en wie de meeste DX9 benchmarks wint, dan vind ik de GF6800-serie absoluut niet interessant in vergelijking met een X800XT PE.

Als ik dan kijk naar featuresets, dan doet SM3.0 me niet zo heel erg veel, vooral nu we uit alle developerhoeken zo'n beetje bevestigd krijgen dat SM3.0 voornamelijk alleen voor performanceverbetering 'kan' zorgen (met de nadruk op 'kan'), en niet echt voor een IQ verbetering zorgt, tenminste niet in het komende jaar. Dan vind ik een feature als Temporal AA toch interessanter.

3Dc is ook best interessant voor mij. Waarom? Vooral omdat toch minimaal 3 grote game-engines dit ondersteunent, namelijk de Cry Engine, Serious Sam 2 engine en Source Engine. En er zullen toch redelijk wat games uitkomen die gebaseerd zijn op deze engines... Far Cry ondersteunt het zelfs al, maar dus ook bv HL2 en de nieuwe Vampire game gaan intensief 3Dc gebruiken... Tel daarbij op dat Tribes Vengeance O+ ook gebruik maakt van 3Dc en dat Doom3 ook veel gebruik maakt van normal maps... Het is heel gemakkelijk om 3Dc support in te bakken, en als ID besluit om 3Dc te ondersteunen, dan kan dit wel eens het performanceverschil tussen ATi en nVidia opheffen.

En het feit dat er nieuwe OpenGL drivers voor ATi aankomen + compleet nieuwe shadercompilers door een ingehuurd team dat zich echt specialiseert op het gebied van compilen... en dan slaat de boel toch wel uit naar een X800XT.

Maar ik denk dat het er uiteindelijk op neer komt dat ik eerst nog de kat uit de boom kijk en om te zien hoe de drivers zich ontwikkelen van beide fabrikanten. :7
Mooie samenvatting van relevante afwegingsopties. Ik denk er zo ook over.

Ik ben ook nog steds huiverig dat nVidia gaat snijden in de precisie als ze ATI niet kunnen bijhouden en dat wil ik niet. Ik hoef niet persé de snelste te hebben (tenzij het echt veel scheelt), maar het IQ is heilig.

Ik denk ook dat 3Dc meer IQ toevoegt dan 32 bits fp bv., zie het HL2 verhaal.

Ik heb ook nog even de tijd, maar de kans is groot dat de XT PE het wordt, tegen de tijd dat SM3 een rol gaat spelen ben ik al weer 1 of 2 kaarten verder ;)

Iig vind ik de 6800 ook een heel interessante chip, maar ze moeten op bepaalde fronten (AF) en bepaalde shaders, nog een hoop goedmaken.
Als de AF van de gf6800 niet adaptive (hoekafhankelijk)was, dan was ik misschien voor de 6800U gezwicht.

[Voor 7% gewijzigd door edward2 op 08-05-2004 03:13]

Niet op voorraad.


Acties:
  • 0Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:40
CJ schreef op 08 mei 2004 @ 02:53:

Als ik dan kijk naar featuresets, dan doet SM3.0 me niet zo heel erg veel, vooral nu we uit alle developerhoeken zo'n beetje bevestigd krijgen dat SM3.0 voornamelijk alleen voor performanceverbetering 'kan' zorgen (met de nadruk op 'kan'), en niet echt voor een IQ verbetering zorgt, tenminste niet in het komende jaar. Dan vind ik een feature als Temporal AA toch interessanter.
SM3.0 is bij mij ook geen doorslaggevende factor, maarja je weet niet of het misschien toch binnen een jaar fikse toepassing gaat vinden, en aangezien ik mininmaal 1.5 jaar met zo een kaart wil doen. Ik vind Temp. AA juist weer minder interessant, omdat het nadeel van die 60fps grens me stoort, en ik sowieso wel tevreden ben met 4xAA.
3Dc is ook best interessant voor mij. Waarom? Vooral omdat toch minimaal 3 grote game-engines dit ondersteunent, namelijk de Cry Engine, Serious Sam 2 engine en Source Engine. En er zullen toch redelijk wat games uitkomen die gebaseerd zijn op deze engines... Far Cry ondersteunt het zelfs al, maar dus ook bv HL2 en de nieuwe Vampire game gaan intensief 3Dc gebruiken... Tel daarbij op dat Tribes Vengeance O+ ook gebruik maakt van 3Dc en dat Doom3 ook veel gebruik maakt van normal maps... Het is heel gemakkelijk om 3Dc support in te bakken, en als ID besluit om 3Dc te ondersteunen, dan kan dit wel eens het performanceverschil tussen ATi en nVidia opheffen.
Beetje zelfde verhaal als SM3.0, gaat het aanslaan? En zal er voor de nV40 een aanvaardbaar alternatief zijn...ik las dat het ook schijnt te kunnen met een andere mindere goede techniek als je geen 3Dc hebt ingebouwd. Waar las je dat Far Cry het al gebruikt?
edward2 schreef op 08 mei 2004 @ 03:02:
[...]
Ik ben ook nog steds huiverig dat nVidia gaat snijden in de precisie als ze ATI niet kunnen bijhouden en dat wil ik niet. Ik hoef niet persé de snelste te hebben (tenzij het echt veel scheelt), maar het IQ is heilig.
Idem hiero.
Ik heb ook nog even de tijd, maar de kans is groot dat de XT PE het wordt, tegen de tijd dat SM3 een rol gaat spelen ben ik al weer 1 of 2 kaarten verder ;)
tJa ik zal dan ook wel op het punt van vervanging zitten, alhoewel.... Waar ik wel aan twijfel is dat iedereen zo hard roept dat niks in de prachtige nV40 architectuur ooit terug zou kunnen zien in games(en als dat wel zo is, kan Ati het ook zegt men). HardOCP noemde er al 1, real displacement mapping, een VS3.0 eigenschap, iets wat de 800 gewoon niet heeft tegen alle verwachtingen in.
Iig vind ik de 6800 ook een heel interessante chip, maar ze moeten op bepaalde fronten (AF) en bepaalde shaders, nog een hoop goedmaken.
Als de AF van de gf6800 niet adaptive (hoekafhankelijk)was, dan was ik misschien voor de 6800U gezwicht.
nVidia gebruikt een zwaardere vorm van AF he dan Ati, Ati doet alleen het 1e level full filtering ALS er via de Ati controlpanel wordt aangezet. http://www.beyond3d.com/r...0_x800/index.php?p=13#tex

Wat ik zelf kies ben ik ook nog helemaal niet uit. Mijn psychologische grens ligt op 375€, maar als ik kijk dat ik een casual gamer ben is dat nog best veel (maarja de techniek vind ik leuk). Bij Ati weet je gewoon dat het wel goed zit, maar de GT is gewoon naar Ultra te krijgen, de Pro niet naar Xt.
Misschien kies ik wel voor de 6800 (NU) ALS die met 2.2ns geheugenmodules geleverd gaat worden bij sommige merken, want de GPU verwacht ik naar >400 te krijgen, en met 2.2ns kom je sowieso tot 900 memory.

Acties:
  • 0Henk 'm!

  • Gipsy King
  • Registratie: September 2002
  • Laatst online: 02-06 21:18
ik zat net rond te snuffelen , de 6800ultra is al in 4 smaken verkrijgbaar bij alternate.de www.alternate.de , prijzen varieren van 529 tot 599

de gewone 6800 kost er 399euro :)

Acties:
  • 0Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:40
399 voor een 6800 is veel (het is geen GT), maar ik zie dat het Gainward is, altijd duurder. 529 voor een ultra is mooi.

Acties:
  • 0Henk 'm!

  • T.T.
  • Registratie: April 2000
  • Laatst online: 08-05 16:08

T.T.

Sowieso

Gipsy King schreef op 08 mei 2004 @ 10:11:
ik zat net rond te snuffelen , de 6800ultra is al in 4 smaken verkrijgbaar bij alternate.de www.alternate.de , prijzen varieren van 529 tot 599

de gewone 6800 kost er 399euro :)
De prijzen tussen de Nederlandse en de Duitse Alternate schelen echter nogal wat:

nl:
Club3D Radeon 9800XT = 459 euro
Asus V9980 Ultra/TVD = 409 euro
Sapphire Atlantis Radeon 9800XT = 509 euro

de:
Club3D Radeon 9800XT = 379 euro
Asus V9980 Ultra/TVD = 389 euro
Sapphire Atlantis Radeon 9800XT = 479 euro


De prijzen van deze kaarten zullen nu wel onder druk komen staan. Ik kan me niet voorstellen dat iemand deze kaarten voor dergelijke prijzen nu nog zal kopen.

Acties:
  • 0Henk 'm!

  • Gipsy King
  • Registratie: September 2002
  • Laatst online: 02-06 21:18
hier nog wat kaartjes :

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8331.JPG

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8290.JPG

http://vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8314.JPG

http://www.provisionaustralia.com.au/Icons/6800U_set.jpg

;)

Acties:
  • 0Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:40
Op de Aopen site is de Ultra in de catalogus verschenen http://www.aopen.nl/products/vga/#nVIDIAGeForce6800-Ultra

Wel humor, staat bij : ◊ Optimized DirectX and OpenGL acceleration
goh, optimalisaties, waar doet me dat aan denken. >:)

Acties:
  • 0Henk 'm!

  • Dirk J
  • Registratie: December 2000
  • Laatst online: 20-05 08:45
Op het moment heb ik eigenlijk heel hard een nieuwe videokaart nodig, ik heb nu nog een Matrox G550 :X (rest van m'n systeem is wel up-to-date ;) ).

Ik dacht er aan om nu een FX5900 XT te kopen maar is het met de komst van de 6800 niet verstandig om even te wachten tot de prijs zakt? Hoe lang gaat dit ongeveer duren?

Acties:
  • 0Henk 'm!

  • Anoniem: 19844
  • Registratie: Januari 2001
  • Niet online
Ja ik vraag me wel af wanneer die geforce 6800 ultra dingen nou echt daadwerkelijk verkrijgbaar zijn.
ik zit de upgrade van mijn systeem uit te stellen tot wanneer de geforce 6800 ultra uit komt.
denk AMD 3000+ met 1024 mb pc4000 500mhz kingston memory
nforce 250 moederboard of die nieuwe via K800PRO ofzoiets
gaat me om die agp/pci lock :P
met zulk geheugen tja dat word overklocken ;)
maarja mijn plannen moeten nog wachten :( KLOTE GEFORCE 6800 ULTRA
hij mag van mij nu wel uit zijn.
zijn er trouwens al datums bekend?
hoorde ergens eind mei maarja kon ook weer juli zijn :S
anybody got a idea / fact over de officiele release datum in de winkels?

Acties:
  • 0Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 00:49
Sjah schreef op 08 mei 2004 @ 10:46:


Wel humor, staat bij : ◊ Optimized DirectX and OpenGL acceleration
goh, optimalisaties, waar doet me dat aan denken. >:)
whoh, wat ben jij grappig zeg :Z

Acties:
  • 0Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:40
Nee, het was inderdaad geen bijzonder sterke. ;)

Acties:
  • 0Henk 'm!

  • DeSire
  • Registratie: Oktober 2002
  • Laatst online: 08-05 07:12
Dirk J schreef op 08 mei 2004 @ 15:41:
Op het moment heb ik eigenlijk heel hard een nieuwe videokaart nodig, ik heb nu nog een Matrox G550 :X (rest van m'n systeem is wel up-to-date ;) ).

Ik dacht er aan om nu een FX5900 XT te kopen maar is het met de komst van de 6800 niet verstandig om even te wachten tot de prijs zakt? Hoe lang gaat dit ongeveer duren?
Die gaat niet zo veel zakken denk ik, want hij gaat binnekort uit te schappen omdat hij een concurrent van de 9600xt was. Dus ik denk dat als je die 5900xt wilt halen, je die nu zou moeten halen.

[Voor 4% gewijzigd door DeSire op 08-05-2004 17:55]


Acties:
  • 0Henk 'm!

Anoniem: 99613

Dirk J schreef op 08 mei 2004 @ 15:41:
Op het moment heb ik eigenlijk heel hard een nieuwe videokaart nodig, ik heb nu nog een Matrox G550 :X (rest van m'n systeem is wel up-to-date ;) ).

Ik dacht er aan om nu een FX5900 XT te kopen maar is het met de komst van de 6800 niet verstandig om even te wachten tot de prijs zakt? Hoe lang gaat dit ongeveer duren?
Een FX 5900 XT is een mooi kaartje, heerlijk overklokbaar (je weet dat de XT een afgeknepen 5900 is, maar dat boeit niet, met enig werk heb je hem zo @ ultra speeds >:) ), en ook al zit ik watertandend te kijken naar het mooie wat ATi en nVidia ten toon hebben gesteld, ik heb er voorlopig vrede meeh. Vooral na wat ik mede-tweakers heb horen zeggen, dat de feature-verschillen niet denderend groot zijn. 8) Jammer genoeg gaat die XT dus inderdaad binnenkort eruit, valt te merken ook.. Ooit gekocht bij memoryplus @ 170 € en nu alweer 190 € bij dezelfde zaak.. ALS je besluit zo'n XTtje te kopen dan zijn Point of View en Leadtek wel aan te raden.. Veel plezier!!

Acties:
  • 0Henk 'm!

  • Tyrian
  • Registratie: Maart 2001
  • Niet online

Tyrian

It's Unreal.

Ik mis de kaarten in de pricewatch

http://www.hypercoop.tk | GW user page | GW2 user page

Specs


Acties:
  • 0Henk 'm!

  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Als je naar www.alternate.nl surft zie je rechts onderin het plaatje
van de Nvidia zeemeermin. :) Daaronder zit onderstaande link:

http://www.alternate.nl/h...orce6800/geforce6800.html

Ik heb de link even hier neergegooid omdat je het plaatje niet iedere keer te zien krijgt als je alternate.nl bezoekt, de plaatjes wisselen.

Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
PCStats heeft een leuke review online gezet van de GeForce 6800 Ultra. In de review wordt de kaart met een 9800XT, FX5950U en X800XT PE vergeleken.
So, although nVidia has clearly taken strides to improve upon its previous architecture, and while it holds Shader Model 3.0 and FP32 precision over ATI's head, the nVidia GeForce 6800 Ultra fell just short of ATI's Radeon X800 XT video card in most of the benchmarks we've shown you - especially at higher resolutions with all the eye candy turned on. For luscious gaming, with killer image quality at the highest resolutions, it's clear that the Geforce FX 5950 Ultra has been significantly surpassed by the new Geforce 6800 Ultra. The differences between the nVidia Geforce 6800 Ultra and the ATI Radeon X800 XT are closer, but it is apparent that nVidia's NV40 still has some catching up to do!
Lees de volledige review hier: http://www.pcstats.com/articleview.cfm?articleID=1578

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 00:49
idd, leuke en duidelijke test.

Acties:
  • 0Henk 'm!

  • Anoniem: 62850
  • Registratie: Augustus 2002
  • Niet online
Ik heb nog geen review gezien waarbij de oudere videokaarten als de TI4200 of de TI500 worden vergeleken.Zou wel handig zijn wat de boost zal zijn met de wat ''oudere'' kaarten.

Acties:
  • 0Henk 'm!

  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 06:56

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
Anoniem: 62850 schreef op 09 mei 2004 @ 08:50:
Ik heb nog geen review gezien waarbij de oudere videokaarten als de TI4200 of de TI500 worden vergeleken.Zou wel handig zijn wat de boost zal zijn met de wat ''oudere'' kaarten.
Tsja, zo kan je bezig blijven.. Zelfde als mijn Pa, die nu een celeron 500 heeft, en die gaat upgraden naar AMD XP 2500+.. daar zijn toch ook geen reviews van.. zo kan men wel bezig blijven met reviewen...

www.google.nl


Acties:
  • 0Henk 'm!

  • BvK P4
  • Registratie: November 2003
  • Laatst online: 25-03-2017
Denk wel dat NVidia de winnaar was geweest als zij dezelfde core speed hadden gehad als ATI, namelijk 520MHz. Nu doet hij z'n werk op 400MHz. Dat zie je ook wel vaker, als je de core aardig ver overclockt zijn de prestaties ook vaak veel beter. Het geheugen maakt niet zoveel uit.

laptopleasing.nl - complete IT-werkplekken


Acties:
  • 0Henk 'm!

  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 06:56

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
BvK P4 schreef op 09 mei 2004 @ 12:44:
Denk wel dat NVidia de winnaar was geweest als zij dezelfde core speed hadden gehad als ATI, namelijk 520MHz. Nu doet hij z'n werk op 400MHz. Dat zie je ook wel vaker, als je de core aardig ver overclockt zijn de prestaties ook vaak veel beter. Het geheugen maakt niet zoveel uit.
tsja, dat is appels met peren vergelijken, de architecturen zijn totaal anders.. als je een p4 op 3GHZ en een AMD FX op 2,2GHZ naast elkaar ligt, wint de AMD het.. (kun je nagaan als de AMD ook op 3GHZ draait) terwijl hij een lagere kloksnelheid heeft, maar de architectuur is TOTAAL anders! kloksnelheid zegt niet zoveel.. ook al denk 80% van de consument dat helaas wel.. :+

www.google.nl


Acties:
  • 0Henk 'm!

  • BvK P4
  • Registratie: November 2003
  • Laatst online: 25-03-2017
Dat ben ik ook wel met je eens! Maar ze hebben beiden 16 pipelines enzenz...dus ik had wel een review willen zien waar beiden op dezelfde snelheid zouden lopen. Dus dat ze de ATI even onderclockten naar 400MHz. Daar had ik echt graag een review van gezien aangezien de core speed toch aardig meespeeld...

laptopleasing.nl - complete IT-werkplekken


Acties:
  • 0Henk 'm!

  • Hertog_Martin
  • Registratie: Juli 2002
  • Laatst online: 09:57
Wat dacht Leadtek.. de sample kaart heeft toch al 2 pci sloten nodig dus laten we hem nog maar even groter maken? :)

Acties:
  • 0Henk 'm!

  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 06:56

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
Hertog_Martin schreef op 09 mei 2004 @ 13:12:
Wat dacht Leadtek.. de sample kaart heeft toch al 2 pci sloten nodig dus laten we hem nog maar even groter maken? :)
heheh ja :P herinner je je de heatsink op de Ti4400/Ti4600 van Leadtek nog ;) was ook zown inmens groot ding. Handig voor bij het verkooppraatje.

www.google.nl


Acties:
  • 0Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 09:50
Anoniem: 62850 schreef op 09 mei 2004 @ 08:50:
Ik heb nog geen review gezien waarbij de oudere videokaarten als de TI4200 of de TI500 worden vergeleken.Zou wel handig zijn wat de boost zal zijn met de wat ''oudere'' kaarten.
Tom's Hardware had een tijdje terug een giga-vergelijking van videokaarten. Gemiddeld is een 9800XT twee keer zo snel als een Ti4200 dus een 6800U/X800XT is minstens vier keer zo snel als een Ti4200.
Een Ti500 is niet eens zoveel langzamer dan een Ti4200, dus een 6800U/X800XT zal misschien wel vijf keer zo snel zijn als de Ti500.

VGA Charts - Part III

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


Acties:
  • 0Henk 'm!

  • Maku
  • Registratie: Februari 2001
  • Laatst online: 03-04 13:02

Maku

Derp

Dirk J schreef op 08 mei 2004 @ 15:41:
Op het moment heb ik eigenlijk heel hard een nieuwe videokaart nodig, ik heb nu nog een Matrox G550 :X (rest van m'n systeem is wel up-to-date ;) ).

Ik dacht er aan om nu een FX5900 XT te kopen maar is het met de komst van de 6800 niet verstandig om even te wachten tot de prijs zakt? Hoe lang gaat dit ongeveer duren?
Dat valt nog mee ik heb hier een gf2 mx 200 met een lanparty met bh5 en een athlon mobile op waterkoeling 8)7

Release datum X800XT was toch begin juni ?

Acties:
  • 0Henk 'm!

  • DeSire
  • Registratie: Oktober 2002
  • Laatst online: 08-05 07:12
Anoniem: 99613 schreef op 08 mei 2004 @ 18:59:
[...]

Een FX 5900 XT is een mooi kaartje, heerlijk overklokbaar (je weet dat de XT een afgeknepen 5900 is, maar dat boeit niet, met enig werk heb je hem zo @ ultra speeds >:) ), en ook al zit ik watertandend te kijken naar het mooie wat ATi en nVidia ten toon hebben gesteld, ik heb er voorlopig vrede meeh. Vooral na wat ik mede-tweakers heb horen zeggen, dat de feature-verschillen niet denderend groot zijn. 8) Jammer genoeg gaat die XT dus inderdaad binnenkort eruit, valt te merken ook.. Ooit gekocht bij memoryplus @ 170 € en nu alweer 190 € bij dezelfde zaak.. ALS je besluit zo'n XTtje te kopen dan zijn Point of View en Leadtek wel aan te raden.. Veel plezier!!
Die 5900 (non ultra) is ook 170 euro, dus nog iets goedkoper dna de xt atm :P
pricewatch: Leadtek GeForce FX5900 128MB = 172 euro en van leadtek

[Voor 5% gewijzigd door DeSire op 09-05-2004 17:14]


Acties:
  • 0Henk 'm!

  • biobak
  • Registratie: Augustus 1999
  • Laatst online: 09:35
DeSire schreef op 09 mei 2004 @ 17:12:
[...]


Die 5900 (non ultra) is ook 170 euro, dus nog iets goedkoper dna de xt atm :P
pricewatch: Leadtek GeForce FX5900 128MB = 172 euro en van leadtek
Grote kans dat het gaat om de LX versie van de Leadtek 5900. Die heeft 2,8 ns geheugen, maar wel de 5900 chip.

Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Het begint er op te lijken dat NV40 maar een kort leven beschoren is (net zoals NV30) en dat nVidia er nu alles aan doet om NV45 gereed te krijgen, aangezien de X800XT het in de meeste moderne games benchmarks wint.

Het schijnt dat deze al de tape-out heeft bereikt en dat de eerste samples nu richting fabrikanten gaan. Verkrijgbaarheid zou dan aan het begin van het derde kwartaal moeten zijn, wat dus Juli is...

Mij lijkt het me dat de fabrikanten er niet echt blij mee zullen zijn, aangezien die net hun GF6800U promotiecampagne hebben opgezet en dit binnenkort alweer kunnen aanpassen aan de GF6900U.
NV45
Bus interface: PCI-E 16x
Memory width: 256 bit
PCB: P211
Performance: 3x 5950U (same roadmap says 2x 5950 for NV40U)
Sample Availability: April/May
Retail Availability: Early Q3

NV41
Bus interface: PCI-E 16x
Memory width: 256 bit
PCB: P260
Performance: 2x 5950U
Sample Availability: May
Retail Availability: Early Q3

NV43
Bus interface: PCI-E 16x
Memory width: 128 bit
PCB: P216, P229 and P228
Performance: 2x 5700U
Sample Availability: June
Retail Availability: Mid Q3

NV44
Bus interface: PCI-E 16x
Memory width: 64 bit
PCB: P261 and P280
Performance: 3x 5500
Sample Availability: August
Retail Availability: Mid Q3
Bron: http://www.beyond3d.com/f...=0&postorder=asc&start=40

Het vreemde is echter dat NV40-performance op 2x 5950 wordt geschaald en dat NV41 ook op 2x 5950u wordt gezet. Dit lijkt er dan op dat NV41 een PCI Express versie is van NV40, terwijl ik altijd er van uit ging dat nVidia met een NV40 + PCI-E Bridge zou komen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 09:50
Dan hoop ik dat die samples hun weg naar de benchmarks snel zullen vinden en dat de 6800 na de nv45-launch weer een tikkie goedkoper wordt.
Toch vreemd als ze zó snel een nieuwe chip neerzetten, ze zullen dan ook wel niet erg veel 6800's maken. Wordt weer een Collecter's Item :)

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


Acties:
  • 0Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:40
Mmm, 3x ipv 2x, hoe willen ze dat bereiken? 24 pipes en 1.4DDR? Op zich is de nV40 goed genoeg om er verder op te bouwen, net zoals de R300 goed genoeg was om een tijd op voort te borduren. Als dit waar is zou nVidia Ati een mep in het gezicht verkopen van heb ik jouw daar, tot de R5x0 arriveert.
Nouja ik ga er niet meer op wachten iig.

Acties:
  • 0Henk 'm!

  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Ik begin een beetje het idee te krijgen dat ATI en Nvidia meer met elkaar bezig zijn (lees; oorlogvoeren om de snelste kaart) dan dat ze moeite doen om de kaartjes voor ons in de shops te krijgen. Er is nog geen Tweakert die ook maar kwijlend naar de doos van een 6800ultra heeft mogen kijken behalve dan op foto's, laat staan er één in z'n handen gehad te hebben, en er wordt nu al gesproken over een nieuwe kaart.
Ati's X800XT zou in eerste instantie 21 mei beschikbaar zijn, maar dit is ook al uitgesteld. Zou dit verband houden met "de bedreiging" 6900Ultra? (oftewel, ATI slaat de X800XT over en komt met de X900XT om Nvidia nógmaals te snel af te zijn :+ )
Nog ff en er komt dit jaar helemáál geen nieuwe videokaart uit, behalve op papier. Ondertussen jeukt het pc-privé geld in m'n zak. :) ATI of Nvidia, het maakt me ondertussen geen flikker meer uit wie, maar kom in godsnaam eens met een kaart in de Nederlandse shop. :P :)

[Voor 58% gewijzigd door Anoniem: 38733 op 10-05-2004 00:28]


Acties:
  • 0Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 31-05 18:39
ach ik denk die dingen met dat de X800 in de winkels ligt de dag dat de reviews uitkomen is ook onzin geweest.
ze brengen gewoon kaart na kaart uit zonder ze in de winkels te zetten.


wel spijtig dat de 6800GT geen echt leven krijgt.
had er graag eentje gehad.
de shaders van Nvidia zien er goed uit nu de snelheid nog wat hoger.

Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Sjah schreef op 09 mei 2004 @ 23:58:
Als dit waar is zou nVidia Ati een mep in het gezicht verkopen van heb ik jouw daar, tot de R5x0 arriveert. Nouja ik ga er niet meer op wachten iig.
Pssst... R480 komt ook nog dit jaar.... heb ik gehoord... :/ dus zo'n harde mep zal het niet zijn... :7

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online
Goh, verdient nVidia nog wel op die top-end kaarten als de 6800 zo snel alweer afgeschreven wordt?

Acties:
  • 0Henk 'm!

Anoniem: 93354

ati en nvidia zullen allebei niet zoveel winst maken op die paar high end game kaarten die ze aan de tweakertjes verkopen. De echte winst zit in de mid/low end markt want alle kaartjes in dell pc's zijn allemaal mid of low end en daar worden er natuurlijk veel meer van verkocht dan van die 'enkeling' die persee het niewste van het niewste wil ;)

Maar ik denk dat nvidia wel moet gaan oppassen want mij lijkt ati nu een logischere keus voor systeem bouwers omdat die kaarten minder stroom verbruiken, koeler zijn (dus stiller) en een betere beeldkwaliteit hebben.

Acties:
  • 0Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 31-05 18:39
dat met ATI betere beeldkwaliteit valt te betwisten, meerdere reviewers hebben toegegeven dat Nvidia flink vooruit gegaan si en minimaal even goed is als ATI (afgezien van een paar bugs).
ATI won de meeste reviews vanwege temp FSAA.

en systeem bouwers hebben vaak contracten met leveranciers.
laten we het zo zien iedereen weet hoe warm de Prescot word en toch blijft Dell bij hun.

Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Bigbot schreef op 10 mei 2004 @ 11:13:
en systeem bouwers hebben vaak contracten met leveranciers.
laten we het zo zien iedereen weet hoe warm de Prescot word en toch blijft Dell bij hun.
Je vergeet alleen iets.... ATi stelde hun stroomverbruik af op de eisen van Dell ten tijde van de 9800XT. Dit kaartje viel toen net binnen de grenzen, vandaar dat Dell overstapte op ATi en alleen maar 9800Pro/XT kaarten in hun topmodellen stopte.

De X800 verbruikt nog eens minder stroom dan de 9800XT, dus voor systeembouwers als Dell blijft er dan maar 1 keuze over. En laat Dell nou net de grootste afnemer zijn... da's toch wel een strop voor nVidia als ze hun stroomverbruik niet naar beneden weten te krijgen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 02-06 21:24

Deathchant

Don't intend. Do!

Bigbot schreef op 10 mei 2004 @ 11:13:
dat met ATI betere beeldkwaliteit valt te betwisten, meerdere reviewers hebben toegegeven dat Nvidia flink vooruit gegaan si en minimaal even goed is als ATI (afgezien van een paar bugs).
ATI won de meeste reviews vanwege temp FSAA.
Een jongen die ik ken werkt bij de regenboog. Hij weet er veel van. Hij zegt dat ATi idd beter is in FSAA en AF, maar dan niet in beeldkwaliteit, maar snelheid daarvan.
Je kunt me niet wijs maken dat je echt bij elk randje de verschillen ziet tussen ATi en nVidia, zeker niet op een hoge resolutie, dus op het gebied van betere kwaliteit bij ATi twijfel ik ook.
CJ schreef op 10 mei 2004 @ 11:46:
[...]
Je vergeet alleen iets.... ATi stelde hun stroomverbruik af op de eisen van Dell ten tijde van de 9800XT. Dit kaartje viel toen net binnen de grenzen, vandaar dat Dell overstapte op ATi en alleen maar 9800Pro/XT kaarten in hun topmodellen stopte.

De X800 verbruikt nog eens minder stroom dan de 9800XT, dus voor systeembouwers als Dell blijft er dan maar 1 keuze over. En laat Dell nou net de grootste afnemer zijn... da's toch wel een strop voor nVidia als ze hun stroomverbruik niet naar beneden weten te krijgen.
Ik ken geen DELL computer met een 9800PRO of XT erin :S En als, dan wil ik de prijs niet weten.....

Dat met stroom ben ik volledig met je eens. nVidia heeft alweer een minpunt gecreëerd hier.

[Voor 38% gewijzigd door Deathchant op 10-05-2004 15:31. Reden: gewoon zomaar]

Canon: R6 | 16-35 | 70-200 II
Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR


Acties:
  • 0Henk 'm!

Anoniem: 93354

dan moet jij toch is wat beter gaan kijken want er zijn zat dell's met een r9800.

Ik vraag me af met welke kaarten nvidia nou echt geld verdient want de enige kaart die je vaak tegekomt is die crap fx5200 en voor de rest zie je eigelijk geen nvidia kaarten (behalve bij de tweakers dan maar t lijkt me niet dat nvidia daar genoeg aan verdient).

Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Deathchant schreef op 10 mei 2004 @ 15:23:
[...]

[...]


Ik ken geen DELL computer met een 9800PRO of XT erin :S En als, dan wil ik de prijs niet weten.....
offtopic:
Ga hier maar eens naar toe: http://www1.us.dell.com/c...ops?c=us&cs=19&l=en&s=dhs

En dan zoeken op de Dimension 8300 en de gamers PC, Dimension XPS...

Prijzen vanaf $1150 incl 9800XT bij de Dimension 8300 en $1558 voor een 3.2Ghz HT P4 met 9800XT. Alle hi end pc's van Dell hebben een 9800 kaart.

ATi en Dell lieten zelfs HL2 zien ten tijde van de 9800XT release

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Gipsy King
  • Registratie: September 2002
  • Laatst online: 02-06 21:18
kreeg net dit bericht uit betrouwe bare bron .


Juli/augustus Zal de kaart volledig in de winkel liggen

Leadtek Support


dus het gaat nog wel even duren....

gaat over de 6800-ultra

Acties:
  • 0Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 02-06 21:24

Deathchant

Don't intend. Do!

jezus man, dat duurt lang, zitten ze ons de hele maand april , mei en juni gek te maken :( flip je van uit

Canon: R6 | 16-35 | 70-200 II
Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR


Acties:
  • 0Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:40
Deathchant schreef op 10 mei 2004 @ 18:24:
jezus man, dat duurt lang, zitten ze ons de hele maand april , mei en juni gek te maken :( flip je van uit
Nouja, eigenlijk zitten we ook een beetje ons zelf gek te maken. ;)
Maar zij zeggen als je een goede videokaart wilt is die er, 5950 of 9800Xt a 400+, ga maar naar de winkel. Wij zeggen doeiiii, en terecht.

Acties:
  • 0Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 31-05 18:39
@Deathchant

ik weet niet welk filiaal van de Regenboog je bedoelt maar ik heb hun al opgegeven tenminste filiaal te Heerlen omdat de technische kennis bij sommigen daar nogal laag is. Filiaal te Sittard is super.

maar je hebt gelijk het verschil in AA tijdens het gamen zul je niet zien,
tijdens het gamen is alleen lekkere fps nodig.
maar nvidia heeft nu met de Nv40 een grote stap naar voren gemaakt met hun AA.
Dus slechte AA van Nvidia vind ik geen echt argument meer oim ATI boven Nvidia te kiezen.
ik denk ook dat de afzet en dus omzet van beiden vooral bepaald gaat worden aan hoe goet hun midrange kaarten zullen zijn, want veel gamers zullen deze kopen vanwege gebrek aan geld of niet willen uitgeven van zoveel geld.

enige wat ik me afvraag is wat als Nvidia straks ook met hun eigen temp FSAA komt hoe willen ze dan gaan testen welke beter is die van ATi of Nvidia.

Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Bigbot schreef op 10 mei 2004 @ 19:44:
enige wat ik me afvraag is wat als Nvidia straks ook met hun eigen temp FSAA komt hoe willen ze dan gaan testen welke beter is die van ATi of Nvidia.
Voor hun eigen temporal AA moet je bij nVidia waarschijnlijk wachten op NV50. Ik betwijfel of NV45 wel temporal AA heeft, aangezien dit grotendeels gebaseerd is op NV40 en dus geen programmable samplepatterns heeft.

Het verschil in AA tussen nVidia en ATi wordt nu nog grotendeels bepaald door de gammacorrection die ATi doorvoert, waardoor de meeste sites ATi in het voordeel stellen. In FPS games zal je het verschil inderdaad niet zien omdat alles toch te snel gaat. Maar in games zoals Morrowind of Lineage2 of andere games waarbij de omgeving wel belangrijk is en alles op een rustiger tempo gaat, zie ik persoonlijk dus wel het verschil.

Tel daarbij op dat dankzij temporal AA je de snelheid van 2xAA hebt met de kwaliteit van 4x, of de snelheid van 4x met de kwaliteit van 8x of 12x.... dat zijn toch dingen die je wel gaat zien. Snelheid is dus iets waar nVidia nog aan moet werken met AA, maar zeker ook met AF.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
CJ schreef op 08 mei 2004 @ 01:57:
[...]
Ach die 32x0 zegt ook niet zo veel meer in Doom3, vooral nu ATi ook 32 Z/Stencil ops per clock aankan... ;)
Ik denk dat alle R3/4xx kaarten alleen 32x0 zijn indien FSAA4x ingeschakelt is. (intern gaan de quads dan ook naar 2x2)

BTW
R4x0, opvolger R423/R420 zal (opnieuw) een gewone speedbump zijn. Orton verwachte (volgens het toms hardware interview) dat de nv40 een hogere coreclock ging krijgen ... en nu lijken de yields van de R420 goed te zijn ... ik heb het gevoel dat de R420 nog een stuk hoger kunnen!

[Voor 32% gewijzigd door oeLangOetan op 10-05-2004 20:05]


Acties:
  • 0Henk 'm!

Anoniem: 99613

Deathchant schreef op 10 mei 2004 @ 15:23:
Dat met stroom ben ik volledig met je eens. nVidia heeft alweer een minpunt gecreëerd hier.
Ik dacht dat de high-end modellen van ATi zoals de X800 XT Extreme (of zo iets) óók twee molexen innam en rond de 100 watt verstookte??

Acties:
  • 0Henk 'm!

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
Bigbot schreef op 10 mei 2004 @ 19:44:

maar je hebt gelijk het verschil in AA tijdens het gamen zul je niet zien,
tijdens het gamen is alleen lekkere fps nodig.
maar nvidia heeft nu met de Nv40 een grote stap naar voren gemaakt met hun AA.
Dus slechte AA van Nvidia vind ik geen echt argument meer oim ATI boven Nvidia te kiezen.
De beeldkwaliteit is dan nu misschien wel bijna identiek, maar je vergeet 1 ding Ati verliest veel minder snelheid als je AA aanzet in vergelijking met nvidia. Ik had bij een dialoog met scores van nascar 2004 gezien, dat wanneer aa ingeschakeld werd de nvidia van 80 naar nog maar 20 frames ging en Ati slechts van 80 naar ruim 60.

[Voor 5% gewijzigd door dikki dik op 10-05-2004 20:55]

Battlefield 2 stats - Specs PC - X360 Gamertag


Acties:
  • 0Henk 'm!

Anoniem: 93354

Anoniem: 99613 schreef op 10 mei 2004 @ 20:47:
[...]


Ik dacht dat de high-end modellen van ATi zoals de X800 XT Extreme (of zo iets) óók twee molexen innam en rond de 100 watt verstookte??
nope in tegendeel zelfs, de x800xt pe verbruikt zelfs minder stroom dan de 9800xt van nu!

Acties:
  • 0Henk 'm!

Anoniem: 99613

Dat is knap.. Ik meende nl. ergens gelezen te hebben dat die topmodellen net zoveel stroom verstookten als the top of the range van nVidia.. De vraag is waarom nVidia dan zo'n architectuur heeft gebruikt die op zulke grote schaal stroom verbruikt.. Als vereiste willen ze dus dat mensen voor de 6800 Ultra een 480 w. in hun PC stoppen, daarmee zullen ze dus veel klanditie verliezen. Voor mij lijkt het meer op een gehaaste poging om de kaart op de markt te krijgen (ze zijn zogenaamd first mover met hun nieuwe modellen, dús nVidia heeft al sprake kunnen maken van vele roddels), getuige ook het nu weer opnieuw verhogen van clock-snelheden van core en opeens de introductie van nóg een model wat gewoon een overclockte Ultra is (waarom dan nog dát model kopen..? de meeste mensen die een ultra of hoger kopen zullen wel tweaker o.i.d. ) laat zien dat nVidia toch niet zulke hoge verwachtingen van ATi had. Jammer, want ik heb altijd wel goede ervaringen met nVidia gehad, en zelfs ik, die redelijk snel geirriteerd begon te raken vanwege een "overdreven" pro-ati houding, begin toch te neigen naar de concurrent.. Of hebben we nog lang niet alles van nVidia gezien?

Acties:
  • 0Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 09:50
dikki dik schreef op 10 mei 2004 @ 20:53:De beeldkwaliteit is dan nu misschien wel bijna identiek, maar je vergeet 1 ding Ati verliest veel minder snelheid als je FSAA aanzet in vergelijking met nvidia. Ik had bij een dialoog met scores van nascar 2004 gezien, dat wanneer aa ingeschakeld werd de nvidia van 80 naar nog maar 20 frames ging en Ati slechts van 80 naar ruim 60.
Dat valt wel mee. Die drop is alleen merkbaar als je AA op 8x zet. In dat geval is er namelijk 2x SuperSampling en 4x MultiSampling, terwijl Ati maar tot en met 6x FSAA gaat en dus geen SuperSampling doet.
8x FSAA geeft een onwijs mooi plaatje, maar daarvoor moet idd veel performance ingeleverd worden, er wordt tenslotte een 2x zo groot plaatje gemaakt.

Zie Tom's Hardware voor de facts.

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


Acties:
  • 0Henk 'm!

  • danplo
  • Registratie: Januari 2002
  • Laatst online: 30-05 08:59

danplo

The Force is strong with me

Nvidia opnieuw beschuldigd van optimalisaties

Videokaartenfabrikant Nvidia is er opnieuw van beschuldigd gebruik te maken van valse optimalisatietechnieken in benchmark-software.

Volgens een artikel van Chip.de zakt de performance van Nvidia-kaarten, werkende op de 61.11 drivers, in elkaar wanneer je de bestandsnaam van farcry.exe wijzigt. Als de naam bijvoorbeeld veranderd wordt in fartcry.exe, zullen de prestaties in het spel een daling kennen.

Nvidia heeft de Duitse website gemeld dat de functie ’Z culling’ wegvalt, als je de bestandsnaam verandert. Deze verklaring wordt echter zeer ongeloofwaardig bevonden.

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”


Acties:
  • 0Henk 'm!

  • DeSire
  • Registratie: Oktober 2002
  • Laatst online: 08-05 07:12
groot verschil tussen die ultra en die ultra extreme edition zeg..
beetje vaag

Acties:
  • 0Henk 'm!

  • danplo
  • Registratie: Januari 2002
  • Laatst online: 30-05 08:59

danplo

The Force is strong with me

DeSire schreef op 11 mei 2004 @ 15:04:
groot verschil tussen die ultra en die ultra extreme edition zeg..
beetje vaag
Ja en ik vind de afstand tussen de normale GF6800 en de X800 ook wel erg groot.

Xbox Series X - NL DarthVader // Playstation 5 - Pijja82 // Twitter - MSFT_Daan // Ipad Pro // Iphone 12 Pro Max 256GB / LG OLED C8 65”


Acties:
  • 0Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 21-05 18:55
danplo schreef op 11 mei 2004 @ 14:49:
Nvidia opnieuw beschuldigd van optimalisaties

Videokaartenfabrikant Nvidia is er opnieuw van beschuldigd gebruik te maken van valse optimalisatietechnieken in benchmark-software.

Volgens een artikel van Chip.de zakt de performance van Nvidia-kaarten, werkende op de 61.11 drivers, in elkaar wanneer je de bestandsnaam van farcry.exe wijzigt. Als de naam bijvoorbeeld veranderd wordt in fartcry.exe, zullen de prestaties in het spel een daling kennen.

Nvidia heeft de Duitse website gemeld dat de functie ’Z culling’ wegvalt, als je de bestandsnaam verandert. Deze verklaring wordt echter zeer ongeloofwaardig bevonden.
Was al eerder bekend, en we kunnen natuulijk ook gewoon wachten tot die kaart in de winkel ligt met drivers die "af" zijn.

Acties:
  • 0Henk 'm!

  • GertjanO
  • Registratie: Maart 2002
  • Laatst online: 01:05
danplo schreef op 11 mei 2004 @ 14:49:
Nvidia opnieuw beschuldigd van optimalisaties

Videokaartenfabrikant Nvidia is er opnieuw van beschuldigd gebruik te maken van valse optimalisatietechnieken in benchmark-software.

Volgens een artikel van Chip.de zakt de performance van Nvidia-kaarten, werkende op de 61.11 drivers, in elkaar wanneer je de bestandsnaam van farcry.exe wijzigt. Als de naam bijvoorbeeld veranderd wordt in fartcry.exe, zullen de prestaties in het spel een daling kennen.

Nvidia heeft de Duitse website gemeld dat de functie ’Z culling’ wegvalt, als je de bestandsnaam verandert. Deze verklaring wordt echter zeer ongeloofwaardig bevonden.
En zoals je weet, heeft Far Cry een probleem met de nieuwe NV40. De NV40 wordt namelijk aangezien als een NV3xx kaart, waardoor de betere architectuur niet tot zijn recht komt. Dit is in ForceWare 61.11 gedeeltelijk opgelost, echter detextie vind plaats door middel van de naam van de exe. Als je deze verandert, daalt de performance weer.

Wat ik belangrijker vindt is dat ondanks optimalisatie, de beeldkwaliteit NIET achteruit gaat.

M.a.w., weer een site die zich wel heel nadrukkelijk wil profileren. nVidia geeft gewoon een antwoord waarop het wederantwoord is: "geloven we niet, er is geen discussie mogelijk dat het cheaten is"

Ik wacht liever totdat de NV40 in de winkel licht met bijbehorende drivers, met bijbehorende patch 1.2 van Far Cry voordat ik, ten onrechte, nVidia beschuldig.

Acties:
  • 0Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 09:50
Gamespot meldt in een interview dat de 480Watt spec overkill is voor de gemiddelde gamer. Is vanaf nu bijgesteld naar 350W en dat lijkt mij ook een stuk normaler :)

Gamespot

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


Acties:
  • 0Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 02-06 21:24

Deathchant

Don't intend. Do!

ah mooi, dan hoef ik me niet druk te maken met mijn zalman 400Watt voeding.

[offtopic]Danpolo, jij hebt trouwens vrijwel hetzelfde systeem als ik, wat voor voeding heb jij? Van Antec? en hoe heb jij jouw fans aangesloten op de voeding?[/offftopic]

Canon: R6 | 16-35 | 70-200 II
Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR


Acties:
  • 0Henk 'm!

Anoniem: 93354

Ik vind het gezeik dat iedereen maar op drivers wil wachten die 'af' zijn dat slaat nergens op. Denk je dat de drivers die ze nu hebben dat die niet af zijn? ze zijn iig af genoeg om ze met kaarten mee te sturen en benches en games te laten testen! dus ik geloof er niet in dat met drivers die 'af' zijn de performance nog enorm veel omhoog zal gaan, het zal vast wel wat beter worden maar ik denk geen grote verschillen.

Ik vind dat hele driver verhaal nergens over gaan, zowel bij ati als nvidia die drivers zijn al gewoon 'af' anders haddden ze die kaarten echt nog niet laten benches als ze hadden geweten dat ze met niewe drivers nog is 10% sneller zijn.

Acties:
  • 0Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 09:50
Ik zou zeggen, kijk eens naar de NordicHardware review. Daar zag je bij OpenGL testen dat er ineens véél meer instructies begrepen werd, maar nog steeds niet meer dan 50%, terwijl bij de eerste drivers er misschien 10% begrepen werd.

Daarnaast, als met de nieuwe drivers de performance in sommige spellen achteruit gaat en in andere vooruit, hoe kun je dan nog beweren dat ze niét af zijn?

En als nVidia weet dat de 6800U ook op 450Mhz kan lopen, waarom komt die dan nog later dan de gewone 6800U? Is net zoiets...

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
IceEyz schreef op 11 mei 2004 @ 17:29:
En als nVidia weet dat de 6800U ook op 450Mhz kan lopen, waarom komt die dan nog later dan de gewone 6800U? Is net zoiets...
Omdat nVidia dit niet zeker weet. Het enige dat ze weten is dat er maar enkele chips stabiel op 450 Mhz willen lopen. Het overgrote gedeelte wil dit echter niet. Er zijn echter zo weinig chips die dit wel kunnen dat ze maar naar een select aantal fabrikanten gaan, en ook nog in hele kleine getallen. En dit is alleen maar bedoeld om een beetje bij te kunnen benen in de FPS race en om te kunnen opscheppen... Eigenlijk best dom, want de GF6800U doet het prima op 'standaard' snelheden.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • GertjanO
  • Registratie: Maart 2002
  • Laatst online: 01:05
Anoniem: 93354 schreef op 11 mei 2004 @ 17:23:
Ik vind het gezeik dat iedereen maar op drivers wil wachten die 'af' zijn dat slaat nergens op. Denk je dat de drivers die ze nu hebben dat die niet af zijn? ze zijn iig af genoeg om ze met kaarten mee te sturen en benches en games te laten testen! dus ik geloof er niet in dat met drivers die 'af' zijn de performance nog enorm veel omhoog zal gaan, het zal vast wel wat beter worden maar ik denk geen grote verschillen.

Ik vind dat hele driver verhaal nergens over gaan, zowel bij ati als nvidia die drivers zijn al gewoon 'af' anders haddden ze die kaarten echt nog niet laten benches als ze hadden geweten dat ze met niewe drivers nog is 10% sneller zijn.
Het gaat mij niet om het feit of de drivers "af" zijn of niet. Ook niet of deze drivers maar liefst 10% beter presteren. Het gaat mij er om dat iemand (vanwege een conclusie op 1 (één) site, op basis van 1 spel) hoog bij laag beweerd dat nVidia wéér aan het cheaten is. En dat terwijl het bekend is dat Far Cry als spel problemen heeft met de NV40.

Die problemen lost men op door speciale drivers te ontwikkelen (die spellen kerkennen aan de naam van de exe). Als men dan alsnog de bestandsnamen gaat wijzigen, sta ik er niet van te kijken dat opeens de prestaties naar beneden gaan.

Hiermee wil ik aangeven dat je producten en drivers enkel mag (ver)oordelen wanneer zij in dezelfde staat in de winkels te koop zijn. En dat doet men hier niet, daar heb ik moeite mee.

BTW, ook de drivers van ATi zijn nog beta, niemand die nog aan kan geven wat de werkelijke performance en beeldkwaliteit gaan worden.

Acties:
  • 0Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:40
CJ schreef op 11 mei 2004 @ 20:00:
[...]
En dit is alleen maar bedoeld om een beetje bij te kunnen benen in de FPS race en om te kunnen opscheppen... Eigenlijk best dom, want de GF6800U doet het prima op 'standaard' snelheden.
Niks dom aan, de Xt was eigenlijk ook een overgeklokte kaart, tenminste dat concludeer ik uit het feit dat die veel minder ver nog te overklokken blijkt dant de Ultra. Kan best begrijpen dat nVidia dit niet op zich laat zitten en een paar Ultra Exteme's aan XfX levert.

Acties:
  • 0Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 02-06 21:24

Deathchant

Don't intend. Do!

hier een emailtje dat ik vandaag van nVidia zelf kreeg:

**DO NOT REPLY TO THIS EMAIL---NVIDIA WILL NOT RECEIVE YOUR REPLY**

Dear sir,

Thank you for your email. The Geforce 6800 requires at least a 350watt power supply so your power supply will be more than sufficient. It is only when you wish to do heavy overclocking that you willl need to get a higher wattage power supply.

Regards,
NVIDIA Technical Support

**DO NOT REPLY TO THIS EMAIL---NVIDIA WILL NOT RECEIVE YOUR REPLY**

Dus 380W is meer dan voldoende

Canon: R6 | 16-35 | 70-200 II
Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR


Acties:
  • 0Henk 'm!

  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Gamespot meldt in een interview dat de 480Watt spec overkill is voor de gemiddelde gamer. Is vanaf nu bijgesteld naar 350W en dat lijkt mij ook een stuk normaler
Ik val van de één in de andere verbazing. Eerst lees ik dat een overgeklokte 6800GT met één molex "probleemloos" 6800U snelheden behaalt, dus waarom heeft de 6800U er twee nodig zou je denken, en nu lees ik dat het met de bizarre voeding vereisten van de 6800U eigenlijk wel meevalt. Nog even en vandaag of morgen komt er iemand achter dat je de bedrading van één van de 2 molexxen gewoon door kunt knippen zonder dat je dit merkt.
Als klap op de vuurpijl de nog niet opgeloste problemen met Far Cry, notabene het spel waarvan de makers samenwerken met Nvidia maar waarin ATI desondanks kontjes schopt. Kan het nóg onduidelijker allemaal?

Ik verheilig ATI absoluut niet, had graag weer een Nvidia kaart in m'n kast willen stoppen, maar zo wordt de keus wel èrg eenvoudig.

Acties:
  • 0Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 09:50
Ik denk meer dat de onduidelijkheid ontstaat door iedereen die meteen dingen naar voren roept. "Twee molexen? Minstens 150 Watt!" "480Watt PSU heb je écht wel nodig"
Terwijl die 480W spec nooit op een doosje heeft gestaan, maar alleen aan de reviewers gegeven is, omdat die meestal een beestachtige bak gebruiken voor het benchen.

Dan vertelt nVidia gewoon dat de tweede Molex alleen nodig is voor de serieuze overklokker. Lijkt me duidelijk :)
(Vergeet niet dat de reviewers niet perse dezelfde kaart hebben als die in de winkel komt te liggen)
offtopic:
Waar is mijn 6800GT?


Far Cry is inderdaad een apart geval, snap ook nog steeds niet waarom dát niet opgelost is door Crytek/nVidia.

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


Acties:
  • 0Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-06 16:29
Anoniem: 38733 schreef op 11 mei 2004 @ 21:03:
[...]

Ik verheilig ATI absoluut niet, had graag weer een Nvidia kaart in m'n kast willen stoppen, maar zo wordt de keus wel èrg eenvoudig.
Hoezo wordt het je wel heel makkelijk gemaakt?

  • Anoniem: 19844
  • Registratie: Januari 2001
  • Niet online
mensen vraagje weet er iemand wanneer deze kaart de geforce 6800 ultra in de winkels ligt?
ik hoor eind mei in duitsland (alternate.de) andere zegguh weer eind juni
anybody here got any facts?

  • Dirk J
  • Registratie: December 2000
  • Laatst online: 20-05 08:45
Ik denk dat die 2 molexen vooral is zodat de kaart z'n "eigen" kabel naar de voeding heeft. Op een of andere manier werken al mijn IDE apparaten niet bij het opstarten als ik allebei m'n harde schijven op dezelfde stroomkabel heb...

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Sjah schreef op 11 mei 2004 @ 20:17:
[...]


Niks dom aan, de Xt was eigenlijk ook een overgeklokte kaart, tenminste dat concludeer ik uit het feit dat die veel minder ver nog te overklokken blijkt dant de Ultra. Kan best begrijpen dat nVidia dit niet op zich laat zitten en een paar Ultra Exteme's aan XfX levert.
En ik geloof er dus niets van dat de grens nu al bereikt is met de X800XT...

ATi heeft voor launchdatum nog een bios uitgebracht die alles naar 520Mhz core en 560 Mhz core bracht, terwijl dit eerst hoger was. En er zijn zelfs alphasamples gespot die op 550Mhz core en zelfs 600 Mhz core liepen. Maar het schijnt dat ATi dacht dat 520 Mhz genoeg zou moeten zijn om de 6800U bij te houden dan wel te verslaan. Gevolg is natuurlijk automatisch dat je een groter gedeelte van de R420 cores kan gebruiken aangezien in het begin meer cores op 520 zullen lopen dan 550 of zelfs 600 Mhz.

Maar een ander gevolg is dat ze nu de 600 Mhz samples kunnen bewaren voor een snellere versie...

[Voor 5% gewijzigd door CJ op 12-05-2004 00:55]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
CJ schreef op 12 mei 2004 @ 00:54:
[...]


En ik geloof er dus niets van dat de grens nu al bereikt is met de X800XT...

ATi heeft voor launchdatum nog een bios uitgebracht die alles naar 520Mhz core en 560 Mhz core bracht, terwijl dit eerst hoger was. En er zijn zelfs alphasamples gespot die op 550Mhz core en zelfs 600 Mhz core liepen. Maar het schijnt dat ATi dacht dat 520 Mhz genoeg zou moeten zijn om de 6800U bij te houden dan wel te verslaan. Gevolg is natuurlijk automatisch dat je een groter gedeelte van de R420 cores kan gebruiken aangezien in het begin meer cores op 520 zullen lopen dan 550 of zelfs 600 Mhz.

Maar een ander gevolg is dat ze nu de 600 Mhz samples kunnen bewaren voor een snellere versie...
jah maar de meeste testsamples draaide op 500 mhz, maar hou er wel rekening mee dat je hem waarschijnlijk wel op 550 mhz moet kunnen laten draaien.


sommige mensen snap nog steeds niet met hun vrees voor ati.

ER IS ECHT NIKS MIS MEE!!! :D

De problemen met de drivers zijn echt al lang voor bij en ze worden tegenwoordig alleen maar beter @ niveau nvidia......... beter zelfs.

ik heb de overstap vorig jaar ook gemaakt en het bevalt me allemaal prima, geen enkel probleem gehad.

Tegenwoordig hoef je echt niet meer te letten op naam ati of nvidia ga gewoon uit van de beste score voorderest hebben beide kaartjes dezelfde kwaliteiten, tegenwoordig dan.

[Voor 22% gewijzigd door dikki dik op 12-05-2004 16:49]

Battlefield 2 stats - Specs PC - X360 Gamertag


  • Anoniem: 19844
  • Registratie: Januari 2001
  • Niet online
mensen vraagje weet er iemand wanneer deze kaart de geforce 6800 ultra in de winkels ligt?
ik hoor eind mei in duitsland (alternate.de) andere zegguh weer eind juni
anybody here got any facts?

of weet gewoon niemand t en word er daarom nie op mijn vraag gereageerd?

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 07:40
klopt we weten het ook niet, moeten het ook maar met checken van sites doen. Ati en NVidia zeggen wel van 21 mei of eind mei, maar verschuiven dat weer hoor je in andere tegenstrijdige berichten. 1 datum kan je eigenlijk wel zeker van zijn dat je dan kan kopen, 1 Juli, eerder is meegenomen

[Voor 3% gewijzigd door Sjah op 12-05-2004 18:14]


  • epo
  • Registratie: November 2000
  • Laatst online: 00:49
dikki dik schreef op 12 mei 2004 @ 16:45:
[...]


jah maar de meeste testsamples draaide op 500 mhz, maar hou er wel rekening mee dat je hem waarschijnlijk wel op 550 mhz moet kunnen laten draaien.


sommige mensen snap nog steeds niet met hun vrees voor ati.

ER IS ECHT NIKS MIS MEE!!! :D

De problemen met de drivers zijn echt al lang voor bij en ze worden tegenwoordig alleen maar beter @ niveau nvidia......... beter zelfs.

ik heb de overstap vorig jaar ook gemaakt en het bevalt me allemaal prima, geen enkel probleem gehad.

Tegenwoordig hoef je echt niet meer te letten op naam ati of nvidia ga gewoon uit van de beste score voorderest hebben beide kaartjes dezelfde kwaliteiten, tegenwoordig dan.
onzin, ati promoten is niet echt gewenst, vooral dat :D achter je opmerking er is niks mee is :r
Er zijn genoeg testen geweest en iedereen kan daaruit een conclusie trekken.
De driverkwaliteit van Nvidia is absoluut beter dan die van Ati ! qua features en instellingen en stabiliteit lopen ze gewoon nog een stapje voorop.

  • Cyrus The Virus
  • Registratie: Augustus 2003
  • Laatst online: 02-06 12:25
Weet iemand of er ook een XT versie van uit komt dus een goed kopere. want om nouw meteen 300 euro of meer te tellen kan ik nie :P

AMD 5950x || Asus VIII Dark Hero || G.Skill Trident Z Neo 2x16GB C16-16-16-36 || EVGA FTW3 3080 Ultra || 2x WD SN850 1TB || Corsair HX850i


Anoniem: 93354

epo schreef op 12 mei 2004 @ 20:20:
[...]


onzin, ati promoten is niet echt gewenst, vooral dat :D achter je opmerking er is niks mee is :r
Er zijn genoeg testen geweest en iedereen kan daaruit een conclusie trekken.
De driverkwaliteit van Nvidia is absoluut beter dan die van Ati ! qua features en instellingen en stabiliteit lopen ze gewoon nog een stapje voorop.
nou mijn gf4 was toch alles behalve stabiel :S als kazaa aanstond en de pc ging op schermbeveileging kreeg ik meteeen een bsod :? ik heb nu een r9600xt en ik heb er nog geen 1 probleem mee gehad dus ati ligt zeker niet achter al denk ik wel dat nvidia een stuk beter is in 'optimaliseren' ;)

  • DeSire
  • Registratie: Oktober 2002
  • Laatst online: 08-05 07:12
Cyrus The Virus schreef op 12 mei 2004 @ 20:42:
Weet iemand of er ook een XT versie van uit komt dus een goed kopere. want om nouw meteen 300 euro of meer te tellen kan ik nie :P
ik vind 300 ook beteje te veel van het goede. Er moet iets uitkomen voor 200-225 euro ofzo :P

  • Anoniem: 23009
  • Registratie: Februari 2001
  • Niet online
de Ti-4600 blijft een goede kaart, de Leadtek blijft me Favoriete GeForce4 Ti-4600, die ik nu nog gebruik :+ :

http://www.hothardware.com/reviews/images/ltgf4ti/cardsidelight.jpg

deze lijkt me ook wel cool om te hebben gewoon:

http://www.dansdata.com/images/triplexgf4/caseopen500.jpg

Zo nu effe weer ontopic:

binnen 3 weken ga ik ook maar een nVidia GeForce 6800 ULTRA aanschaffen, de Leadtek wordt dat natuurlijk, Lekker OC'en dat ding als dat goed gaat, dat zien we dan wel. :D

Koper blijkt een goed koel middel te zijn voor OC'en dus vandaar. Ik vind de Leadtek ook gewoon bruut er uit zien.

http://www.dinoxpc.com/public/images/leadtek_20040422.jpg

Maar toch blijft de Leadtek Winfast A250 ULTRA TD de mooiste ontwerp hebben.

[Voor 38% gewijzigd door Anoniem: 23009 op 13-05-2004 21:45]


  • Cyrus The Virus
  • Registratie: Augustus 2003
  • Laatst online: 02-06 12:25
Ik heb nouw dus een 5900XT maand oud kan ik mss nog verkopen en dan 6800 kopen als de prijs redelijk is

AMD 5950x || Asus VIII Dark Hero || G.Skill Trident Z Neo 2x16GB C16-16-16-36 || EVGA FTW3 3080 Ultra || 2x WD SN850 1TB || Corsair HX850i


  • epo
  • Registratie: November 2000
  • Laatst online: 00:49
Anoniem: 93354 schreef op 12 mei 2004 @ 20:53:
[...]


nou mijn gf4 was toch alles behalve stabiel :S als kazaa aanstond en de pc ging op schermbeveileging kreeg ik meteeen een bsod :? ik heb nu een r9600xt en ik heb er nog geen 1 probleem mee gehad dus ati ligt zeker niet achter al denk ik wel dat nvidia een stuk beter is in 'optimaliseren' ;)
:r :r :r :r :r ga weg man, mijn ti 4600 werkte perfect ! nooit problemen met drivera gehad ! Ik had ook dat mooie apparaatje van leadtek :)
Zonde van je geld trouwens zo'n 9600xt! maar goed je bent wederom weer eens grappig met je optimaliseren :Z :Z

[Voor 6% gewijzigd door epo op 12-05-2004 22:13]


  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
epo schreef op 12 mei 2004 @ 22:11:
[...]


:r :r :r :r :r ga weg man, mijn ti 4600 werkte perfect ! nooit problemen met drivera gehad ! Ik had ook dat mooie apparaatje van leadtek :)
Zonde van je geld trouwens zo'n 9600xt! maar goed je bent wederom weer eens grappig met je optimaliseren :Z :Z
jij kijkt ook niet verder dan dat je neus lang is!!!
kwijl nvidia s niet zo onder en let s op ati.

dat een 9600 xt zonde van t geld is dat is waar :p, maar hetzelfde geld voor de fx 5700 ultra van nvidia.

Wat betreft het optimaliseren, dat moest ook wel met die drivers. Maar die probleme zijn alllllaaaaaannng verholpen en de drivers zijn nu zowat nog beter als nvidia. En ze zijn nog steeds bezig om ze sneller te maken. Ati is bezig met het opniew geschreven van de shader compilers en opengl ook voor oude kaarten vanaf de r300. Zoiets zou nvidia nooit doen......

MAar er is op zich niks mis met nvidia, alleen is ati op dit moment beter.

[Voor 6% gewijzigd door dikki dik op 12-05-2004 22:24]

Battlefield 2 stats - Specs PC - X360 Gamertag

Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee