Toon posts:

[Algemeen] nVidia NV40 / GeForce 6800 Topic! Deel 2 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 7 Laatste
Acties:
  • 3.710 views sinds 30-01-2008

Acties:
  • 0Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 31-05 14:01
Als nvidia nog een beetje kans wil maken dan moeten ze de prijs van de Ultra echt rond de x800pro prijzen..ik bedoel de x800pro is soms sneller dan de ultra...en de xt beats the shit out of it. Het zou gewoon niet slim zijn om voor een langzamere kaart evenveel te vragen als een snellere kaart. :?

On a road of changes....


Acties:
  • 0Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 24-05 13:10

Fr0zenFlame

LAN 'A Holic

Alpha-xp schreef op 05 mei 2004 @ 02:01:
Als nvidia nog een beetje kans wil maken dan moeten ze de prijs van de Ultra echt rond de x800pro prijzen..ik bedoel de x800pro is soms sneller dan de ultra...en de xt beats the shit out of it. Het zou gewoon niet slim zijn om voor een langzamere kaart evenveel te vragen als een snellere kaart. :?
Ik denk dat we nog eff af moeten wachten dat er benshes verschijnen waarin ook de 6800Ultra Extreme (op mogelijk 600Mhz) is op genomen en waarin beide bedrijfen bug vrije en optimale drivers kunnen leveren... als het verschil dan nog zo groot is dan koop ik een Ati... Misschien is het dan wel om gedraaid ;)

GreetZz

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 31-05 14:01
Jup, ik wacht ook nog een maandje of 2 af ^__^ begint tijd te worden dat ik men ti4200 vervang.

On a road of changes....


Acties:
  • 0Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 24-05 13:10

Fr0zenFlame

LAN 'A Holic

Alpha-xp schreef op 05 mei 2004 @ 02:24:
Jup, ik wacht ook nog een maandje of 2 af ^__^ begint tijd te worden dat ik men ti4200 vervang.
Hahaha mischien kunnen we met meerdere forumers een grote groep inkopen tegen korting... "Logische de snelste natuurlijk"

GreetZ

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Alpha-xp schreef op 05 mei 2004 @ 02:24:
Jup, ik wacht ook nog een maandje of 2 af ^__^ begint tijd te worden dat ik men ti4200 vervang.
Tegen die tijd zijn we alweer druk aan het speculeren wat NV45 voor nieuws zal brengen, die moet namelijk als alles goed gaat over een maandje of 5 gereleased worden. :Y) Overigens denk ik dat-ie eerder uit komt...

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 07-06 22:13
http://www.anandtech.com/video/showdoc.html?i=2044&p=8
erg lekker
benches met de 6800GT en natuurlijk de andere Nvidia en ATI kaarten.

op 1e pagina pic van de 6800GT jammer genoeg geen dual DVI, maar wel 1 molex en dezelfde koeling als de Ultra maar bij de GT is dit een 1 slot design.
Kan aardig bij blijven.

vind eigenlijk wel de afstand tussen de X800Pro en X800XT klein als je de verschillende specs ziet, minder pipes en lagere clock en dan toch maar een klein verschil.
tijd geleden stond op de FP ergens dat de X800Pro en 6800Ultra dezelfde prijs zouden hebben bij launch zijnde 499dollar ik vind dat deze 2 ook aan elkaar gewaagd zijn.


ps:
de volgende sterkere kaart van nvidia zou de Nv45 moeten zijn, komt er ook een sterkere kaart van ATI?

[Voor 9% gewijzigd door Deadsy op 05-05-2004 03:26]


Acties:
  • 0Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online
R480 stond laatst op een roadmap van gigabyte geloof ik.
Maar ze hebben het ook al over de R500 aan het einde van het jaar. Dus waar ze dan die R480 moeten proppen ?? (september en dan de R500 februari volgend jaar??)

Acties:
  • 0Henk 'm!

  • joostve
  • Registratie: Januari 2002
  • Laatst online: 26-04-2022
r00n187 schreef op 05 mei 2004 @ 01:55:
Niet om het één of het ander, maare...

[afbeelding]

Men moet toch toegeven dat deze cijfers gewoon ziek zijn..
Ik bedoel, dit is zo'n beetje het zwaarste spel out there wat ze op 1600x1200 met 4xAA en 16xAF draaien.. :o

En nee, ik zit niet in het verkeerde topic, de 6800U staat er ook tussen.. :)
Hoe dan ook, onthoud één ding:

hu·mor (de ~ (m.))
1 situatie of uitspraak die vrolijke verbazing en gelach opwekt
dit is toevallig het plaatje waar X800XT er het beste uit komt

maar als je deze eens bekijkt
http://www.xbitlabs.com/images/video/r420-2/3dm2_1600_candy.gif
maar ik moet toegeven dat ati goed scoort met 4x aa, 16x asf
alleen vraag ik me dan af hoe de kwaliteit van de textures er dan uit ziet.

C2D 6600, 275 GTX Windows 7


Acties:
  • 0Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online
nVidia en 3dmark, sorry hoor, maar die gaan niet meer samen na al het gestunt(el) van nVidia het afgelopen jaar. Op verschillende sites staan screenshots met AF en FSAA. De kwaliteit van AF is ongeveer gelijk van beide kaarten, FSAA geld hetzelfde voor.
check bv firingsquad: http://www.firingsquad.co...ati_radeon_x800/page8.asp

Acties:
  • 0Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
Fr0zenFlame schreef op 05 mei 2004 @ 02:08:
[...]


Ik denk dat we nog eff af moeten wachten dat er benshes verschijnen waarin ook de 6800Ultra Extreme (op mogelijk 600Mhz) is op genomen en waarin beide bedrijfen bug vrije en optimale drivers kunnen leveren... als het verschil dan nog zo groot is dan koop ik een Ati... Misschien is het dan wel om gedraaid ;)

GreetZz
zoals deze ?:

http://www.firingsquad.co...force_6800_ultra_extreme/
conclusie:

Where NVIDIA’s GeForce 6800 Ultra architecture already takes the performance crown over ATI X800 XT Platinum Edition, the advantage only increases with the 6800 Ultra Extreme board. And when NVIDIA falls behind the RADEON X800 XT Platinum Edition, the end result doesn’t change any: the NVIDIA board still loses to the ATI high-end card, only the margins are a little narrower. Is this really worth the time and expense of developing an entirely new limited-edition SKU?
Geen drivers met bugs? Daar kan je eeuwig op wachten :-)

Acties:
  • 0Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
Alpha-xp schreef op 05 mei 2004 @ 02:01:
Als nvidia nog een beetje kans wil maken dan moeten ze de prijs van de Ultra echt rond de x800pro prijzen..ik bedoel de x800pro is soms sneller dan de ultra...en de xt beats the shit out of it. Het zou gewoon niet slim zijn om voor een langzamere kaart evenveel te vragen als een snellere kaart. :?
Er bestaat natuurlijk nog zo iets als de kostprijs om het te maken. De prijs van de 800XT en de 6800U zal vergelijkbaar zijn, maar de XT is inderdaad sneller . Enter marketing :)

Acties:
  • 0Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
Hopelijk is dit maar een fout van de schrijver :

http://translate.google.c...-8&prev=%2Flanguage_tools

If one designates however the file "FarCry.EXE" for example in "FartCry.EXE" over, the result of the bench mark in the dissolutions of 1.024 x 768, 1,280 x 1,024 and 1,600 x of 1,200 pixels worsens around in each case 10 pictures per second (!).

Zou nvidia het weer durven nu dat ze weer dreigen achter te geraken op ATI?

Acties:
  • 0Henk 'm!

  • swampy
  • Registratie: Maart 2003
  • Laatst online: 13-05 16:34

swampy

Coconut + Swallow = ?

k995 schreef op 05 mei 2004 @ 11:34:
Hopelijk is dit maar een fout van de schrijver :

http://translate.google.c...-8&prev=%2Flanguage_tools

If one designates however the file "FarCry.EXE" for example in "FartCry.EXE" over, the result of the bench mark in the dissolutions of 1.024 x 768, 1,280 x 1,024 and 1,600 x of 1,200 pixels worsens around in each case 10 pictures per second (!).

Zou nvidia het weer durven nu dat ze weer dreigen achter te geraken op ATI?
Oh Oooh... als dit waar is... laten we hopen voor nvidia dat het niet waar is, of dat het te maken heeft me detectie in de drivers ofzo....waarschijnlijk is het weer een "optimalisatie" daartegen.

[Voor 7% gewijzigd door swampy op 05-05-2004 11:58]

There is no place like ::1


Acties:
  • 0Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 21-05 18:55
Laten we hopen dat het een vertaalfout is :+
Maar serieus, als nvidia weer gaat zitten cheaten dan vallen ze dus echt voorgoed snoeihard op hun bek en hebben ze echt een wonder nodig om er weer positief ui te zien. 1x cheaten kan opzich nog als je er maar van leert en het cheaten weer ongedaan maakt. Maar dit is natuurlijk niet normaal meer.

Ik hoop dus dat hier een goede reden voor is (de performance drop).

Acties:
  • 0Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 07-06 22:13
die mogelijke optimalisatie moet men eerst onderzoeken.
Want het zou ook kunnen zijn dat het een legale optimalisatie is omdat Farcry problemen heeft met de Nv40 omdat hij hem als NV3X herkent en daardoor problemen met slechtere (lagere) PS heeft.
Dus als oplossing voor deze. dus om te kijken of het een illegale optimalisatie is of legale moet men eerst kijken wat de beeld kwaliteit is tussen beide.

ik vind bv dat de FPS drop bij de nvidias tussen no AA en AF en max AA en AF minder groot is dan het verschil in FPS bij de ATi tussen no AA en AF en AA en AF op max.

ps. nadta ik de pics van firingsquad gezien heb (waarin men de kwaliteit van AA bekijkt bij de 6800ultra en X800XT platinum) vind ik de screenshot van de nvidia mooier.
ik vind de ATI iets hoekiger en de Nvidia iets ronder, dit zou kunnen komen door de een of andere blur van nvidia.
maar uiteindelijk vind ik de screenshot van Nvidia op 4xAA toch mooier en in he totale plaatje ook mooier.
Vind wel de rook van de vliegtuigen mooier bij ATI.

[Voor 47% gewijzigd door Deadsy op 05-05-2004 12:39]


Acties:
  • 0Henk 'm!

  • mr_a
  • Registratie: November 2000
  • Laatst online: 23-05 09:45
Je m'excuse als dit al gevraagd is, maar ik vroeg me af wat de reden is van twee molex connectoren. Ja het stroom verbruik, maar hoezo het stroomverbruik? Waarom kunnen die watts niet over 1 stekkertje? :?

Het komt allemaal uit dezelfde voeding, al die 12 volt 5 worden in de voeding in hetzelfde circuit opgewekt, volgens mij hebben de meeste voeding geen apart transformator circuit voor ieder snoertje dat uit dat ding komt. Misschien dat de +100 euro voedingen dit wel hebben maar de simpele china dingen van 30 euro en 400 watt doen dat toch niet? Ergo ik denk niet dat 2 molex connectors te maken heeft met de capaciteit van de voeding.

Dan denk ik als tweede aan het amperage dat maximaal door zo'n snoertje kan, waarschijnlijk krijgt de +5 volt (het gele draadje toch?) het het zwaarst, stel dat hij 50 W op 5 volt trekt dan is dat 10 Amperes, wat inderdaad misschien niet door zo'n snoertje kan zonder meltdown. Daar weet ik de formule niet van, dat hangt af van het geleidermateriaal en de dikte.

Maar dan: hele horden mensen zullen 1 snoertje gebruiken van de PSU, met 2 in serie geschakelde molex connectoren. Net als dat je 2 HD's hebt dat je vaak vanwege nette stekkerverbindingen die in serie op de stroom aansluit, dat past vaak heel mooi. Echter in dat geval krijg je dus nog steeds een meltdown van het snoertje, want alle stroom gaat over 1 draadje. Er zullen ook wel lieden zijn die hier een V splitter zullen gebruiken. Dus als dit werkelijk de reden is dan moet de handleiding hier heel duidelijk in zijn: iedere molex connector moet op een aparte draad naar de voeding zitten. Is dat zo?

Als laatste is er de stroom die over een molex stekker verbinding kan. Is dat het zwakste punt en de reden dat er met twee molex verbindingen gewerkt wordt? Zo ja dan is met splitters werken wederom onverstandig.
Wie weet het antwoord?
Dank! _/-\o_ ;)

"There's just a nice looking, quiet computer..." | Mac mini 1.42 | AMD 64 dual core power! | pc specs


Acties:
  • 0Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 14:21

Pubbert

random gestoord

mr_a schreef op 05 mei 2004 @ 12:43:
Je m'excuse als dit al gevraagd is, maar ik vroeg me af wat de reden is van twee molex connectoren. Ja het stroom verbruik, maar hoezo het stroomverbruik? Waarom kunnen die watts niet over 1 stekkertje? :?

Het komt allemaal uit dezelfde voeding, al die 12 volt 5 worden in de voeding in hetzelfde circuit opgewekt, volgens mij hebben de meeste voeding geen apart transformator circuit voor ieder snoertje dat uit dat ding komt. Misschien dat de +100 euro voedingen dit wel hebben maar de simpele china dingen van 30 euro en 400 watt doen dat toch niet? Ergo ik denk niet dat 2 molex connectors te maken heeft met de capaciteit van de voeding.

Dan denk ik als tweede aan het amperage dat maximaal door zo'n snoertje kan, waarschijnlijk krijgt de +5 volt (het gele draadje toch?) het het zwaarst, stel dat hij 50 W op 5 volt trekt dan is dat 10 Amperes, wat inderdaad misschien niet door zo'n snoertje kan zonder meltdown. Daar weet ik de formule niet van, dat hangt af van het geleidermateriaal en de dikte.

Maar dan: hele horden mensen zullen 1 snoertje gebruiken van de PSU, met 2 in serie geschakelde molex connectoren. Net als dat je 2 HD's hebt dat je vaak vanwege nette stekkerverbindingen die in serie op de stroom aansluit, dat past vaak heel mooi. Echter in dat geval krijg je dus nog steeds een meltdown van het snoertje, want alle stroom gaat over 1 draadje. Er zullen ook wel lieden zijn die hier een V splitter zullen gebruiken. Dus als dit werkelijk de reden is dan moet de handleiding hier heel duidelijk in zijn: iedere molex connector moet op een aparte draad naar de voeding zitten. Is dat zo?

Als laatste is er de stroom die over een molex stekker verbinding kan. Is dat het zwakste punt en de reden dat er met twee molex verbindingen gewerkt wordt? Zo ja dan is met splitters werken wederom onverstandig.
Wie weet het antwoord?
Dank! _/-\o_ ;)
Zie het maar zo: Veel dingen op het PCB moeten stroom hebben, en die banen in het PCB moesten allemaal vanaf de Molex connector komen, en het werd daar gewoon te druk met het aantal banen, en dus is voor een 2de Molex connector gekozen.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0Henk 'm!

  • mr_a
  • Registratie: November 2000
  • Laatst online: 23-05 09:45
Thund3r schreef op 05 mei 2004 @ 12:53:
[...]


Zie het maar zo: Veel dingen op het PCB moeten stroom hebben, en die banen in het PCB moesten allemaal vanaf de Molex connector komen, en het werd daar gewoon te druk met het aantal banen, en dus is voor een 2de Molex connector gekozen.
Ok, daar had ik nog niet bij stil gestaan. Dus het is iets in de kaart en niet in het systeem. Trouwens de lager geklokte NV40 kaarten hebben toch 1 molex connector? Misschien is het niet te druk in het aantal banen op het PCB maar dat het amperage door die banen tegen een grens aanloopt of een dergelijks effect.


P.S. (edit) Dit is wel interessant want het betekent dat er dus geen technische bezwaren zijn tegen het gebruik van 2 of meer molex connectoren door de kaart. Haast iedere review noemt dit als bezwaar maar feitelijk bezien vind ik het dus niet zo relevant. Immers een simpel V splittertje van een paar euro volstaat voor lieden die nog maar 1 molex vrij hebben. Cosmetisch is het een ander verhaal maar dit is een gamers tool geen piece of fashion. ;) En een tweaker kan er toch wel een leuke draai aan geven. ;)

[Voor 29% gewijzigd door mr_a op 05-05-2004 13:20]

"There's just a nice looking, quiet computer..." | Mac mini 1.42 | AMD 64 dual core power! | pc specs


Acties:
  • 0Henk 'm!

  • Rone
  • Registratie: April 2002
  • Niet online

Rone

Moderator Tweaking
joostve schreef op 05 mei 2004 @ 10:32:
[...]

dit is toevallig het plaatje waar X800XT er het beste uit komt

maar als je deze eens bekijkt
[afbeelding]
Leuk dat je nu alleen Game2 neemt (ok, ik nam ook maar 1 pic), maar neem nu eens 3DMark03 in z'n geheel ;)

http://www.xbitlabs.com/images/video/r420-2/3dm_overall.gif

Toch knap van ATi om in 3DMark03 hoger te scoren dan nVidia..
Nu moet ik er wel bij zeggen dat deze scores van site tot site enorm verschillen, dus eigenlijk heeft het vrij weinig nut het nog hierover te hebben :+

[Voor 20% gewijzigd door Rone op 05-05-2004 13:17]

PC1: 5800X3D - RTX 3080 - BenQ Zowie 240Hz
PC2: 3700X - RTX 2070 SUPER - Samsung Odyssey G3 165Hz


Acties:
  • 0Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15:31

Deathchant

Don't intend. Do!

ze zeggen wel dat deze lijnen dedicated moeten zijn, dus 2 vrije lijnen zonder iets erop. AnandTech zegt dat er wel een casefan ofzo op mag worden aangesloten.
Overal staat dat de 6800Ultra "maar" 16Watt meer levert dan de 9800XT.
De stroom is dus idd verdeeld over deze 2 lijnen.

Ik snap echt niet waarom dit dedicated moet zijn dan. Ikzelf heb een Zalman 400Watt voeding die een effectieve stroom levert van 380Watt (terwijl een goedkope 550W ver hieronder presteert) en ik heb dus maar 3 lijnen. Als er 2 bezet moeten zijn, dan vraag ik me af hoe ik de rest op die ene lijn moet aansluiten??

Aan 1 lijn zitten 3 molexen op. Ik moet 7 casefans aansluiten, de hardcano, hd, diskettestation, 1 cdrewriter, 1 dvd speler, en 2 recom lampjes.......en dit op 1 lijn..................zie ik niet zitten..................

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0Henk 'm!

  • ETzPliskin
  • Registratie: Januari 2003
  • Laatst online: 14:06

ETzPliskin

PS3 ID: Kretus

Ik vraag me af hoe dat het komt dat 2 bedrijven zo goed op elkaar kunnen inspelen.

Als je een next gen kaart aan het ontwikkelen bent, weet je niks van het andere bedrijf en doe je maar, toch? :? Hoe komt het dan altijd dat de scores gewoon aan elkaar gewaagd zijn...

Acties:
  • 0Henk 'm!

  • Rone
  • Registratie: April 2002
  • Niet online

Rone

Moderator Tweaking
-ETz-Memphis Z schreef op 05 mei 2004 @ 13:40:
Ik vraag me af hoe dat het komt dat 2 bedrijven zo goed op elkaar kunnen inspelen.

Als je een next gen kaart aan het ontwikkelen bent, weet je niks van het andere bedrijf en doe je maar, toch? :? Hoe komt het dan altijd dat de scores gewoon aan elkaar gewaagd zijn...
Omdat ze juist wél veel van elkaar afweten. Meer dan wat wij weten voor de launch ;)
Op die manier stemmen ze hun hardware af zodat het nét iets meer doet dan de tegenstander..

PC1: 5800X3D - RTX 3080 - BenQ Zowie 240Hz
PC2: 3700X - RTX 2070 SUPER - Samsung Odyssey G3 165Hz


Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

-ETz-Memphis Z schreef op 05 mei 2004 @ 13:40:
Ik vraag me af hoe dat het komt dat 2 bedrijven zo goed op elkaar kunnen inspelen.

Als je een next gen kaart aan het ontwikkelen bent, weet je niks van het andere bedrijf en doe je maar, toch? :? Hoe komt het dan altijd dat de scores gewoon aan elkaar gewaagd zijn...
Daar heb ik ook vaak over nagedacht, misschien komt het omdat beide bedrijven tegen dezelfde huidige technologische beperkingen aanlopen in de chipindustrie, TSCM, IBM....

Niet op voorraad.


Acties:
  • 0Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
[b]mr_a schreef op 05 mei 2004 @ 13:14:

P.S. (edit) Dit is wel interessant want het betekent dat er dus geen technische bezwaren zijn tegen het gebruik van 2 of meer molex connectoren door de kaart. Haast iedere review noemt dit als bezwaar maar feitelijk bezien vind ik het dus niet zo relevant. Immers een simpel V splittertje van een paar euro volstaat voor lieden die nog maar 1 molex vrij hebben. Cosmetisch is het een ander verhaal maar dit is een gamers tool geen piece of fashion. ;) En een tweaker kan er toch wel een leuke draai aan geven. ;)
Ze vragen wel 2 "dedicated" molexen, een splitter kan je dus in princiepe niet gebruiken.

Het enige probleem wat ik erin zie is voor garantie en als je er problemen mee hebt.

Je kaart werkt niet

nv: wat voor PSU hebt U?
Klant: 350Watt xxxx
nv: Vervang die dan eerst voor 1 van 480 watt en als het dan nog niet werkt bel dan terug.

Acties:
  • 0Henk 'm!

  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Als je een next gen kaart aan het ontwikkelen bent, weet je niks van het andere bedrijf en doe je maar, toch? Hoe komt het dan altijd dat de scores gewoon aan elkaar gewaagd zijn...
Reken er maar op dat ze over en weer spionnen hebben zitten, ze weten alles van elkaar. Stel dat jij in het ATI team werkt, voor een salaris van pak 'm beet 50.000$ per jaar, en Nvidia doet jou een aanbod om hier 100.000$ van te maken als je af en toe wat "geheimpjes" doorsluist, dan is de keus niet zo moeilijk. >:) :)

[Voor 32% gewijzigd door Anoniem: 38733 op 05-05-2004 14:10]


Acties:
  • 0Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
Anoniem: 38733 schreef op 05 mei 2004 @ 14:07:
[...]


Reken er maar op dat ze over en weer spionnen hebben zitten, ze weten alles van elkaar. Stel dat jij in het ATI team werkt, voor een salaris van pak 'm beet 50.000$ per jaar, en Nvidia doet jou een aanbod om hier 100.000$ van te maken als je af en toe wat "geheimpjes" doorsluist, dan is de keus niet zo moeilijk. >:) :)
Op zoiets staan zware straffen hoor .

Nee het is hier gewoon toevallig in de 2 a 3 vorige generaties was er een duidelijk verschil, in deze iets minder maar om te zeggen dat ze nu gelijk presteren vind ik wel overdreven.

Acties:
  • 0Henk 'm!

  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
k995 schreef op 05 mei 2004 @ 14:16:
[...]


Op zoiets staan zware straffen hoor .
Moet je eerst gepakt worden, zowieso is industriele spionage aan de orde van de dag hoor in de wereld van tegenwoordig. Zou er echt niet van opkijken als deze beide bedrijven er ook gewoon aan doen.

specs desktop | specs laptop


Acties:
  • 0Henk 'm!

  • mr_a
  • Registratie: November 2000
  • Laatst online: 23-05 09:45
k995 schreef op 05 mei 2004 @ 14:01:
[...]


Ze vragen wel 2 "dedicated" molexen, een splitter kan je dus in princiepe niet gebruiken.

Het enige probleem wat ik erin zie is voor garantie en als je er problemen mee hebt.
Hmm, dan snap ik dus nog niet waarom ze dat vragen. Er werd hier gezegt, het heeft met de kaart te maken, hieruit blijkt dat NVIDIA denkt dat het met het snoertje of de capaciteit van de molex stekkerverbinding te maken heeft. Veel helderder wordt het nog niet. Nu ja mocht ik zo'n kaart kopen dan ga ik wel experimenteren (300 watt Antec voeding, twee "dedicated" snoertjes kan ik wel te voorschijn toveren). :)

Nu heb ik nog de oer-Radeon, de 64mb DDR vivo uit 2000. Na vier jaar mag ik me wel een nieuw speeltje geven. Ik vind het fantastisch dat NVIDIA nu een goed product naast ATi zet, ideaal. Nog even wachten hoe de prijzen zich ontwikkelen, *voorpret*!

"There's just a nice looking, quiet computer..." | Mac mini 1.42 | AMD 64 dual core power! | pc specs


Acties:
  • 0Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
[b]mr_a schreef op 05 mei 2004 @ 14:21:
Hmm, dan snap ik dus nog niet waarom ze dat vragen. Er werd hier gezegt, het heeft met de kaart te maken, hieruit blijkt dat NVIDIA denkt dat het met het snoertje of de capaciteit van de molex stekkerverbinding te maken heeft. Veel helderder wordt het nog niet. Nu ja mocht ik zo'n kaart kopen dan ga ik wel experimenteren (300 watt Antec voeding, twee "dedicated" snoertjes kan ik wel te voorschijn toveren). :)
Ja? Ik niet hoor bijna niemand denk ik :)

En ik denk dat het voor alle zekerheid is. Nvidia zal misschien in hun eigen testsytemen soms problemen ondervonden hebben en dus voor alle zekerheid zo'n zware eisen.

Acties:
  • 0Henk 'm!

Anoniem: 93354

Weet iemmand al hoe de 6800ultra gaat presteren? want ik heb wel een bench ervan gezien maar daar was ie de hele tijd sneller dan de x800pro terwijl die toch niet veel onder de 6800ultra zit en met aa/aaf er meestal boven maar hier zat de GT eigelijk altijd boven de pro.

Acties:
  • 0Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 07-06 11:27
Anoniem: 93354 schreef op 05 mei 2004 @ 14:33:
Weet iemmand al hoe de 6800ultra gaat presteren? want ik heb wel een bench ervan gezien maar daar was ie de hele tijd sneller dan de x800pro terwijl die toch niet veel onder de 6800ultra zit en met aa/aaf er meestal boven maar hier zat de GT eigelijk altijd boven de pro.
Dat is nog altijd onzeker want er is nog steeds geen finale versie van de nvidia kaart uitgekomen (denk dat dit komt in afwachting van hoe de ATi het deed) Ik verwacht eigenlijk een 6900 serie rond de zomer om een counter offensief te hebben voor de x800xt. Wat wel goed is en wat ik nog niemand heb zien schrijven is dat de x800xt opeens tegelijk met de x800pro uitkomt terwijl deze eigenlijk later uit zou komen. Denk dat nvidia dit ook verwachte en nu dus eigenlijk te laat is met een antwoord maar die zal vast en zeker nog gaan komen.
Het maakt niet veel uit wie er nu wint ze scoren allebei zeer goed en je merkt nu dat producten eerder uitkomen als gepland was en dat zowel ati als nvidia geen kans krijgt om eerst een topmodel uit te melken om er vervolgens weer een ietsje betere uit te brengen om weer de volle mep te vangen.

Acties:
  • 0Henk 'm!

  • SideSwipe
  • Registratie: December 2001
  • Laatst online: 15:56

SideSwipe

ZijZweep / SaaitSwiep !

Ze maken het voor de consument straks niet makkelijk. Niet alleen de keuze tussen Nvidia of Ati... Maar ook tussen de modellen :)

Ik wacht de eerste maandjes nog wel af. En dan nog eens kijken naar ervaringen :)

Trotse vader x 2!| Profiel volspammen mag hier: Klik


Acties:
  • 0Henk 'm!

  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 24-05 13:10

Fr0zenFlame

LAN 'A Holic

Firingsquad:
The answer probably depends on which company you prefer. If you’ve favored NVIDIA’s cards in the past, this faster SKU is probably blabla.............
Dit is wat hun er over zeggen en hoe ik er over denk, ze presteren na genoeg gelijk.. maar het is nog steeds een beetje afwachten tot beide in de schappen ligen!

GreetZz

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Ik vind de GeForce6800GT toch wel een heel interessant kaartje. Voor €399,- krijg je een kaart die maar 1 powersupply heeft, singleslot is, wel alle 16 pipelines heeft en ook nog eens is over te klokken naar Ultra snelheden...

Het lijkt mij dat de GT dus de meest interessante kaart is van de hele 6800 serie.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Okyah
  • Registratie: Maart 2002
  • Niet online

Okyah

wespachterrrrrfilm..

Maar zou die dan niet ook een stabielere stroomtoevoer moeten hebben om Ultra speeds te halen? (Dat was toch het argument voor een 2e molexconnector?) En een flinkere koeler? Het lijkt me niet dat nvidia dat voor de grap op de ultra (extreme/tever :P ) zet, wel? :)
Maar idd, tis een lager geclockte ultra, niet een gestripte, dat geeft wel zekere mogelijkheden :P

Alone at last
Just nostalgia and I
We were sure to have a blast


Acties:
  • 0Henk 'm!

Anoniem: 93354

SideSwipe schreef op 05 mei 2004 @ 16:13:
Ze maken het voor de consument straks niet makkelijk. Niet alleen de keuze tussen Nvidia of Ati... Maar ook tussen de modellen :)

Ik wacht de eerste maandjes nog wel af. En dan nog eens kijken naar ervaringen :)
Op het moment lijkt voor mij een x800pro het beste.

Ik denk niet dat die GT standaart niet modbaar is maar misschien wel als iemmand een manier verzind om die extra power connector erop te krijgen want ik denk niet dat de kaart onders genoeg stroom krijgt.

Acties:
  • 0Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15:31

Deathchant

Don't intend. Do!

CJ schreef op 05 mei 2004 @ 16:34:
Ik vind de GeForce6800GT toch wel een heel interessant kaartje. Voor €399,- krijg je een kaart die maar 1 powersupply heeft, singleslot is, wel alle 16 pipelines heeft en ook nog eens is over te klokken naar Ultra snelheden...

Het lijkt mij dat de GT dus de meest interessante kaart is van de hele 6800 serie.
399 dollar he, dat is in euro's minder.
Ik denk als je hem gaat overklokken naar ultra snelheden dat je die 2e molex nodig hebt.....waarom is ie anders :P

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0Henk 'm!

Anoniem: 90323

KAAA UUUU TTT Weer een erbij............

ff checke wat de retail van de nv40 6850 oid 6800 Ultra Extreme gaat doen...

Acties:
  • 0Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 07-06 22:13
omdat niemand erop reageerde stel ik mijn vraag nog eens.
1 of 2 paginas geleden poste iemand 2 links naar fotos die op firingsquad staan.
beiden waren fotos van de ATI X800XT en de Nvidia 6800Ultra.
deze fotos waren met AAx4
op deze fotos vond ik de ATI nog al hoekig overkomen en de foto van Nvidia mooier.

Acties:
  • 0Henk 'm!

Anoniem: 90323

Bigbot schreef op 05 mei 2004 @ 17:00:
omdat niemand erop reageerde stel ik mijn vraag nog eens.
1 of 2 paginas geleden poste iemand 2 links naar fotos die op firingsquad staan.
beiden waren fotos van de ATI X800XT en de Nvidia 6800Ultra.
deze fotos waren met AAx4
op deze fotos vond ik de ATI nog al hoekig overkomen en de foto van Nvidia mooier.
EN!??????

Acties:
  • 0Henk 'm!

  • davey s.
  • Registratie: Januari 2004
  • Laatst online: 15:18
Nou wat denk je }:O 8)7

Acties:
  • 0Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 07-06 22:13
noe bij de 9800 en 5900 was het zo dat bij Nvidia de AA slecht was en bij ATi goed.
en als ik deze screenshots moet geloven is het nu andersom.

http://www.firingsquad.co...ati_radeon_x800/page8.asp

kijk naar de vleugels ik vind het verschil tussen nvidia en ATi nogal groot ten voordele van Nvidia iets wat ik uberhaubt niet verwacht had.

Acties:
  • 0Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Deathchant schreef op 05 mei 2004 @ 16:57:
[...]


399 dollar he, dat is in euro's minder.
Ik denk als je hem gaat overklokken naar ultra snelheden dat je die 2e molex nodig hebt.....waarom is ie anders :P
Nee hoor... Firingsquad kreeg de 6800GT op 425 Mhz core en 1200 Mhz mem.... das dus ruim over de standaard 6800Ultra Extreme heen, en zo presteerde die ook... :Y) En dat allemaal zonder extra molex!

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ocfc1024.gif

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/octr1024.gif

Da's toch mooi even 20% extra performance waarmee die zelfs sneller is als de standaard 6800UE voor €100 minder.

En ik zeg express alles in euro's omdat tot nu toe altijd is gebleken dat kaarten in Europa duurder zijn, ondanks dat de euro op dit moment sterker is. Je hebt in Amerika nu ook al lang 9800Pro kaarten voor rond de $160 tot $180. Hier in Nederland zitten we nog rond de €200,- tot €220,-, en theoretisch zou je dan eigenlijk al op €148 moeten zitten voor een 9800Pro. En dat zie je hier dus echt nog niet.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Bigbot schreef op 05 mei 2004 @ 17:43:
noe bij de 9800 en 5900 was het zo dat bij Nvidia de AA slecht was en bij ATi goed.
en als ik deze screenshots moet geloven is het nu andersom.

http://www.firingsquad.co...ati_radeon_x800/page8.asp

kijk naar de vleugels ik vind het verschil tussen nvidia en ATi nogal groot ten voordele van Nvidia iets wat ik uberhaubt niet verwacht had.
En als je een paar plaatjes verder kijkt, die van de startbaan, dan "wint" Nvidia ook (behoorlijk veel zelfs imho).
Er is alleen één troef die Ati heeft, en dat vermeldt firingsquad ook, en dat is de temporal FSAA functie. Jammergenoeg is dit niet op een plaatje vast te leggen. Firingsquad geeft ATI hierdoor als de uiteindelijke FSAA winnaar aan:

Again, overall it’s much harder to make a final call on AA quality than it was in the past. We will however give ATI the overall AA edge thanks to their new temporal AA mode.

[Voor 14% gewijzigd door Anoniem: 38733 op 05-05-2004 18:23]


Acties:
  • 0Henk 'm!

  • Deadsy
  • Registratie: September 2003
  • Laatst online: 07-06 22:13
maar hoe wil men dan meten hoe goed de beeld kwaliteit is bij temp fsaa.
want deze speelt zich af over meerdere beelden

Acties:
  • 0Henk 'm!

  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Zal alleen met je eigen ogen kunnen vermoed ik. :)

Acties:
  • 0Henk 'm!

Anoniem: 90323

Ik mis ergens een vraagteken

Acties:
  • 0Henk 'm!

  • StefSybo
  • Registratie: Maart 2004
  • Niet online
CJ schreef op 05 mei 2004 @ 18:00:
[...]


Nee hoor... Firingsquad kreeg de 6800GT op 425 Mhz core en 1200 Mhz mem.... das dus ruim over de standaard 6800Ultra Extreme heen, en zo presteerde die ook... :Y) En dat allemaal zonder extra molex!

[afbeelding]

[afbeelding]

Da's toch mooi even 20% extra performance waarmee die zelfs sneller is als de standaard 6800UE voor €100 minder.
Ik denk dat de retail-exemplaren wel minder te overklokken zullen zijn dan de reference-kaarten die ze naar de reviewers opsturen, omdat de yields niet zo goed schijnen te zijn (zie ook hier), waardoor alle chips die echt goed gelukt zijn gebruikt zullen worden om ultra (extreme) kaarten mee te maken en de iets slechtere chips op een GT-kaart komen. Chips met kapotte pipelines gaan dan naar de non-ultra exemplaren

Acties:
  • 0Henk 'm!

  • mr_a
  • Registratie: November 2000
  • Laatst online: 23-05 09:45
Bigbot schreef op 05 mei 2004 @ 17:00:
omdat niemand erop reageerde stel ik mijn vraag nog eens.
1 of 2 paginas geleden poste iemand 2 links naar fotos die op firingsquad staan.
beiden waren fotos van de ATI X800XT en de Nvidia 6800Ultra.
deze fotos waren met AAx4
op deze fotos vond ik de ATI nog al hoekig overkomen en de foto van Nvidia mooier.
Een aantal plaatjes kan ik nauwelijks een verschil in ontdekken, dus NVidia is echt bijgetrokken. Ik zou niet zeggen dat de ATi of de NVidia kaart betere AA heeft op basis van deze beelden (ik vind ze daarvoor te gelijkwaardig). De landingsbaan die van de zijkant ziet daar gaat bij de ATi iets mis, de lijnen van de texture komen niet netjes in beeld. Dat ziet er inderdaad slecht uit maar ik weet niet of dit structureel is. De examples die verder genoemd worden vind ik allemaal discussiepunten wat mooier is...

"There's just a nice looking, quiet computer..." | Mac mini 1.42 | AMD 64 dual core power! | pc specs


  • Sjah
  • Registratie: Juli 2000
  • Nu online
Na duizelig te zijn van de reviews lijkt me de keuze tuseen de Ultra en de Xt in het voordeel van de Xt uit te vallen. Omdat die toch iets sneller is, 1 slot, 1 molex, en minder powerconsumptie zelfs dant de 9800XT. Maar gezegd dient te worden dat de Ultra nog wel het een en ander aan groeipotentieel heeft qua drivers, en in FarCry willik het nog wel zien als ps3.0 wordt ingeschakeld.
De GT echter lijkt een absolute winner te zijn, heb al een en ander kwa reacties gezien op de fora en veel mensen zitten aan die kaart te denken. Logisch: 1 slot, 1 molex, kan het met 350Watt af, goed overclockspotentieel, en 16 pipes tegen de Pro 12. Ik meen het voordeel van 16 pipes ook terug te zien in de shadermark 2 tests. Lijkt me moeilijk kiezen tussen die 2, ik denk dat ik toch naar de GT neig.

Zoals zo vaak zal de prijs wel gaan beslissen.

[Voor 4% gewijzigd door Sjah op 06-05-2004 09:13]


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15:31

Deathchant

Don't intend. Do!

Sjah schreef op 06 mei 2004 @ 08:47:
Na duizelig te zijn van de reviews lijkt me de keuze tuseen de Ultra en de Xt in het voordeel van de Xt uit te vallen. Omdat die toch iets sneller is, 1 slot, 1 molex, en minder powerconsumptie zelfs dant de 9800XT.
Ik ben zwaar voor nVidia, maar ik ben het volledig met je eens dat de X800XT alleen maar voordelen heeft t.o.v. de 6800Ultra.
Daarnaast is de ATi weer beter op high reso's en FSAA en AF.
Maar gezegd dient te worden dat de Ultra nog wel het een en ander aan groeipotentieel heeft qua drivers, en in FarCry willik het nog wel zien als ps3.0 wordt ingeschakeld.
Ben ik weer met je eens. Als je alleen maar huidige spellen speelt is het beter om een ATi te pakken. Maar nVidia heeft altijd een streepje voor als het gaat om toekomstige issues. PS3.0 idd, maar aan de andere kant kun je ook zeggen dat ATi tegen die tijd ook weer een nieuwe kaart heeft, die dan weer de 6800Ultra verslaat, and so on......
Ik denk ook wel dat de prestatie van de 6800Ultra t.o.v. de X800XT omhoog gaat als het gaat om next gen spellen die gebruik maken van PS3.0. Een jongen die bij de regenboog werkt heeft mij dit ook gezegd en heeft al in levende lijve kunnen testen op een zalman 400watt voeding en ging uitstekend. Hij haalde meer benchmarks dan de X800XT. Maar ja, daar vertrouw ik ook niet meer op.

Denk er wel aan dat het slechts beta drivers zijn waarmee getest is he.
Er zal ook een lancering van DirectX9.1 plaats vinden op korte termijn en ben benieuwd hoe de 6800Ultra het hiertegen op neemt t.o.v. de X800XT.
De GT echter lijkt een absolute winner te zijn, heb al een en ander kwa reacties gezien op de fora en erg veel mensen zitten aan die kaart te denken. Logisch: 1 slot, 1 molex, kan het met 350Watt af, goed overclockspotentieel, en 16 pipes tegen de Pro 12. Ik meen het voordeel van 16 pipes ook terug te zien in de shadermark 2 tests. Lijkt me moeilijk kiezen tussen die 2, ik denk dat ik toch naar de GT neig.
Ja, ook weer met je eens :) Alhoewel ik wel gestoord wordt van al die versies, GT XT, Ultra, maar dat is offtopic. Persoonlijk vind ik Ultra wel stoerder klinken >:)
Maar als deze echt 100 euro bespaart op de Ultra, waarom niet? Ik geloof zelfs dat ie ook een single slot design heeft.
Maar aan de andere kant kun je je ook afvragen: waarom de Ultra met een dualslot design, als een GT hetzelfde niveau bereikt met maar 1 molex, singleslot design, dezelfde aantal pipelines en 100 euro minder?
Zullen ze toch niet voor niks gedaan hebben he?

De GT heeft geloof ik wel geen dual DVI, maar ja, 1 is genoeg voor mij :D.

[Voor 3% gewijzigd door Deathchant op 06-05-2004 09:23]

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


  • Sjah
  • Registratie: Juli 2000
  • Nu online
Deathchant schreef op 06 mei 2004 @ 09:21:
[...]

Ja, ook weer met je eens :) Alhoewel ik wel gestoord wordt van al die versies, GT XT, Ultra, maar dat is offtopic. Persoonlijk vind ik Ultra wel stoerder klinken >:)
Maar als deze echt 100 euro bespaart op de Ultra, waarom niet? Ik geloof zelfs dat ie ook een single slot design heeft.
Maar aan de andere kant kun je je ook afvragen: waarom de Ultra met een dualslot design, als een GT hetzelfde niveau bereikt met maar 1 molex, singleslot design, dezelfde aantal pipelines en 100 euro minder?
Zullen ze toch niet voor niks gedaan hebben he?

De GT heeft geloof ik wel geen dual DVI, maar ja, 1 is genoeg voor mij :D.
nVidia wil blijkbaar geen risico's nemen, en hebben 2 molexen gedaan om zeker te zijn denk ik, en om later omhoog te kunnen (zoals al met de Ultra Extreme gaat gebeuren), maar zoals CJ al zei, Firingsquad lukte het wel gewoon om de GT naar 425 te klokken op 1 molex :*)
Ik had wel liever 2x DVI gehad,voor als ik me CRT's ga vervangen, maar wie weet komt er nog een fabrikant met 2.

[edit] maar even hier een screenshot:

http://images.anandtech.com/reviews/video/ATI/radeonx800proxt/6800gtangle.jpg

[Voor 14% gewijzigd door Sjah op 06-05-2004 09:38]


  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
Deathchant schreef op 06 mei 2004 @ 09:21:

Ben ik weer met je eens. Als je alleen maar huidige spellen speelt is het beter om een ATi te pakken. Maar nVidia heeft altijd een streepje voor als het gaat om toekomstige issues. PS3.0 idd, maar aan de andere kant kun je ook zeggen dat ATi tegen die tijd ook weer een nieuwe kaart heeft, die dan weer de 6800Ultra verslaat, and so on......
Ik denk ook wel dat de prestatie van de 6800Ultra t.o.v. de X800XT omhoog gaat als het gaat om next gen spellen die gebruik maken van PS3.0. Een jongen die bij de regenboog werkt heeft mij dit ook gezegd en heeft al in levende lijve kunnen testen op een zalman 400watt voeding en ging uitstekend. Hij haalde meer benchmarks dan de X800XT. Maar ja, daar vertrouw ik ook niet meer op.

Denk er wel aan dat het slechts beta drivers zijn waarmee getest is he.
Er zal ook een lancering van DirectX9.1 plaats vinden op korte termijn en ben benieuwd hoe de 6800Ultra het hiertegen op neemt t.o.v. de X800XT.
En de verbeteringen in drivers zullen ook bij de x800 serie plaats vinden, hou daar rekening mee. Op dit moment zijn ze druk bezig, gaan de geruchtte, met drivers voor zowel oude als de nieuwe vidkaarten met verbeterde shader compilers en het zwakke punt van ati opengl is ook helemaal overnieuw geschreven en zal ook binnenkort in de drivers verschijnen.

Over dat ps 3.0, daar is weinig over te zeggen. Je weet niet of het egt zo veel verschil uitmaakt laat eerst maar wat benchmarks zien, bovendien is niet alles hardwarematig aan ps3.0 en kan ati er ook een deel van ondersteunen.

edit:

@screenshot ik vind de kaarten van nvidia der eigenlijk oerlelijk uitzien maja daar gaat het uiteindelijk niet om, tenzij je casemod natuurlijk.

[Voor 5% gewijzigd door dikki dik op 06-05-2004 09:41]

Battlefield 2 stats - Specs PC - X360 Gamertag


  • hjs
  • Registratie: Juni 1999
  • Niet online
Deathchant schreef op 06 mei 2004 @ 09:21:
Als je alleen maar huidige spellen speelt is het beter om een ATi te pakken. Maar nVidia heeft altijd een streepje voor als het gaat om toekomstige issues.
Altijd?
Sinds de R9700 had ATI juist een streepje voor ivm met de volledige dx9 ondersteuning. Sinds de 6800 is het de nVidia pas weer.

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15:31

Deathchant

Don't intend. Do!

Sjah schreef op 06 mei 2004 @ 09:31:
[...]

Yup heeft een single slot design, zie de foto op Anandtech.
nVidia wil blijkbaar geen risico's nemen, en hebben 2 molexen gedaan om zeker te zijn denk ik, en om later omhoog te kunnen (zoals al met de Ultra Extreme gaat gebeuren), maar zoals CJ al zei, Firingsquad lukte het wel gewoon om de GT naar 425 te klokken op 1 molex :*)

Ik had wel liever 2x DVI gehad,voor als ik me CRT's ga vervangen, maar wie weet komt er nog een fabrikant met 2.
Ik klok liever niet, vermindert de levensduur. Die jongen uit de regenboog had de 6800Ultra ook goed weten te klokken, ik weet alleen niet meer hoeveel. nVidia heeft dus ook contracten gesloten met EAGAMES en ik dacht ook UbiSoft om hun spellen te optimaliseren voor de 6800 series. Maar ik denk dat zowel ATi en nVidia goed zullen scoren met alle spellen.
Tis maar wat je kwaliteit noemt, de een zegt dat ATi betere kwaliteit levert door FSAA en AF, terwijl er misschien mee bedoelt wordt dat ATi's kaarten sneller zijn met FSAA, niet per se mooier beeld. Ik heb beiden fabrikanten gezien en ik moet zeggen dat ik echt geen verschil zie in beeldkwaliteit :S.
Je ziet het verschil toch niet tussen 150 FPS en 250FPS.

Ik zou wel eens graag met iemand die echt veel verschillen ziet in beeldkwaliteit de kaarten onder de loep willen nemen.
Bovendien, als je op een resolutie van 1600x1200 speelt (wat er volgens mij niet veel doen, tenzij ze op de desktop deze hanteren en in alle spellen willen behouden zodat de monitor niet naar een andere resolutie hoeft om te springen) heb je al geen AF en FSAA nodig. Het beeld is al zo fijn dat dat niet meer opvalt.

Ikzelf heb een HM903DTA en heb een desktop reso van 1600x1200@85HZ en speel spellen meestal in 1280x1024 zonder FSAA en AF en vind het even mooi als iemand op dezelfde resolutie met FSAA en AF.

offtopic:
Ik ga pas de CRT vervangen als de techniek van TFT's wat beter ontwikkeld is en goedkoper is. 600 euro voor een 16 ms scherm vind ik te duur.

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15:31

Deathchant

Don't intend. Do!

met de 9700PRO klopt als een bus, maar ik doelde ook vooral op openGL techniek. Is nVidia stukken beter in.
De drivers van ATi gaan de laatste tijd idd de goeie kant uit, maar ik vind dat nVidia nog steeds voor ligt op dit gebied.

Ik casemod dus :P. Maar heb niet echt bij het kopen van mijn Asus 5900Ultra gelet op hoe ie uitzag. Nou is het wel mooi meegenomen dat die mooi blauw met goud is, want mijn kingston reepjes zijn dat ook. mijn Thermaltake xaser3 heeft veel blauw en ik heb blauwe lichten >:)
Ik vind uiterlijk ook enigszins belangrijk, in die zin dat het niet doorslaggevend is bij het maken van een keuze. Kwaliteit en prestatie is het belangrijkst.

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
[b]Deathchant schreef op 06 mei 2004 @ 09:21:
Ben ik weer met je eens. Als je alleen maar huidige spellen speelt is het beter om een ATi te pakken. Maar nVidia heeft altijd een streepje voor als het gaat om toekomstige issues. PS3.0 idd, maar aan de andere kant kun je ook zeggen dat ATi tegen die tijd ook weer een nieuwe kaart heeft, die dan weer de 6800Ultra verslaat, and so on......
Vergeet niet dat ATI 3Dc heeft iets wat ook in far cry zou komen met ene pacth. OOk daar kan je zeggen dat het winst kan opleveren, hoeveel is onbekend.
Ik denk ook wel dat de prestatie van de 6800Ultra t.o.v. de X800XT omhoog gaat als het gaat om next gen spellen die gebruik maken van PS3.0.
In de meeste recente spelen zoals, far cry, painkiller nascar 2004, EVE online,... wint de 800XT .

Kijk eens hier staat een mooi overzicht van wat sites :

http://www.nvnews.net/
Denk er wel aan dat het slechts beta drivers zijn waarmee getest is he.
Er zal ook een lancering van DirectX9.1 plaats vinden op korte termijn en ben benieuwd hoe de 6800Ultra het hiertegen op neemt t.o.v. de X800XT.
Je bedoelt 9.0c? En het zijn beide BETA drivers en vergeet niet dat NV juist hun drivers update voor de ATI launch met serieus wat verbeteringen.

  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
hjs schreef op 06 mei 2004 @ 09:43:


Altijd?
Sinds de R9700 had ATI juist een streepje voor ivm met de volledige dx9 ondersteuning. Sinds de 6800 is het de nVidia pas weer.
Daarvoor ook de 8500 had heel wat meer features dan de GForce 4 serie (die dan wel sneller was) .

  • D3N_B0Y
  • Registratie: Juni 2002
  • Laatst online: 16-05 22:45

D3N_B0Y

SENDO X

Ik had nog een vraagje,
De GerforceFX serie blijkt veel sneller te presteren op een nForce3 systeem dan op een andere chipset (nieuws: 'GeForce FX sneller op nForce3 250Gb-moederborden'), zijn der al benchmarks waar dit ook getest wordt met de 6800? want dan lijkt me dat de 6800 de X800 XT met gemak op alles verslaat??

:: ABIT AN7 :: GF3 Ti200 :: 2500+ ::


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15:31

Deathchant

Don't intend. Do!

Ik heb eens wat gespeculeerd over de voeding.
Ik heb een Zalman 400Watt voeding die 380 pure watts levert.

Met de 6800Ultra kom ik uit op het volgende:
Dit zijn slechts schattingen van mijzelf, misschien dat iemand kan verbeteren. Dit zijn top wattages:

HD WD 120Gig : 50W
GeForce 6800Ultra: 110W
Liteon DVD speler : 25W
Liteon CD Rewriter: 25W
Teac floppydrive : 5W
7 casefans :14W
Muis en keyboard : 6 W
Kingston mem 1G : 20W
P4C800Deluxe : 25W
P4 2.6GHz : 80W
______________________+
Totaal vermogen : 360Watt

Dan zou ik NET uitkomen met mijn voeding........

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Deathchant schreef op 06 mei 2004 @ 09:46:
[...]
Bovendien, als je op een resolutie van 1600x1200 speelt (wat er volgens mij niet veel doen, tenzij ze op de desktop deze hanteren en in alle spellen willen behouden zodat de monitor niet naar een andere resolutie hoeft om te springen) heb je al geen AF en FSAA nodig. Het beeld is al zo fijn dat dat niet meer opvalt.
Met AA daar kan ik het nog met je eens zijn. Maar AF... een hogere resolutie verhult de blurry textures echt niet.... Juist AF lijkt me dan toch best wel wenselijk omdat je anders tegen nog een groter vlak met wazige textures aan kijkt. Of zie ik dat nou verkeerd?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Anoniem: 93354

quote:

Deathchant schreef op 06 mei 2004 @ 09:21:
Als je alleen maar huidige spellen speelt is het beter om een ATi te pakken. Maar nVidia heeft altijd een streepje voor als het gaat om toekomstige issues.

Jammer dat het dus het tegenovergestelde is. In het ati topic heeft iemmand een mooie tabel gemaakt waarop je kan zien hoe beide kaarten scoren en dan zal je zien dat ati dus beter is in recente spellen.

Ik zit zelf nu ook te twijfelen tussen een Gt en een Pro. Standaart is de Pro sneller en je kan hoge reso's en veel aa/aaf doen zonder veel prestatie verlies wat met de GT zeker niet kan, maar de GT kan als de yields goed zijn weer worden oced naar een ultra extreme. Dus het word kiezen, gokken dat je een kaart heb die heel goed oced (wat ik zelf eigelijk niet verwacht als je die verhalen over slechte yields leest) of een kaart waarvan je iig zeker weer dat je veel aa/aaf kan doen.

Anoniem: 85667

Is er eigenlijk al bekend wanneer we de 6800(ultra) in de winkel kunnen verwachten? Dus in winkels als mycom etcetera?

  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
Anoniem: 93354 schreef op 06 mei 2004 @ 10:47:
quote:


Jammer dat het dus het tegenovergestelde is. In het ati topic heeft iemmand een mooie tabel gemaakt waarop je kan zien hoe beide kaarten scoren en dan zal je zien dat ati dus beter is in recente spellen.
Kzal het hier dan ook maar posten :

Een leuk overzichtje :

http://www.nvnews.net/

let wel op de source en dat de maker ervan gewoon al de benches optelt en diegene die het meeste wint als winnaar uitroept (bij een test waar 800x600 en 1024X768 en 1280X1024 en NV de 1e 2 wint en ATI de 3e ,wint dus NV. )

http://www.nvnews.net/images/news/200405/comparison.png

Alles bij elkaar opgeteld :

NV 6800U : wint 11 keer (geen enkele keer in een recent spel)
ATI X800XT : wint 13 keer (6 keer in een recent spel nml (Colin macrae 4,EVE online, Far Cry, FF XI,nascar 2004, painkiller)

5 keer was het gelijk (1 keer een recent spel nml :Breed )

Ik heb geprobeerd dezelfde engine niet 2 maal te tellen .

  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
Anoniem: 85667 schreef op 06 mei 2004 @ 10:50:
Is er eigenlijk al bekend wanneer we de 6800(ultra) in de winkel kunnen verwachten? Dus in winkels als mycom etcetera?
In de VS zou het in juni zijn, reken hier nog zeker een maand extra : juli of augustus dus(als natuurlijk de yields niet zo slecht zijn als sommige beweren).

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
Bigbot schreef op 05 mei 2004 @ 17:43:
noe bij de 9800 en 5900 was het zo dat bij Nvidia de AA slecht was en bij ATi goed.
en als ik deze screenshots moet geloven is het nu andersom.

http://www.firingsquad.co...ati_radeon_x800/page8.asp

kijk naar de vleugels ik vind het verschil tussen nvidia en ATi nogal groot ten voordele van Nvidia iets wat ik uberhaubt niet verwacht had.
maar wat daar tegen over staat :X ........... dit las ik op tomshardware:

http://www.de.tomshardware.com/graphic/20040504/images/fsaa-2.jpg

NVIDIA's 8xS mode, a combination of SuperSampling and MultiSampling, offers superior quality. Unfortunately, it also incurs a major performance hit, bringing the frame rates crashing down.

en hier is het resultaat

http://www.de.tomshardware.com/graphic/20040504/images/image063.gif

het ziet er dan misschien wel twee keer zo goed uit, maar op 22 frames per seconde heb je daar niet zoveel meer aan, lijkt mij |:(

[Voor 8% gewijzigd door dikki dik op 06-05-2004 13:46]

Battlefield 2 stats - Specs PC - X360 Gamertag


  • ETzPliskin
  • Registratie: Januari 2003
  • Laatst online: 14:06

ETzPliskin

PS3 ID: Kretus

Deathchant schreef op 06 mei 2004 @ 10:34:
Ik heb eens wat gespeculeerd over de voeding.
Ik heb een Zalman 400Watt voeding die 380 pure watts levert.

Met de 6800Ultra kom ik uit op het volgende:
Dit zijn slechts schattingen van mijzelf, misschien dat iemand kan verbeteren. Dit zijn top wattages:

HD WD 120Gig : 50W
GeForce 6800Ultra: 110W
Liteon DVD speler : 25W
Liteon CD Rewriter: 25W
Teac floppydrive : 5W
7 casefans :14W
Muis en keyboard : 6 W
Kingston mem 1G : 20W
P4C800Deluxe : 25W
P4 2.6GHz : 80W
______________________+
Totaal vermogen : 360Watt

Dan zou ik NET uitkomen met mijn voeding........
Dan zou ik ook moeten toekomen met mijn 300Watt :D

Voor specs zie hieronder. (geen floppy, 5 Watt winst :D)

  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
[b]-ETz-Memphis Z schreef op 06 mei 2004 @ 14:03:


Dan zou ik ook moeten toekomen met mijn 300Watt :D

Voor specs zie hieronder. (geen floppy, 5 Watt winst :D)
Dat hangt ervan af, is het een no name dan zou ik oppassen. Is het van een deftig merk dan moet het wel gaan.

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Niet op voorraad.


Anoniem: 93354

lekkere review, alleen jammer dat geen 1 plaatje het doet :/

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Bij mij doen ze het, misschien ff (een aantal keer )reloaden

Niet op voorraad.


  • iets
  • Registratie: Maart 2002
  • Laatst online: 10:31
Deathchant schreef op 06 mei 2004 @ 10:34:
Ik heb eens wat gespeculeerd over de voeding.
Ik heb een Zalman 400Watt voeding die 380 pure watts levert.

Met de 6800Ultra kom ik uit op het volgende:
Dit zijn slechts schattingen van mijzelf, misschien dat iemand kan verbeteren. Dit zijn top wattages:

HD WD 120Gig : 50W 5W (alleen bij spinup 20W)
GeForce 6800Ultra: 110W ( :?, lijkt me te veel)
Liteon DVD speler : 25W 5W (alleen bij spinup 25W)
Liteon CD Rewriter: 25W 5W (alleen bij spinup 25W)
Teac floppydrive : 5W
7 casefans :14W
Muis en keyboard : 6 W
Kingston mem 1G : 20W 5W
P4C800Deluxe : 25W
P4 2.6GHz : 80W
______________________+
Totaal vermogen : 360Watt 260W

Dan zou ik NET uitkomen met mijn voeding........
Aldus mijn schattig :P.

tvw


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15:31

Deathchant

Don't intend. Do!

iets schreef op 06 mei 2004 @ 15:02:
[...]

Aldus mijn schattig :P.
leg uit :P

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


  • k995
  • Registratie: November 2002
  • Laatst online: 02:05
iets schreef op 06 mei 2004 @ 15:02:
[...]

Aldus mijn schattig :P.
Je moet wel juist met de spinup getallen rekeken. Want het is dan dat hij het meeste vraagt en het is dan dat hij in de problemen kan komen.

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15:31

Deathchant

Don't intend. Do!

ow ja, er komen ook nog 2 recom lampjes bij :)
En ik vraag me af of de P4 zoveel stroom vreet

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


  • Jake
  • Registratie: September 1999
  • Niet online
offtopic:
Van HDD's, CD-rom en memory* kan je gewoon de specs opzoeken. Daarin staat hoeveel ze maximaal gebruiken. 50W voor 1 HDD(tje) lijkt mij erg veel. Je moet inderdaad met alle spinup getallen en andere maxima rekenen, omdat je niet wilt dat je PC zomaar op zijn plaat gaat (door bijvoorbeeld je HDD). IMO gaat overklokken niet samen met een (erg) krappe voeding.

* De rest waarschijnlijk ook wel.

[Voor 5% gewijzigd door Jake op 06-05-2004 16:51]


  • p.habo
  • Registratie: Oktober 2000
  • Laatst online: 17-01 11:37
k995 schreef op 06 mei 2004 @ 14:06:
[...]


Dat hangt ervan af, is het een no name dan zou ik oppassen. Is het van een deftig merk dan moet het wel gaan.
Hoezo... heb jij dan continu een floppy in je disk-drive die aan het horren is?

;)

Core i7-8700 (3,2 GHz) / MSI MAG Z390 Tomahawk / 2x16Gb / 2x MSI GTX 960 OC SL(n)i(e) / 2x Crucial MX500 SSD 250Gb / Be Quiet! Shadow Rock Slim


  • Benmen
  • Registratie: Augustus 2002
  • Laatst online: 06-06 19:02
Waar blijft topic! Deel3?

  • epo
  • Registratie: November 2000
  • Laatst online: 13:59
beetje jammer dat nergens battlefield is meegenomen in de tests.

  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
epo schreef op 06 mei 2004 @ 22:03:
beetje jammer dat nergens battlefield is meegenomen in de tests.
]

tja als je bedenkt dat daar een limiet is van 100 fps, beetje onzinnig lol

Battlefield 2 stats - Specs PC - X360 Gamertag


  • epo
  • Registratie: November 2000
  • Laatst online: 13:59
hmm ok, maar volgens mij is vietnam toch wel redelijk zwaar op 1600x1200 maar ok dat kan de reden zijn ja.

Acties:
  • 0Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Laatst online: 14:11

dion_b

Moderator Harde Waren

say Baah

Whoa, we zijn de 500 posts VER voorbij, hoogste tijd voor een Deel 3 :7
(het niveau tot nu toe is verfrissend hoog, hulde, ga zo door etc :D )

Soittakaa Paranoid!

Pagina: 1 ... 5 6 7 Laatste

Dit topic is gesloten.


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee