Toon posts:

[Algemeen] nVidia NV40 / GeForce 6800 Topic! Deel 2 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 7 Laatste
Acties:
  • 3.639 views sinds 30-01-2008

  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 13:47

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
nVidia NV40 / GeForce 6800 Topic! Deel 2

http://www.tweakers.net/ext/i.dsp/1081876688.jpg


Regeltjes!!!
Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic. Ook AMD vs. Intel reacties zijn hier niet welkom!

De 222 miljoen transistors tellende chip op 0,13 micron wordt geproduceerd door IBM, en werkt op een kloksnelheid van 400MHz. Het GDDR3-geheugen werkt zoals verwacht op 1,1GHz. Het lijkt erop dat nVidia bij het ontwerpen van deze enorme chip één van de grootste zwakke punten van NV3x recht heeft willen zetten, door extra aandacht te besteden aan de pixel- en vertexshaders.

http://www.tweakers.net/ext/i.dsp/1081875862.jpg


De NV40-core heeft zestien pipelines die per kloktik acht shaderinstructies op een pixel uit kunnen voeren, voor een totale pixelshaderkracht van 128 instructies per kloktik. De NV35 kon met zijn vier pipelines in totaal slechts twaalf instructies per kloktik verwerken. Ook zijn er in NV40 zes vertexshader-units aanwezig als vervanging van het dynamische systeem van NV3x dat het equivalent van twee à drie vertexshader-units aan performance opleverde. De GeForce 6800 is bovendien de eerste met ondersteuning voor pixel- en vertex-shader versie 3.0, waarmee niet alleen sommige bestaande effecten efficiënter gedaan kunnen worden, maar ook nieuwe grafische hoogstandjes mogelijk zijn dankzij de ondersteuning van if-then constructies.

http://www.tweakers.net/ext/i.dsp/1081876224.png
http://www.tweakers.net/ext/i.dsp/1081876838.png


De shaders zijn echter niet het enige punt waar aandacht aan geschonken is. De GeForce 6-series ondersteunt displacement mapping, floating point textures, 16x anti-aliasing, adaptive AF (anisotropic filtering), UltraShadow II (een feature waar met name spellen als Doom 3 van zullen profiteren) en betere compressietechnieken om geheugenbandbreedte te sparen. Verder is het referentiemodel voorzien van uitgebreide mogelijkheden op het gebied van ViVo. Naast twee DVI-poorten vinden we een MPEG-decoder, WMV9-accelerator, NTSC/PAL-decoder en DVD/HDTV-decoder. Dit alles wordt aangestuurd door ForceWare-driver 60.xx.

Een mogelijke domper op het grafische geweld is echter de hoeveelheid vermogen die het apparaat moet opnemen om zijn kunstjes te kunnen doen. Het is zeker dat de kaart twee molex-connectors vereist en er gebruik gemaakt wordt van een koeler met een heatpipe. nVidia wil ons met de persfoto's laten geloven dat het mogelijk is om deze koeling in de bescheiden ruimte van één slot te realiseren, maar de kaarten die het bedrijf aan reviewers heeft gestuurd werden geleverd met een koeler die met gemak een extra PCI-slot in beslag neemt. De reviewers zijn bovendien aangeraden om tenminste een 480 Watt-voeding te gebruiken om de testexemplaren te benchmarken. Of de productiekaarten die uiteindelijk in de winkels terecht zullen komen ook zulke zware eisen aan koeling en voeding stellen is nog even afwachten.

http://www.tweakers.net/ext/i.dsp/1081875782.jpg


http://www.tweakers.net/ext/i.dsp/1081965449.jpg



De GeForce 6800 Ultra verstookt ongeveer 120 Watt wanneer hij volledig belast wordt. De AGP-versie kaart vereist dan ook twee molex-connectors en nVidia raadt het gebruik van een 480 Watt-voeding aan. Er zijn echter al berichten opgedoken die beweren dat het prima werkt met mindere voedingen, zolang deze maar van goede kwaliteit zijn. Het ziet er naar uit dat in ieder geval de eerste kaarten voorzien zullen zijn van een koeler met heatpipe die twee slots in beslag neemt. Reviewers melden dat het ding tot hun verbazing stiller en lichter is dan de beruchte dustbuster van NV30. De snelheid van de fan wordt dynamisch geregeld en komt in een kast met goede airflow niet boven de 'medium' instelling uit, waarin hij naar verluidt nog overstemd wordt door de gemiddelde processorkoeler. Zonder goede airflow zal hij iets meer decibels genereren tijdens het spelen van spellen, maar het is sowieso niet aan te raden om een NV40 aan te schaffen voor een kast die niet goed gekoeld wordt; de warme lucht die van de kaart afkomt kan zonder fatsoenlijke afvoer leiden tot instabiliteit.

Hier een aantal plaatjes van Xbit Labs, welke de koeler heeft ontleed:

http://www.xbitlabs.com/images/video/nv40/nv40_cooler1.jpg
http://www.xbitlabs.com/images/video/nv40/nv40_cooler2.jpg
http://www.xbitlabs.com/images/video/nv40/nv40_cooler3.jpg



Boven op het plaatje een impressie van de grootte van de kaart, vergeleken met een ATI Radeon 9800XT, Hierop zijn ook goed de 2 Molex Connectors te zien.

Zowel van Asus als van Leadtek zijn er al plaatjes op het world-wide-web te vinden over hun versie van de 6800 Ultra:

Leadtek

WinFast A400 Ultra TDH MyVIVO on GeForce 6800 Ultra
http://vulcanus.its.tudelft.nl/tt/GoT/a400-1.jpg

http://vulcanus.its.tudelft.nl/tt/GoT/a400-2.jpg


Asus



Let-op, dit is een Computer animatie van het koelblok van Asus, het pcb is niet degene van de NV40.


Info:
Website
Tech Specs
T.net Frontpage
Demo's
Mirror van het demo filmpje Grootte: 20,4 MB

Reviews:
Tomshardware
FiringSquad
Beyond3D
tecChannel
Hardware Analysis
X-bit labs
Guru3D
ExtremeTech
TechReport
AnandTech
HardOCP (Benchmarks)
HardOCP (Technieken)

Met dank aan de vorige Topicstart van Hacku :) !

Met het verzoek van PolleWob om On-Topic blijven Aub :)


ik zal de TS in de loop van deze avond nog even aanpassen/verbeteren, Tips e.d. zijn welkom :) !

Rgr That Pollewob ;)

[Voor 33% gewijzigd door MisteRMeesteR op 15-04-2004 08:48]

www.google.nl


Anoniem: 87368

Toch denk ik niet dat de power die dit ding kan genoeg is. Ik had betere prestaties verwacht en ook hogere clocksnelheden want zijn best wel laag

  • Pollewob
  • Registratie: December 2000
  • Niet online
Ff de naam van de nieuwe kaart in de topictitel gezet :)

  • Andamanen
  • Registratie: Februari 2001
  • Niet online

Andamanen

Trotse eilandengroep

Anoniem: 87368 schreef op 14 april 2004 @ 22:32:
Toch denk ik niet dat de power die dit ding kan genoeg is. Ik had betere prestaties verwacht en ook hogere clocksnelheden want zijn best wel laag
Het is de eerste kaart uit een nieuwe generatie, over een paar maanden, na het perfectioneren van het productieproces zullen wel hoger geclockte kaarten zien. (misschien lichtelijk versneld als Ati met een beter product weet te komen)

Ik vind de prestaties toch best wel hoog, ondanks deze "bescheiden" clocksnelheden (die natuurlijk op zichzelf niks zeggen)

  • MUSTIS
  • Registratie: Juni 1999
  • Laatst online: 04-07 15:03

MUSTIS

ads by Google

zoals vaker gezegd betekenen die clocksnelheden niet zoveel, het gaat mij puur om het aantal frames en de beeldkwaliteit.

qua frames zit het hier wel goed, qua beeldkwaliteit ook vast wel.

Specs | Skeptic's Annotated Bible | Zeitgeist


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

edward2 schreef op 14 april 2004 @ 21:11 in deel 1 van dit topic:
De kwaliteit in Far Cry komt wel (meer dan!) in orde, deze gaat in ps.3.0 draaien ergens op b3d waren shots te zien.
De patch 1.1 gaf deze banding/artefats.
Dat heb ik ook gelezen, alleen normaal gesproken zou ps 3.0 toch een aanzienlijke performance hit moeten geven tov ps 1.1 / 2.0 ?

Verder heb ik nergen uit af kunnen leiden dat de beeldkwaliteitproblemen/pjes agv patch 1.1 zijn. Ik zal nog ff kijken op B3D wat ze zeggen over die 1.1 patch.

Ik hoop natuurlijk wel dat je gelijk krijgt. :)

ps: heb je enig idee wanneer MS directX 9.0c gaat releasen? Zal dit in de final van SP2 zitten?
Want als ik het goed begrijp dan kan ps 3.0 wel al in Far Cry zitten maar zonder DX9.0c zal het niet werken?

ps2: Dat van die vleugel was AA in Lock On op Firingsquad.

http://www.firingsquad.co...orce_6800_ultra/page7.asp
Daar zie je toch wel duidelijk dat ATI de mooiste kwaliteit heeft tot nu toe.

quote:
Check out the horizontal stabilizer on this F-15C, specifically the left stabilizer, just beneath the “LN” markings on the tail. GeForce 6800 Ultra looks much better than 5950 Ultra here, although in this case we've got to give the AA edge to ATI. The RADEON 9800 XT does a better job of removing the jaggies, and doesn't have the weird swirly marks found on the tail of the F-15C on both NVIDIA cards.

[Voor 6% gewijzigd door Help!!!! op 14-04-2004 22:54]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 14-09 08:24
Ik weet niet of jullie de review op tomshardware hebben gelezen, maar ik hoop spontaan dat ik morgen mijn fx5900 kan verkopen voor 200+ euro, want de 6800 is echt niet normaal meer!

  • joostve
  • Registratie: Januari 2002
  • Laatst online: 26-04 15:17
Schumi4ever schreef op 14 april 2004 @ 22:54:
Ik weet niet of jullie de review op tomshardware hebben gelezen, maar ik hoop spontaan dat ik morgen mijn fx5900 kan verkopen voor 200+ euro, want de 6800 is echt niet normaal meer!
zit je wel een tijdje zonder videokaart :P

C2D 6600, 275 GTX Windows 7


  • NexuZ
  • Registratie: Oktober 2001
  • Laatst online: 03-08 21:49
Ik moet zeggen dat ik onder de indruk ben van de prestaties van deze videokaart maar nu wacht ik nog op de release van de ATI x800. Kijken hoeveel het verschil dan nog is!

  • stunter
  • Registratie: December 2000
  • Laatst online: 16:32
De enigste vraag die ik nog heb is waarom zijn er geen benchmarks van de 6800 waarom alleen van de ultra.

  • silentsnow
  • Registratie: Maart 2001
  • Laatst online: 15-04-2013

silentsnow

« '-_-' »

De kaart gebruikt 600MHz GDDR3 Samsung chips, maar de kloksnelheid van die chips is 550MHz. Kan iemand dit verklaren :?

The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590


  • T.T.
  • Registratie: April 2000
  • Laatst online: 03-09 21:14

T.T.

Sowieso

Misschien heeft iemand in dit topic nog iets aan de mirror van het filmpje op de nVidia site:

MIRROR!!! Geforce_6800_demo_collage.wmv

Grootte: 20,4 MB (21.425.769 bytes)


Deze versie kun je tenminste gewoon opslaan in plaats van alleen streamen vanaf de trage nVidia site. Als je dat echter toch liever doet; hier kun je het filmpje vinden.

[Voor 57% gewijzigd door T.T. op 14-04-2004 23:15]


  • Dr. Strangelove
  • Registratie: Februari 2001
  • Laatst online: 30-09 19:49
Vast al eerder gepost, maar wie kan mij uitleggen wat ik op dit moment heb aan een NV40 als ik een 9800 Pro heb die alles wat er is op 1280x1024 (max. resolutie die ik fijn vind) met 4x FSAA en 4x AA kan draaien?

Zelfs spellen als Il-2 Sturmovik draaien bij mij ongelooflijk lekker.

Zou de tijd dan nu echt gekomen zijn dat de chipbakkers te ver voorlopen op de programmeurs? Als ik John Carmack mag geloven dan gaat iD, toch een trendsetter wanneer het op grafisch geweld aankomt, het voorlopig meer in de diepte zoeken (gameplay) dan in de breedte (eye candy). Zelfs al is dat niet zo, dan heb ik met mijn 9800 Pro voorlopig een kaart die alle Doom III-based spellen (genoeg voor de komende 2-3 jaar als we de prestaties van de QIII engine aanhouden) lekker kan spelen.

In elk geval weet ik nog dat ik best baalde toen ik mijn GF2Ti kocht dat ik geen Ultra kon betalen. Inmiddels zit ik met een 9800Pro en ik heb na een half jaar nog geen spel gezien dat het ding op zijn knieen krijgt ;)

Hulde aan nVidia voor z'on mooie kaart, en er zullen er waarschijnlijk een hoop van over de toonbank gaan, maar ik sla deze slag mooi over.

These are my principles. If you don't like them, I have others.


  • T.T.
  • Registratie: April 2000
  • Laatst online: 03-09 21:14

T.T.

Sowieso

Dr. Strangelove schreef op 14 april 2004 @ 23:07:
Vast al eerder gepost, maar wie kan mij uitleggen wat ik op dit moment heb aan een NV40 als ik een 9800 Pro heb die alles wat er is op 1280x1024 (max. resolutie die ik fijn vind) met 4x FSAA en 4x AA kan draaien?

Zelfs spellen als Il-2 Sturmovik draaien bij mij ongelooflijk lekker.

Zou de tijd dan nu echt gekomen zijn dat de chipbakkers te ver voorlopen op de programmeurs? Als ik John Carmack mag geloven dan gaat iD, toch een trendsetter wanneer het op grafisch geweld aankomt, het voorlopig meer in de diepte zoeken (gameplay) dan in de breedte (eye candy). Zelfs al is dat niet zo, dan heb ik met mijn 9800 Pro voorlopig een kaart die alle Doom III-based spellen (genoeg voor de komende 2-3 jaar als we de prestaties van de QIII engine aanhouden) lekker kan spelen.

In elk geval weet ik nog dat ik best baalde toen ik mijn GF2Ti kocht dat ik geen Ultra kon betalen. Inmiddels zit ik met een 9800Pro en ik heb na een half jaar nog geen spel gezien dat het ding op zijn knieen krijgt ;)
Dat was ook bij de vorige generatie toch zo? Programmeurs hebben gewoon een tijdje nodig om de nieuwe mogelijkheden onder de knie te krijgen.
En nee, niemand heeft op dit moment een NV40 nodig. Je kunt je echter ook afvragen of je wel een 9800Pro nodig zou hebben. Het is gewoon een luxe-probleem :)
Hulde aan nVidia voor z'on mooie kaart, en er zullen er waarschijnlijk een hoop van over de toonbank gaan, maar ik sla deze slag mooi over.
Ik denk niet dat er veel van verkocht zullen worden. Dit is meer een kaart voor de uitstraling van een bedrijf. Kijk maar naar auto-fabrikanten: je maakt een heel mooie (en dure auto) die voor bijna niemand is weggelegd maar die iedereen wel wil hebben. Dat heeft echter wel een positieve invloed op het imago van het merk. En dus worden er van goedkopere modellen meer verkocht.

[Voor 3% gewijzigd door T.T. op 14-04-2004 23:12]


  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 13:47

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
T.T. schreef op 14 april 2004 @ 23:07:
Misschien heeft iemand in dit topic nog iets aan de mirror van het filmpje op de nVidia site:

MIRROR!!! Geforce_6800_demo_collage.wmv

Grootte: 20,4 MB (21.425.769 bytes)
staat erbij hoor :>

www.google.nl


  • kutkip
  • Registratie: Oktober 2001
  • Laatst online: 24-09 14:21
http://www.firingsquad.co...orce_6800_ultra/page7.asp

Helemaal onderaan de pagina. Valt me op dat de lijnen op de grond (bij die vliegtuigen) bij de Geforces veel mooier is dan de Ati, hebben ze per ongeluk AF aan staan of hoe zit dat?

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dr. Strangelove schreef op 14 april 2004 @ 23:07:
Vast al eerder gepost, maar wie kan mij uitleggen wat ik op dit moment heb aan een NV40 als ik een 9800 Pro heb die alles wat er is op 1280x1024 (max. resolutie die ik fijn vind) met 4x FSAA en 4x AA kan draaien?

Zelfs spellen als Il-2 Sturmovik draaien bij mij ongelooflijk lekker.

Zou de tijd dan nu echt gekomen zijn dat de chipbakkers te ver voorlopen op de programmeurs? Als ik John Carmack mag geloven dan gaat iD, toch een trendsetter wanneer het op grafisch geweld aankomt, het voorlopig meer in de diepte zoeken (gameplay) dan in de breedte (eye candy). Zelfs al is dat niet zo, dan heb ik met mijn 9800 Pro voorlopig een kaart die alle Doom III-based spellen (genoeg voor de komende 2-3 jaar als we de prestaties van de QIII engine aanhouden) lekker kan spelen.

In elk geval weet ik nog dat ik best baalde toen ik mijn GF2Ti kocht dat ik geen Ultra kon betalen. Inmiddels zit ik met een 9800Pro en ik heb na een half jaar nog geen spel gezien dat het ding op zijn knieen krijgt ;)

Hulde aan nVidia voor z'on mooie kaart, en er zullen er waarschijnlijk een hoop van over de toonbank gaan, maar ik sla deze slag mooi over.
Met alle respect maar ik heb geen kinderachtig systeem waarin een 9800pro zit @ almost XT waarden.

Ik vind eyecandy belangrijk en wil graag alle spelen op 1280*1024 kunnen spelen met alles op high, in ieder geval AF hoog en het liefst AA ook hoog.

Met die settings krijgen Far Cry en FS2004 mijn pc'tje echt wel op de knieeen. :X

Verder wil ik nog ff kwijt dat ik m.n. de conclusie van XBITlabs.com erg goed vind. Gewoon nix bleren maar gewoon afgewogen en genuanceerd. _/-\o_

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


Anoniem: 87368

ik vind wel dat ze er eigelijk een externe power suply hadden moeten maken net zoals 3dfx ooit gedaan had :) . Die voedings eis slaat gewoon nergens op 8)7

  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 13:47

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
kutkip schreef op 14 april 2004 @ 23:13:
http://www.firingsquad.co...orce_6800_ultra/page7.asp

Helemaal onderaan de pagina. Valt me op dat de lijnen op de grond (bij die vliegtuigen) bij de Geforces veel mooier is dan de Ati, hebben ze per ongeluk AF aan staan of hoe zit dat?
MWah... maar als je dan deze 2 weer vergelijkt:

GeForce 6800 Ultra:
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/nv40lomac.png

ATI Radeon 9800XT
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/atilomac.png

Dan zien de vleugels van de vliegtuigen er bij ATI veel beter uit... dusja..

EDIT:
Anoniem: 87368 schreef op 14 april 2004 @ 23:18:
ik vind wel dat ze er eigelijk een externe power suply hadden moeten maken net zoals 3dfx ooit gedaan had :) . Die voedings eis slaat gewoon nergens op 8)7
Het is geen eis, het is een advies.. zodat je systeem stabiel draait.

[Voor 20% gewijzigd door MisteRMeesteR op 14-04-2004 23:20]

www.google.nl


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

MisteRMeesteR schreef op 14 april 2004 @ 23:19:
[...]

MWah... maar als je dan deze 2 weer vergelijkt:

GeForce 6800 Ultra:
[afbeelding]

ATI Radeon 9800XT
[afbeelding]

Dan zien de vleugels van de vliegtuigen er bij ATI veel beter uit... dusja..
Die bedoelde ik dus in mijn posting ergens hierboven.

Ik verwacht toch wel van nVidia dat ze dit in hun drivers kunnen oplossen. Zoniet, vind ik dat toch wel een redelijk minpuntje.
AA/AF implementatie moet gewoon goed zijn anno april 2004 want gebreken op dat gebied worden gewoon keihard afgestraft.

[Voor 3% gewijzigd door Help!!!! op 14-04-2004 23:23]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


Anoniem: 87368

Advies ? dus als ze al over zoiets beginnen te mekkere he. advies my ass. dus hun zeggen gewoon dat die kaart op een 350watt voeding niet stabiel kan draaien . want beter stabiel dan tjah uhhh.......... get my point :?

  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
MisteRMeesteR schreef op 14 april 2004 @ 23:19:


Het is geen eis, het is een advies.. zodat je systeem stabiel draait.
Net zoals benzine in de gastank van je auto zeker :P

specs desktop | specs laptop


  • T.T.
  • Registratie: April 2000
  • Laatst online: 03-09 21:14

T.T.

Sowieso

shuogg schreef op 14 april 2004 @ 23:24:
Net zoals benzine in de gastank van je auto zeker :P
Hehe wat MisteRMeesteR bedoelt is denk ik wat ik in deel1 ook al zei:
T.T. schreef op 14 april 2004 @ 17:16:
• Kaart gebruikt ongeveer 20Watt meer dan Radeon 9800XT
• Vooral belangrijk is een stabiele voeding
• Voeding van 480Watt wordt aanbevolen omdat je dan zeker geen problemen krijgt.
• behalve de videokaart gebruiken andere onderdelen ook steeds meer stroom, dat moet ook worden meegenomen

Kortom: een goede voeding van 400Watt werkt waarschijnlijk prima als je niet te veel harde schijven etc hebt. Een noname voeding van 300Watt werkt misschien ook wel, maar je hebt grote kans dat je systeem dan niet stabiel is. Hetzelfde heb je nu al bij andere top-kaarten. nVidia maakt het alleen explicieter.
Je kunt met zoveel verschillende configuraties niet zeggen xxxWatt is goed voor iedereen. Als je dan aan de veilige kant gaat zitten met je advies zou je op 480Watt uit kunnen komen. Als jij echter een AthlonXP Mobile + 512MB geheugen + 80GB 512rpm harddisk en alles onboard hebt, dan gebruik jij echt niet veel stroom. Dan kun je waarschijnlijk makkelijk met een 400Watt voeding af, misschien wel minder zelfs. Koop je echter een Prescott 3.6GHZ + 1GB PC4000 + 2x S-ATA Raid harddisks etc etc dan wil je zeker wel een goede 480Watt voeding hebben :)

Kortom: er zijn zoveel variabelen. nVidia geeft gewoon een advies voor een stabiel systeem, maar dat wil niet zeggen dat een zwakkere voeding niet zal werken.

[Voor 5% gewijzigd door T.T. op 14-04-2004 23:33]


  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 13:47

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
Anoniem: 87368 schreef op 14 april 2004 @ 23:22:
Advies ? dus als ze al over zoiets beginnen te mekkere he. advies my ass. dus hun zeggen gewoon dat die kaart op een 350watt voeding niet stabiel kan draaien . want beter stabiel dan tjah uhhh.......... get my point :?
Ok, ik zal het proberen uit te leggen:

Voor wie is deze kaart bedoelt? idd, voor de high end users! Mensen met een Duron 900 (w/e) zullen deze kaart echt niet gaan kopen hoor.. en ook al zouden ze deze kaart wel kopen, zouden ze nog geen 480 watt PSU nodig hebben.. Maar mensen met een vette P4 (Prescott :P) wel.. en die slurpt ook al wat weg.. dan nog mem, hdd's (al gauw 2.. liefst nog in raid-0). Zodoende slurpt het systeem al gauw heel wat watt's weg. Om te voorkomen dat de consumenten nVidia gaan beschuldigen dat hun systeem instabiel is.. (vanwege een te zwakke PSU) geven ze het advies om minimaal een 480 watt PSU te hebben. Zodat ze naar aanleiding van de voeding geen/nauwelijks klachten binnenkrijgen (behalve van mensen die hun energie rekening omhoog zien stijgen :P)

Zo zie ik het naar eigen zeggen advies van nVidia :), ik kan natuurlijk de plank helemaal misslaan.. maargoed.. ik w8 je reply wel af ;)
shuogg schreef op 14 april 2004 @ 23:24:
[...]


Net zoals benzine in de gastank van je auto zeker :P
Sorry, deze opmerking ontgaat mij even :P

EDIT: Zie post hierboven :P

[Voor 7% gewijzigd door MisteRMeesteR op 14-04-2004 23:34]

www.google.nl


  • VirtualJr
  • Registratie: April 2002
  • Laatst online: 23-11-2018
Kun je eigenlijk ergens aflezen hoeveel W er op dit moment uit je voeding getrokken word? Dus hoeveel je in feite "over" zou hebben voor deze kaart? Of is er geen manier om de load van je voeding te weten te komen?

  • GertjanO
  • Registratie: Maart 2002
  • Nu online
Help!!!! schreef op 14 april 2004 @ 23:21:
[...]

Die bedoelde ik dus in mijn posting ergens hierboven.

Ik verwacht toch wel van nVidia dat ze dit in hun drivers kunnen oplossen. Zoniet, vind ik dat toch wel een redelijk minpuntje.
AA/AF implementatie moet gewoon goed zijn anno april 2004 want gebreken op dat gebied worden gewoon keihard afgestraft.
En dan vraag ik het volgende: Ja, het is zo dat wanneer je een 10+ seconden naar de plaatjes zit te kijken je inderdaad (kleine en grotere) verschillen ziet tussen de ATi en nVidia kaart. Maar merk je er ook wat van in het spel zelf. Zeker ano 2004, waar alle spellen enkel uit snelle bewegingen bestaan vraag ik mij af of je het verschil ziet.

Voor alle duidelijkheid, ik wacht ook op de X800XT voor ik een definitieve beslissing neem, maar uiteindelijk ga ik voor de kaart die de beste FPS/Beeldkwaliteit verhouding heeft. Nu is dat sowieso de NV40.

  • epo
  • Registratie: November 2000
  • Laatst online: 13:58
Dr. Strangelove schreef op 14 april 2004 @ 23:07:
Vast al eerder gepost, maar wie kan mij uitleggen wat ik op dit moment heb aan een NV40 als ik een 9800 Pro heb die alles wat er is op 1280x1024 (max. resolutie die ik fijn vind) met 4x FSAA en 4x AA kan draaien?
Inmiddels zit ik met een 9800Pro en ik heb na een half jaar nog geen spel gezien dat het ding op zijn knieen krijgt ;)
.
hmm Far Cry full options ? BF Vietnam full options ? en al de komende spelen zoals hl2 em d3 zullen van jouw en mijn 9800pro een slak maken :o

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 03:30

edward2

Schieten op de beesten

Help!!!! schreef op 14 april 2004 @ 22:49:
[...]

Dat heb ik ook gelezen, alleen normaal gesproken zou ps 3.0 toch een aanzienlijke performance hit moeten geven tov ps 1.1 / 2.0 ?

Verder heb ik nergen uit af kunnen leiden dat de beeldkwaliteitproblemen/pjes agv patch 1.1 zijn. Ik zal nog ff kijken op B3D wat ze zeggen over die 1.1 patch.

Ik hoop natuurlijk wel dat je gelijk krijgt. :)

ps: heb je enig idee wanneer MS directX 9.0c gaat releasen? Zal dit in de final van SP2 zitten?
Want als ik het goed begrijp dan kan ps 3.0 wel al in Far Cry zitten maar zonder DX9.0c zal het niet werken?
De verwachting is dat met ps.3.0 het zelfs sneller zal gaan. Ik weet niet wanneer dx90c uitkomt, volgens mij duurt dat niet lang.

Ik weet zeker dat de kwaliteit van Far Cry goed komt.
Die GeForce6800U gaat met nu 32 bits fp precisie goed presteren dus dat moet goed komen.

Hier een voorbeeld, helaas slecht ingescand, maar de extra diepte die in de textures lijkt zitten met meer 3d (lijkt wel een soort extra laag) lijkt al te zien:

http://mysite.freeserve.com/smallsheep/Far_Cry_Pixel3.jpg


http://www.beyond3d.com/forum/viewtopic.php?t=11525

Van die patch had ik iets op het forum van nvnews.net gelezen.

[Voor 23% gewijzigd door edward2 op 14-04-2004 23:44]

Niet op voorraad.


Anoniem: 87368

MisteRMeesteR schreef op 14 april 2004 @ 23:31:
[...]


Zo zie ik het naar eigen zeggen advies van nVidia :), ik kan natuurlijk de plank helemaal misslaan.. maargoed.. ik w8 je reply wel af ;)
ja je hebt wel een beetje gelijk maar uhm toch zouden ze er eene externe supley bij moeten leveren :+

Anoniem: 110489

epo schreef op 14 april 2004 @ 23:37:
[...]


hmm Far Cry full options ? BF Vietnam full options ? en al de komende spelen zoals hl2 em d3 zullen van jouw en mijn 9800pro een slak maken :o
Dit gaat echt wel meevallen hoor...., Farcry en DoomIII draaien op full options
als een speer bij mij op m,n 9800PRO non overclocked.
Moest er wel een A64 ingooien maar ja.....

Anoniem: 100987

Hmm, ik zat ook al te kijken op dat forum. Dit beeld ben ik helemaal nooit tegen gekomen in far cry. :S Er was ook al iemand die dacht dat het van de UnrealEngine 3 was maar die hud is toch echt van far cry. :S

  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 13:47

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
Anoniem: 87368 schreef op 14 april 2004 @ 23:42:
[...]


ja je hebt wel een beetje gelijk maar uhm toch zouden ze er eene externe supley bij moeten leveren :+
haha :D kip! :P

Een Externe PSU alleen voor de GFX, ~230V erop en gaan >:).. ik zie dit in de toekomst nog wel gebeuren... externe PSU's voor verschillende onderdelen voor de PC.. maargoed.. Dit Topic is het NV40 Topic ;)

www.google.nl


Anoniem: 100987

http://www.gamer.nl/nieuws/21596 Als je dit leest zou je toch denken dat het wel van UnrealEngine 3 is.

  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
MisteRMeesteR schreef op 14 april 2004 @ 23:31:
[...]


Sorry, deze opmerking ontgaat mij even :P
Een advies, maar niet verplicht ;)

specs desktop | specs laptop


  • MisteRMeesteR
  • Registratie: December 2001
  • Laatst online: 13:47

MisteRMeesteR

Moderator Internet & Netwerken

Is Gek op... :)

Topicstarter
shuogg schreef op 14 april 2004 @ 23:49:
[...]


Een advies, maar niet verplicht ;)
I C :+

En nu slapen :) Tips voor de TS zijn nog altijd welkom :Y)

www.google.nl


  • epo
  • Registratie: November 2000
  • Laatst online: 13:58
Anoniem: 110489 schreef op 14 april 2004 @ 23:44:
[...]


Dit gaat echt wel meevallen hoor...., Farcry en DoomIII draaien op full options
als een speer bij mij op m,n 9800PRO non overclocked.
Moest er wel een A64 ingooien maar ja.....
hehe 1600x1200 >:) ?

Anoniem: 110489

epo schreef op 14 april 2004 @ 23:53:
[...]


hehe 1600x1200 >:) ?
Dan moet ik m,n bril op gaan zetten.........lolz

  • epo
  • Registratie: November 2000
  • Laatst online: 13:58
nah das in 2d niet in 3d

  • silentsnow
  • Registratie: Maart 2001
  • Laatst online: 15-04-2013

silentsnow

« '-_-' »

The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590


  • Vincent Meijer
  • Registratie: Augustus 2000
  • Laatst online: 29-09 21:18

Vincent Meijer

You better believe it!

(jarig!)
Heeft iemand al iets gelezen over de kwaliteit van de DVI outputs? Deze waren vaak matig van op Nvidia chips gebaseerde videokaarten als je hogere resoluties dan 1280x1024 gebruikte. Ik hoop overigens dat veel fabrikanten de dual dvi aansluiting hanteren op hun kaarten ipv een vga en een dvi aansluiting. Natuurlijk moeten er dan wel weer 2 dvi naar vga verloopstekkers worden meegeleverd. Worden beide dvi poorten trouwens door de NV40 zelf aangestuurd of wordt er gebruik gemaakt van een extra transmitter van bijvoorbeeld Silicon.

Systeem specs


  • Tyrian
  • Registratie: Maart 2001
  • Niet online

Tyrian

It's Unreal.

http://www.primetimenewspapers.com/images/tip.gif Wist u dat: Een vragende zin eindigt met een vraagteken?

http://www.hypercoop.tk | GW user page | GW2 user page

Specs


  • SlowikPL
  • Registratie: December 2001
  • Laatst online: 17-09 07:08
Is er bij ale deze reviews de VGA niet oveklokt om even te zien hoveel nog ruimte over is:? vreemd !

* Intel Core i7-6700K @ 4.8Ghz * Asus MAXIMUS VIII EXTREME* nVidia Asus Poseidon 1080Ti * Mushkin 16 GB * SSD Samsung M.2 2280 256GB + 3x Samsung 256GB 850Pro* Enermax Revolution85+ 1250W * CM Stacker 832 SE * Waretcooling CPU, NB ,VGA 3x Mora


Anoniem: 52896

xbit heeft de kaart wel wat oc'ed

als ik naar de benchmarks kijk ziet het eruit alsof ze hem op 435 / 1150 hebben draaien

  • Volk
  • Registratie: Januari 2004
  • Laatst online: 30-09 09:29
is het eigenlijk ook mogelijk om als je niet zon hele beste voeding (lees: Qtec), dat je dan zeg maar nog een externe voeding erbij koopt (300watt ofzo) die je dan apart inschakeld als je gaat compjoeteren.

Of is dat extreem slecht voor de plank als je de stroom eerder/later inschakeld op die GF6800 dan op je moederbord.

  • nvidia
  • Registratie: Februari 2003
  • Laatst online: 19-08 23:39
Ik verwacht veel van deze kaart maar daarvoor is het eigenlijk nog beetje te vroeg! Ben niet echt pro ati of pro nvidia!! Degene die de beste condities (kwaliteit, prestaties, prijs) geeft, daarvan zal afhangen wat mn volgende vga wordt!! Ik blijf deze topic dus mooi volgen ....

Partners: AV-Solutio | Mutrox | B&W | Trinnov


  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
nvidia schreef op 15 april 2004 @ 10:36:
Ik verwacht veel van deze kaart maar daarvoor is het eigenlijk nog beetje te vroeg! Ben niet echt pro ati of pro nvidia!! Degene die de beste condities (kwaliteit, prestaties, prijs) geeft, daarvan zal afhangen wat mn volgende vga wordt!! Ik blijf deze topic dus mooi volgen ....
lol!
Niet pro nvidia
En dan is je naam nvidia :D

specs desktop | specs laptop


  • blix
  • Registratie: November 2002
  • Laatst online: 24-09 06:25
fanboy! :>

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
silentsnow schreef op 14 april 2004 @ 23:03:
De kaart gebruikt 600MHz GDDR3 Samsung chips, maar de kloksnelheid van die chips is 550MHz. Kan iemand dit verklaren :?
Niet alle reviewsamples gebruiken 600 Mhz GDDR3 Samsungchips. Die van HardOCP gebruikte geloof ik 500 Mhz GDDR3 Samsungchips, maar deze waren standaard geoverklokt naar 550Mhz. Er gaan ook theorieen dat o.a. daarom er zo'n groot koelblok op zit om de overklok te kunnen garanderen.

Is het iemand ook opgevallen dat de 400 Mhz van de 6800Ultra eigenlijk 75 Mhz lager is dan de versies op GDC die op 475 Mhz liepen? En bij het kijken in de ID is men er bij Beyond3D achter gekomen dat het ID nummer correspondeert met de 6800 NON ultra.

Tevens is er op alle reviewsamples het een en ander handmatig gewijzigd... dus wat zou er aan de hand zijn?

- Of nVidia houdt nog een snellere versie achter de hand...
- Of nVidia had problemen met de cooling, temperatuur oid.

Zelf denk ik het laatste aangezien overklokken bij bv HardOCP niet verder kwam dan 430Mhz core en 1200 Mhz mem.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Fr0zenFlame
  • Registratie: September 2003
  • Laatst online: 25-09 15:39

Fr0zenFlame

LAN 'A Holic

Is dit geen oplossing voor de cooling :p :D

http://www.tweakers.net/ext/i.dsp/1081977349.jpg
(Dan niet op de CPU maar op de GPU voor de slimmerts onder ons;) )

GReetZz

[Voor 23% gewijzigd door Fr0zenFlame op 15-04-2004 11:43]

i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero


  • nvidia
  • Registratie: Februari 2003
  • Laatst online: 19-08 23:39
nvidia schreef op 15 april 2004 @ 10:36:
Ik verwacht veel van deze kaart maar daarvoor is het eigenlijk nog beetje te vroeg! Ben niet echt pro ati of pro nvidia!! Degene die de beste condities (kwaliteit, prestaties, prijs) geeft, daarvan zal afhangen wat mn volgende vga wordt!! Ik blijf deze topic dus mooi volgen ....

lol!
Niet pro nvidia
En dan is je naam nvidia :D
Tis niet omdat mn nick nvidia is dat ik ook nvidia gericht ben! Heb hier nu een 9800 Pro zitten, dus dit zegt al genoeg!!

lol, ja laten we dit es proberen, zo'n zalman op de gpu, es zien wat voor scores er mee zullen gehaald worden!! Info over de reserator kan je hier vinden!

Partners: AV-Solutio | Mutrox | B&W | Trinnov


  • Xtinction
  • Registratie: Maart 2000
  • Laatst online: 28-09 15:30

Xtinction

el cheapo gamer

oftopic] Gast, waarom schreeuw je alles, doet de . op je tobo het niet meer of zo :D[/offtopic]

Ikzelf ben ZEER onde de indruk van de cijfers. Dit is andere koek dan de 9700-9800XT bullshit waar we eerst mee te kampen hadden, vooruitgang was gewoon te traag. Nu lijkt het eindelijk weer de goede richting op te gaan, een performancewinst van 100% in sommige games, zo hoort het :)

Een ding though.. als het zo doorgaat streven de videokaarten de CPU's voorbij en worden de cpu's altijd de bottleneck right? Zouden ze dan een GPU2 oid moeten ontwikkelen om nog meer stress van de cpu af te halen? Als je nu al ziet dat de p4 EE de 6800 niet eens bij kan houden, hoe moet het dan dalijk gaan, als de volgende sprong net zo groot is? Antialiasing en AF toevoegen kan ook maar tot een bepaald punt...

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 03:30

edward2

Schieten op de beesten

Niet op voorraad.


  • XyS
  • Registratie: Februari 2004
  • Laatst online: 09:43

XyS

0.o.O

ze werken niet? :( (de filmpies)

[Voor 27% gewijzigd door XyS op 15-04-2004 12:26]


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 30-09 16:45

Deathchant

Don't intend. Do!

off topic: ik hoop dat splintercell 2 wel goed draait op de 6800Ultra.
Kep nog nooit een artifact gezien, dus ik zou niet weten hoe die eruit zien.
Ik krijg van die rare dingen bij splintercell nu onder ELKE resolutie. Ik heb niets
ge-oc'd, en geen AA en AF enabled. Ik zit wel nog pas in het beginlevel, maar dat zegt niks. Software zal wel brak zijn.

Canon: R6 | 16-35 | 70-200 II
Zeiss: 50MP | 100MP | 135 APO


  • T.T.
  • Registratie: April 2000
  • Laatst online: 03-09 21:14

T.T.

Sowieso

http://www.evilmofo.com/images/geforcelan/

Dat zal het wel moeten zijn, maar zoals je kunt op zijn site zien heeft hij liever dat je de website bezoekt en niet hotlinkt :)

  • Madrox
  • Registratie: Mei 2002
  • Laatst online: 27-09 20:01

Madrox

Oh, Pharaoh!

Fr0zenFlame schreef op 15 april 2004 @ 11:42:
Is dit geen oplossing voor de cooling :p :D

[afbeelding]
(Dan niet op de CPU maar op de GPU voor de slimmerts onder ons;) )

GReetZz
duud , je kan er gewoon een CPU EN! een vga mee koelen :+

Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08 22:00
is dat nu displacement mapping of offset mapping??
R3xx kaarten moeten dat ook kunnen hoor

  • H!GHGuY
  • Registratie: December 2002
  • Niet online

H!GHGuY

Try and take over the world...

Anoniem: 110489 schreef op 14 april 2004 @ 23:44:
[...]


Dit gaat echt wel meevallen hoor...., Farcry en DoomIII draaien op full options
als een speer bij mij op m,n 9800PRO non overclocked.
Moest er wel een A64 ingooien maar ja.....
sure... jij hebt al DOOM III staan???

ASSUME makes an ASS out of U and ME


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 03:30

edward2

Schieten op de beesten

oeLangOetan schreef op 15 april 2004 @ 12:33:
[...]


is dat nu displacement mapping of offset mapping??
R3xx kaarten moeten dat ook kunnen hoor
Zit ik ook aan te twijfelen, kan de R300 dat ook in hardware? Ik dacht dat voor de NV40 alleen de Parhelia dat kon.

Niet op voorraad.


  • H!GHGuY
  • Registratie: December 2002
  • Niet online

H!GHGuY

Try and take over the world...

Anoniem: 87368 schreef op 14 april 2004 @ 23:22:
Advies ? dus als ze al over zoiets beginnen te mekkere he. advies my ass. dus hun zeggen gewoon dat die kaart op een 350watt voeding niet stabiel kan draaien . want beter stabiel dan tjah uhhh.......... get my point :?
volgens mij willen ze gewoon verzekeren dat de beide voltlijnen samen genoeg wattage kunnen leveren... dit is met cheap-ass no-name voedingen meestal neit het geval... waarschijnlijk heeft nVidia daarvoor een grondig onderzoek gedaan binnen de hedendaagse voedingen, en zijn ze tot de conclusie gekomen dat wanneer je een 480W voeding hebt, dit binnen een redelijk systeem meer dan voldoende is...

steek deze kaart in een magere PC (daarmee bedoel ik zonder 5HD's 2 DVD-RW's 5 fan's enz) en ze draait zeker stabiel op een stevige 400W voeding (geen no-name brol uit een nog no-namere case)

ASSUME makes an ASS out of U and ME


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dit ziet er wel erg :9 uit. Als dit ook nog zonder al te grote performance hit kan, dan is het een erg positief punt voor nvidia.

Wat ik me dus afvraag is:
Zullen nextgen spelen met ps3.0 idd snel draaien op de 6800ultra of gaat het met een grote performance hit gepaard en is ps3.0 alleen handig voor developers?

Als de 6800U ps 3.0 op goede snelheid kan draaien, dan hoop ik voor ATI dat de geruchten over onvolledige PS3.0 support op de r420 onjuist zijn.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • AsEeL
  • Registratie: November 2002
  • Laatst online: 08-03-2018
Ik vin het maar raar wat men nu zegt.
Ik heb geen nood aan een 6800U want met een 9800XT kan ik alles draaien.
FOUT!!!

Ik kan ik met mijn TI4200 ook farcry draaien maar de kwaliteit trekt op niks.
Is het daarom niet dat de meesten zich een nieuwe graka aanschaffen?
Nieuwe betere technologiën zoals de pixel shader 2.0 en directx9...???
Dus mooiere beeldweergave en mooiere details.

En nu heeft de 6800U pixel shader 3.0 dus is de kwali nog beter dan op de 9800XT kaart... dus daar heb je weer die reden om dees kaart te kopen...

Sneller en mooier.
Dus zwijg mij over het smoesje van ik kan gerust verder met mijn 9800XT als je idertijd je andere vidiokaart hebt omgeruild om oogsnoep te kunnen draaien.

INTEL CORE I5 2.5K // Corsair 4 x 4GB CMZ16GX3M4X1866C9R // GA-Z68X-UD3H-B3 V1.3 bios F11 // ASUS Nvidia GTX560Ti // Samsung 830 Series 128Gb SSD // Corsair 550W


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

GertjanO schreef op 14 april 2004 @ 23:37:
[...]


En dan vraag ik het volgende: Ja, het is zo dat wanneer je een 10+ seconden naar de plaatjes zit te kijken je inderdaad (kleine en grotere) verschillen ziet tussen de ATi en nVidia kaart. Maar merk je er ook wat van in het spel zelf. Zeker ano 2004, waar alle spellen enkel uit snelle bewegingen bestaan vraag ik mij af of je het verschil ziet.

Voor alle duidelijkheid, ik wacht ook op de X800XT voor ik een definitieve beslissing neem, maar uiteindelijk ga ik voor de kaart die de beste FPS/Beeldkwaliteit verhouding heeft. Nu is dat sowieso de NV40.
Tja als je hem eenmaal gekocht hebt dan weet je idd niet beter, zeker als je niet regelmatig met een kaart van de concurrent speelt.

Ik vind het alleen echt geen argument om daarom de beeldkwaliteitsverschillen te bagatalliseren. Ze zijn namelijk gewoon aanwezig en een hoop kleine minpuntjes bij elkaar (iets mindere AA, af en toe rare effecten op de textures, enz) zorgen er wel voor dat de totale beeldkwaliteit minder wordt. En dit is zichtbaar dus waarom zou je bij gelijke prijs voor mindere beeldkwaliteit kiezen. :?

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Help!!!! schreef op 15 april 2004 @ 12:57:
[...]

Dit ziet er wel erg :9 uit. Als dit ook nog zonder al te grote performance hit kan, dan is het een erg positief punt voor nvidia.

Wat ik me dus afvraag is:
Zullen nextgen spelen met ps3.0 idd snel draaien op de 6800ultra of gaat het met een grote performance hit gepaard en is ps3.0 alleen handig voor developers?

Als de 6800U ps 3.0 op goede snelheid kan draaien, dan hoop ik voor ATI dat de geruchten over onvolledige PS3.0 support op de r420 onjuist zijn.
Volgens mij is ATi er heilig van overtuigd dat ze met PS2.0 alles kunnen doen wat ook met PS3.0 kan (behalve dan op 32 FP :P )... wat ze belangrijker vinden is de manier en efficientie waarop dit gebeurt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • AsEeL
  • Registratie: November 2002
  • Laatst online: 08-03-2018
Help!!!! schreef op 15 april 2004 @ 13:07:
[...]

Tja als je hem eenmaal gekocht hebt dan weet je idd niet beter, zeker als je niet regelmatig met een kaart van de concurrent speelt.

Ik vind het alleen echt geen argument om daarom de beeldkwaliteitsverschillen te bagatalliseren. Ze zijn namelijk gewoon aanwezig en een hoop kleine minpuntjes bij elkaar (iets mindere AA, af en toe rare effecten op de textures, enz) zorgen er wel voor dat de totale beeldkwaliteit minder wordt. En dit is zichtbaar dus waarom zou je bij gelijke prijs voor mindere beeldkwaliteit kiezen. :?
Omdat deze kleine beelfouten nog op te lossen zijn... We zitten hier nog steeds in beta drivers en eerste versie van nieuwe kaart... Ati zal waarschijnlijk minder problemen hiermee hebben omdat ze verder bouwen op hun 360 core...
Maar of de performance het zelfde gaat zijn... Daar heb ik toch mijn twijfels over.
Laten we niet vergeten dat nvidia een doel had... Weer het kroontje overnemen... terwijl ati minder gemotiveerd is...

INTEL CORE I5 2.5K // Corsair 4 x 4GB CMZ16GX3M4X1866C9R // GA-Z68X-UD3H-B3 V1.3 bios F11 // ASUS Nvidia GTX560Ti // Samsung 830 Series 128Gb SSD // Corsair 550W


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

CJ schreef op 15 april 2004 @ 13:14:
[...]


Volgens mij is ATi er heilig van overtuigd dat ze met PS2.0 alles kunnen doen wat ook met PS3.0 kan (behalve dan op 32 FP :P )... wat ze belangrijker vinden is de manier en efficientie waarop dit gebeurt.
Time will tell ;) (mij zouhet niet verbazen als ATI toch volledig ps 3.0 ondersteund)

Toch denk ik dat ontwikkelaars graag een volledig op ps 3.0 werkende kaart in hun machine willen hebben. En als zij op "jouw" kaart werken is dat denk ik een voordeel.
AsEeL schreef op 15 april 2004 @ 13:16:
[...]


Omdat deze kleine beelfouten nog op te lossen zijn... We zitten hier nog steeds in beta drivers en eerste versie van nieuwe kaart... Ati zal waarschijnlijk minder problemen hiermee hebben omdat ze verder bouwen op hun 360 core...
Maar of de performance het zelfde gaat zijn... Daar heb ik toch mijn twijfels over.
Laten we niet vergeten dat nvidia een doel had... Weer het kroontje overnemen... terwijl ati minder gemotiveerd is...
Ik ging wel uit van de finale drivers die straks bij de retailkaarten worden geleverd.

Tevens durf ik niet te beweren dat ATI minder gemotiveerd is hoor. Trouwens meer motivatie betekent niet altijd beter produkt....

[Voor 49% gewijzigd door Help!!!! op 15-04-2004 13:28]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
AsEeL schreef op 15 april 2004 @ 13:16:
[...]


Omdat deze kleine beelfouten nog op te lossen zijn... We zitten hier nog steeds in beta drivers en eerste versie van nieuwe kaart... Ati zal waarschijnlijk minder problemen hiermee hebben omdat ze verder bouwen op hun 360 core...
Maar of de performance het zelfde gaat zijn... Daar heb ik toch mijn twijfels over.
Laten we niet vergeten dat nvidia een doel had... Weer het kroontje overnemen... terwijl ati minder gemotiveerd is...
Ja het voortbestaan van je bedrijf en winst maken is natuurlijk totaal geen motivatie voor ATI :/

Kom toch op man, wat een nonargument. Kijk dat ze verderbouwen op de R300 core, ok.
Maar ach, ik ben het met je eens dat de NV40 deze slag zal winnen, gok dat de R500 de volgende wint en zo zal het door blijven gaan......

specs desktop | specs laptop


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08 22:00
edward2 schreef op 15 april 2004 @ 12:39:
[...]

Zit ik ook aan te twijfelen, kan de R300 dat ook in hardware? Ik dacht dat voor de NV40 alleen de Parhelia dat kon.
ATi kan het pre-sampled, nu ja kan het maar het is niet in de drivers geïmplementeerd. Anyway, die screens lijken niet echt alsof ze DM hebben maar eerder offset mapping (zoals die UE3 demo)

  • AsEeL
  • Registratie: November 2002
  • Laatst online: 08-03-2018
Ik verwijs naar het regeltje in je sig >:) , Help!!!

[Voor 16% gewijzigd door AsEeL op 15-04-2004 13:36]

INTEL CORE I5 2.5K // Corsair 4 x 4GB CMZ16GX3M4X1866C9R // GA-Z68X-UD3H-B3 V1.3 bios F11 // ASUS Nvidia GTX560Ti // Samsung 830 Series 128Gb SSD // Corsair 550W


  • AsEeL
  • Registratie: November 2002
  • Laatst online: 08-03-2018
shuogg schreef op 15 april 2004 @ 13:32:
[...]


Ja het voortbestaan van je bedrijf en winst maken is natuurlijk totaal geen motivatie voor ATI :/

Kom toch op man, wat een nonargument. Kijk dat ze verderbouwen op de R300 core, ok.
Maar ach, ik ben het met je eens dat de NV40 deze slag zal winnen, gok dat de R500 de volgende wint en zo zal het door blijven gaan......
Non argument? Das een argument als een ander.
Eens je goed bezig zijt ga je minder waakzaam worden.
Das eenmaal zo!
Een beest in het nauw gedreven is altijd het gevaarlijkst...
In dit geval was nvidia dat beest.

Je weet wa ik wil zeggen O-)

[Voor 19% gewijzigd door AsEeL op 15-04-2004 13:40]

INTEL CORE I5 2.5K // Corsair 4 x 4GB CMZ16GX3M4X1866C9R // GA-Z68X-UD3H-B3 V1.3 bios F11 // ASUS Nvidia GTX560Ti // Samsung 830 Series 128Gb SSD // Corsair 550W


  • shuogg
  • Registratie: Juli 2002
  • Laatst online: 29-12-2020
AsEeL schreef op 15 april 2004 @ 13:35:
[...]


Je weet wa ik wil zeggen O-)
Nee dat weet ik niet, vertel :P

specs desktop | specs laptop


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08 22:00
AsEeL schreef op 15 april 2004 @ 13:16:
[...]


Omdat deze kleine beelfouten nog op te lossen zijn... We zitten hier nog steeds in beta drivers en eerste versie van nieuwe kaart... Ati zal waarschijnlijk minder problemen hiermee hebben omdat ze verder bouwen op hun 360 core...
Maar of de performance het zelfde gaat zijn... Daar heb ik toch mijn twijfels over.
Laten we niet vergeten dat nvidia een doel had... Weer het kroontje overnemen... terwijl ati minder gemotiveerd is...
De nv40 gebruikt volgens mij voor het moment alleen FP16 in Far Cry!! Gebruik van FP32 geeft een performance hit van ongveer 33%, ja ook met de nv40. Natuurlijk zijn er meer dan shaders in actie in Far Cry, toch denk ik dat op full precision het een 5-10% minder performance betekent. FP16 wordt gekozen door de FX-shaders in Far Cry omdat FX kaarten FC anders niet kunnen draaien. Geen driver probleem dus.
De makers van Far Cry gaan het misschien mogelijk maken om de ati shaders te gebruiken met de nv40, dat moet hij toch ten minste aankunnen.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

AsEeL schreef op 15 april 2004 @ 13:34:
Ik verwijs naar het regeltje in je sig >:) , Help!!!
LOL :o je bedoelt mijn sig lijkt me :X .

Toch verhindert mijn sig niet dat mijn adviezen/meningen het wel degelijk kunnen zijn!! :+

[Voor 3% gewijzigd door Help!!!! op 15-04-2004 13:42]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • Dr. Strangelove
  • Registratie: Februari 2001
  • Laatst online: 30-09 19:49
hmm Far Cry full options ? BF Vietnam full options ? en al de komende spelen zoals hl2 em d3 zullen van jouw en mijn 9800pro een slak maken
Gezien de hardware waarop HL2 en DIII zijn ontwikkeld en de benchmarks die ik gezien heb valt dat best mee. En ik speel nu alles met FSAA en AA op hoog, terwijl ik het nut daarvan niet eens echt zie.

En als ik dan mijn max resolutie in aanmerking neem (1600x1200 vind ik gewoon niet fijn) en de mogelijkheid om met 2x FSAA ipv 6 te spelen, dan ben ik nog best een tijdje tevreden met mijn 9800Pro.

These are my principles. If you don't like them, I have others.


  • AsEeL
  • Registratie: November 2002
  • Laatst online: 08-03-2018
Dr. Strangelove schreef op 15 april 2004 @ 14:50:
[...]


Gezien de hardware waarop HL2 en DIII zijn ontwikkeld en de benchmarks die ik gezien heb valt dat best mee. En ik speel nu alles met FSAA en AA op hoog, terwijl ik het nut daarvan niet eens echt zie.

En als ik dan mijn max resolutie in aanmerking neem (1600x1200 vind ik gewoon niet fijn) en de mogelijkheid om met 2x FSAA ipv 6 te spelen, dan ben ik nog best een tijdje tevreden met mijn 9800Pro.
Ik geef u daar dan ook volkomen gelijk in.
Maar ik zeg maar dat, als je beste visuele effecten wil dat je dan nu eenmaal voor een 6800U moet gaan tot nu toe als we even de R420 buiten spel laten die nog zichzelf moet bewijzen.
We kopen toch een graka om mooie visuele effecten te genereren en de laatste nieuwe snufjes te kunnen zien. Wel op dit moment is de pixel shader 3.0 op de 6800U een enorm verschil als je hier de pics bekijkt. Ook zie je dat hij in AA en AF enorm presteert. Dus het gaat em er niet over of je nog steeds alles goed kan draaien of niet, maar of je alles kan waarnemen wat er is en in een mooie kwaliteit. Ik kan ook farcry spelen op low detail met een 4200 maar ik zal na 5 minuten stoppen omdat de omgeving gewoon PLAT is en niks aangenaam.
Ik hoop dat je snapt wat ik bedoel. als je echter vrede neemt met het feit da je enkele detail kunt missen dan is dat ook goed. Maar met de snel evoluerende effecten gaat het visuele wel degelijk een grote rol gaan spelen wat zeker zal bijdragen tot het geheel van een spel. Natuurlijk heb je geen nieuwe graka nodig voor games van eenvorige generatie. Maar wil je meegaan in al die nieuwe oogsnoep dan moet je gewoon de overstap maken naar een kaart die dat ook kan bieden.

INTEL CORE I5 2.5K // Corsair 4 x 4GB CMZ16GX3M4X1866C9R // GA-Z68X-UD3H-B3 V1.3 bios F11 // ASUS Nvidia GTX560Ti // Samsung 830 Series 128Gb SSD // Corsair 550W


  • BlowFish
  • Registratie: Maart 2004
  • Laatst online: 15:44
deze screens vind ik een beetje een vertekend beel geven. De afbeelding met PS3 ziet er inderdaad schitterend uit. maar die zonder PS3...is dat PS1 PS2 (PS nix)?

Laat mij eerst maar eens de vergelijking farcry PS2 en PS3 zijn dan zie ik pas wat de PS3 werkelijk tevoorschijn kan toveren.

neem eens een kijke bij ome Tom.

Farcry 6800 vs 9800XT

http://www.tomshardware.com/graphic/20040414/images/farcry-scene1.jpg
http://www.tomshardware.c...0414/geforce_6800-46.html

[Voor 3% gewijzigd door BlowFish op 15-04-2004 15:34]


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08 22:00
BlowFish schreef op 15 april 2004 @ 15:33:
[...]


deze screens vind ik een beetje een vertekend beel geven. De afbeelding met PS3 ziet er inderdaad schitterend uit. maar die zonder PS3...is dat PS1 PS2 (PS nix)?

Laat mij eerst maar eens de vergelijking farcry PS2 en PS3 zijn dan zie ik pas wat de PS3 werkelijk tevoorschijn kan toveren.

neem eens een kijke bij ome Tom.

Farcry 6800 vs 9800XT

[afbeelding]
http://www.tomshardware.c...0414/geforce_6800-46.html
Ha, op de b3d forums wat gezocht die screens in Far Cry gebruiken offset mapping geen displacement mapping, nv3x, R3xx kunnen dat dus ook!!!
btw ze gebruiken ook een hoger textuur res.
('ome tom' peaaaaaaaaze, ik wordt ziek)

[Voor 4% gewijzigd door oeLangOetan op 15-04-2004 15:52]


  • VirtualJr
  • Registratie: April 2002
  • Laatst online: 23-11-2018
BlowFish schreef op 15 april 2004 @ 15:33:
[...]


deze screens vind ik een beetje een vertekend beel geven. De afbeelding met PS3 ziet er inderdaad schitterend uit. maar die zonder PS3...is dat PS1 PS2 (PS nix)?

Laat mij eerst maar eens de vergelijking farcry PS2 en PS3 zijn dan zie ik pas wat de PS3 werkelijk tevoorschijn kan toveren.

neem eens een kijke bij ome Tom.

Farcry 6800 vs 9800XT

[afbeelding]
http://www.tomshardware.c...0414/geforce_6800-46.html
Ik vind de Far Cry discussie op dit moment sowieso nog een beetje ZINLOOS. Het moge dan wel zo zijn dat Far Cry op dit moment het mooiste spel op de markt is en daardoor voor goed vergelijkinsmateriaal kan zorgen, maar zoals in bijna elke review is aangestipt zijn de drivers voor de 6800 nog in BETA vorm. Hierdoor laat de 6800 nog niet alles zien wat hij kan in Far Cry, dus hou PLEASE op met flamen over FC dit en FC dat, wacht gewoon even op goede drivers voor je vergelijkingen gaat trekken. Concentreer jullie nu maar even op de spellen die wél zonder problemen lopen met de beta drivers :)

  • AsEeL
  • Registratie: November 2002
  • Laatst online: 08-03-2018
Die screen dat ze daar tonen van farcry is wel spijtige zaak.
Ge hebt idd wel mooiere kwali op den 9800XT
Die textures zijn wa fucked up....
Hopelijk kan men daar nog een mouw aan passen

INTEL CORE I5 2.5K // Corsair 4 x 4GB CMZ16GX3M4X1866C9R // GA-Z68X-UD3H-B3 V1.3 bios F11 // ASUS Nvidia GTX560Ti // Samsung 830 Series 128Gb SSD // Corsair 550W


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08 22:00
nV kan niets doen aan die kwaliteit, lees mn post op vorige pag, Far Cry vraagt om FP16

[Voor 9% gewijzigd door oeLangOetan op 15-04-2004 16:10]


  • AsEeL
  • Registratie: November 2002
  • Laatst online: 08-03-2018
oeLangOetan schreef op 15 april 2004 @ 16:09:
nV kan niets doen aan die kwaliteit, lees mn post op vorige pag, Far Cry vraagt om FP16
Sry snapte em eerst nie goe, nu heb ik hem
Thx

INTEL CORE I5 2.5K // Corsair 4 x 4GB CMZ16GX3M4X1866C9R // GA-Z68X-UD3H-B3 V1.3 bios F11 // ASUS Nvidia GTX560Ti // Samsung 830 Series 128Gb SSD // Corsair 550W


  • Anoniem: 58827
  • Registratie: Juni 2002
  • Niet online
MisteRMeesteR schreef op 14 april 2004 @ 23:19:
[...]

MWah... maar als je dan deze 2 weer vergelijkt:

GeForce 6800 Ultra:
[afbeelding]

ATI Radeon 9800XT
[afbeelding]

Dan zien de vleugels van de vliegtuigen er bij ATI veel beter uit... dusja..

EDIT:


[...]


Het is geen eis, het is een advies.. zodat je systeem stabiel draait.
Ik vindt de verschillen wel erg verdacht groot en acht dus ook werkelijk dat dit dus een beetje overdreven is. En niet de werkelijke output.

  • XyS
  • Registratie: Februari 2004
  • Laatst online: 09:43

XyS

0.o.O

hmm ben ik zo scheel?

ik zie helemaal geen verschil tussen die plaatjes 8)7

kan je zegge waar er bv iets anders is ?

  • Okyah
  • Registratie: Maart 2002
  • Niet online

Okyah

wespachterrrrrfilm..

Check de verschillen in de fins van de 2 vliegtuigen in de 2 plaatjes. Bij de ene zie je duidelijk banding, bij de ander zijn de overgangen niet zichtbaar :)

[Voor 7% gewijzigd door Okyah op 15-04-2004 17:46]

Alone at last
Just nostalgia and I
We were sure to have a blast


  • T.T.
  • Registratie: April 2000
  • Laatst online: 03-09 21:14

T.T.

Sowieso

Okyah schreef op 15 april 2004 @ 17:46:
Check de verschillen in de fins van de 2 vliegtuigen in de 2 plaatjes. Bij de ene zie je duidelijk banding, bij de ander zijn de overgangen niet zichtbaar :)
Waarschijnlijk heeft hij de brightness van zijn monitor te laag staan, ik zit nu op een computer waar het verschil ook bijna niet te zien is.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

XyS schreef op 15 april 2004 @ 17:30:
hmm ben ik zo scheel?

ik zie helemaal geen verschil tussen die plaatjes 8)7

kan je zegge waar er bv iets anders is ?
moet je ff op de linkerkant van de verticale vleugels kijken

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • XyS
  • Registratie: Februari 2004
  • Laatst online: 09:43

XyS

0.o.O

o shit :P

me brightness stond zo laag dat die dingen helemaal zwart waren :) dus ik zag ut niet


naja ok ik zie et, ziet er leluk uit zeg die 6800

als dat egt zo is dan kan nvidia wegweze
ook als hij beter presteerd dan de x800

maar ut zal wel zon driverbuggie zijn

  • Miki
  • Registratie: November 2001
  • Laatst online: 15:21
Hopelijk reageren de mensen die roepen dat de Nvidia drivers in beta fase zijn ook gelauterd als de eerste X800 benchmarks uitkomen, ook die zullen namelijk beta zijn ;)

Als beide kaarten minstens 1 driver versie hoger zijn genoteerd kun je pas serieus aan benchmarking doen en dan nog zullen enkele resultaten nog verbeterd kunnen worden in nieuwe drivers.
Ik ben in iedergeval wel zeer blij dat Nvidia gelukkig wat terug heeft kunnen doen zodat ATi niet stil kan zitten en ook met goede kaarten moet blijven uitkomen. PS. mensen die beweren dat eindelijk nvidia weer een kaart uitbrengt die 100% beter scoort dan hun concurrentie: vergeet het verleden niet, ATi heeft het al voor elkaar gekregen met de R9700 pro -de ti4600 gedegradeerd tot budgetkaart en die Fx vernederd terwijl deze een maand later uit kwam-

Voor ons tweakers is het weer een mooie tijd, beide concurenten moeten weer de komende weken keihard aan de slag om hun product te presenteren en te verbeteren. Laten we vooral niet blindstaren op één product maar kijken naar de prijs/prestatsie verhouding, op vlakken als beeldkwaliteit en drivers hebben beide hun achterstand op respectievelijk hun zwakheden meer dan goed gemaakt.

Samsung TV QE55Q9F 2018 | Sonos Beam gen1 | Sonos Sub gen3 | Sonos One 2x | APsystems 14x315Wp - ZW |  MacBook Pro 13" 2017 |  MacBook Air 13" 2017 I  iPad 2018 |  iPhone 12 |  TV 4K |  AirPods 2


  • sjoerdjanson
  • Registratie: Oktober 2003
  • Niet online
die 480 watt is wel wat veel, wat zouden nou de gevolgen kunnen zijn als je voeding minder is dan die 480 wat?
een bsod of herstart?

Anoniem: 93354

als je voeding te zwak is word je pc instabiel als ie echt gestressed word en je voeding het niet meer trekt. Als je voeding echt te zwak is denk ik nieteens dat je kan booten. Ik denk iig niet dat het je pc zal beschadigen of je moet de hele tijd met die bagger voeding door blijven pcen dan misschien wel.

  • The PyroPath
  • Registratie: November 2000
  • Laatst online: 15:47

The PyroPath

Go Tweak your ass off

Die bumpmapping achtige zooi in PS 3.0 mode lijkt me juist uit de vertexshader 3.0 te komen, die texture fetch oid hete dat, dat een vertex shader een texture met diepte aanbrengt, nu ik het zo typ is dat bolgens mij precies wat displacement mapping had MOETEN zijn(in de nV3x en R3xx zit ook deplacement mapping maar een waardeloze variant) behalve zoals matrox het gedaan heeft dus.

Breek je nek voorzichtig


  • The Source
  • Registratie: April 2000
  • Laatst online: 25-09 13:32
[NVIDIA GeForce 6800 Taipei Launch Report met daarin van alle VGA producenten hun verpakkingen, etc.

  • Miki
  • Registratie: November 2001
  • Laatst online: 15:21
Alleen pixelview heeft er een belachelijke koeling gemaakt, de rest lijkt allemaal op het reference design van Nvidia incl. asus.

Samsung TV QE55Q9F 2018 | Sonos Beam gen1 | Sonos Sub gen3 | Sonos One 2x | APsystems 14x315Wp - ZW |  MacBook Pro 13" 2017 |  MacBook Air 13" 2017 I  iPad 2018 |  iPhone 12 |  TV 4K |  AirPods 2


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
The Source schreef op 15 april 2004 @ 19:44:
[NVIDIA GeForce 6800 Taipei Launch Report met daarin van alle VGA producenten hun verpakkingen, etc.
Wat zit hier op geplakt op de Leadtek kaart? Video editing stuff? Ingebouwde ethernet card?

http://www.vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8329.JPG

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Anoniem: 108501

Over de drivers het klopt inderdaad dat als dadelijk de x800 pro en x800 xt worden gestest, dit ook met de beta drivers van ati zal gebeuren. Maar de meeste mensen zullen de kaarten pas kopen na de reviews van de kaarten geproduceert door de partners van beide kaartmakers. Dan pas zullen we zien of alle fouten uit de beta drivers zijn gehaalt en kan men zich niet meer verschuilen, door te zeggen het zijn nog maar beta drivers. En zal degene die de snelste kaart heeft met de meeste voordelen en de minste nadelen er mogelijk de meeste verkopen (ligt natuurlijk ook aan de prijs)

  • Teun_2
  • Registratie: Oktober 2003
  • Laatst online: 30-09 07:43
CJ schreef op 15 april 2004 @ 19:58:
[...]


Wat zit hier op geplakt op de Leadtek kaart? Video editing stuff? Ingebouwde ethernet card?

[afbeelding]
Mmmm, is wel handig zo, als er een netwerkkaart inzit, zo ben je alsnog geen pcislot kijt. Ik vind het slim gezien.

[Voor 16% gewijzigd door Teun_2 op 15-04-2004 20:05]

Te koop: Canonlenzen


Anoniem: 108501

CJ schreef op 15 april 2004 @ 19:58:
[...]


Wat zit hier op geplakt op de Leadtek kaart? Video editing stuff? Ingebouwde ethernet card?

[afbeelding]
ja lijkt het wel op, lijkt ook nog een coax aansluiting op te zitten oid. :?

[Voor 16% gewijzigd door Anoniem: 108501 op 15-04-2004 20:09]


Anoniem: 81502

Wss zit er nog een heel deel van de koeler onder die pcb verborgen.

  • Andamanen
  • Registratie: Februari 2001
  • Niet online

Andamanen

Trotse eilandengroep

Ook kunnen we op deze fotos "onder de koeler" kijken, voor diegenen onder ons die er exotische koeling aan willen hangen:

http://www.vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8317.JPG

Netjes 4 gaten rond de core voor een grote heatsink/fan of waterkoelingsblok en nog genoeg ruimte om het geheugen van heatsinkjes te voorzien

  • LinuX-TUX
  • Registratie: December 2003
  • Laatst online: 30-09 10:56
CJ schreef op 15 april 2004 @ 19:58:
[...]


Wat zit hier op geplakt op de Leadtek kaart? Video editing stuff? Ingebouwde ethernet card?

[afbeelding]
Het heeft video in video out (VIVO) dat zou dan gelijk die coax verklaren, maar wat die 2 ethernet blokjes daar nou doen :? lijkt wel op een token-ring kaartje uit de vorige eeuw voor 10Mbit :+

/me LinuX-TUX baalt dat die foto onscherp is, want er staan wel degelijk letters naast die busblokjes
offtopic:
En meestal hadden die 10Mbit kaartjes van de vorige eeuw ook nog coax netwerk opties ... who knows what it is :?

[Voor 11% gewijzigd door LinuX-TUX op 15-04-2004 20:10]

Pagina: 1 2 3 ... 7 Laatste

Dit topic is gesloten.



Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee