Yeah well. The Dude abides.
Verwijderd
Heel simpel; hou je aan de norm van de huidige DirectX, en daarin zit geen ondersteuning voor SM3.0. Over 2 maanden pas komt WinXP service pack 2 met de nieuwe DirectX 9.0c.Ati en nvidia moeten echt eens ff gezamelijk afspraken gaan maken want dit gaat echt de verkeerde kant op.
Maar goed, Nv wilde koste wat het kost die patch er doorheen jagen want de FarCry performance was niet al te best in SM2.0 vergeleken met Ati.
[ Voor 9% gewijzigd door Verwijderd op 05-07-2004 17:38 ]
Gaat daar de performance ook dan flink omlaag?
Die conclusie laat ik voor jou rekening, best kans dat het aantal goeie cores binnen paar maanden stuk beter zal zijn. Maar wat ik begrijp is er nog amper mee geexperimenteerd, maar het zou dus kunnen met enkel een bios upgrade... (een aangepaste bios met 700mhz mem bijv.?) Nouja zo boeiend is het nou ook weer niet, de 6800 zijn echte probleem ligt bij de Mem-snelheid en niet zozeer bij "maar" 12 pipes.CJ schreef op 05 juli 2004 @ 02:42:
[...]
Maar aangezien de kaart nog steeds artifacts vertoonde in bepaalde tests (dus niet alle), gaat men er van uit dat die extra 4 pipelines dus half defect zijn. Sommige games deden het prima, andere games dus totaal niet.
En volgens velen is de kans op een succesvolle mod klein, aangezien nVidia meer slechte NV40 cores schijnt te hebben dan goede.
Het lijkt mij juist heel gezond dat de fabrikanten elkaar de loef af trachten te steken met nieuwe uitbreidingen, en als die dan compatibel zijn met/de basis zijn van een volgende DirectX specificatie, des te beter. 3DC wordt toch ook niet gespecificeerd in de huidige DirectX, moet ATi dat dan maar weglaten?Verwijderd schreef op 05 juli 2004 @ 17:37:
[...]
Heel simpel; hou je aan de norm van de huidige DirectX, en daarin zit geen ondersteuning voor SM3.0.
Maar goed, Nv wilde koste wat het kost die patch er doorheen jagen want de FarCry performance was niet al te best in SM2.0 vergeleken met Ati.
Dat verhindert niet dat ze tegelijkertijd wel kunnen voldoen aan de huidige specificatie. Voor zover ik weet is de huidige generatie van beide fabrikanten volkomen DX9(-b) conform.
Yeah well. The Dude abides.
Niet noodzakelijkerwijs, aangezien die sowieso al een eigen NV30 path draaien wat niet hetzelfde is als wat de ATi kaarten gebruiken.Legion schreef op 05 juli 2004 @ 17:39:
Hoe zit het dan met de "oude" SM2.0 kaarten van Nvidia?
Gaat daar de performance ook dan flink omlaag?
Yeah well. The Dude abides.
Verwijderd
De eerste spellen of patches die 3Dc ondersteunen komen pas als DirectX 9.0c er is. Stel je voor dat Ati volgende week koste wat het kost een 3Dc patch er door heen zou jagen bij Crytek, die de performance/textures van Nvidia verkloot in Far Cry, wat zou je hier van denken? Imho een vies marketing spelletje. Maar goed, het probleem lijkt al opgelost te zijn.3DC wordt toch ook niet gespecificeerd in de huidige DirectX, moet ATi dat dan maar weglaten?
De SM3-ondersteuning van Far Cry werkt dan ook alleen met DX9c, wat overigens niet al te lang meer op zich zal laten wachten.Verwijderd schreef op 05 juli 2004 @ 17:53:
[...]
De eerste spellen of patches die 3Dc ondersteunen komen pas als DirectX 9.0c er is.
Tja ik zou zelf eigenlijk niet al te veel conclusies durven trekken uit hetgeen wat een beta patch doet op een OS met een beta service pack met beta videodrivers...Stel je voor dat Ati volgende week koste wat het kost een 3Dc patch er door heen zou jagen bij Crytek, die de performance/textures van Nvidia verkloot in Far Cry, wat zou je hier van denken? Imho een vies marketing spelletje.
MooiMaar goed, het probleem lijkt al opgelost te zijn.
Yeah well. The Dude abides.
Verwijderd
sm2 en de oude nvidia kaarten is net zoiets als proberen een ferrarie er op je fiets uit te blazenLegion schreef op 05 juli 2004 @ 17:39:
Hoe zit het dan met de "oude" SM2.0 kaarten van Nvidia?
Gaat daar de performance ook dan flink omlaag?
ff serieus, de oude kaarten van nvidia lopen op een speciaal path wat geen sm2 gebruikt (dus eigelijk rendert fc het spel net zoals het met bv een gf4ti zou doen).
Iedereen kan SP2 RC2 incl dX9.0C gewoon downloaden en installeren dus wat maak je je druk? Bij mij werkt het prima en ik hoor van anderen ook weinig klachten.Verwijderd schreef op 05 juli 2004 @ 17:53:
[...]
De eerste spellen of patches die 3Dc ondersteunen komen pas als DirectX 9.0c er is. Stel je voor dat Ati volgende week koste wat het kost een 3Dc patch er door heen zou jagen bij Crytek, die de performance/textures van Nvidia verkloot in Far Cry, wat zou je hier van denken? Imho een vies marketing spelletje. Maar goed, het probleem lijkt al opgelost te zijn.
Het is pas een probleem als de patch officieel uitgebracht wordt terwijl tests met de RTM patch uitgewezen hebben dat ATI bezitters slechte(re) IQ hebben.
Verder is die hele 1.2 patch dus nog niet eens uit maar er worden weer allemaal voorbarige conclusies getrokken. Wie zegt dat Crytek die patch released als ATI kaarten m.n. IQ problemen hebben?
Daarnaast, de ATI fanboys vinden het geweldig dat HL2 supposedly veel sneller zou draaien op ATI kaarten. Hoe kan dat? Misschien ook omdat Gabe voor ATI optimaliseert.
Alleen heb ik geen ATI adept gehoord dat dat misschien niet helemaal eerlijk is voor al die nVidia bezitters out there.
Meten met twee maten. Anyone?
Ja Crytek is een TWIMTBP spel (ofzoiets) dus nVidia zal zeker alles op alles zetten om hun architectuur optimaal ondersteund te krijgen. Dat lijkt me logisch en ATI doet precies hetzelfde.
Het is aan de developers om ervoor te zorgen dat het geld van ATI of nVidia hen er niet toe dwingt om een vd twee te cripplen. Dat kan een probleem worden maar voorlopig is dat nog niet bewezen.
Ik geloof er alleen niks van dat Crytek een patch zal gaan lanceren waarbij de ATI bezitters corrupte IQ hebben enzovoorts. Daarmee snijden ze alleen zichzelf in de vingers want hoeveel mensen hebben wel niet een ATI.
Verder heb ik er geen problemen mee hoor als gamedevelopers zsm de nieuwste features in hun spel proberen te ondersteunen. Of het nou 3DC is of SM3 hoe eerder hoe beter.
[ Voor 13% gewijzigd door Help!!!! op 05-07-2004 19:02 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Verwijderd
Verwijderd
Heb je ook de review van de XFX gelezen?? Dat dit merk wel de aller aller luidruchtigste koeler heeft van allemaal?BlowFish schreef op 05 juli 2004 @ 17:09:
[...]
hmm best triest in dat geval hadden ze wel rekening mee mogen houden,
btw salland krijgt morgen 4 XFX 6800 GT kaarten binnen! ik heb er al een bestelddus zijn er nog 3 wees snel
Dat klopt dat het niet goed zat in een betapatch en het is, wat ik ervan hoor, idd gelukkig opgelost.Verwijderd schreef op 05 juli 2004 @ 19:25:
Bij die patch van farcry zag je gewoon dat het niet helemaal goedzat. Gelukkig heeft crytech het snel opgelost.
Alleen jammer dat er zovelen gelijk weer allemaal conclusies trekken dat Crytek dit expres doet omdat ze geld van nVidia krijgen.
Wat mij betreft wordt er weer veel te vroeg "gehuild"
ps:
HL2 zal ongetwijveld geheel Dx9 zijn. Maar wie heeft de code van HL2 bekeken? Wie zegt mij dat het echt zo is. Omdat Gabe het zegt? Call me paranoia maar Gabe kan zoveel zeggen. Wie zegt mij dat Valve niet in de eerste plaats bezig is om iets te programmeren dat vooral goed werkt op ATI omdat ze geld krijgen van ATI.
Al zou het zo zijn dat Valve strikt volgens de dX9 richtlijnen programmeert dan nog kun je je afvragen hoe "ethisch" dat zou zijn. Miljoenen mensen op de wereld hebben een nVidia en willen ook van HL2 genieten.
Dit is gewoon een dilemma. Als gamedeveloper programeer je voor je fans en buyers ongeacht hun videokaart.
Als je als developer besluit om strikt 9.0 te programmeren terwijl je weet dat er enorm veel kaarten zijn die met dat pad niet helemaal perfekt lopen , ben je dan goed bezig? Ik weet het niet.
[ Voor 8% gewijzigd door Help!!!! op 05-07-2004 19:41 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Tja, vergelijk die situatie met de miljoenen website bouwers die voornamelijk hun site voor IE bouwen, en de sites die dan conform de W3 standaard worden gebouwd, zien er niet goed uit in IE omdat MS hun eigen regels er op nahoudt.Help!!!! schreef op 05 juli 2004 @ 19:38:
[...]
Dat klopt en het is, wat ik ervan hoor, idd gelukkig opgelost.
Alleen jammer dat er zovelen gelijk weer allemaal conclusies trekken dat Crytek dit expres doet omdat ze geld van nVidia krijgen.
Wat mij betreft wordt er weer veel te vroeg "gehuild".
ps:
HL2 zal ongetwijveld geheel Dx9 zijn. Maar wie heeft de code van HL2 bekeken? Wie zegt mij dat het echt zo is. Omdat Gabe het zegt? Call me paranoia maar Gabe kan zoveel zeggen. Wie zegt mij dat Valve niet in de eerste plaats bezig is om iets te programmeren dat vooral goed werkt op ATI omdat ze geld krijgen van ATI.
Al zou het zo zijn dat Valve strikt volgens de dX9 richtlijnen programmeert dan nog kun je je afvragen hoe "ethisch" dat zou zijn. Miljoenen mensen op de wereld hebben een nVidia en willen ook van HL2 genieten.
Dit is gewoon een dilemma. Als gamedeveloper programeer je voor je fans en buyers ongeacht hun videokaart.
Als je als developer besluit om strikt 9.0 te programmeren terwijl je weet dat er enorm veel kaarten zijn die met dat pad niet helemaal perfekt lopen , ben je dan goed bezig? Ik weet het niet.
Ik heb liever dat HL2 of andere spellen zich aan een (vooraf) bepaalde standaard houden dan dat ze het zelf interpreteren zoals het willen (of hoe een bepaalde videokaart fabrikant het wil). Met andere woorden kies ik dus liever voor een bedrijf dat de standaarden volgt dan een eigen standaard verzint en vervolgens daar op doorgaat (tot in zekere mate, eigen engines en zo mogen van mij zeker ontwikkeld blijven worden, het is alleen dat het volgens een bepaalde architectuur moet lopen die bij de verschillende videokaartfabrikanten ook strict gevolgd worden).
Signature
Tja,pastapappie.NET schreef op 05 juli 2004 @ 19:43:
[...]
Tja, vergelijk die situatie met de miljoenen website bouwers die voornamelijk hun site voor IE bouwen, en de sites die dan conform de W3 standaard worden gebouwd, zien er niet goed uit in IE omdat MS hun eigen regels er op nahoudt.
Ik heb liever dat HL2 of andere spellen zich aan een (vooraf) bepaalde standaard houden dan dat ze het zelf interpreteren zoals het willen (of hoe een bepaalde videokaart fabrikant het wil). Met andere woorden kies ik dus liever voor een bedrijf dat de standaarden volgt dan een eigen standaard verzint en vervolgens daar op doorgaat (tot in zekere mate, eigen engines en zo mogen van mij zeker ontwikkeld blijven worden, het is alleen dat het volgens een bepaalde architectuur moet lopen die bij de verschillende videokaartfabrikanten ook strict gevolgd worden).
Dat is het dilemma voor de developer.
Ik vind dat je als developer dan geen keus hebt en voor beide kaarten moet programmeren hoe inefficient dat ook is.
PS:
Ook hier http://graphics.tomshardware.com/graphic/20040705/index.html Farcry 1.2 onder de loep.
[ Voor 6% gewijzigd door Help!!!! op 05-07-2004 20:18 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Met als gevolg dat het developen van een game soms 2x zo lang duurt... zie ook HL2 waar 5x meer tijd besteed werd aan het optimaliseren voor nV FX hardware t.o.v. ATi hardware om het goed te laten lopen... dat was niet nodig geweest als nV zich gewoon aan de DX standaard had gehouden. Of denk aan Doom3. Hoeveel kostbare tijd is er wel niet verspild aan het FX pad, omdat FX hardware niet goed overweg kon met het standaard ARB2 pad? En nu is het ook nog eens geschrapt... echt zonde van de tijd gewoon.Help!!!! schreef op 05 juli 2004 @ 19:52:
[...]
Ik vind dat je als developer dan geen keus hebt en voor beide kaarten moet programmeren hoe inefficient dat ook is.
En dat heeft allemaal weer tot gevolg dat de hardware steeds verder op de software vooruit komt te lopen. Nog meer zelfs dan we nu al doen. Nee dank je. Doe mij dan maar één standaard pad.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Kan jij makkelijk zeggen want je hebt een ATI....CJ schreef op 05 juli 2004 @ 20:19:
[...]
Met als gevolg dat het developen van een game soms 2x zo lang duurt... zie ook HL2 waar 5x meer tijd besteed werd aan het optimaliseren voor nV FX hardware t.o.v. ATi hardware om het goed te laten lopen... dat was niet nodig geweest als nV zich gewoon aan de DX standaard had gehouden. Of denk aan Doom3. Hoeveel kostbare tijd is er wel niet verspild aan het FX pad, omdat FX hardware niet goed overweg kon met het standaard ARB2 pad? En nu is het ook nog eens geschrapt... echt zonde van de tijd gewoon.![]()
En dat heeft allemaal weer tot gevolg dat de hardware steeds verder op de software vooruit komt te lopen. Nog meer zelfs dan we nu al doen. Nee dank je. Doe mij dan maar één standaard pad.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Ach ja, niks mis met een 5950U, dat is een betere kaart dan de kaart die ik heb nl : :een 9800PRO met gratis brakke ATI drivers. Overigens zijn beide kaarten toch te traag om echte dx9 features in hoge resoluties met aa en af te spelen.CJ schreef op 05 juli 2004 @ 20:43:
Als ik een nV bezitter was met bijvoorbeeld een FX5950U dan zou ik ook behoorlijk pissig zijn hoor.Het is toch jammer dat er een hele nieuwe serie kaarten nodig is om de fouten weer goed te maken? Ondertussen zitten wel duizenden mensen 'opgescheept' met hun FX kaart die door nieuwere games als DX8.1 kaart wordt behandeld.
ps. Zullen weer lekker positief over Nvidia praten ? het is tenslotte een Nvidia topic en geen ATI topic
Turning the flashlight on costs the GeForce 6800 Ultra much less performance (9%) than the X800 XT PE (18%).

(Lichtgroen is SM3, donkergroen is SM2.)
[ Voor 8% gewijzigd door Tyranium op 05-07-2004 23:08 ]
En als ik naar de next-gen games kijk, zie ik veel shaders...
Laten we eerst maar eens wachten totdat ze echt uit zijn. ik ga niet meer van die benchies uit.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Heb je de scores gezien van de FX5950U in Far Cry in de laatste review van Tom's Hardware?Verwijderd schreef op 05 juli 2004 @ 21:19:
[...]
Ach ja, niks mis met een 5950U, dat is een betere kaart dan de kaart die ik heb nl : :een 9800PRO met gratis brakke ATI drivers. Overigens zijn beide kaarten toch te traag om echte dx9 features in hoge resoluties met aa en af te spelen.
http://graphics.tomshardw...ry-05.html#level_research
En daarom vind ik het zo sneu dat de FX5950U bezitters er nu zo bekaaid van af komen.
[ Voor 7% gewijzigd door CJ op 06-07-2004 01:38 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Voor de 6800 is het een goed teken dat sm.3 meer snelheid laat zien in far cry laat toch wel zien dat die kaart zeker wel snel is in de nieuwste games.
Het is natuurlijk niet de bedoeling dat ati kaarten hier op achteruit gaan maar is die patch 1.2 nou al af of was het een beta test?? Als ie beta was snap ik de hele discussie niet.
Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?
Als dit idd geen dx standaard is is het eigenlijk complete onzin om deze te ondersteunen. (nogmaals als ie wel dx9 is neem ik dit terug)
Nvidia heeft het voortouw genomen door sm3 te ondersteunen en ati niet ( net zoiets als de fx geen volledige dx9 is) en dan is volgens mij logsch dat nvidia hiervan profijt heeft in snelheid. Dit is een keuze die ati ook had kunnen maken en valt niemand te verwijten behalve de gene die er voor kiest het niet te nemen als de ander het wel doet.
Verder wil ik even verzoeken (geen flame maar wil dat dit topic blijft bestaan) dat bv mensen zoals b3n666 en apple ff wat rustig gaan doen. Volgens mij is het voor jullie een spel om een flame war te beginnen ofzo (sommige hier doen dat ook). En mij is het ondertussen wel duidelijk dat jullie voorkeur ati is, maar doe dit dan aub in het ati topic. Dit is geen flame maar een vriendelijk verzoek doe ermee wat jullie willen.
"Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?"
PS3.0 zit toch ook niet in DX9? Dus waarom zou Farcry PS3.0 moeten gaan ondersteunen.....
mmmmm
There is no place like ::1
[eigenlijk offtopic]sjek schreef op 06 juli 2004 @ 01:41:
Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?
Als dit idd geen dx standaard is is het eigenlijk complete onzin om deze te ondersteunen. (nogmaals als ie wel dx9 is neem ik dit terug)
3Dc zit niet in rechtstreekse vorm in DX9. 3Dc is een manier van texture compressie waardoor er een stuk minder geheugen verbruikt wordt. Zie het als een soort van middel om een doel te bereiken. Elke IHV heeft verschillende middelen om hun doel te bereiken; zo verschillen de FSAA en AF algoritmes van beide IHVs, terwijl de output (zo goed als) identiek is. De een is echter net wat sneller in FSAA, terwijl de ander misschien sneller is in AF. Maar hoe men precies AA en AF moet toepassen staat niet exact gedefinieerd in de DX9 standaard. Daar zijn de IHVs vrij in om er hun eigen methodes voor te verzinnen.
Zo is 3Dc een methode/middel om snelheid te winnen wanneer er gebruik wordt gemaakt van normal maps, zonder dat de IQ omlaag gaat. Of in het omgekeerde geval, om tot 4x zo veel detail toe te voegen zonder dat er meer geheugen benodigd is en zonder de performance te beinvloeden.
Tot voor kort waren er nog geen goede methodes om met normalmap compressie om te gaan, aangezien de standaard DXTC voor artifacts/blokkerigheid kan zorgen. Dus is men op zoek gegaan naar een compressiemethode die wel goed werkt met normal maps. Resultaat: 3Dc.
Normal maps worden in nieuwe games zeer intensief gebruikt, zie Far Cry, Doom 3, Serious Sam 2, Half Life 2 etc. En dit nieuwe techniekje kan dus voor een leuke performanceboost zorgen, terwijl het ook nog eens heel gemakkelijk is te implementeren. De tools zijn zelfs al voor devs beschikbaar.
Gamedevs willen natuurlijk dat hun game er zo mooi mogelijk uit ziet dan wel zeer snel loopt. En Cry Tek realiseert zich natuurlijk ook dondersgoed dat ATi inmiddels een stevige positie heeft en wil die fanbase waarschijnlijk niet teleurstellen. Dus stoppen ze ook 3Dc in de game, aangezien die zich er toch al goed voor leent door het hoge normalmap gehalte.
ATi wil natuurlijk niets liever dan 3Dc als "standaard" voor normalmapcompressie in DX te krijgen, en om dit zo gemakkelijk mogelijk te maken hebben ze gekozen voor een open standaard. Het staat nVidia, S3, XGI, Matrox etc dus vrij om dit kosteloos te integreren in hun hardware. En toevallig is het ontwikkeld door drie mensen die ook verantwoordelijk zijn voor S3TC texture compression, wat later in DirectX is verschenen als DXTC. Dus het zou me niets verbazen als we 3Dc in een volgende versie of revisie van DX gaan zien, dan wel in X-Box2.[/ eigenlijk offtopic]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
FiringSquad: In addition to SM 3.0, Far Cry will also be patched to take advantage of AMD’s 64-bit architecture in the future – what changes are you implementing in the 64-bit version of Far Cry?
Cevat Yerli: We’ve done it mainly for content development creators and mod creators, there will be huge benefits from it. For the gameplay it will be more beneficial to the environment, you will have some specific content for 64-bit. There will be a 64-bit version of Far Cry, a separate one eventually. That will be essentially content-wise slightly improved over the 32-bit version but it’s not something which, I mean people with the 32-bit version can still compare to the 64-bit version, but it’s optimized for the 64-bit experience. And the user of course will benefit from the 64-bit CPU architecture, which is more registers, better memory controller, but also more addressable memory.
FiringSquad: Will it look any better, or are you just going to use 64-bit to enhance performance?
Cevat Yerli: Well you will have a better experience, not necessarily “the look”; well you will have more environmental objects. If you consider that a better “look”, then yes, but the experience will be better because more things will be happening on screen.
Tuurlijk zit PS3.0 wel in DX9c. Net zoals PS2.0 in DX9b zit. De fout die Nvidia maakte door niet volledig PS2.0 te ondersteunen, maakt misschien Ati nu ook wel door geen PS3.0 te ondersteunen.swampy schreef op 06 juli 2004 @ 02:17:
@sjek
"Dat patch 1.3 3dc gaat ondersteunen snap ik niet helemaal. 3dc is toch geen richtlijn in dx9. (als ik het fout heb meld dit dan aub op een normale manier)
Waarom zou 3dc dan op de markt moeten komen in deze dx versie?"
PS3.0 zit toch ook niet in DX9? Dus waarom zou Farcry PS3.0 moeten gaan ondersteunen.....
mmmmm
Ik zeg ook nadrukkelijk misschien want een performance winst in nog maar 1 game vind ik toch te weinig om me volledige conclusie te trekken.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Waar ik nou werkelijk benieuwd naar ben is of de sm3.0 performance in de échte Far Cry game nou ook zo "jaw dropping" is, ik bedoel hiermee dat de reviews die we tot nu toe gelezen hebben 4 demo levels bevatten die door Nv aangereikt zijn, en dus niet in het werkelijke spel voorkomen.Ik zeg ook nadrukkelijk misschien want een performance winst in nog maar 1 game vind ik toch te weinig om me volledige conclusie te trekken.
Airstrip: http://www.anandtech.com/video/showdoc.aspx?i=2102&p=5
Mangoriver: http://www.anandtech.com/video/showdoc.aspx?i=2102&p=6
Als de patch eenmaal in omloop is zullen we vast wel reviews/benches te zien krijgen over wat SM3.0 nu in de praktijk brengt, en niet op demo levels van Nv.
(Dezelfde "marketing" krijgen we in de toekomst natuurlijk ook te zien als Ati met 3Dc demo's aan komt kakken, je krijgt dan een veel rooskleuriger beeld voorgeschoteld als dat het in de praktijk op zal leveren. Ik zeg dit even omdat ik niet flamerig over wil komen
[ Voor 17% gewijzigd door Verwijderd op 06-07-2004 09:45 ]
Verwijderd
Uhm oke... Wat flame ik nou weer? Ik heb al 6x gezegd dat Nvidia atm een betere keus is. Ik zal vast wel wat minder leuke dingen over Nv gezegd hebben maar volgens mij nooit zonder het ook te onderbouwen (en dat is dus geen flamen, dat heet een onderbouwde mening geven). En zelf ben je geloof ik ook niet altijd even objectief? Maargoed zoals ik al 10x heb gezegd boeit het merk mij niet, de enige reden dat ik liever had gezien dat ati sneller was is omdat ik dan geen niew gpu blok voor me wc had hoeven kopen (nee ik heb idd geen geld over).sjek schreef op 06 juli 2004 @ 01:41:
Verder wil ik even verzoeken (geen flame maar wil dat dit topic blijft bestaan) dat bv mensen zoals b3n666 en apple ff wat rustig gaan doen. Volgens mij is het voor jullie een spel om een flame war te beginnen ofzo (sommige hier doen dat ook). En mij is het ondertussen wel duidelijk dat jullie voorkeur ati is, maar doe dit dan aub in het ati topic. Dit is geen flame maar een vriendelijk verzoek doe ermee wat jullie willen.
Anyway, Is het al bekend wanneer er voldoende GT kaarten zijn overal?
Nou het is echt heel erg gesteld daarmee.Verwijderd schreef op 06 juli 2004 @ 09:49:
[...]
Uhm oke... Wat flame ik nou weer? Ik heb al 6x gezegd dat Nvidia atm een betere keus is. Ik zal vast wel wat minder leuke dingen over Nv gezegd hebben maar volgens mij nooit zonder het ook te onderbouwen (en dat is dus geen flamen, dat heet een onderbouwde mening geven). En zelf ben je geloof ik ook niet altijd even objectief? Maargoed zoals ik al 10x heb gezegd boeit het merk mij niet, de enige reden dat ik liever had gezien dat ati sneller was is omdat ik dan geen niew gpu blok voor me wc had hoeven kopen (nee ik heb idd geen geld over).
Anyway, Is het al bekend wanneer er voldoende GT kaarten zijn overal?
Het lijkt erop dat de GTs eerder leverbaar worden als de Ultras terwijl het precies andersom had moeten zijn ....
Turn it off and on again.
Inmiddels is mijn XFX 6800GT ook besteld: heb de asus maar laten vallen, want die laat nog minstens twee weken op zich wachten.
Verwijderd
Ik zat te kijken naar een FX5900XT maar misschien word de NV43 wel interresanter voor dezelfde prijs.
idd, net als DX9 support voor de FX5200IceEyz schreef op 06 juli 2004 @ 11:15:
Waarschijnlijk krijgen de low- en mid- ends ook SM3.0, niet dat het interessant is voor de kopers; low- en mid- end kunnen het toch niet verwerken met hoge resoluties en veel oogsnoep.
fftjes afwachten is idd het beste, totdat de midrange van beide kaarten goed gereviewed zijn.Verwijderd schreef op 06 juli 2004 @ 11:16:
Ik hoef ook geen hoge resoluties. Maar een goede vervanger voor me voodoo 5. 1024 is genoeg met eye-candy.
Ik zat te kijken naar een FX5900XT maar misschien word de NV43 wel interresanter voor dezelfde prijs.
Op dit moment heeft de 9800 Pro de beste prijs/kwaliteit.
[ Voor 42% gewijzigd door Pubbert op 06-07-2004 11:46 ]
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Overigens een leuke benchmark voor GF6800/GT/Ultra bezitters, de Ruby Benchmark:
http://www.tommti-systems...teien/TOOLS/RubyBench.rar
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Niet op voorraad.
Verwijderd
Volgens mij is dat een cheat. Het project staat namelijk niet online op orb. Er loopt een tread op Xtreme over deze cheat. Je moet gewoon de PS waarde op 0 zetten.silentsnow schreef op 06 juli 2004 @ 07:23:
nVidia GeForce 6800 SLI breekt 20K.
[afbeelding]
[afbeelding]
[afbeelding]
http://www.xtremesystems....ead.php?s=&threadid=38159
Ik gegrijp je punt wel MAAR jij post alleen de negatieve dingen over nvidia en behalve dat je de GT de betere kaart vind post je veel kritiek en heb je vrij weinig positiefs te melden in dit topic (valt mij op). Wat zou jij er van vinden als ik continu nieuws over ati een negatief kantje zou geven en wat er een beetje negatief is opblazen met factor 100 ( zak geld van nvidia naar crytek etc). Je zegt zelf dat je de dingen die je zegt onderbouwd. Waarmee dan?? want dat verhaal van bv weer die zak geld is echt niet onderbouwd. Dat geld lijkt me speculatie ten top en je brengt het als de waarheid. (als het wel zo is kun je hetelfde zeggen over ati en HL2.) Dan krijg je wellus/nietus over en weer en fanatics/nvidiot opmerkingen etc.Verwijderd schreef op 06 juli 2004 @ 09:49:
[...]
Uhm oke... Wat flame ik nou weer? Ik heb al 6x gezegd dat Nvidia atm een betere keus is. Ik zal vast wel wat minder leuke dingen over Nv gezegd hebben maar volgens mij nooit zonder het ook te onderbouwen (en dat is dus geen flamen, dat heet een onderbouwde mening geven). En zelf ben je geloof ik ook niet altijd even objectief? Maargoed zoals ik al 10x heb gezegd boeit het merk mij niet, de enige reden dat ik liever had gezien dat ati sneller was is omdat ik dan geen niew gpu blok voor me wc had hoeven kopen (nee ik heb idd geen geld over).
Anyway, Is het al bekend wanneer er voldoende GT kaarten zijn overal?
Maar zoals ik al zei doe ermee wat je wilt. Het was ook geen direct verwijt naar jouw maar ook naar andere mensen toe. Ik bedoelde dit over het totale beeld kwa reacties.
[ Voor 3% gewijzigd door sjekneck op 06-07-2004 12:59 ]
Jij deed/doet precies hetzelfde in het ati-topic vriendsjek schreef op 06 juli 2004 @ 12:58:
[...]
Ik gegrijp je punt wel MAAR jij post alleen de negatieve dingen over nvidia en behalve dat je de GT de betere kaart vind post je veel kritiek en heb je vrij weinig positiefs te melden in dit topic (valt mij op). Wat zou jij er van vinden als ik continu nieuws over ati een negatief kantje zou geven en wat er een beetje negatief is opblazen met factor 100 ( zak geld van nvidia naar crytek etc). Je zegt zelf dat je de dingen die je zegt onderbouwd. Waarmee dan?? want dat verhaal van bv weer die zak geld is echt niet onderbouwd. Dat geld lijkt me speculatie ten top en je brengt het als de waarheid. (als het wel zo is kun je hetelfde zeggen over ati en HL2.) Dan krijg je wellus/nietus over en weer en fanatics/nvidiot opmerkingen etc.
Maar zoals ik al zei doe ermee wat je wilt. Het was ook geen direct verwijt naar jouw maar ook naar andere mensen toe. Ik bedoelde dit over het totale beeld kwa reacties.
* Pubbert verw8 nu weer een reactie terug
Maar laten we daar nu maar over op houden. Ieder zn merk, ieder zn mening. Als we niet op elkaar reageren blijft dit topic ook nog schoon ook.
[ Voor 8% gewijzigd door Pubbert op 06-07-2004 13:19 ]
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
2 stuks zeker maar, zoals altijd. Het wordt echt eens tijd nu. Kep geen zin meer om te wachten.edward2 schreef op 06 juli 2004 @ 12:01:
Zo, de XFX 6800GT is op voorraad bij Alternate.
Wat hadden ze gezegd bij Alternate?
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Oh das waar ben jou naam vergeten.Thund3r schreef op 06 juli 2004 @ 13:15:
[...]
Jij deed/doet precies hetzelfde in het ati-topic vriend![]()
* sjekneck verw8 nu weer een reactie terug
Maar laten we daar nu maar over op houden. Ieder zn merk, ieder zn mening. Als we niet op elkaar reageren blijft dit topic ook nog schoon ook.
Als je weet dat je een reactie gaat krijgen waarom post je dan?? Wees dan zelf zo wijs en verstandig om niks te zeggen.
Genoeg flauwigeheid.
Is er nu al een whql driver uit of laat dat nog op zich wachten??
Dan is het er nu 1Deathchant schreef op 06 juli 2004 @ 13:21:
[...]
2 stuks zeker maar, zoals altijd. Het wordt echt eens tijd nu. Kep geen zin meer om te wachten.
Wat hadden ze gezegd bij Alternate?
Turn it off and on again.
http://www.digit-life.com/articles2/gffx/nv40-3-p1.html
Is het niet al tijd voor deeltje 6? 510 posts alweer.
[ Voor 23% gewijzigd door Tyranium op 06-07-2004 13:32 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
halflife2 blijft tog wel een beta maar je ziet tog dat de NV 40 duidelijk gelijk waardig al dan niet beter presteert dan zijn grote "vriend" de X800. 40% sneller zegt gabe. volgens mij is dat de x800 t.o.v de geforce 5 serie.Tyranium schreef op 06 juli 2004 @ 13:30:
Hier nog een leuke review van de Leadtek 6800Ultra en de Leadtek 6800:
http://www.digit-life.com/articles2/gffx/nv40-3-p1.html
Ja maar zoals jullie ook hadden gezien is niks leverbaarDeathchant schreef op 06 juli 2004 @ 13:32:
smokey, ik dacht dat jij ook voor de Asus ging?
Vanavond wat high reso pix van de XFX 6800 GT ik ga hem nu ophalen bij alternate
Turn it off and on again.
ik heb hem morgen ook binnen van Salland, mocht het zo zijn dat de geluids productie van de XFX echt zo hoog is dan ruil ik hem in tegen de asusSmokeyTheBandit schreef op 06 juli 2004 @ 13:35:
[...]
Ja maar zoals jullie ook hadden gezien is niks leverbaaren ik wil nog voor me vakantie van deze brute power gebruik maken
![]()
Vanavond wat high reso pix van de XFX 6800 GT ik ga hem nu ophalen bij alternate![]()
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Niet op voorraad.
BlowFish schreef op 06 juli 2004 @ 13:33:
[...]
halflife2 blijft tog wel een beta maar je ziet tog dat de NV 40 duidelijk gelijk waardig al dan niet beter presteert dan zijn grote "vriend" de X800. 40% sneller zegt gabe. volgens mij is dat de x800 t.o.v de geforce 5 serie.
*kuch* 3Dc in HL2 *kuch*
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
De moederbord ondersteund dus alleen PCI Express. Mijn vraag is dan ook wanneer de gf6800 met PCI-E ongeveer in de schappen ligt ?
De GT dan?
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Die was gewoon op voorraad.
Niet op voorraad.
jup bij salland ook die hebben er nu ook op voorraad voor slechts 447 euro, mooi prijsje
ps. de XFX!
[ Voor 4% gewijzigd door BlowFish op 06-07-2004 17:07 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Verwijderd
Heeft de Geforce FX5900XT veel verbeteringen tegenover een geforce 4 in far cry?
Of is er geen echt merkbaar verschil.
Wereld van verschil. Superkaart!! (prijs/kwali-wijs)Verwijderd schreef op 06 juli 2004 @ 18:30:
Ik kon geen geforce FX topic meer vinden.
Heeft de Geforce FX5900XT veel verbeteringen tegenover een geforce 4 in far cry?
Of is er geen echt merkbaar verschil.
Toch moet je eerlijk en oprecht blijven en toekennen dat een 9800 Pro (Sapphire 256bit) toch wel betere prijskwaliteit heeft dan een 5900XT
Daarmee kraak ik de 5900Xt niet af, het is zeker geen slechte kaart.
Maar het ligt er ook aan wat voor een geforce4 je hebt, een geforce4 mx 420 vs 1 van hierboven is idd een wereld van verschil
[ Voor 18% gewijzigd door Pubbert op 06-07-2004 19:54 ]
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Verwijderd
De 5900XT is toch nog goedkoper dan de 9800pro.
Maar is de beeldkwaliteit in Far Cry en of andere spellen beter dan een GeForce 4 TI?
Dat lijkt me wel.
( 525 posts, deel 6? )
[ Voor 7% gewijzigd door Verwijderd op 06-07-2004 19:59 ]
Geforce 4 = DX8Verwijderd schreef op 06 juli 2004 @ 18:30:
Ik kon geen geforce FX topic meer vinden.
Heeft de Geforce FX5900XT veel verbeteringen tegenover een geforce 4 in far cry?
Of is er geen echt merkbaar verschil.
Geforce 5 = DX9
(dacht ik)
De IQ en performance gaan er dus zeker op vooruit als ik het goed heb.
op firingssquad hebben ze dat een tijdje terug bekeken, en het verschil was dus minimaal tussen een gf4 en een fx59*Verwijderd schreef op 06 juli 2004 @ 19:58:
Het is een GeForce 4 TI 4400.
De 5900XT is toch nog goedkoper dan de 9800pro.
Maar is de beeldkwaliteit in Far Cry en of andere spellen beter dan een GeForce 4 TI?
Dat lijkt me wel.
( 525 posts, deel 6? )
Komt natuurlijk omdat in de praktijk het beide dx8.1 kaarten zijn.
Zou ik toch eens naar een echte dx9 kaart kijken voor een klein beetje meer
http://www.firingsquad.com/hardware/far_cry_nvidia/
maakt die XFX koeler dan zoveel herrie ten opzichte van andere merken ?BlowFish schreef op 06 juli 2004 @ 13:37:
[...]
ik heb hem morgen ook binnen van Salland, mocht het zo zijn dat de geluids productie van de XFX echt zo hoog is dan ruil ik hem in tegen de asus
In de tweakers.net review stond dat de xfx koeler wel veel (of teminste meer dan de andere merken) geluid maakt....taz3d_nl schreef op 06 juli 2004 @ 20:13:
[...]
maakt die XFX koeler dan zoveel herrie ten opzichte van andere merken ?
[ Voor 20% gewijzigd door Tyranium op 06-07-2004 20:19 ]
heel binnenkort of gewoon " indien er een x800se komt "The Source schreef op 06 juli 2004 @ 21:03:
Mhh... er komt kennelijk ook een 6800LE chip/kaart op de markt. Meerdere details zijn nog niet bekend.
we kunnen dus 12/8 pipes verwachten?
(weetwel er staat dat je niets meer weet maar geef toch eens je eigen gedacht erover)
[ Voor 21% gewijzigd door oeLangOetan op 06-07-2004 22:01 ]
Heeft iemand enig idee welke geheugenchippies worden gebruikt op deze kaart. En welke op de Ultra versie. Zijn deze hetzelfde?
Verwijderd
Bij de Far Cry 1.2 patch zou de beeldkwaliteit toch verbeteren ook op een FX videokaart?
Verwijderd
Anyway ik neem aan van wel, ik vind de ASUS gewoon het mooiste design hebben , terwijl mijn andere kaart: Leadtek Winfast GeForce4 Ti4600 ook 1 van de mooiste designs heeft voor de Ti-4600 lijn. Die gebruik ik nog steeds, echt een super kaart de Ti4600.
Leadtek Winfast A250 ULTRA TD [nVidia GeForce4 Ti4600]

Dat is mijn mening daarvan natuurlijk
[ Voor 25% gewijzigd door Verwijderd op 07-07-2004 01:35 ]
Ik heb exact dezelfdeVerwijderd schreef op 07 juli 2004 @ 01:31:
Leadtek Winfast GeForce4 Ti4600 ook 1 van de mooiste designs heeft voor de Ti-4600 lijn. Die gebruik ik nog steeds, echt een super kaart de Ti4600.
Leadtek Winfast A250 ULTRA TD [nVidia GeForce4 Ti4600]
[afbeelding]
Dat is mijn mening daarvan natuurlijkIeder zijn eigen mening
The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590
Verwijderd
maar bij salland staat ie nog steeds op ''levertijd meer dan 2 weken'' (rood vierkantje)
k heb eigenlijk altijd al asus, dus ik heb er ook zo 1 besteld.
en wacht duurt dat wachten lang!

Prestaties:
- WinFast A400GT(6800GT;350MHz/1000GHz):
- Intel Pentium4 3.4GHz(Socket478,1MB L2 cache)
- Intel i875P + ICH5
- PC-3200(DDR-400) 512MB x2(CL:2-2-2-5)
- Maxtor Maxline III 250GB(SATA-150、7200rpm、16MB)
- NVIDIA ForceWare 61.71
- GeForce 6800GT PCI eXpress(350MHz/1000MHz):
- Intel Pentium4 3.6GHz(LGA775,1MB L2 cache)
- Intel i925x + ICH6
- Micron PC2-4300(DDR2-533) 512MB x2 (CL:4-4-4-10)
- Maxtor Maxline III 250GB(SATA-150、7200rpm、16MB)
- NVIDIA ForceWare 61.71
En dan nog een ShaderMark vergelijking tussen de NV4x en de R3xx/R4xx:
R3xx/R4xx:

NV4x:
The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590
Ja oke, dat is waar, maar ik doelde op de 3 plaatjes in de startpost
Misschien doe ik iets fout maar ik zie echt totaal geen verschil behalve dat licht/reflectie linksbovenaan de gele bol, wat op de NV40 iets feller is...silentsnow schreef op 07 juli 2004 @ 05:23:
En dan nog een ShaderMark vergelijking tussen de NV4x en de R3xx/R4xx:
R3xx/R4xx:
[afbeelding]
NV4x:
[afbeelding]
X800 XT Platinum Edition (Gemodde ViVo) a 489 Euro
of de
XFX 6800 GT a 447 Euro ...
Ik wou gister me 6800 ophalen maar plots stond de TPG voor de deur met de ViVo
Wat zeggen jullie ?!?!?!
Turn it off and on again.
Dus die X800XT PE is een door die winkel gemodde pro ofzo? Ik zou er dan wel rekening mee houden dat je er goede garantie bij krijgt.SmokeyTheBandit schreef op 07 juli 2004 @ 08:17:
Jongens een eerlijke mening gevraagd aub als je kijkt naar het doel gamen :
X800 XT Platinum Edition (Gemodde ViVo) a 489 Euro
of de
XFX 6800 GT a 447 Euro ...
Ik wou gister me 6800 ophalen maar plots stond de TPG voor de deur met de ViVo![]()
Wat zeggen jullie ?!?!?!
(Ik persoonlijk zou eigenlijk wachten tot die GT gewoon de normale prijs heeft, maar omdat jij NU moet kiezen...
[ Voor 10% gewijzigd door Tyranium op 07-07-2004 08:29 ]
Verwijderd
[ Voor 3% gewijzigd door Verwijderd op 07-07-2004 10:28 ]
[ Voor 4% gewijzigd door Sjah op 07-07-2004 13:19 ]
Langer dan 2 weken dus.Mail van Salland om 09:39 uur:Goedemorgen,
Wij hebben de XFX geforce 6800 GT op voorraad gehad, maar deze is helaas al weer uitverkocht.
Wij verwachten wel eind deze week de XFX Geforce 6800 Ultra binnen.
De Asus kaarten hebben wij nog niet binnen gehad en de levertijd daarvan is ook langer als 2 weken.
Met vriendelijke groet,
R. Klink
Salland Automatisering
Computer-cash-and-Carry (een filiaal in Duitsland) krijgt de GT en de Ultra van Asus binnen op 13 juli.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
resultaat: 10942
niet mis lijkt me
http://service.futuremark.com/compare?2k3=2744232
Volgens mij merk je helemaal niets van die mod bij de X800Pro ViVo aangezien het puur om een biosflash gaat. De ViVo's zijn gewoon gerebatchte XTs.Sjah schreef op 07 juli 2004 @ 13:18:
Ik zou de GT nemen, je kan lullen wat je wilt, het blijft een Pro, en daarvoor is die gewoon duur, plus dat ik me na die mod amper kan voorstellen dat je nog bij de fabriek kan aankloppen om garantie indien nodig.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Zeker niet, en op default neem ik aan?BlowFish schreef op 07 juli 2004 @ 14:23:
ik heb zojuist de XFX 6800 GT binnengehad en heb hem maar meteen een 3dmarkje laten draaien:
resultaat: 10942
niet mis lijkt me
http://service.futuremark.com/compare?2k3=2744232
Niet op voorraad.
GT2 - Battle of Proxycon 87.6 fpsBlowFish schreef op 07 juli 2004 @ 14:23:
ik heb zojuist de XFX 6800 GT binnengehad en heb hem maar meteen een 3dmarkje laten draaien:
resultaat: 10942
niet mis lijkt me
http://service.futuremark.com/compare?2k3=2744232
GT3 - Troll's Lair 74.2 fps
GT4 - Mother Nature 59.9 fps
Nice...
60 FPS is mother nature... dat is zeker best aardig.
Trolls lair op die snelheden is ook niet slecht...
Yup de nieuwe generatie kaartjes heeft het duidelijk in zich om technisch gezien extreem veel te kunnen!
There is no place like ::1
Best mooie score.BlowFish schreef op 07 juli 2004 @ 14:23:
ik heb zojuist de XFX 6800 GT binnengehad en heb hem maar meteen een 3dmarkje laten draaien:
resultaat: 10942
niet mis lijkt me
http://service.futuremark.com/compare?2k3=2744232
Als ik hem compare met mijn X800 Pro normale score (en 1,8Ghz AMD) dan merk ik dat jij vooral in de 1ste test veeel sneller bent, de 2de en 3de test ben je net iets sneller, terwijl ik in de 4de test zo'n 20fps sneller ben.
Beide kaarten lijken dus zn sterke punten te hebben.
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Verwijderd
Kan jij gewoon een kaart installeren en gebruiken en dan toch maar omruilen omdat ie niet bevalt?Tyranium schreef op 06 juli 2004 @ 20:18:
[...]
In de tweakers.net review stond dat de xfx koeler wel veel (of teminste meer dan de andere merken) geluid maakt....
ik heb de GT die is iig een stuk kleiner gebruikt ook slechts 1 slot, en qua geluid productie heb ik nergends last vanVerwijderd schreef op 07 juli 2004 @ 14:51:
[...]
Kan jij gewoon een kaart installeren en gebruiken en dan toch maar omruilen omdat ie niet bevalt?
Aangezien ik ook een nforce 3 250 gebaseerd mobo draai werkt dit toch ff lekkerder voor nog minder hebt ik een id
De non ultra die ik had draaide wel standaard bijna 11 000 3d marks 2003 en deze moet wel rond de 14k komen met mijn sysje
En ook met het oog op eye candy en PS 3.0 en de kommende games
Zal straks even de pix uppen
[ Voor 16% gewijzigd door SmokeyTheBandit op 07-07-2004 15:15 ]
Turn it off and on again.
Dat weet ik wel, maar voor Ati blijft het een Pro, en dan vindik 450 een leuke max., maar nee deze zaak levert hem voor minimaal 40 meer, zonder dat je zeker bent van garantie (stel hij geeft geen beeld: moet je dan die Pro met een Xtbios terugsturen? terug flashen zal een beetje moeilijk gaan he?)CJ schreef op 07 juli 2004 @ 14:26:
[...]
Volgens mij merk je helemaal niets van die mod bij de X800Pro ViVo aangezien het puur om een biosflash gaat. De ViVo's zijn gewoon gerebatchte XTs.
Noem me een zeikerd, maar voor 490 willik geen product waar ik bedenkingen bij heb (al zijn het maar kleine bedenkingen).
[ Voor 11% gewijzigd door Sjah op 07-07-2004 15:50 ]
heb je een Asus GT ???? en heb je een 6800 non ultra gehad? Wist ik niet. Post je ervaringen eensSmokeyTheBandit schreef op 07 juli 2004 @ 15:14:
Ik heb toch gekozen voor de GT guys deze heb ik nu ook in huis
Aangezien ik ook een nforce 3 250 gebaseerd mobo draai werkt dit toch ff lekkerder voor nog minder hebt ik een id
De non ultra die ik had draaide wel standaard bijna 11 000 3d marks 2003 en deze moet wel rond de 14k komen met mijn sysje![]()
En ook met het oog op eye candy en PS 3.0 en de kommende games![]()
Zal straks even de pix uppen
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
[ Voor 3% gewijzigd door MisteRMeesteR op 07-07-2004 16:46 ]
www.google.nl
ik zoek nl. een NV40 6800 Ultra bios voor mijn NV40 6800GT kaart.
signature
Verwijderd
[rml][ Algemeen] nVidia NV40 / GeForce 6800 Topic! Deel 6[/rml] daar verder dus...
Dit topic is gesloten.
![]()


