Als jij het zegt.Anoniem: 79835 schreef op vrijdag 25 februari 2005 @ 11:57:
[...]
6800GT 1.3V
6800ultra 1.4V
6800ultra extreme 1.5V
Hey,ik ben van plan om over te stappen van een 9800pro naar een BFG Ultra,ik had hiervoor een 6800GT van Albatron,maar dat ding was zo slecht over te klokken dat ik hem na een paar maanden weer had verkocht.
Nu las ik dat de BFG behoorlijk rap is(standaard 425/1100)en wel 450/1250 wil!.
NU zit ik wel een beetje te twijfelen of ik er goed aan doe om hem te halen of te wachten op de nieuwe kaart die ergens 3e kwartaal komt.Deze zal uiteraard wel PCIx zijn,maar wel een hele nieuwe core!
Nu las ik dat de BFG behoorlijk rap is(standaard 425/1100)en wel 450/1250 wil!.
NU zit ik wel een beetje te twijfelen of ik er goed aan doe om hem te halen of te wachten op de nieuwe kaart die ergens 3e kwartaal komt.Deze zal uiteraard wel PCIx zijn,maar wel een hele nieuwe core!
Anoniem: 114616
Ik zou wachten. Je R9800pro trekt alle spellen nu ook nog wel. Dus als je geduld hebt....
Dat is zo,m'n 9800Pro die doet het prima(viel mij enigzins ook tegen,de 6800GT)was ook een van de redenen dat ik de 6800GT verkocht.Anoniem: 114616 schreef op vrijdag 25 februari 2005 @ 13:48:
Ik zou wachten. Je R9800pro trekt alle spellen nu ook nog wel. Dus als je geduld hebt....
Als ik wacht op de nieuwe Nvidia,betekent het ook dat ik een nieuwe bord moet kopen+cpu,maar ach,dat is weer het mooie van hardware kopen,d'r komt altijd meer bij .

Ik heb de BFG OC 6800Ultra en ben er erg tevreden over, draai 450/1200 zonder probs 44 idle 55-59 load, hij kan dus wat hebben.Fern schreef op vrijdag 25 februari 2005 @ 13:45:
Hey,ik ben van plan om over te stappen van een 9800pro naar een BFG Ultra,ik had hiervoor een 6800GT van Albatron,maar dat ding was zo slecht over te klokken dat ik hem na een paar maanden weer had verkocht.
Nu las ik dat de BFG behoorlijk rap is(standaard 425/1100)en wel 450/1250 wil!.
NU zit ik wel een beetje te twijfelen of ik er goed aan doe om hem te halen of te wachten op de nieuwe kaart die ergens 3e kwartaal komt.Deze zal uiteraard wel PCIx zijn,maar wel een hele nieuwe core!
Heb trouwens een tagan 480W en heb twee aparte 12V lijnen gebruikt om hem te voeden.
"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."
Anoniem: 114616
En je weet dat je dat erbij moet kopen dus je kan het bedrag alvast sparen zodat je daalijk alles in een keer kan kopen.
Anoniem: 79835
Ik heb dat zelfs nagemeten met een multimeter
Gemeten is het trouwens ietsje meer. 1.33-1.35V voor m'n GT bijvoorbeeld, 1.44V voor m'n ultra
Dit betekent ook dat per 50Mhz clockspeed er 0.1V nodig is.
Een ultra die op 500Mhz wil lopen heeft dus 1.6V nodig. Dat is dan ook het voltage dat ik op m'n ultra zet. Dus draait ie op 1.60-1.65V aan snelheden van 500/1300 en dat 24/7
Wat zijn nu een beetje de meest relaxte drivers voor een GF6800 GT? Ik heb mijn (Gainward Golden Sample) op 420/1145 lopen met de 66.93 drivers maar de snelheid (hakkelen) / beelkwaliteit valt me erg tegen (ondanks dat ik met 3dmark 2005 wel 4241 punten haal).
Maar aangezien ik ook op deze machine moet werken (grafisch/video) wil ik wel echt stabiele drivers.
Trouwens heeft iemand dit ook ervaren: met de WHQL certified 66.93 drivers kan ik geen XVID avid afspelen, het beeld is dan scrambled. In de pauze stand krijg ik wel beeld. Als ik de divx codec gebruik voor afspelen van divx werkt het wel allemaal. Tot gister had ik een geforce 4 4600 ultra en daar had ik geen enkel probleem mee. Ook was de beeld kwaliteit in Need for speed underground 2 veel beter (heb quality settings op kwaliteit staan).
So, what driver would u guys advice to use?
Update: met de 75.90 drivers zijn de prestaties van half life 2 iets vooruit gegaan en met 3dMark 2005 haal ik nu 5043 punten. MAAR Need for Speed Underground 2 draait nog steeds onspeelbaar slecht op 1024x768 bijna net zo slecht als 1600x1200.
Is er niemand die nfsu2 speelt en mij kan vertellen op welke instellingen?
Maar aangezien ik ook op deze machine moet werken (grafisch/video) wil ik wel echt stabiele drivers.
Trouwens heeft iemand dit ook ervaren: met de WHQL certified 66.93 drivers kan ik geen XVID avid afspelen, het beeld is dan scrambled. In de pauze stand krijg ik wel beeld. Als ik de divx codec gebruik voor afspelen van divx werkt het wel allemaal. Tot gister had ik een geforce 4 4600 ultra en daar had ik geen enkel probleem mee. Ook was de beeld kwaliteit in Need for speed underground 2 veel beter (heb quality settings op kwaliteit staan).
So, what driver would u guys advice to use?
Update: met de 75.90 drivers zijn de prestaties van half life 2 iets vooruit gegaan en met 3dMark 2005 haal ik nu 5043 punten. MAAR Need for Speed Underground 2 draait nog steeds onspeelbaar slecht op 1024x768 bijna net zo slecht als 1600x1200.
[ Voor 23% gewijzigd door dadj op 25-02-2005 17:04 ]
XBOX 360 Gamertag | Mac mini | Macbook | iMac - God Does Not Have a Plan; He is Just a Kid With an Antfarm
Anoniem: 114616
De 75.90 gaf volgens vele een hele boost en goede kwaliteit. En dan vooral voor een GeForce 6
Btw, doet die Nalu nvidia demo het bij iemand? hij crashed hier elke keer, met verschillende drivers. en mn videokaart wordt helemaal niet eens warm.
XBOX 360 Gamertag | Mac mini | Macbook | iMac - God Does Not Have a Plan; He is Just a Kid With an Antfarm
kweet niet of ie hier al langs is gekomen maar:
nieuws: Centrino à gogo: Spelen met GeForce Go 6800 Ultra
een laptop die destops eruit trekt!!!
das het betere werk, zo word een laptop eindelijk interessant...
nieuws: Centrino à gogo: Spelen met GeForce Go 6800 Ultra
een laptop die destops eruit trekt!!!
das het betere werk, zo word een laptop eindelijk interessant...
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Anoniem: 119772
Ik heb dezelfde kaart en heb em nog niet verder laten klokken dan 400/1100. ALLE 66.xx drivers vindt mijn pc niet leuk. De 66.93 veroorzaakte een windows freeze, dus dat zijn imo de ergste.dadj schreef op vrijdag 25 februari 2005 @ 15:01:
Update: met de 75.90 drivers zijn de prestaties van half life 2 iets vooruit gegaan en met 3dMark 2005 haal ik nu 5043 punten. MAAR Need for Speed Underground 2 draait nog steeds onspeelbaar slecht op 1024x768 bijna net zo slecht als 1600x1200.Is er niemand die nfsu2 speelt en mij kan vertellen op welke instellingen?
Na lange tijd met 61.77 gedaan te hebben vanwege IQ ; ik werk namelijk met Cinema4D en Photoshop, ben ik nu eindelijk overgeschakeld op 67.66. Performance is vooruit gegaan met behoud van IQ. Ik ga niet naar de 71.xx serie en hoger omdat die temperatuur verhoging van de kaart veroorzaken.
Wbt NFSU2 ; da's gewoon EA's schuld. Een slechte port kwa performance.
zo ook een bench gedaan in 3dmark03
XFX GeForce 6800GT 256MB DDR3 @ 401MHz / 1.10Ghz
10359 3Dmarks
XFX GeForce 6800GT 256MB DDR3 @ 401MHz / 1.10Ghz
10359 3Dmarks
Nou dat valt nogal mee met de porting zelf, op mn GF 4 draaide hij redelijk en zag het er goed uit en op mn laptop met een Ati radeon 9700 draait ie helemaal als een speer.. Zal toch aan de drivers liggen lijkt mij.Anoniem: 119772 schreef op vrijdag 25 februari 2005 @ 19:31:
[...]
Ik heb dezelfde kaart en heb em nog niet verder laten klokken dan 400/1100. ALLE 66.xx drivers vindt mijn pc niet leuk. De 66.93 veroorzaakte een windows freeze, dus dat zijn imo de ergste.
Na lange tijd met 61.77 gedaan te hebben vanwege IQ ; ik werk namelijk met Cinema4D en Photoshop, ben ik nu eindelijk overgeschakeld op 67.66. Performance is vooruit gegaan met behoud van IQ. Ik ga niet naar de 71.xx serie en hoger omdat die temperatuur verhoging van de kaart veroorzaken.
Wbt NFSU2 ; da's gewoon EA's schuld. Een slechte port kwa performance.
met 67.66 werkt nfsu2 ietjes beter maar nog steeds belabberd en heeft nu last van flinke random glitches, ik snap er niets van. Doom en Half Life 2 draaien als een zonnetje, maar nfsu2 is een ramp en ook far cry heeft af en toe problemen en loopt ook niet erg soepel. ik had toch wel wat meer verwacht van deze video kaart.. Al lijkt t vooral een driver kwestie. de kaart is al zolang uit en toch zoveel problemen.. of ben ik de enige?
[ Voor 24% gewijzigd door dadj op 26-02-2005 03:14 ]
XBOX 360 Gamertag | Mac mini | Macbook | iMac - God Does Not Have a Plan; He is Just a Kid With an Antfarm
Ah,vertel eens over het geluid van die fan die erop zit,is dat een herrie maker?Sm0k3r schreef op vrijdag 25 februari 2005 @ 14:38:
[...]
Ik heb de BFG OC 6800Ultra en ben er erg tevreden over, draai 450/1200 zonder probs 44 idle 55-59 load, hij kan dus wat hebben.
Heb trouwens een tagan 480W en heb twee aparte 12V lijnen gebruikt om hem te voeden.
Ik heb trouwens een Zalman 400W aps,zou die het kunnen trekken?is wel een goeie,alleen weet ik niet wat ie nou precies geeft,weet wel dat Nvidia hun hardware vereisten naar beneden hadden bijgesteld naar 350W,maar dat is voor een normale Ultra.
Ik heb die Zalman ook, die moet hem makkelijk trekken!!! Is een van de beste voedingen wat er te koop isFern schreef op vrijdag 25 februari 2005 @ 23:35:
[...]
Ah,vertel eens over het geluid van die fan die erop zit,is dat een herrie maker?
Ik heb trouwens een Zalman 400W aps,zou die het kunnen trekken?is wel een goeie,alleen weet ik niet wat ie nou precies geeft,weet wel dat Nvidia hun hardware vereisten naar beneden hadden bijgesteld naar 350W,maar dat is voor een normale Ultra.
Hmm... ik geef toe dat EA NFSU2 een performancevretende engine meegegeven heeft, mijn pc bv. zou NFSU2 niet overleven... Driverheaven.net quote bijvoorbeeld:Anoniem: 119772 schreef op vrijdag 25 februari 2005 @ 19:31:
[...]
Wbt NFSU2 ; da's gewoon EA's schuld. Een slechte port kwa performance.
(bron: http://www.driverheaven.n...ed%20For%20Speed%20U2.htm)NFSU2 has one hell of a demanding engine, luckily with everything maxed out the game does look phenomenal and its with these settings that we’ve tested our cards. Looking at 1280x960 first we see that the 6800GT struggles to get playable framerates, the drop to 19fps was due to smoke from tyres and in normal gameplay min fps was around 22-25fps. Moving up to 1600x1200 with every setting maxed and we see that the X800XL comes in with playable framerates throughout where as the 6800GT is even on average fps, unplayable.
No Flame Intended hoor, maar als het wérkelijk zou liggen aan laksheid van EA om het spel goed te porten naar de PC-versie, dan snap ik eerlijk gezegd niét waarom de getestte ATi-videokaarten dan wél goed presteerden (tot ongeveer 60% performanceverschil in 1600x1200 - red.), en alle mogelijke settings speelbaar hielden!


Maar je hoeft je niet ongerust te maken hoor *las dat jij een 6800GT hebt
Anoniem: 119772
Heh...ik ben eerlijk gezegd ook niet zo'n EA fan hoor. De framerate en controle van hun F1 games vond ik altijd al om te huilen.[b]Jejking schreef op zaterdag 26 februari 2005 @ 09:50
Maar je hoeft je niet ongerust te maken hoor *las dat jij een 6800GT hebt*, ik denk dat in de (nabije) toekomst de NFSU2-performance wel opgekrikt gaat worden door Nvidia m.b.v. nieuwe drivers, want vergeet niet dat de NV40-architectuur van scratch af aan is opgebouwd, er zit dus nog méér dan zat rek in om er performance uit te halen
Kheb net die nieuwe officiele SplinterCell 3 demo en daar draait sm3.0 HDR nu gelukkig wel lekker op m'n GT. Age of Empires 3 zal dus ook van die HDR effecten hebben en da's smullen, want de SC3 demo kan ik eigenlijk al niet meer zonder die FX spelen.
Let's hope so, dat mn laptop met oude ati kaart hééél veel sneller is dan een 6800GT van bijna 500 euro is wel een domper hoor, teminste in t spel dat ik t meeste speel.. ughJejking schreef op zaterdag 26 februari 2005 @ 09:50:
Maar je hoeft je niet ongerust te maken hoor *las dat jij een 6800GT hebt*, ik denk dat in de (nabije) toekomst de NFSU2-performance wel opgekrikt gaat worden door Nvidia m.b.v. nieuwe drivers, want vergeet niet dat de NV40-architectuur van scratch af aan is opgebouwd, er zit dus nog méér dan zat rek in om er performance uit te halen
btw, splintercell 3 ziet er idd geweldig uit!! krijg je een goede framerate?
[ Voor 7% gewijzigd door dadj op 26-02-2005 11:30 ]
XBOX 360 Gamertag | Mac mini | Macbook | iMac - God Does Not Have a Plan; He is Just a Kid With an Antfarm
Anoniem: 119772
De officiele splintercell 3 demo draait idd een goeie framerate met sm3.0 HDR settings. Als je die uitzet of alleen in sm1.1 draait het uiteraard nog veel beter. Mjah, sm3.0 HDR effecten zijn nu wel een selling point geworden imho.
Ik zou echt zonde vinden om dit spel op een Ati te draaien al had ik er een. sm3 HDR in SC3 vinnik gewoon te mooi om zonder te spelen.
Ik zou echt zonde vinden om dit spel op een Ati te draaien al had ik er een. sm3 HDR in SC3 vinnik gewoon te mooi om zonder te spelen.
hij draait hier geweldig op 1024x786 mét HDR daarboven gaat ie te veel stotteren. Super spel zeg!Anoniem: 119772 schreef op zaterdag 26 februari 2005 @ 11:46:
De officiele splintercell 3 demo draait idd een goeie framerate met sm3.0 HDR settings. Als je die uitzet of alleen in sm1.1 draait het uiteraard nog veel beter. Mjah, sm3.0 HDR effecten zijn nu wel een selling point geworden imho.
Ik zou echt zonde vinden om dit spel op een Ati te draaien al had ik er een. sm3 HDR in SC3 vinnik gewoon te mooi om zonder te spelen.
XBOX 360 Gamertag | Mac mini | Macbook | iMac - God Does Not Have a Plan; He is Just a Kid With an Antfarm
NFSU is net als HALO prut geport, ligt niet aan je vid.card.
Vraagje trouwens kan je met Splinter Cell AA aanzetten, maat van me zegt van niet....
Vraagje trouwens kan je met Splinter Cell AA aanzetten, maat van me zegt van niet....
"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."
Anoniem: 119772
Splinter Cell 1 en PT hebben idd geen AA.
SplinterCell CT heeft wel AA. In het menu kun je tussen 1,2 en 4xAA kiezen.
SplinterCell CT heeft wel AA. In het menu kun je tussen 1,2 en 4xAA kiezen.
eVGA GeForce 6800 Ultra PCI-Express ligt momenteel voor €384 ($499) op de plank bij newegg (VS) 
€384
De eVGA GeForce 6800 GT PCI-Express doet het met €307 ($399) ook er goed.
€307
Prijsverlaging misschien? Die prijzen - $499 en $399 - wijzen er in elk geval naar.
€384
De eVGA GeForce 6800 GT PCI-Express doet het met €307 ($399) ook er goed.
€307
Prijsverlaging misschien? Die prijzen - $499 en $399 - wijzen er in elk geval naar.
The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590
De ati users moeten alleen even wachten, een paar duitsers zijn hard aan het werk om die sm3.0 shaders naar sm2.0 om te zetten.Anoniem: 119772 schreef op zaterdag 26 februari 2005 @ 11:46:
De officiele splintercell 3 demo draait idd een goeie framerate met sm3.0 HDR settings. Als je die uitzet of alleen in sm1.1 draait het uiteraard nog veel beter. Mjah, sm3.0 HDR effecten zijn nu wel een selling point geworden imho.
Ik zou echt zonde vinden om dit spel op een Ati te draaien al had ik er een. sm3 HDR in SC3 vinnik gewoon te mooi om zonder te spelen.
Volgens mij hebben enkele devvers bevestigd op de Ubi forums dat SCCT wel degelijk SM2.0 zal ondersteunen. In presentaties/previews/interviews werd ook vaak gezegd dat er nog mooiere effecten met SM2.0/SM3.0 te maken zijn dan met SM1.1 - SM2 en SM3 werden samen genoemd en niet alleen SM3.
Verder ziet het er echt bloederig mooi uit. Het enige waar ik een hekel aan heb, zijn de pixelpuntjes... Moeilijk uit te leggen en te screenen... Als je stil staat ziet het er allemaal mooi uit, maar als je een pixel bijdraait, dan veranderen een groot aantal pixels duidelijk van kleur (bruin<->wit, bij een muur) waardoor je een pixelsprayshow krijgt. Allemaal glitters die gaan twinkelen zeg maar. Helemaal absurd vind ik dat dat meer voorkomt op 1280x960 dan op 1024x768. Anti-Aliasing kan daar trouwens maar weinig aan verbeteren. Ik zal ook nog even de officiële demo downloaden en kijken of die inderdaad zoveel beter loopt
Verder ziet het er echt bloederig mooi uit. Het enige waar ik een hekel aan heb, zijn de pixelpuntjes... Moeilijk uit te leggen en te screenen... Als je stil staat ziet het er allemaal mooi uit, maar als je een pixel bijdraait, dan veranderen een groot aantal pixels duidelijk van kleur (bruin<->wit, bij een muur) waardoor je een pixelsprayshow krijgt. Allemaal glitters die gaan twinkelen zeg maar. Helemaal absurd vind ik dat dat meer voorkomt op 1280x960 dan op 1024x768. Anti-Aliasing kan daar trouwens maar weinig aan verbeteren. Ik zal ook nog even de officiële demo downloaden en kijken of die inderdaad zoveel beter loopt
De eVGA 6800Ultra 256mb AGP kost daar zelfs maar 437 dollar en de PNY 6800GT 256mb AGP maar 333 dollar!silentsnow schreef op zondag 27 februari 2005 @ 17:40:
eVGA GeForce 6800 Ultra PCI-Express ligt momenteel voor €384 ($499) op de plank bij newegg (VS)
€384
De eVGA GeForce 6800 GT PCI-Express doet het met €307 ($399) ook er goed.
€307
Prijsverlaging misschien? Die prijzen - $499 en $399 - wijzen er in elk geval naar.
Dat zijn nog eens nette prijzen.
[ Voor 9% gewijzigd door Tyranium op 27-02-2005 19:30 ]
Ik heb hem zowel 2d als 3d op 450/1200, fan hoor je een beetje fluiten of hoe zeg ik dat een zoemend geluid (fan draait constant op full speed).Fern schreef op vrijdag 25 februari 2005 @ 23:35:
[...]
Ah,vertel eens over het geluid van die fan die erop zit,is dat een herrie maker?
Ik heb trouwens een Zalman 400W aps,zou die het kunnen trekken?is wel een goeie,alleen weet ik niet wat ie nou precies geeft,weet wel dat Nvidia hun hardware vereisten naar beneden hadden bijgesteld naar 350W,maar dat is voor een normale Ultra.
Stoort niet want me 4 case fans hoor ik buzzen (bzzzzzzzzz zoiets
"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."
misschien was sm2.0 te duur, het doel van de nieuwe engine was sm3.0+ anyway (xbx2)IceEyz schreef op zondag 27 februari 2005 @ 18:57:
Volgens mij hebben enkele devvers bevestigd op de Ubi forums dat SCCT wel degelijk SM2.0 zal ondersteunen. In presentaties/previews/interviews werd ook vaak gezegd dat er nog mooiere effecten met SM2.0/SM3.0 te maken zijn dan met SM1.1 - SM2 en SM3 werden samen genoemd en niet alleen SM3.
Verder ziet het er echt bloederig mooi uit. Het enige waar ik een hekel aan heb, zijn de pixelpuntjes... Moeilijk uit te leggen en te screenen... Als je stil staat ziet het er allemaal mooi uit, maar als je een pixel bijdraait, dan veranderen een groot aantal pixels duidelijk van kleur (bruin<->wit, bij een muur) waardoor je een pixelsprayshow krijgt. Allemaal glitters die gaan twinkelen zeg maar. Helemaal absurd vind ik dat dat meer voorkomt op 1280x960 dan op 1024x768. Anti-Aliasing kan daar trouwens maar weinig aan verbeteren. Ik zal ook nog even de officiële demo downloaden en kijken of die inderdaad zoveel beter loopt
als ze het bij sm3.0 houden versa ik het volledig (als ati aanhanger)
We zouden een IA moeten organiseren. Dan wil ik wel zo een AGP 6800 Ultra voor € 330,00Tyranium schreef op zondag 27 februari 2005 @ 19:26:
[...]
De eVGA 6800Ultra 256mb AGP kost daar zelfs maar 437 dollar en de PNY 6800GT 256mb AGP maar 333 dollar!![]()
Dat zijn nog eens nette prijzen.
Je moet er dan toch weer allemaal belasting enzo voor gaan betalen, dus word het weer even duur als hier, of iemand moet daar een kennis hebben die het bestelt en het dan naar NL opstuurt
Heeft iemand de nVidia Forceware 71.84 beta drivers al getest? Problemen tegen gekomen al of de beste drivers tot nu toe? 
linkje
op guru3d.com staat kleinere versie: link
linkje
op guru3d.com staat kleinere versie: link
[ Voor 23% gewijzigd door dadj op 28-02-2005 15:16 ]
XBOX 360 Gamertag | Mac mini | Macbook | iMac - God Does Not Have a Plan; He is Just a Kid With an Antfarm
Heeft iemand van jullie de Gigabyte 6800gt met Heatpipe?
Ik was benieuwd hoe die presteert(met google niets te vinden)Ik zag het plaatje bij alternate en er zat dus wel een fan op.
Ik was benieuwd hoe die presteert(met google niets te vinden)Ik zag het plaatje bij alternate en er zat dus wel een fan op.
- Core temperatuur is in 2D toestand 10 graden hoger dan bij versie lager dan versie 71.xdadj schreef op maandag 28 februari 2005 @ 14:19:
Heeft iemand de nVidia Forceware 71.84 beta drivers al getest? Problemen tegen gekomen al of de beste drivers tot nu toe?
linkje
op guru3d.com staat kleinere versie: link
- Geen geel water in HL2 en geen 'gras-bug' in CS: Source.
- Geen grote verschillen in prestaties tov. eerdere drivers in HL2 en CS: Source
- 3dMark03/05? Geen idee. Vind ik niet zo interessant, maar ze zullen ongetwijfeld voor wat prestatiewinst zorgen.
Als je de Core-snelheid met 1Mhz verhoogt of verlaagt, schijnt het temperatuur verschil ook weer verdwenen te zijn. Vreemde bug in ieder geval.
Op de Guru3D-fora staan wel lijstjes met vergelijkingen van de laatste beta's. Meestal verschilt het niet zo veel, maar gaat het in het geheel in elk spel met enkele fps vooruit. Bugjes verdwijnen ook wel vaak met elke nieuwe Beta, alleen de 75.90 is nog redelijk onstabiel.
Maja, voor de links kijkt men maar in de startpost
Op de Guru3D-fora staan wel lijstjes met vergelijkingen van de laatste beta's. Meestal verschilt het niet zo veel, maar gaat het in het geheel in elk spel met enkele fps vooruit. Bugjes verdwijnen ook wel vaak met elke nieuwe Beta, alleen de 75.90 is nog redelijk onstabiel.
Maja, voor de links kijkt men maar in de startpost
van de instabilitijd van 75.90 heb ik gelukkig nog niets gemerkt hoorIceEyz schreef op maandag 28 februari 2005 @ 18:38:
Als je de Core-snelheid met 1Mhz verhoogt of verlaagt, schijnt het temperatuur verschil ook weer verdwenen te zijn. Vreemde bug in ieder geval.
Op de Guru3D-fora staan wel lijstjes met vergelijkingen van de laatste beta's. Meestal verschilt het niet zo veel, maar gaat het in het geheel in elk spel met enkele fps vooruit. Bugjes verdwijnen ook wel vaak met elke nieuwe Beta, alleen de 75.90 is nog redelijk onstabiel.
Maja, voor de links kijkt men maar in de startpost
ik heb soms last van artifacts na een tijdje spelen terwijl de kaart nooit warmer dan 61 graden wordt. Ze zien er uit als typische hitte artifacts maar dat is het dus niet. Het gebeurt in diverse games.. iemand een idee ??
XBOX 360 Gamertag | Mac mini | Macbook | iMac - God Does Not Have a Plan; He is Just a Kid With an Antfarm
Bij mij doet alleen de Splintercell 3 demo raar icm. de 75.90 drivers. Als ik alle sm3.0 opties inschakel krijg ik allemaal artifacts ofzo
. Met de 71.24 drivers was dit trouwens niet zo.

Anoniem: 119772
Wbt de 75.90.... is al enkele dagen bekend op meerdere fora. Gerucht gaat wel dat de uiteindelijke versie van die drivers de 66.93 op gaan volgen.
Ik blijf vooralsnog lekker bij 67.66 mooie balans tussen performance en IQ en ook nog eens stabiel.
Ik blijf vooralsnog lekker bij 67.66 mooie balans tussen performance en IQ en ook nog eens stabiel.
Yep hier ook en ook Riddick heeft een fix nodig, zie forum van nvnews.Tyranium schreef op maandag 28 februari 2005 @ 19:48:
Bij mij doet alleen de Splintercell 3 demo raar icm. de 75.90 drivers. Als ik alle sm3.0 opties inschakel krijg ik allemaal artifacts ofzo. Met de 71.24 drivers was dit trouwens niet zo.
Niet op voorraad.
Agreed, werken inderdaad goed. Ik heb trouwens de oplossing gevonden voor het vreselijk hakkelen in sommige games: Write Combining UITzetten > Right-click on your Desktop > Properties > Settings > Advanced > TroubleshootAnoniem: 119772 schreef op maandag 28 februari 2005 @ 20:08:
Ik blijf vooralsnog lekker bij 67.66 mooie balans tussen performance en IQ en ook nog eens stabiel.
3Dmark geeft 'bijna 300 punten meer.
Zelfs NFSU2 draait nu als een trein!!! > Spoke too soon, niet dus, aanvankelijk wel, later niet meer. geen aanwijzbare reden voor te vinden...
[ Voor 26% gewijzigd door dadj op 28-02-2005 23:43 ]
XBOX 360 Gamertag | Mac mini | Macbook | iMac - God Does Not Have a Plan; He is Just a Kid With an Antfarm
Ja dat geldt voor de ultra, maar een GT moet je 51 MHz overclocken. Hij draait hier overigens prima op die hoge temperatuur. Het schijnt dat het komt dat bij 2D het 3D voltage aan de core geleverd wordt.IceEyz schreef op maandag 28 februari 2005 @ 18:38:
Als je de Core-snelheid met 1Mhz verhoogt of verlaagt, schijnt het temperatuur verschil ook weer verdwenen te zijn. Vreemde bug in ieder geval.
edit:
dadj: grappig, we hebben bijna hetzelfde systeem
dadj: grappig, we hebben bijna hetzelfde systeem
[ Voor 7% gewijzigd door biobak op 28-02-2005 21:11 ]
Klein vraagje voor de mensen die quake 3 spelen of COD.
Ik heb een 6800 ULTRA (merk BFG) en heb bij quake 3 start scherm met quake logo last van knipperingen of flitsen, bovenkant scherm.
Niet tijdens spelen ofzo dus niet zo erg en bij COD ook, weet iemand wat dat kan zijn. Dus alleen bij startscherm.
Doom 3 (ook OpenGl) helemaal geen last van dus ik denk vanwege ouderdom ofzo.
Drivers zijn 66.93.
Ik heb een 6800 ULTRA (merk BFG) en heb bij quake 3 start scherm met quake logo last van knipperingen of flitsen, bovenkant scherm.
Niet tijdens spelen ofzo dus niet zo erg en bij COD ook, weet iemand wat dat kan zijn. Dus alleen bij startscherm.
Doom 3 (ook OpenGl) helemaal geen last van dus ik denk vanwege ouderdom ofzo.
Drivers zijn 66.93.
"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."
Mijn nieuwe speelgoed:
XFX 6800 Ultra PCIe
sorry voor de high pixel resolutie, mochten mensen klagen verander ik het.
http://www.xtremesystems....?attachmentid=25716&stc=1
http://www.xtremesystems....?attachmentid=25717&stc=1
http://www.xtremesystems....?attachmentid=25718&stc=1
XFX 6800 Ultra PCIe
sorry voor de high pixel resolutie, mochten mensen klagen verander ik het.
http://www.xtremesystems....?attachmentid=25716&stc=1
http://www.xtremesystems....?attachmentid=25717&stc=1
http://www.xtremesystems....?attachmentid=25718&stc=1
[ Voor 65% gewijzigd door Kakaroto op 01-03-2005 20:20 ]
*sprak voor mijn beurt*
[ Voor 63% gewijzigd door BenJoep op 01-03-2005 15:54 ]
| I've got permission to color outside the lines |
En wat gebeurt er als we in de geruchtenmolen gaan draaien.. nou.. er komt een 6800Ultra met 512MB uitrollen: Guru3D.

Een engineering sample NV45 lopend op 400/1050Mhz met 512MB op 256bits interface'je. Zijn foto's geven aan dat het standaard heatsink er nu wat anders uitziet. Twee chips op de achterkant en twee chips op de voorkant zitten onder een heatsink, de andere chips liggen in de open lucht. De kaart lijkt ongelooflijk veel op de Quadro FX4400, alleen het stickertje is anders.
The Inquirer had al gemeld dat NV48 slechts een NV45 met 512MB geheugen zou zijn en geen snelheidsverhogingen. Lijkt mij redelijk BS eigenlijk, magoed, ter informatie
Gainward zou deze kaarten onder andere gaan leveren, maar kijk eens op http://www.gainward.co.uk/ en vraag je af of ze in Europa leverbaar worden...
Ik heb eventjes op 't plaatje zitten koekeloeren naar het BIOS nummer en dat is 5.40.02.40.00
Dat nummer kom ik nergens tegen. De hoogste versie die te vinden valt op bijvoorbeeld mvktech.net is 5.40.02.36 voor een BFG PCI-E 6800U.
Waarheidsgehalte blijft lastig te bepalen dus

Een engineering sample NV45 lopend op 400/1050Mhz met 512MB op 256bits interface'je. Zijn foto's geven aan dat het standaard heatsink er nu wat anders uitziet. Twee chips op de achterkant en twee chips op de voorkant zitten onder een heatsink, de andere chips liggen in de open lucht. De kaart lijkt ongelooflijk veel op de Quadro FX4400, alleen het stickertje is anders.
The Inquirer had al gemeld dat NV48 slechts een NV45 met 512MB geheugen zou zijn en geen snelheidsverhogingen. Lijkt mij redelijk BS eigenlijk, magoed, ter informatie
Ik heb eventjes op 't plaatje zitten koekeloeren naar het BIOS nummer en dat is 5.40.02.40.00
Dat nummer kom ik nergens tegen. De hoogste versie die te vinden valt op bijvoorbeeld mvktech.net is 5.40.02.36 voor een BFG PCI-E 6800U.
Waarheidsgehalte blijft lastig te bepalen dus
Ik heb zelf een reference 6800U PCI-E met bios 05.40.02.31.02. PCB A04. Is deze redelijk nieuw?IceEyz schreef op dinsdag 01 maart 2005 @ 19:35:
En wat gebeurt er als we in de geruchtenmolen gaan draaien.. nou.. er komt een 6800Ultra met 512MB uitrollen: Guru3D.
[afbeelding]
Een engineering sample NV45 lopend op 400/1050Mhz met 512MB op 256bits interface'je. Zijn foto's geven aan dat het standaard heatsink er nu wat anders uitziet. Twee chips op de achterkant en twee chips op de voorkant zitten onder een heatsink, de andere chips liggen in de open lucht. De kaart lijkt ongelooflijk veel op de Quadro FX4400, alleen het stickertje is anders.
The Inquirer had al gemeld dat NV48 slechts een NV45 met 512MB geheugen zou zijn en geen snelheidsverhogingen. Lijkt mij redelijk BS eigenlijk, magoed, ter informatieGainward zou deze kaarten onder andere gaan leveren, maar kijk eens op http://www.gainward.co.uk/ en vraag je af of ze in Europa leverbaar worden...
Ik heb eventjes op 't plaatje zitten koekeloeren naar het BIOS nummer en dat is 5.40.02.40.00
Dat nummer kom ik nergens tegen. De hoogste versie die te vinden valt op bijvoorbeeld mvktech.net is 5.40.02.36 voor een BFG PCI-E 6800U.
Waarheidsgehalte blijft lastig te bepalen dus
Heb niet op de chip gekeken.
[ Voor 3% gewijzigd door Kakaroto op 01-03-2005 19:38 ]
Ik ben op zoek naar een betere / stillere koeling op me XFX 6800 GT.
deze kaart schijnt kleinere schroefgaatjes te hebben.
Heeft iemand hier een aanrader voor een betere cooler (geen watercooling)
op het moment haal ik ~81 graden stressed op een corespeed van 400Mhz, gevoelsmatig is dat wat aan de hoge kant
is die Zalman VF700-Cu wat ?
deze kaart schijnt kleinere schroefgaatjes te hebben.
Heeft iemand hier een aanrader voor een betere cooler (geen watercooling)
op het moment haal ik ~81 graden stressed op een corespeed van 400Mhz, gevoelsmatig is dat wat aan de hoge kant
is die Zalman VF700-Cu wat ?
Anoniem: 89518
Ik heb een probleem met de 67.66 drivers.. ALLEEN bij deze drivers krijg ik steeds een error als ik opstart 'insufficient power, lowering performance to prevent damage'. Dit gebeurd niet altijd, vaak alleen als de pc een nacht heeft uitgestaan. Bij geen enkele andere driver krijg ik dezelfde foutmelding..Anoniem: 119772 schreef op maandag 28 februari 2005 @ 20:08:
Wbt de 75.90.... is al enkele dagen bekend op meerdere fora. Gerucht gaat wel dat de uiteindelijke versie van die drivers de 66.93 op gaan volgen.
Ik blijf vooralsnog lekker bij 67.66 mooie balans tussen performance en IQ en ook nog eens stabiel.
Er zit een antec truepower 480W voeding in mn pc dus dat is het probleem niet..
Ik ga ervan uit dat het aan de driver ligt, maar aangezien ik geen andere mensen met hetzelfde probleem kan vinden tot nu toe .. twijfel ik toch.
Zou iemand met, net als ik, een XFX 6800 GT hebben de 67.66 kunnen testen om te kijken of ze dit ook krijgen, en zeggen welke bios ze op hun kaart hebben? ( heb zelf tot nu toe standaard, maar misschien is het een bios probleem)
[ Voor 14% gewijzigd door Anoniem: 89518 op 02-03-2005 11:10 ]
Anoniem: 119772
^ Da's idd een vaag probleem. Ik heb m'n golden sample 6800GT toch regelmatig op 400/1100 staan en icm de Tagan480 geen enkel probleem met 67.66. Wellicht een XFX bios update nodig...
Nee, blijf in godsnaam van die zalman af. Het grote probleem is dat de memsinkjes zo danig aan de mem blijft vastplakken dat het de bovenlaag wegvreet. Daarbij is nog een groot probleem dat die zalman koelertjes los trillen. Je kunt er anti trillingsringetjes tussen zetten zoveel je wilt......vroeg of laat trilt het losrico_fxp schreef op woensdag 02 maart 2005 @ 10:07:
Ik ben op zoek naar een betere / stillere koeling op me XFX 6800 GT.
deze kaart schijnt kleinere schroefgaatjes te hebben.
Heeft iemand hier een aanrader voor een betere cooler (geen watercooling)
op het moment haal ik ~81 graden stressed op een corespeed van 400Mhz, gevoelsmatig is dat wat aan de hoge kant
is die Zalman VF700-Cu wat ?
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Lostrillen lijkt me sterk, ik heb er iig geen last van. En dat het bovenste laagje (verf?) eraf gaat als je de memsinkjes eraf haalt.. tja.. geen ramp en ik haal ze er sowieso niet meer af.
Anoniem: 138248
Had hetzelfde probleem en heb daarom ook deze koeler aangeschaft. past perfect en is een stuk stiller. De temperatuur is bij mij 10 graden omlaag gegaan en is nu maximaal 71 graden. Nog veel maar als je koeler wilt moet je overgaan op waterkoeling. Ik heb een Thermaltake Shark kast dus daar is de airflow best goed bij en zal het dus niet aan liggen.rico_fxp schreef op woensdag 02 maart 2005 @ 10:07:
Ik ben op zoek naar een betere / stillere koeling op me XFX 6800 GT.
deze kaart schijnt kleinere schroefgaatjes te hebben.
Heeft iemand hier een aanrader voor een betere cooler (geen watercooling)
op het moment haal ik ~81 graden stressed op een corespeed van 400Mhz, gevoelsmatig is dat wat aan de hoge kant
is die Zalman VF700-Cu wat ?
Gebruik de koeler nu twee weken en ben dus zeer tevreden.
Ben overigens van de 75.90 weer naar de 71.20 drivers gegaan want ik had in CSS snel last van artifacts en heb hem maar overgeklokt naar 395@1080. Wel heb ik nog last van dat glimmende gras maar de 71.20 is stabieler als de 75.90.
[ Voor 12% gewijzigd door Anoniem: 138248 op 02-03-2005 12:48 ]
Anoniem: 89518
Ik heb nu mn voedingkabels ff anders ingerichtAnoniem: 119772 schreef op woensdag 02 maart 2005 @ 11:46:
^ Da's idd een vaag probleem. Ik heb m'n golden sample 6800GT toch regelmatig op 400/1100 staan en icm de Tagan480 geen enkel probleem met 67.66. Wellicht een XFX bios update nodig...
Nu deelt de kabel die naar mn videokaart gaat nergens stroom meer mee..ff testen dus.
Anoniem: 119772
^ ow...je had de GT nog op een gedeelde lijn zitten. Ja, gelukkig heeft de Tagan480 een aparte vga kabel.
@ Ronald ... 71 graden bij clocks onder de 400/1100 ? Hmmm Dat vind ik toch best warm. Mijn GT is @ idle 41 - 45 c en load 57 - 59 c De kast is een Antec Sonata met twee 120mm case fans.
2D clocks @ 350/1100 met fans op dynamic speeds tot 60 % en 3D clocks @ 400/1100 fans op 100% dynamic speeds (Gainward's expertool fanspeed functies).
De 67.66 is net 2 of 3 graden warmer dan de 61.77 maar gelukkig niet zo bar als plus 10 met de 71.xx serie.
@ Ronald ... 71 graden bij clocks onder de 400/1100 ? Hmmm Dat vind ik toch best warm. Mijn GT is @ idle 41 - 45 c en load 57 - 59 c De kast is een Antec Sonata met twee 120mm case fans.
2D clocks @ 350/1100 met fans op dynamic speeds tot 60 % en 3D clocks @ 400/1100 fans op 100% dynamic speeds (Gainward's expertool fanspeed functies).
De 67.66 is net 2 of 3 graden warmer dan de 61.77 maar gelukkig niet zo bar als plus 10 met de 71.xx serie.
[ Voor 40% gewijzigd door Anoniem: 119772 op 02-03-2005 13:29 ]
Dan ga ik hem morgen aanschaffen, thx!
Inmiddels heb ik op mijn XFX 6800GT AGP dual DVI de vf 700CU zitten, past prima voor degene die hem wil installeren.
Ik heb artic silver 5 gebruikt als koelpasta. zelfs op silent mode (5v) is het verschil enorm met een gewone cooler, waar ik idle eerst rond de 71 graden zat , zit ik nu op 53 als ik hem op 12v zou zetten zou dit nog een graad of 3 schelen!.
ben zeer blij met me investering
//editAnoniem: 138248 schreef op woensdag 02 maart 2005 @ 12:45:
[...]
Had hetzelfde probleem en heb daarom ook deze koeler aangeschaft. past perfect en is een stuk stiller. De temperatuur is bij mij 10 graden omlaag gegaan en is nu maximaal 71 graden. Nog veel maar als je koeler wilt moet je overgaan op waterkoeling. Ik heb een Thermaltake Shark kast dus daar is de airflow best goed bij en zal het dus niet aan liggen.
Gebruik de koeler nu twee weken en ben dus zeer tevreden.
Ben overigens van de 75.90 weer naar de 71.20 drivers gegaan want ik had in CSS snel last van artifacts en heb hem maar overgeklokt naar 395@1080. Wel heb ik nog last van dat glimmende gras maar de 71.20 is stabieler als de 75.90.
Inmiddels heb ik op mijn XFX 6800GT AGP dual DVI de vf 700CU zitten, past prima voor degene die hem wil installeren.
Ik heb artic silver 5 gebruikt als koelpasta. zelfs op silent mode (5v) is het verschil enorm met een gewone cooler, waar ik idle eerst rond de 71 graden zat , zit ik nu op 53 als ik hem op 12v zou zetten zou dit nog een graad of 3 schelen!.
ben zeer blij met me investering
[ Voor 21% gewijzigd door rico_fxp op 04-03-2005 11:10 ]
Anoniem: 138248
Als ik bv 3dmark05 doe kom ik rond de 64/65 graden uit. Als ik een half uur CSS speel in zo'n beetje de hoogste instellingen dan loopt de temp op naar max 71 graden. Is nog best warm maar is volgens mij gewoon een eigenschap van deze kaart of drivers. Wel moet ik zeggen dat ik van al mijn fans de snelheid kan regelen en vaak de fans zo laag mogelijk (2x 120mm) zet ivm herrie. Behalve de cpu fan en de gpu fan. Die draaien altijd voluit.Anoniem: 119772 schreef op woensdag 02 maart 2005 @ 13:25:
^ ow...je had de GT nog op een gedeelde lijn zitten. Ja, gelukkig heeft de Tagan480 een aparte vga kabel.
@ Ronald ... 71 graden bij clocks onder de 400/1100 ? Hmmm Dat vind ik toch best warm. Mijn GT is @ idle 41 - 45 c en load 57 - 59 c De kast is een Antec Sonata met twee 120mm case fans.
2D clocks @ 350/1100 met fans op dynamic speeds tot 60 % en 3D clocks @ 400/1100 fans op 100% dynamic speeds (Gainward's expertool fanspeed functies).
De 67.66 is net 2 of 3 graden warmer dan de 61.77 maar gelukkig niet zo bar als plus 10 met de 71.xx serie.
Anoniem: 89518
Jep laten we hopen dat het werkt ..tot nu toe lijkt het erop.Anoniem: 119772 schreef op woensdag 02 maart 2005 @ 13:25:
^ ow...je had de GT nog op een gedeelde lijn zitten. Ja, gelukkig heeft de Tagan480 een aparte vga kabel.
@ Ronald ... 71 graden bij clocks onder de 400/1100 ? Hmmm Dat vind ik toch best warm. Mijn GT is @ idle 41 - 45 c en load 57 - 59 c De kast is een Antec Sonata met twee 120mm case fans.
2D clocks @ 350/1100 met fans op dynamic speeds tot 60 % en 3D clocks @ 400/1100 fans op 100% dynamic speeds (Gainward's expertool fanspeed functies).
De 67.66 is net 2 of 3 graden warmer dan de 61.77 maar gelukkig niet zo bar als plus 10 met de 71.xx serie.
Was wel moeilijk om die kabels goed te krijgen maar het is gelukt
Ik heb nu de 67.66 weer geinstalleerd en de hele middag nu die error niet gehad..ook niet nadat ik em een uur uit heb laten staan. Als ie na vannacht nog geen error geeft..is het opgelost denk ik.
Anoniem: 89518
Na een nacht uitgestaan te hebben kwam de error weerAnoniem: 89518 schreef op woensdag 02 maart 2005 @ 17:24:
[...]
Jep laten we hopen dat het werkt ..tot nu toe lijkt het erop.
Was wel moeilijk om die kabels goed te krijgen maar het is gelukt![]()
Ik heb nu de 67.66 weer geinstalleerd en de hele middag nu die error niet gehad..ook niet nadat ik em een uur uit heb laten staan. Als ie na vannacht nog geen error geeft..is het opgelost denk ik.
Welke kabel is dedicated van de 480 Tagan, is nergens aangegeven.Anoniem: 119772 schreef op woensdag 02 maart 2005 @ 13:25:
^ ow...je had de GT nog op een gedeelde lijn zitten. Ja, gelukkig heeft de Tagan480 een aparte vga kabel.
@ Ronald ... 71 graden bij clocks onder de 400/1100 ? Hmmm Dat vind ik toch best warm. Mijn GT is @ idle 41 - 45 c en load 57 - 59 c De kast is een Antec Sonata met twee 120mm case fans.
2D clocks @ 350/1100 met fans op dynamic speeds tot 60 % en 3D clocks @ 400/1100 fans op 100% dynamic speeds (Gainward's expertool fanspeed functies).
De 67.66 is net 2 of 3 graden warmer dan de 61.77 maar gelukkig niet zo bar als plus 10 met de 71.xx serie.
Kan je me helpen dmv pics of omschrijving?
"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."
Anoniem: 119772
http://www.trustedreviews...le.aspx?head=64&page=2306
het is de kabel met de blauwe connector. in dat plaatje zie je de nieuwe versie die dus naast de agp kabel ook een pci-e splitter heeft. heel simpel ; gewoon de dedicated vga kabel direct op de kaart.
het is de kabel met de blauwe connector. in dat plaatje zie je de nieuwe versie die dus naast de agp kabel ook een pci-e splitter heeft. heel simpel ; gewoon de dedicated vga kabel direct op de kaart.
[ Voor 4% gewijzigd door Anoniem: 119772 op 03-03-2005 15:32 ]
hmmmm heb ik zelf niet, heb denk ik een oude versie nog met alleen zwarte, tevens heb ik wel een sata powerconnector dus zo oud is hij niet.Anoniem: 119772 schreef op donderdag 03 maart 2005 @ 15:29:
http://www.trustedreviews...le.aspx?head=64&page=2306
het is de kabel met de blauwe connector. in dat plaatje zie je de nieuwe versie die dus naast de agp kabel ook een pci-e splitter heeft. heel simpel ; gewoon de dedicated vga kabel direct op de kaart.
Vreemd....
"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."
Anoniem: 115092
Een stukje uit het volgende artikel gaat over de beeldkwaliteit van ATI en Nvidia kaarten bij het spel Chronicles of riddick.
http://www.firingsquad.co..._riddick_perf_2/page2.asp
De 6800 NU blijkt hier een betere beeldkwaliteit neer te zetten tov de X800XL van ATI. Uiteraard presteerd de X800XL beter, maar deze kost ook ietsje meer dan de normale 6800. De geforce 6800 maakt gebruik van ForceWare 71.84. De ATI X800XL van Catalyst 5.2.
http://www.firingsquad.co..._riddick_perf_2/page2.asp
De 6800 NU blijkt hier een betere beeldkwaliteit neer te zetten tov de X800XL van ATI. Uiteraard presteerd de X800XL beter, maar deze kost ook ietsje meer dan de normale 6800. De geforce 6800 maakt gebruik van ForceWare 71.84. De ATI X800XL van Catalyst 5.2.
[ Voor 14% gewijzigd door Anoniem: 115092 op 04-03-2005 12:43 ]
Anoniem: 79835
In HDR mode zijn het echt fantastische graphics. Een NU zal dat niet kunnen vrees ik maar mensen met een ultra of een GT moeten dit zeker eens proberen. Komt geen enkele ATi kaart in buurt dan.Anoniem: 115092 schreef op vrijdag 04 maart 2005 @ 12:41:
Een stukje uit het volgende artikel gaat over de beeldkwaliteit van ATI en Nvidia kaarten bij het spel Chronicles of riddick.
http://www.firingsquad.co..._riddick_perf_2/page2.asp
De 6800 NU blijkt hier een betere beeldkwaliteit neer te zetten tov de X800XL van ATI. Uiteraard presteerd de X800XL beter, maar deze kost ook ietsje meer dan de normale 6800. De geforce 6800 maakt gebruik van ForceWare 71.84. De ATI X800XL van Catalyst 5.2.
Anoniem: 114616
Beetje rare conclusie, met zulke kleine verschillen kwa snelheid kan je toch beter gewoon voor de beste kwaliteit kiezen?
Anoniem: 119772
Het argument tegen sm3.0 specific games is tot nu toe iedere keer hetzelfde :
"...Het kan net zo makkelijk met 2.0b en performance van de Nvidia kaarten in sm3.0 is slecht..."
Het volgende stukje is over Ubi Montreal's keuze bij het maken van de SC X engine ;
"Ubi uses something that is called "übershader". At the moment if you have an DirectX engine this concept can only used meaningfull with SM3. SM2.0 did not have sufficient instruction slots. SM2.A and SM2.B did provide enough slots but missing branching. This force the chip to execute to many instructions for every single pixel. A SM3 chip will step over this unused instructions. I am not talking about dynamic branching as we allready know that a NV4X need large pixelblocks to make this run well. I am talking about static branching.
The next problem with some of the shaders is that the vertexshader need to send 10 vectors to the pixelshader. SM2 (all variants) only supports 8 vectors. It is possible to reduce this number because many of this vector values depend on the position. In this case you can only send the position but than you have to do all the calculations in the pixelshader. This will slow you down again.
You can work around this problems if you use an other concept but this means that you have to write extension for the engine and the toolchain you allready have."
Ook Ensemble Studio's bevindt zich met Age of Empires 3 op het sm3.0 HDR pad. Toch geen kleine namen.... en die SC3 demo , draait die HDR gewoon goed. Fout zit je iig niet met een 6800GT nu en in de voorlopige toekomst, daar is geen ontkennen aan.
"...Het kan net zo makkelijk met 2.0b en performance van de Nvidia kaarten in sm3.0 is slecht..."
Het volgende stukje is over Ubi Montreal's keuze bij het maken van de SC X engine ;
"Ubi uses something that is called "übershader". At the moment if you have an DirectX engine this concept can only used meaningfull with SM3. SM2.0 did not have sufficient instruction slots. SM2.A and SM2.B did provide enough slots but missing branching. This force the chip to execute to many instructions for every single pixel. A SM3 chip will step over this unused instructions. I am not talking about dynamic branching as we allready know that a NV4X need large pixelblocks to make this run well. I am talking about static branching.
The next problem with some of the shaders is that the vertexshader need to send 10 vectors to the pixelshader. SM2 (all variants) only supports 8 vectors. It is possible to reduce this number because many of this vector values depend on the position. In this case you can only send the position but than you have to do all the calculations in the pixelshader. This will slow you down again.
You can work around this problems if you use an other concept but this means that you have to write extension for the engine and the toolchain you allready have."
Ook Ensemble Studio's bevindt zich met Age of Empires 3 op het sm3.0 HDR pad. Toch geen kleine namen.... en die SC3 demo , draait die HDR gewoon goed. Fout zit je iig niet met een 6800GT nu en in de voorlopige toekomst, daar is geen ontkennen aan.
[ Voor 5% gewijzigd door Anoniem: 119772 op 04-03-2005 15:21 ]
Nieuws: Alle 2005 refreshes zijn SM3.0 speedboosts
Beyond3D bericht dat de lente-refresh van nVidia alleen gaat om iets snellere SM3.0 kaarten. Zelfs de herfst refresh zou een "refresh van een refresh" worden. De verwachting is dat de lente-refresh gebaseerd is op 110nm, terwijl de herfst-refresh op 90nm zal werken.
nVidia heeft aangegeven dat er dit jaar nog desktopvarianten van de PS3 GPU zullen verschijnen. De mededeling dat er dit jaar alleen maar SM3.0 kaarten uit komen van nVidia doet er op lijken dat er dus een SM3.0-achtige GPU in de PS3 zit.
Dit komt veel developers mooi uit, aangezien R500 in de X-Box2 ook minimaal SM3.0 ondersteunt.
Over Splinter Cell, de engine die in de aankomende versie gebruikt wordt is optimaal gemaakt voor de next generation consoles. Splinter Cell 3 komt niet uit op die nieuwe generatie, maar de opvolger wel. En als ik de geruchten mag geloven draait het als een zonnetje op een R500.
Overigens hebben de developers op het forum van Beyond3D een tijd terug aangegeven dat ze bezig waren met zowel een SM1.1 als SM2/3 pad. Maar toen ineens werd het teruggetrokken... de reden:
Beyond3D bericht dat de lente-refresh van nVidia alleen gaat om iets snellere SM3.0 kaarten. Zelfs de herfst refresh zou een "refresh van een refresh" worden. De verwachting is dat de lente-refresh gebaseerd is op 110nm, terwijl de herfst-refresh op 90nm zal werken.
nVidia heeft aangegeven dat er dit jaar nog desktopvarianten van de PS3 GPU zullen verschijnen. De mededeling dat er dit jaar alleen maar SM3.0 kaarten uit komen van nVidia doet er op lijken dat er dus een SM3.0-achtige GPU in de PS3 zit.
Dit komt veel developers mooi uit, aangezien R500 in de X-Box2 ook minimaal SM3.0 ondersteunt.
Over Splinter Cell, de engine die in de aankomende versie gebruikt wordt is optimaal gemaakt voor de next generation consoles. Splinter Cell 3 komt niet uit op die nieuwe generatie, maar de opvolger wel. En als ik de geruchten mag geloven draait het als een zonnetje op een R500.
Overigens hebben de developers op het forum van Beyond3D een tijd terug aangegeven dat ze bezig waren met zowel een SM1.1 als SM2/3 pad. Maar toen ineens werd het teruggetrokken... de reden:
Gepost op 17 juni 2004 door een developer:
I guess you found out why we are not planning to do a SM 2.0 version...(The business/market reason)
[ Voor 4% gewijzigd door CJ op 04-03-2005 16:04 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 119772
^ Bedoel je dan te suggereren dat het omwille Nvidia sponsoring is ? Wellicht feitelijk wel.
Maar je kan 'market reasons' ook lezen als een shift van developers naar sm3.0 als een vaste baken in hun game development cyclus zoals voorgaande versies dat als jaren zijn.
Maar je kan 'market reasons' ook lezen als een shift van developers naar sm3.0 als een vaste baken in hun game development cyclus zoals voorgaande versies dat als jaren zijn.
ja dat wel maar het achterwege laten van SM2 is relatief nadeliger voor Ati dan voor Nvidia.Anoniem: 119772 schreef op vrijdag 04 maart 2005 @ 17:45:
^ Bedoel je dan te suggereren dat het omwille Nvidia sponsoring is ? Wellicht feitelijk wel.
Maar je kan 'market reasons' ook lezen als een shift van developers naar sm3.0 als een vaste baken in hun game development cyclus zoals voorgaande versies dat als jaren zijn.
de FX-reeks had al relatief slechte SM2 performance waardoor de zwaardere SM2 spellen al terugschakelen naar SM1.
de ATi reeks heeft dit probleem niet en een langere line-up (in tijd en relatief volume) in SM2.
het laten wegvallen van een SM2 pad in splintercell komt dan ook alleen hard aan voor ATI DX9 bezitters, omdat de FX reeks bij zo'n zware SM2 engine waarschijnlijk sowieso al het SM1 pad zal moeten gebruiken.

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Anoniem: 119772
Ja, maar daar bedoelt Ubi dus waarschijnlijk mee dat het nu vanaf scratch implementeren van sm3.0 in de SC X engine, efficienter is voor hunzelf ; zowel technisch als in kosten, met het oog op development van hun games nu en in nabije toekomst.
Ik denk dat meer en meer developers dit inzien en het is puur een beslissing van de developer kant, niet de kaarten consumenten kant. Ze willen nu dus al voorbereiden op sm3.0 development pipeline, wat nu al dus effiecienter is als je het meteen doet in het geval van Ubi, ipv strax achter de feiten aan te moeten lopen omdat ze anders nu hun tijd en geld hadden 'verdaan' aan extra branching oplossingen voor sm2.0 in de game. Een 'having a start ahead' benadering dus van developer's kant.
Ik denk dat meer en meer developers dit inzien en het is puur een beslissing van de developer kant, niet de kaarten consumenten kant. Ze willen nu dus al voorbereiden op sm3.0 development pipeline, wat nu al dus effiecienter is als je het meteen doet in het geval van Ubi, ipv strax achter de feiten aan te moeten lopen omdat ze anders nu hun tijd en geld hadden 'verdaan' aan extra branching oplossingen voor sm2.0 in de game. Een 'having a start ahead' benadering dus van developer's kant.
ja maar toch, daar negeer je wel alle DX9SM2 bezitters mee.
dus in theorie ook alle GFFX bezitters.
en dat zijn er veel meer dan SM3-kaart bezitters > blijft een merkwaardige keuze imo
dus in theorie ook alle GFFX bezitters.
en dat zijn er veel meer dan SM3-kaart bezitters > blijft een merkwaardige keuze imo
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Ach dan mis je gewoon een beetje eyecandy, in praktijk scheelt het nooit zoveel.Puppetmaster schreef op vrijdag 04 maart 2005 @ 18:43:
ja maar toch, daar negeer je wel alle DX9SM2 bezitters mee.
dus in theorie ook alle GFFX bezitters.
en dat zijn er veel meer dan SM3-kaart bezitters > blijft een merkwaardige keuze imo
Dat ze nu serieus overgaan op sm3.0 is in mijn ogen heel normaal. Net zoals de stap van 1.1 naar 2.0 was. Nvidia brengt hardware dat sm3.0 aankan dus spelen de spelmakers daarop in door er spul voor te maken. In principe is dit hetzelfde als met dx9.0 waarbij nvidia niet goed mee kon komen.
Imo had Ati beter geen sm2.0b kunnen gebruiken, want dit lijkt hetzelfde als wat nvidia had met de 2.0a met de FX serie. Het is compatibel maar toch weer niet. Spelmakers moeten vervolgens meer moeite doen om ondersteuning te bieden.
Enfin ik hoop dat zowel Ati als nvidia gewoon standaarden gaan volgen vanaf heden, tussenvarianten zijn slechts marketing truckjes om klanten alsnog te winnen.
Anoniem: 119772
Hmmm.. is wel grappig dat je dat dan zo stelt......met het feit dat ; ubi volle best heeft gedaan om...Puppetmaster schreef op vrijdag 04 maart 2005 @ 18:43:
ja maar toch, daar negeer je wel alle DX9SM2 bezitters mee.
dus in theorie ook alle GFFX bezitters.
de sm1.1 graphics zo dicht mogelijk in de buurt te laten komen als dat ze het met 2.0 zouden hebben gedaan.
Vaak wordt heeeeeel stellig gesteld dat de Geforce FX serie toch niet fatsoenlijk dx9.0 kan draaien (HL2 ??? ). Dus als SC3 alleen sm2.0( b ) en sm3.0 zou bevatten zouden de GeforceFX kaart bezitters 'gedupeerd' zijn als we bovengenoemde stelling mogen geloven. Hoeveel waren dat er ?....
Ik heb gisteren een Asus V99999GE (geforce 6800) gekocht. Deze kaart werkt perfect en kan je zwaar overclocken inclusief extra pixel pipelines unlocken. Maar nou heb ik een klein probleempje als ik de rivatunes of coolbits overclock mogelijk gebruik.
Zodra ik verse drivers installeer en ik wil gaan overclocken krijg ik een melding dat de test heeft gefaald omdat de interne clock check niet uitgevoerd kon worden. Toen heb ik via rivatuner deze check uitgezet en werkt het perfect. Met smartdocter kon ik sowieso al overclocken. Nou heb ik het probleem opgelost maar ik blijf bij de vraag zitten waarom je niet met de nvidia drivers zonder die functie uit te zetten kan overclocken.. is dat normaal bij dit model?
Hoe dan ook draait dit kaartje op (core = 420, memory = 1170) stabiel. Ik heb er in ieder geval enorm plezier van

Zodra ik verse drivers installeer en ik wil gaan overclocken krijg ik een melding dat de test heeft gefaald omdat de interne clock check niet uitgevoerd kon worden. Toen heb ik via rivatuner deze check uitgezet en werkt het perfect. Met smartdocter kon ik sowieso al overclocken. Nou heb ik het probleem opgelost maar ik blijf bij de vraag zitten waarom je niet met de nvidia drivers zonder die functie uit te zetten kan overclocken.. is dat normaal bij dit model?
Hoe dan ook draait dit kaartje op (core = 420, memory = 1170) stabiel. Ik heb er in ieder geval enorm plezier van
Dit is op te lossen voor Rivatuner:
Rivatuner --> PowerUser --> Overclocking Global --> DisableClockTest --> op 1 zetten... dan is die test uit geschakeld en kun je veel harder gaan... totdat je kaart gewooon niet meer wil
Rivatuner --> PowerUser --> Overclocking Global --> DisableClockTest --> op 1 zetten... dan is die test uit geschakeld en kun je veel harder gaan... totdat je kaart gewooon niet meer wil
[ Voor 6% gewijzigd door Henning op 06-03-2005 10:53 ]
3k3Wp 12'NO - 4k3Wp 30'NO - 3kWp 30'NW
Ik heb het al opgelost. Maar ik blijf met de vraag waarom die error standaard komt
Je krijgt die error als er een pipeline of shader toch niet helemaal zuiver is. Dit kan iets heel kleins zien wat je niet ziet met het testen van de kaart maar dor die test toch naar boven komt. Gewoon die test uitschakelen en clocken die handel.
Vandaag een Sparkle 6200 (AGP) gekocht en gelijk zonder problemen de 4 uitgeschakelde pipelines ingeschakeld, kaartje wat overgeclocked en gaan met die banaan.
Far Cry loopt nu heel lekker in vergelijking met mijn oude GF4-4200.
Far Cry loopt nu heel lekker in vergelijking met mijn oude GF4-4200.
Updating..............
Anoniem: 115092
Jooo, is de 6200 eindelijk op de markt!!! Is een 6200 @ 6600 echt een groot verschil tov een ti 4200? Hoeveel FPS haalde je eerst en hoeveel nu?? Ik ben misschien ook van plan om zo'n kaartje aan te schaffen en wat te tweaken...
Waar is die te koop en tegen welke prijs?
Waar is die te koop en tegen welke prijs?
[ Voor 11% gewijzigd door Anoniem: 115092 op 06-03-2005 23:31 ]
Ik vind dat nVidia de Geforce 6 serie wel erg aantrekkelijk heeft gemaakt voor overclockers. Ten eerste heb je de 6800GT die best makkelijk naar Ultra is over te clocken, daarna heb je de 6800(LE/GE) die je kan unlucken, zodat je een enorme performance boost krijgt. Verder heb je de 6600GT nog, die vaak best ver over te clocken is en je hebt zelfs de low-end 6200 die te modden is naar 6600. Dankjewel nVidia!
Anoniem: 115092
yep, helemaal mee eens. Zo is iedereen tevreden. Klant omdat zijn kaart makkelijk sneller te maken is dan zijn officiele specificaties en Nvidia omdat het bedrijf zo meer grafische kaarten af zet. Oftewel, alleen winnaars bij deze strategie.
ATI doet het trouwens ook goed met de X800pro vivo die makkelijk naar XT snelheden te modden was.
ATI doet het trouwens ook goed met de X800pro vivo die makkelijk naar XT snelheden te modden was.
[ Voor 18% gewijzigd door Anoniem: 115092 op 06-03-2005 23:52 ]
nVidia GeForce 6 Serie / Leadtek GeForce 6800 GT 256MB DDR3 (AGP, DVI), WinFast A400 GT TDH
Alternate Computerversand Nederland € 365,-
Die is wel erg goedkoop geworden of niet
Alternate Computerversand Nederland € 365,-
Die is wel erg goedkoop geworden of niet
Anoniem: 111783
Ik heb nu een geForce 4 TI4200 met een engine snelheid van 250 MHz, geen goede overklokker, en een mem snelheid van 512 MHz.
Nou wil ik upgraden naar een geForce 6200 AGP voor rond de 100 euro.
Mijn vraag is is dat het wel waard?
Is de prestatiewinst voor die prijs goed genoeg?
Ik wil hem in het begin niet meteen overklokken.
Nou wil ik upgraden naar een geForce 6200 AGP voor rond de 100 euro.
Mijn vraag is is dat het wel waard?
Is de prestatiewinst voor die prijs goed genoeg?
Ik wil hem in het begin niet meteen overklokken.
[ Voor 9% gewijzigd door Anoniem: 111783 op 07-03-2005 11:50 ]
Als je hem niet naar een 6600 gaat modden en niet gaat overclocken is hij denk ik langzamer.
Anoniem: 111783
Dat lijkt me sterk. hij heeft meer pipelines, sneller geheugen, snellere engine. Dan moet ie toch minstens beter presteren. Vernieuwde core, DX 9...sjakietrekhakie schreef op maandag 07 maart 2005 @ 12:27:
Als je hem niet naar een 6600 gaat modden en niet gaat overclocken is hij denk ik langzamer.
Hij is zeker wel sneller maar het wordt pas echt de moeite waard als je de overige 4 pipelines (kan) unlocken en hem een beetje of veel overclocked.
Het blijft natuurlijk wel de vraag of de overige 4 pipelines actief te krijgen zijn, ik had geluk maar heb over diverse kaartjes gelezen dat dat niet wilde lukken.
Mijn 3dMark05 score is nu ongeveer 2350, weet niet hoeveel mijn oude ti4200 haalde maar dat was een heel stuk minder.
btw. mijn Sparkle 6200 heb ik gekocht op de pc beurs in nieuwegein, was een duits bedrijf die hem had en kostte mij 106 euro, het was de enige 6200 AGP die ik op de hele beurs kon vinden dus de verkrijgbaarheid is nog matig te noemen.
Het blijft natuurlijk wel de vraag of de overige 4 pipelines actief te krijgen zijn, ik had geluk maar heb over diverse kaartjes gelezen dat dat niet wilde lukken.
Mijn 3dMark05 score is nu ongeveer 2350, weet niet hoeveel mijn oude ti4200 haalde maar dat was een heel stuk minder.
btw. mijn Sparkle 6200 heb ik gekocht op de pc beurs in nieuwegein, was een duits bedrijf die hem had en kostte mij 106 euro, het was de enige 6200 AGP die ik op de hele beurs kon vinden dus de verkrijgbaarheid is nog matig te noemen.

[ Voor 28% gewijzigd door Enthroned op 07-03-2005 16:01 ]
Updating..............
Anoniem: 111783
lol Ik heb 3d Mark 2005 niet eens gedurfd te proberen! Ik had met 2003 slechts 1500.Enthroned schreef op maandag 07 maart 2005 @ 15:52:
Hij is zeker wel sneller maar het wordt pas echt de moeite waard als je de overige 4 pipelines (kan) unlocken en hem een beetje of veel overclocked.
Het blijft natuurlijk wel de vraag of de overige 4 pipelines actief te krijgen zijn, ik had geluk maar heb over diverse kaartjes gelezen dat dat niet wilde lukken.
Mijn 3dMark05 score is nu ongeveer 2350, weet niet hoeveel mijn oude ti4200 haalde maar dat was een heel stuk minder.
Maar hoe weet je zeker dat die pipelines goed werken? Welk merk heb jij?
Een Ti4200 icm 3Dmark05 gaat geneens (dx9 test, Ti4200 Dx8 kaart)
[Helpdesk]"While you're waiting, read the free novel which came with the product. Its a spanish story about a guy called "MANUAL."
Anoniem: 115092
Ik zou een 6200 nemen en modden / overklokken of allebei. Dan is die zeker sneller als een TI 4200. Bovendien is de beeldkwaliteit een stukje beter met de gf 6200.
Anoniem: 111783
Kijk dat wou ik dus horen.Anoniem: 115092 schreef op maandag 07 maart 2005 @ 16:23:
Ik zou een 6200 nemen en modden / overklokken of allebei. Dan is die zeker sneller als een TI 4200. Bovendien is de beeldkwaliteit een stukje beter met de gf 6200.
Dan vind ik zo rond de 100 euro (introprijs 125) wel redelijk voor de prestatie die je ervoor krijgt.
Ik heb die 4200 helemaal niet zo lang geleden gekocht voor ongeveer 150 euro dus dan kan ik best tevreden zijn.
Anoniem: 115092
Pas gekocht die 4200??? nouja, het is geen extreme stap voorwaarts hé. De 6200 is een leuke kaart, maar je moet hem modden en overklokken wil je er echt iets van merken tov een 4200. Beeldkwaliteit is wel sowieso beter van de 6200.
Het verschil ti 4200 geforce 6600 is zeker merkbaar. Helemaal in spellen als doom 3. Maar als je echt een groot verschil wilt merken moet je toch richting 6600GT / 6800le / X700Pro en hoger kijken.
Voor 99 euro is de gf 6200 echter heel leuk geprijst
. Ik denk er zelf ook over er één te halen. Maar die gaat een MX 440 (eigenlijk een ti 4200, maar die heb ik blijvend uitgeleend) vervangen. Ik doe het ook vooral voor de lol.. Kaartje een beetje modden en overklokken en zo 
BTW, NIEUWE 64-bit DRIVERS. NAMELIJK VERSIE 71.84!!!! http://forums.guru3d.com/...687cfd204&threadid=129211
Het verschil ti 4200 geforce 6600 is zeker merkbaar. Helemaal in spellen als doom 3. Maar als je echt een groot verschil wilt merken moet je toch richting 6600GT / 6800le / X700Pro en hoger kijken.
Voor 99 euro is de gf 6200 echter heel leuk geprijst
BTW, NIEUWE 64-bit DRIVERS. NAMELIJK VERSIE 71.84!!!! http://forums.guru3d.com/...687cfd204&threadid=129211
[ Voor 62% gewijzigd door Anoniem: 115092 op 08-03-2005 10:01 ]
Ik ben ff de klos kwijt hoor
Ik wil een ASUS 6800 GT 128 MB, maar welke van de twee is het nou...?
Als ik de ASUS site bekijk dan is de bovenste de 6800 GT en de onderste
de 6800 GE, maar goed op de website's staat het zo vaak anders... Hopelijk
heeft ASUS het verkeerd maar dat zal wel niet
.


Ik wil een ASUS 6800 GT 128 MB, maar welke van de twee is het nou...?
Als ik de ASUS site bekijk dan is de bovenste de 6800 GT en de onderste
de 6800 GE, maar goed op de website's staat het zo vaak anders... Hopelijk
heeft ASUS het verkeerd maar dat zal wel niet


Volgens mij is de bovenste PCI-E en de onderste AGP, tevens heeft de onderste twee molex aansluitingen en de bovenste maar 1.
* Enthroned vraagt zich af wat het nu eigenlijk toe doet wat welke is?
* Enthroned vraagt zich af wat het nu eigenlijk toe doet wat welke is?
Updating..............
Als ik goed kijk zijn het beiden AGP kaarten hoor
, maar het verschil zit hem mij in de geheugen
cooling op de onderste kaart.
Daarnaast ben ik eigenlijk ook wel benieuwd of de onderste kaart meer verbruikt dan de bovenste..? Maar goed een beetje googlen en het antwoord moet ik denk wel vinden.
cooling op de onderste kaart.
Daarnaast ben ik eigenlijk ook wel benieuwd of de onderste kaart meer verbruikt dan de bovenste..? Maar goed een beetje googlen en het antwoord moet ik denk wel vinden.
in de Startpost staat het een en ander uitgelegd over de GT's van Asus.
Stom ik heb er gewoon overheen gelezen. Ik ga volgende maand de kaart bestellen!Brainless-NL schreef op woensdag 09 maart 2005 @ 10:06:
in de Startpost staat het een en ander uitgelegd over de GT's van Asus.
worden de prijzen nog iets goedkoper, maar dat zie ik dan wel.
Het is de bovenste. Heb ik zelf ook. En effe een Zalmen VF700 op gezet want de koeler maakt écht veel lawaai.Kickasz schreef op dinsdag 08 maart 2005 @ 15:58:
Ik ben ff de klos kwijt hoor![]()
Ik wil een ASUS 6800 GT 128 MB, maar welke van de twee is het nou...?![]()
Als ik de ASUS site bekijk dan is de bovenste de 6800 GT en de onderste
de 6800 GE, maar goed op de website's staat het zo vaak anders... Hopelijk
heeft ASUS het verkeerd maar dat zal wel niet.
[afbeelding]
[afbeelding]
Als het goed is kan je het lawaai toch behoorlijk verminderen door gebruik te maken van ASUS doctor, waardoor de koeler alleen maar voluit draait op het moment dat de kaart volledig gebruikt wordt...?
Leuk kaartje:
dual 6800U

Zou het een vroege 1 aprilgrap zijn? of een late maartgrap, kan ook natuurlijk...
dual 6800U

Zou het een vroege 1 aprilgrap zijn? of een late maartgrap, kan ook natuurlijk...
[ Voor 19% gewijzigd door edward2 op 09-03-2005 18:37 ]
Niet op voorraad.
Dit topic is gesloten.