Het is een behoorlijke koeler, de NV 5 bedekt zo ongeveer m'n gehele 6800LE kaart (in de lengte dan)..Slash47 schreef op 06 oktober 2004 @ 20:22:
Kan iemand me vertellen hoe groot zo'n NV Silencer is? 'K heb namelijk een Shuttle SN95G5 en ik will weten of ie past. Er is nog ongeveer 1 cm ruimte tussen m'n behuizing en mijn XFX GT met standaard koeling. Gaat dat passen?
lees dit forum eens... Aardig wat threads maar het lijkt erop dat zonder je zijkant open te zagen denk ik niet dat het ooit zal gaan passen.Slash47 schreef op 06 oktober 2004 @ 20:22:
Kan iemand me vertellen hoe groot zo'n NV Silencer is? 'K heb namelijk een Shuttle SN95G5 en ik will weten of ie past. Er is nog ongeveer 1 cm ruimte tussen m'n behuizing en mijn XFX GT met standaard koeling. Gaat dat passen?
Ik zit nu ook te wachten op de Nvidia PCI - Express VGA`s die sneller zijn als de 6600 serie. Weet iemand wanner we dit kunnen verwachten, want overal zijn div. roadmaps maar niets concreets.
en nog iets, word nu ineens toch wel de NV48e native PCI-E
The NV48 will probably have a few tweaks, but nothing significant. The largest "tweaks" would be native PCI-E support, slightly faster clock speeds, and some architectural changes (such as a working video encoder/decoder).
en nog iets, word nu ineens toch wel de NV48e native PCI-E
The NV48 will probably have a few tweaks, but nothing significant. The largest "tweaks" would be native PCI-E support, slightly faster clock speeds, and some architectural changes (such as a working video encoder/decoder).
* Intel Core i7-6700K @ 4.8Ghz * Asus MAXIMUS VIII EXTREME* nVidia Asus Poseidon 1080Ti * Mushkin 16 GB * SSD Samsung M.2 2280 256GB + 3x Samsung 256GB 850Pro* Enermax Revolution85+ 1250W * CM Stacker 832 SE * Waretcooling CPU, NB ,VGA 3x Mora
Anoniem: 116529
vraagje over de 6800 serie:
ik de handleiding van de 6800's lees ik:
"GeForce 6800 Boards will have two standard disk drive on the back end of the card. Both power connectors must be connected for normal use. You may us a Y-cable or connect two dongles off at the same power cable if plugs are short for normal use." en dan nog wat over OC-en.
bron: http://www.paradigit.nl/pdf/10007497v.pdf
mijn vraag: wat bedoelen ze hiermee? ik wordt er echt niet wijs van
bedankt,
wim
ik de handleiding van de 6800's lees ik:
"GeForce 6800 Boards will have two standard disk drive on the back end of the card. Both power connectors must be connected for normal use. You may us a Y-cable or connect two dongles off at the same power cable if plugs are short for normal use." en dan nog wat over OC-en.
bron: http://www.paradigit.nl/pdf/10007497v.pdf
mijn vraag: wat bedoelen ze hiermee? ik wordt er echt niet wijs van
bedankt,
wim
2 stroom aansluitingen 12 voltAnoniem: 116529 schreef op 08 oktober 2004 @ 10:16:
vraagje over de 6800 serie:
ik de handleiding van de 6800's lees ik:
"GeForce 6800 Boards will have two standard disk drive on the back end of the card. Both power connectors must be connected for normal use. You may us a Y-cable or connect two dongles off at the same power cable if plugs are short for normal use." en dan nog wat over OC-en.
bron: http://www.paradigit.nl/pdf/10007497v.pdf
mijn vraag: wat bedoelen ze hiermee? ik wordt er echt niet wijs van
bedankt,
wim
Anoniem: 89518
Muhahah heb net mn XFX geforce 6800 GT incl. doom 3 binnen gekregen.
Nu nog ff vraagje voor ik hem erin ga zetten: welke drivers zijn het best?
Ik lees op veel plekken dat de 66.70 drivers het best zijn, klopt dit?
( geen format nodig toch? ik ga van ati radeon 9700 pro naar nvidia 6800 GT)
Nu nog ff vraagje voor ik hem erin ga zetten: welke drivers zijn het best?
Ik lees op veel plekken dat de 66.70 drivers het best zijn, klopt dit?
( geen format nodig toch? ik ga van ati radeon 9700 pro naar nvidia 6800 GT)
Nou, gezien de Radeon een ATI is en de 6800GT een nVidia... Zou'k toch maar ff grote schoonmaak houden daarAnoniem: 89518 schreef op 08 oktober 2004 @ 14:10:
Muhahah heb net mn XFX geforce 6800 GT incl. doom 3 binnen gekregen.
Nu nog ff vraagje voor ik hem erin ga zetten: welke drivers zijn het best?
Ik lees op veel plekken dat de 66.70 drivers het best zijn, klopt dit?
( geen format nodig toch? ik ga van ati radeon 9700 pro naar nvidia 6800 GT)
Anoniem: 89518
Is driver cleaner niet genoeg?_XipHiaS_ schreef op 08 oktober 2004 @ 14:19:
[...]
Nou, gezien de Radeon een ATI is en de 6800GT een nVidia... Zou'k toch maar ff grote schoonmaak houden daar.
* Anoniem: 89518 ziet op tegen WEER een format
Anoniem: 62850
Ik zit hier met 2 oude kaarten (Geforce 2 MX 400 + Geforce 3 TI200) en wil graag wat met ze knutselen, ik wil er een nieuwe bios op zetten.Maar eerst natuurlijk de voltage ophoog zetten.Is er een programma waarmee de bios rom kunt uitwerken?
Met Bios Editor lukt de voltage instellen niet.
Met Bios Editor lukt de voltage instellen niet.
Je kunt het proberen zonder, maar als je er zeker van wilt zijn dat alles goed loopt is een format wel aan te radenAnoniem: 89518 schreef op 08 oktober 2004 @ 14:44:
[...]
Is driver cleaner niet genoeg?
* Anoniem: 89518 ziet op tegen WEER een format
Anoniem: 89518
Dus nieuwe kaart erin, en dan formatteren, of formatteren, en dan je kaart erin doen voordat je je drivers installeert?
Of maakt dat niet uit?
Of maakt dat niet uit?
Is wel aan te raden aangezien een beetje lekspanning je kaart zo naar de tyfus kan blazen ...
En in het ergste geval je hele PC (theoretisch dan hé).
En in het ergste geval je hele PC (theoretisch dan hé).
Anoniem: 89518
Wat moet ik dan doen?Talon schreef op 08 oktober 2004 @ 15:44:
Is wel aan te raden aangezien een beetje lekspanning je kaart zo naar de tyfus kan blazen ...
En in het ergste geval je hele PC (theoretisch dan hé).
Kachel aanraken ofzo toch? (zal wel heel noob zijn dit:))
Kachel aanraken ...
Ijzerdraadje van je pols naar de verwarming ...
Geen wollen trui aan ...
geen rubberzolen , maar gewoon blote voeten op de grond ...
Ik doe maar een gooi ...
Ijzerdraadje van je pols naar de verwarming ...
Geen wollen trui aan ...
geen rubberzolen , maar gewoon blote voeten op de grond ...
Ik doe maar een gooi ...
Voordat je al die moeite doet, probeer anders eerst gewoon oude kaart erin, drivers uninstallen, uitzetten, nieuwe kaart erin, drivers installen. Windows compleet opnieuw installeren of driver clean utilities is voor de meeste mensen echt overbodig. Alleen doen als je problemen krijgt.Anoniem: 89518 schreef op 08 oktober 2004 @ 15:19:
Dus nieuwe kaart erin, en dan formatteren, of formatteren, en dan je kaart erin doen voordat je je drivers installeert?
Of maakt dat niet uit?
Yeah well. The Dude abides.
Anoniem: 62850
Niemand die een oplossing weet??Anoniem: 62850 schreef op 08 oktober 2004 @ 14:56:
Ik zit hier met 2 oude kaarten (Geforce 2 MX 400 + Geforce 3 TI200) en wil graag wat met ze knutselen, ik wil er een nieuwe bios op zetten.Maar eerst natuurlijk de voltage ophoog zetten.Is er een programma waarmee de bios rom kunt uitwerken?
Met Bios Editor lukt de voltage instellen niet.
nV41 komt in November, een 12 pipes versie van nV40 om de kosten te drukken, als ik die specs zie en de speculatie dat die Gf6700 gaat heten frons ik me wenkbrauwen. Zo te zien wordt die stuk sneller dan 6800NU(of hij moet gedeeltelijk 6x2 zijn), de 6800NU zal verdwijnen verwacht men. Als ik dat zo zie kan deze 6700 de 800 Pro misschien aan. De 6800LE zal ook van nV41 afgeleid worden. Het wordt druk in de ~190 tot 350€ regio, zeker als Ati ook nog zijn 800SE op de markt zet, en de 800 Pro omlaag prijst.
[ Voor 23% gewijzigd door Sjah op 09-10-2004 10:53 ]
Maandag heb ik mijn V9999 GT, van wat ik heb gelezen, IS het een 6800 GT maar ipv 1000 memory, 700 mhz.
Wat lager geclockt dus.
Ik denk dat ik em wel kan OCen naar een volwaardige GT.
Verder zijn zijn specs zoals pipelines zelfde als de GT.
Wat lager geclockt dus.
Ik denk dat ik em wel kan OCen naar een volwaardige GT.
Verder zijn zijn specs zoals pipelines zelfde als de GT.
Met dat verschil dat je ddr1 geheugen hebt ipv gddr3. 1000mhz of in de buurt zou erg knap zijnHidde schreef op 09 oktober 2004 @ 11:48:
Maandag heb ik mijn V9999 GT, van wat ik heb gelezen, IS het een 6800 GT maar ipv 1000 memory, 700 mhz.
Wat lager geclockt dus.
Ik denk dat ik em wel kan OCen naar een volwaardige GT.
Verder zijn zijn specs zoals pipelines zelfde als de GT.
Anoniem: 123011
Maar de lol is dat wij nu al onze 6800LEs hebben gekocht, en met de komst van de 6700 zal het niet mogelijk zijn om voor 199 euro een 16 pipe kaart te krijgen d.m.v. softmodden.Sjah schreef op 09 oktober 2004 @ 10:44:
nV41 komt in November, een 12 pipes versie van nV40 om de kosten te drukken, als ik die specs zie en de speculatie dat die Gf6700 gaat heten frons ik me wenkbrauwen. Zo te zien wordt die stuk sneller dan 6800NU(of hij moet gedeeltelijk 6x2 zijn), de 6800NU zal verdwijnen verwacht men. Als ik dat zo zie kan deze 6700 de 800 Pro misschien aan. De 6800LE zal ook van nV41 afgeleid worden. Het wordt druk in de ~190 tot 350€ regio, zeker als Ati ook nog zijn 800SE op de markt zet, en de 800 Pro omlaag prijst.
Dus : goed voor ons
Oja dat ook, maar bij tests, maakt het toch niet zo heel veel uit?Schumi4ever schreef op 09 oktober 2004 @ 12:10:
[...]
Met dat verschil dat je ddr1 geheugen hebt ipv gddr3. 1000mhz of in de buurt zou erg knap zijn
Ik zal verschillen bij 128 en 256 mb versies 5-10 fps ofzo.
Achja hij zal games goeddraaien, ongetwijfeld, daar ben ik al blij mee.
Yup wij zitten prima, maar als die nV41 LE met 1000Mhz 256mb komt (zal wel niet dat laatste) had ik die liever gehad , mits die natuurlijk unlocked naar 12.Anoniem: 123011 schreef op 09 oktober 2004 @ 12:25:
[...]
Maar de lol is dat wij nu al onze 6800LEs hebben gekocht, en met de komst van de 6700 zal het niet mogelijk zijn om voor 199 euro een 16 pipe kaart te krijgen d.m.v. softmodden.
Dus : goed voor ons
Als ik mijn GT overclock naar bv 395/1000 dan loopt hij vast in Warhammer na een tijdje spelen.
In 3Dmark05 loopt hij goed, alleen als ik het geheugen hoger clock dan staat hij af en toe stil in de benchmark en klokt hij terug (neem ik aan).
In de driver staat dit pas ingesteld op 120C neem niet aan dat hij al zo warm wordt. ?
Heb een XFX 6800 GT.
De GPU Fan spint wel op bij het booten van de PC, maar tijdens spelen niet, daarom zal de GPU wel te heet worden?
In 3Dmark05 loopt hij goed, alleen als ik het geheugen hoger clock dan staat hij af en toe stil in de benchmark en klokt hij terug (neem ik aan).
In de driver staat dit pas ingesteld op 120C neem niet aan dat hij al zo warm wordt. ?
Heb een XFX 6800 GT.
De GPU Fan spint wel op bij het booten van de PC, maar tijdens spelen niet, daarom zal de GPU wel te heet worden?
120 graden???M55 schreef op 09 oktober 2004 @ 12:52:
Als ik mijn GT overclock naar bv 395/1000 dan loopt hij vast in Warhammer na een tijdje spelen.
In 3Dmark05 loopt hij goed, alleen als ik het geheugen hoger clock dan staat hij af en toe stil in de benchmark en klokt hij terug (neem ik aan).
In de driver staat dit pas ingesteld op 120C neem niet aan dat hij al zo warm wordt. ?
Heb een XFX 6800 GT.
De GPU Fan spint wel op bij het booten van de PC, maar tijdens spelen niet, daarom zal de GPU wel te heet worden?
als dat zo is kook je je kaart
Anoniem: 90323
We zullen het hier wel over het Engelse stelsel cq. fahrenheit hebben..Ff nadenken mensen....Sjah schreef op 09 oktober 2004 @ 13:45:
[...]
Wel als er nog wat water van het fabricageproces is achtergbleven.




120 fahrenheit is 50 graden celcius
http://zellortega.tripod.com/calc01.htm
Anoniem: 119772
...Maar, waarom heb je em gekocht dan ? Is ie zoveel goedkoper dan de goedkoopste ECHTE GT !? En ik zie op de Asus site dat de kaart 128mb aanHidde schreef op 09 oktober 2004 @ 11:48:
Maandag heb ik mijn V9999 GT, van wat ik heb gelezen, IS het een 6800 GT maar ipv 1000 memory, 700 mhz.
Wat lager geclockt dus.
Ik denk dat ik em wel kan OCen naar een volwaardige GT.
Verder zijn zijn specs zoals pipelines zelfde als de GT.
DDR1 geheugen heeft ipv 256mb aan DDR3 geheugen van GT reference specs
(Ik heb het vermoeden dat die DDR1 2.8ns geheugen is terwijl GT DDR3 geheugen 2.0ns behoort te zijn) ;
een verschil in performance zal er denk ik toch wel zijn. DDR3 schijnt daarnaast
ook nog ietsje koeler te blijven bij load.
Wat ik ook zo vaag vind is dat als je NU naar een van de internationale Asus sites gaat ; als je daar een van de NV40 gebaseerde kaarten aanklikt dan kun je om een of andere vage reden NIET in het SPECIFICATION menu komen : je komt dan gewoon uit op de pagina voor de gehele product lijn. Volgens mij willen ze voorkomen dat mensen de EXACTE specs van hun NV40 kaarten zien. Mainstream pc gebruikers zijn op deze manier heel gemakkelijk om de tuin te leiden met mooie PR praat op die 'overview' pagina. Imho is dit alles geen goeie zaak van Asus

[ Voor 5% gewijzigd door Anoniem: 119772 op 09-10-2004 14:40 ]
Lijkt me stug dattie op 120graden fahrenheit, oftewel 50 graden celsius gaat throttlenAnoniem: 90323 schreef op 09 oktober 2004 @ 14:26:
[...]
We zullen het hier wel over het Engelse stelsel cq. fahrenheit hebben..Ff nadenken mensen....![]()
![]()
![]()
![]()
120 fahrenheit is 50 graden celcius
http://zellortega.tripod.com/calc01.htm

Is gewoon 120 graden celsius lijkt mij
idd 50 graden celsius no way.. hij is standaard al 53 graden 
maar ehm, iemand antwoord op mijn oorspronkelijke vraag ?
maar ehm, iemand antwoord op mijn oorspronkelijke vraag ?
[ Voor 42% gewijzigd door M55 op 09-10-2004 14:52 ]
Over asus dwaze bezigheid hebben we al zo vaak hier gehad.... ze zijn gewoon vaag bezig daar.Anoniem: 119772 schreef op 09 oktober 2004 @ 14:37:
[...]
...Maar, waarom heb je em gekocht dan ? Is ie zoveel goedkoper dan de goedkoopste ECHTE GT !? En ik zie op de Asus site dat de kaart 128mb aan
DDR1 geheugen heeft ipv 256mb aan DDR3 geheugen van GT reference specs
(Ik heb het vermoeden dat die DDR1 2.8ns geheugen is terwijl GT DDR3 geheugen 2.0ns behoort te zijn) ;
een verschil in performance zal er denk ik toch wel zijn. DDR3 schijnt daarnaast
ook nog ietsje koeler te blijven bij load.
Wat ik ook zo vaag vind is dat als je NU naar een van de internationale Asus sites gaat ; als je daar een van de NV40 gebaseerde kaarten aanklikt dan kun je om een of andere vage reden NIET in het SPECIFICATION menu komen : je komt dan gewoon uit op de pagina voor de gehele product lijn. Volgens mij willen ze voorkomen dat mensen de EXACTE specs van hun NV40 kaarten zien. Mainstream pc gebruikers zijn op deze manier heel gemakkelijk om de tuin te leiden met mooie PR praat op die 'overview' pagina. Imho is dit alles geen goeie zaak van Asus
Anoniem: 119772
Ik denk dat je dit misschien eens wil proberen ;M55 schreef op 09 oktober 2004 @ 14:51:
idd 50 graden celsius no way.. hij is standaard al 53 graden
maar ehm, iemand antwoord op mijn oorspronkelijke vraag ?
http://www.nvnews.net/vbulletin/showthread.php?t=38319
Gainward's Expertool 3.20 is nu te d'l en het schijnt ook voor kaarten van andere merken te werken. Met Expertool kun je idd fanspeeds manual aanpassen of dynamisch laten draaien. Btw. ik vind 53c idle best hot.... mijn GT idled meestal rond de 44.
cool dat werkt goed! kan je idd erg makkelijk fan speed veranderenAnoniem: 119772 schreef op 09 oktober 2004 @ 14:59:
[...]
Ik denk dat je dit misschien eens wil proberen ;
http://www.nvnews.net/vbulletin/showthread.php?t=38319
Gainward's Expertool 3.20 is nu te d'l en het schijnt ook voor kaarten van andere merken te werken. Met Expertool kun je idd fanspeeds manual aanpassen of dynamisch laten draaien. Btw. ik vind 53c idle best hot.... mijn GT idled meestal rond de 44.
btw dit programma geeft maar +/- 39 graden aan.
Anoniem: 119772
hmmm.. die temp meting van 39c klinkt beetje verd8...komt misschien omdat je kaart natuurlijk geen Gainward is en dat er daardoor enigzins incomp. met temp meting optreed. Of je kaart loopt idd op 350/1000 en dan zullen temps idd wat lager zijn...
misschien ff via bios checken wat de gpu temp is of rivatuner..
misschien ff via bios checken wat de gpu temp is of rivatuner..
rivatuner geeft zelfde als driver, dus +/- 55C
als ik 3dmark05 draai wordt hij wel 73C
als ik 3dmark05 draai wordt hij wel 73C
[ Voor 34% gewijzigd door M55 op 09-10-2004 16:52 ]
Anoniem: 119772
Even controleren of je de fan op 'dynamic speeds' hebt staan of 'locked'. Als je voor zowel 2d als 3d mode, de fan op 100% locked zet, dan weet je zeker dat ie altijd op 100% snelheid draait. Voor 2d mode in windows lijkt me 60% absoluut genoeg.
Tis ook een Gainward kaart utility uiteraard. Mijn Gainward GT kaart idled dus 44c en komt nooit boven 48c uit, afhankelijk van kamer temp. Load blijft ie altijd onder de 59c. Mjah, hij heeft dus ook Gainward's dual fan met koperen heatsink...
Tis ook een Gainward kaart utility uiteraard. Mijn Gainward GT kaart idled dus 44c en komt nooit boven 48c uit, afhankelijk van kamer temp. Load blijft ie altijd onder de 59c. Mjah, hij heeft dus ook Gainward's dual fan met koperen heatsink...
[ Voor 4% gewijzigd door Anoniem: 119772 op 09-10-2004 17:11 ]
Ik haal idle 50 en load +-75. Zijn geen temps waar je je zorgen om hoeft te maken. Zoon gpu is gebouwd om dat aan te kunnen
Vaag ik haalde nooit 400/1100 in 3dmark05 want dat ging hij terug clocken, erg irritant.. nu heb ik de fan op ze traagst gezet.. (50%) en nu haal ik het wel 
hij wordt dan 79 C
5083 3DMark05 punten, op stock (350/1000) haalde ik +/- 4500

hij wordt dan 79 C
5083 3DMark05 punten, op stock (350/1000) haalde ik +/- 4500
[ Voor 23% gewijzigd door M55 op 09-10-2004 17:32 ]
Ik zou em niet constant zo hoog zetten, als je 79 graden hebt en hij wordt ernstig stressed kan ie kapot gaan.
Misschien is het eerder voorbij gekomen, maar ik heb het niet kunnen vinden:
Ik klok over met coolbits, maar de RAM snelheid gaat regelmatig terug naar de default waarde van 700Mhz. (5900xt)
Dit heeft niks te maken met stabiliteitsproblemen of artifacts of wat dan ook, want ik werk al tijden probleemloos op 450core, 850ram.
Any thoughts?
Ik klok over met coolbits, maar de RAM snelheid gaat regelmatig terug naar de default waarde van 700Mhz. (5900xt)
Dit heeft niks te maken met stabiliteitsproblemen of artifacts of wat dan ook, want ik werk al tijden probleemloos op 450core, 850ram.
Any thoughts?
https://www.strava.com/athletes/10490675
Valt wel mee hoor, een gpu kan veel meer hebben dan een cpu bijvoorbeeld.Hidde schreef op 09 oktober 2004 @ 18:30:
Ik zou em niet constant zo hoog zetten, als je 79 graden hebt en hij wordt ernstig stressed kan ie kapot gaan.
Anoniem: 114616
Er staat niets voor niets 120 max in de driver instellingen.
En er was bij de 5800ultra een screensaver waar de drivers het niet herkende als 3d dus aardig hoge temps kwamen.
En er was bij de 5800ultra een screensaver waar de drivers het niet herkende als 3d dus aardig hoge temps kwamen.
Als je 90 graden krijgt zo ik serieus ff kijken of alle koeling goed werkt ed. Bij de 80/85 misschien ook al, maar alles daarbeneden is safe.
Anoniem: 89518
Hoe checken jullie je temp TIJDENS load?
Je kunt niet tijdens een spel ff naar nvidia driver settings gaan..
Je kunt niet tijdens een spel ff naar nvidia driver settings gaan..
Anoniem: 79835
http://www.gamespot.com/news/2004/10/08/news_6110146.html
ATi, u was een fijn kandidaat.
Dus 2 GT's in SLI, niet overclocked, haalt meer dan 8k. Zegt genoeg.The Opteron 250 GeForce 6800 GT SLI system scored an impressive 8,081 points in the recently released 3DMark05 benchmark
ATi, u was een fijn kandidaat.
En dat is dan met een sli in kinderschoenen.Anoniem: 79835 schreef op 10 oktober 2004 @ 21:12:
http://www.gamespot.com/news/2004/10/08/news_6110146.html
[...]
Dus 2 GT's in SLI, niet overclocked, haalt meer dan 8k. Zegt genoeg.
ATi, u was een fijn kandidaat.
Maar dat Ati daartegen geen kans maakt hoeft denk ik niet bewezen te worden. Standaard zijn ati en nvidia heel erg aan elkaar gewaagd, dus als er van de een twee kaarten samen draaien is het natuurlijk een duidelijke ko.
Anoniem: 38733
Volgens mij staat één enkele X800XT nog steeds op no1 met dik over de 8000 (8250?)ATi, u was een fijn kandidaat.
punten. 2 tegen één en nog steeds niet kunnen winnen, how pathetic is that.
SLI overklokken schijnt niet zo simpel te zijn (beide kaarten moeten o.a. exact dezelfde speeds hebben), anders was Nv hier al lang mee op de proppen gekomen, de blamage die ze nu lijden moet niet al te lang duren natuurlijk.
[ Voor 24% gewijzigd door Anoniem: 38733 op 10-10-2004 21:35 ]
Die x800xt was ook totaal niet ocAnoniem: 38733 schreef op 10 oktober 2004 @ 21:30:
[...]
Volgens mij staat één enkele X800XT nog steeds op no1 met dik over de 8000 (8250?)
punten. 2 tegen één en nog steeds niet kunnen winnen, how pathetic is that.
SLI overklokken schijnt niet zo simpel te zijn (beide kaarten moeten o.a. exact dezelfde speeds hebben), anders was Nv hier al lang mee op de proppen gekomen, de blamage die ze nu lijden moet niet al te lang duren natuurlijk.

Als je een 6800ultra gaat extreem gaat oc kom je met een enkele kaart al iig in de buurt
Ach laat apple lekker in z'n waan. Hij leeft nou eenmaal voor AtiSchumi4ever schreef op 10 oktober 2004 @ 22:22:
[...]
Die x800xt was ook totaal niet oc![]()
Als je een 6800ultra gaat extreem gaat oc kom je met een enkele kaart al iig in de buurt
Wat maakt het nou uit welke de hoogste 3dmark heeft de scores zijn al hoog zat en als je ingame maar vlot kunt spelen is alles toch prima in orde.
[ Voor 23% gewijzigd door sjekneck op 10-10-2004 22:57 ]
Juist ja en je bent wel ene 6800GT/U goedkoper uit.Schumi4ever schreef op 10 oktober 2004 @ 22:22:
[...]
Die x800xt was ook totaal niet oc![]()
Als je een 6800ultra gaat extreem gaat oc kom je met een enkele kaart al iig in de buurt
KO in de beurs.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
En een vloeibare stikstof koeling is gratis zekerSuperG schreef op 10 oktober 2004 @ 22:59:
[...]
Juist ja en je bent wel ene 6800GT/U goedkoper uit.
KO in de beurs.


Voor die extra koeling kan je wel 4 extra GT's kopenSuperG schreef op 10 oktober 2004 @ 22:59:
[...]
Juist ja en je bent wel ene 6800GT/U goedkoper uit.
KO in de beurs.
http://www.nvnews.net/previews/geforce_6200/index.shtml
Leuk kaartje denk ik voor de budget, komt ie ook in agp versie uit?
Want dan is het een leuk kaartje voor me broertje als die te overclocken valt
Leuk kaartje denk ik voor de budget, komt ie ook in agp versie uit?
Want dan is het een leuk kaartje voor me broertje als die te overclocken valt
Ook op Guru3d, http://www.nvidia.com en google: De GeForce 6200 Launch 
Kort gezegd: waarschijnlijk de helft van de performance van een 6600GT, dus zeg een 9600, Ti4200 en dergelijke videokaarten, maar dan met Shader Model 3, volledige DirectX 9c ondersteuning, Doom3 en HalfLife 2 speelbaar... allemaal voor ongeveer 100 euri. Leuk budgetkaartje dus!
Zal vanavond maar weer eens aan het schrijven gaan...
Kort gezegd: waarschijnlijk de helft van de performance van een 6600GT, dus zeg een 9600, Ti4200 en dergelijke videokaarten, maar dan met Shader Model 3, volledige DirectX 9c ondersteuning, Doom3 en HalfLife 2 speelbaar... allemaal voor ongeveer 100 euri. Leuk budgetkaartje dus!
Zal vanavond maar weer eens aan het schrijven gaan...
Anoniem: 79835
Toch weer goed resultaat in de Counter Strike: Source test van X-bits Labs
http://www.xbitlabs.com/a...eo/display/cs-source.html
Conclusie van X-Bit:
je ziet duidelijk dat de ultra de snelste is, zelfs de GT verslaat de PE meer dan hem lief is. De pro loopt er maar wat bij.

Hier wint de XT PE, maar de ultra blijft de non PE voor. De GT is wederom sneller dan de pro.
Wie dacht dat HL2 een ATi game zou worden, think again
http://www.xbitlabs.com/a...eo/display/cs-source.html
Conclusie van X-Bit:
Over de beeldkwaliteit:At this time we cannot find any clear leader among the high-end graphics cards. ATI’s RADEON X800 XT-series delivers extreme performance in cases where rapid pixel shaders are required. Though, NVIDIA’s GeForce 6800 Ultra and GT parts leave ATI’s RADEON X800-series behind once there is a higher load on texturing. Additionally, NVIDIA’s ForceWare drivers at this point seem to be better polished for the Counter Strike: Source, as systems based on NVIDIA’s GeForce 6 GPUs deliver a bit higher results in cases when performance depends on drivers and/or central processing unit’s speed.
3. Ok, looked at the first picture for refrence, as the others had some link problems...anywho, here's what I saw. First off, the NV had a bit clearer graphcis on the texturing, notable on the cracks along the wall above the window, they were fuzzy on the ATI. Second, the water ripples, the ATI did a generall fuzzy for the ripples while the NV had straiations. Lastly, the transparent graphics (the HUD) are clearer on the NV then on the ATI.
I do realize that most of this is on a finite level, but there are notable differences between the ATI and NV, though minute they may be.

je ziet duidelijk dat de ultra de snelste is, zelfs de GT verslaat de PE meer dan hem lief is. De pro loopt er maar wat bij.

Hier wint de XT PE, maar de ultra blijft de non PE voor. De GT is wederom sneller dan de pro.
Wie dacht dat HL2 een ATi game zou worden, think again
Jij vergelijkt HL2 met CS:S?? Muhahaha. Laat me niet lachen man... CS:S gebruikt waarschijnlijk nog niet eens de helft van alle shaders die HL2 heeft...Anoniem: 79835 schreef op 11 oktober 2004 @ 19:45:
Wie dacht dat HL2 een ATi game zou worden, think again
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nou CJ, dat komt dan mooi uit, wordt de 6800 nóg veel sneller 
Maar zonder gekheid, het valt wel op dat de 6800's verrekte snel zijn. Niet dat de X800 slecht is
Het is dus nog steeds een nek-aan-de-nek-race.
Iedereen mag trouwens ff
naar de 6200 in de startpost
Maar zonder gekheid, het valt wel op dat de 6800's verrekte snel zijn. Niet dat de X800 slecht is
Iedereen mag trouwens ff

CS:S speelt inderdaad gewoon goed op beide kaarten en het zal dan vooral een kwestie zijn van persoonlijke smaak. Alleen wanneer het op HL2 aan komt ben ik benieuwd hoe dat gaat lopen. Ik ben er niet zeker van dat de 6800 dan nog sneller zal zijn, aangezien (quote uit het X-Bit Labs artikel):IceEyz schreef op 11 oktober 2004 @ 20:06:
Nou CJ, dat komt dan mooi uit, wordt de 6800 nóg veel sneller
Maar zonder gekheid, het valt wel op dat de 6800's verrekte snel zijn. Niet dat de X800 slecht isHet is dus nog steeds een nek-aan-de-nek-race.
Iedereen mag trouwens ffnaar de 6200 in de startpost
De X800 serie van ATi is tot nu toe gewoon zeer sterk gebleken in shader intensieve games.ATI’s RADEON X800 XT-series delivers extreme performance in cases where rapid pixel shaders are required.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 94113
nee maar het is wel vebazend dat een geforce sneller loopt op een half life 2 engen dan een ati.CJ schreef op 11 oktober 2004 @ 19:59:
[...]
Jij vergelijkt HL2 met CS:S?? Muhahaha. Laat me niet lachen man... CS:S gebruikt waarschijnlijk nog niet eens de helft van alle shaders die HL2 heeft...
En dan word half life 2 meschien zwaarder maat het blijft de zelfe enige dus word nek aan
Anoniem: 119772
Huh, hoe kom jij tot die conclusie dan ?IceEyz schreef op 11 oktober 2004 @ 20:06:
Nou CJ, dat komt dan mooi uit, wordt de 6800 nóg veel sneller
Iig, de discussie kabbelt voort en ik denk dat uiteindelijk de X800XT PE met de eer gaat strijken wat betreft 16 x 12 @ AA + AF, in HL2.
Worden Nvidia kaart gebruikers dus pwned met dat gegeven ? Dat ligt er denk ik aan hoe je het bekijkt. Is HL2 DE enige game voor jou, dan ben je idd beter af met die XT PE. Voor mezelf ben ik al tevree met 1280 x 1024 plus 4AA en 4AF @ smooth fps. Aan de andere is het wel weer zo dat de GT als high end kaart beschouwd mag worden, zeker gezien de prijsklasse ; dan is 16 x 12 plus eye candy modes @ smooth fps een redelijke eis. Als HL2 eindelijk gespeeld kan worden zal het net wel overstromen met reviews en benchmarks. Nvidia zal het dan niet tof vinden als deze zelfde reviews "Ati pwns Nvidia again !" schreeuwen. Volgens mij is Nvidia druk in de weer met nieuwe whql Forceware die performance in D3D beter moet gaan maken....
Ach ja, Splintercell 3 is voor mij DE #1 verw8te game en die is, lekker puh, geoptimaliseerd voor NV40 kaarten en sm3.0
Euh Knot3D, lees de drie woordjes na die zin nog eens 
@CJ: de shaderkracht van de X800 is inderdaad groot, erg groot, maar dat is vooral bij "rapid" shaders, ofwel simpele shaders die waarschijnlijk veel gebruikt worden. De 6800 (met z'n lagere kloksnelheid) doet die inderdaad minder snel, maar kán sneller zijn bij ingewikkelde shaders d.m.v. SM3.0 (hoewel dat met sm20b weer deels opgeheven wordt, als dat gebruikt gaat worden)
Uiteindelijk staan er bovenaan de performancelijst weer wat leuke kaartjes die niet echt onderdoen voor elkaar. (vind ik
)
@CJ: de shaderkracht van de X800 is inderdaad groot, erg groot, maar dat is vooral bij "rapid" shaders, ofwel simpele shaders die waarschijnlijk veel gebruikt worden. De 6800 (met z'n lagere kloksnelheid) doet die inderdaad minder snel, maar kán sneller zijn bij ingewikkelde shaders d.m.v. SM3.0 (hoewel dat met sm20b weer deels opgeheven wordt, als dat gebruikt gaat worden)
Uiteindelijk staan er bovenaan de performancelijst weer wat leuke kaartjes die niet echt onderdoen voor elkaar. (vind ik
Nee, dit zegt dus helemaal niets. CS:S maakt dan wel gebruik van de Source Engine, maar er wordt waarschijnlijk maar 30 a 40% van de totale mogelijkheden gebruikt. HL2 is een stuk shader intensiever dan CS:S, dus dat kan (met nadruk op 'kan', dus het hoeft niet) anders uit pakken. Kijk bijvoorbeeld naar de Valve Stress Test... die maakt meer gebruik van shaders.Anoniem: 94113 schreef op 11 oktober 2004 @ 20:17:
[...]
nee maar het is wel vebazend dat een geforce sneller loopt op een half life 2 engen dan een ati.
En dan word half life 2 meschien zwaarder maat het blijft de zelfe enige dus word nek aan
Overigens over de topicstart en GF6200... De GF6200 is gebaseerd op de NV43 en niet op de NV41. Waarschijnlijk heeft de GF6200 gewoon 1 van de 2 quads disabled waardoor er een 4x1 overblijft. Als die extra quad geactiveerd kan worden, dan is dit wel een heel erg interessant kaartje...
De NV41 moet nog uit komen en is de native 12 pipeline kaart die de GF6800 gaat vervangen. En daarmee de tegenhanger is van de R430.
In de drivers staat ook:
NVIDIA_NV43.DEV_014F.1 = "NVIDIA GeForce 6200"
Wat ik overigens vreemd vind is de prijsklasse van de 256MB GF6200. Dit is $149,- en staat daarmee gelijk aan een standaard GF6600 en X700. De tests laten overduidelijk zien dat de 6200 niet mee kan met deze twee... maar er zullen natuurlijk altijd mensen zijn die denken dat 256MB geheugen 'beter en sneller' is dan de kaarten met maar 128MB.
Reviews:
http://www.anandtech.com/video/showdoc.aspx?i=2238
http://www.firingsquad.com/hardware/nvidia_geforce_6200/
http://www.hardocp.com/article.html?art=Njc0
http://www.hexus.net/cont...p?dXJsX3Jldmlld19JRD04ODI
http://www.neoseeker.com/...reviews/nv6200/index.html
http://techreport.com/onearticle.x/7447
[ Voor 10% gewijzigd door CJ op 11-10-2004 20:47 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Je hebt helemaal gelijk 
Reviews... ja, ik heb er al heel wat gezien, maar om het nou reviews te noemen. TechReport heeft een paar cijfertjes en de rest had zo'n beetje alleen maar gepraat over de kaart, zonder cijfertjes. Dit allemaal met een engineering sample waarvan één kaart zelfs tot bijna 600Mhz op de core kwam. Ik wacht wel eventjes met die toevoegen aan de firstyposty.
"een aantal mensen" -> "bijna iedereen" helaas...
Vandaag kreeg een kerel nog een 9550 met 256MB ipv een bestelde 9800pro 128mb... Ja, nee... 256MB !! Stukken beter joh! ... ... ...
Reviews... ja, ik heb er al heel wat gezien, maar om het nou reviews te noemen. TechReport heeft een paar cijfertjes en de rest had zo'n beetje alleen maar gepraat over de kaart, zonder cijfertjes. Dit allemaal met een engineering sample waarvan één kaart zelfs tot bijna 600Mhz op de core kwam. Ik wacht wel eventjes met die toevoegen aan de firstyposty.
"een aantal mensen" -> "bijna iedereen" helaas...
Vandaag kreeg een kerel nog een 9550 met 256MB ipv een bestelde 9800pro 128mb... Ja, nee... 256MB !! Stukken beter joh! ... ... ...

Anoniem: 94113
]CJ schreef op 11 oktober 2004 @ 20:40:toon volledige bericht
[...]
Nee, dit zegt dus helemaal niets. CS:S maakt dan wel gebruik van de Source Engine, maar er wordt waarschijnlijk maar 30 a 40% van de totale mogelijkheden gebruikt. HL2 is een stuk shader intensiever dan CS:S, dus dat kan (met nadruk op 'kan', dus het hoeft niet) anders uit pakken. Kijk bijvoorbeeld naar de Valve Stress Test... die maakt meer gebruik van shaders.
Overigens over de topicstart en GF6200... De GF6200 is gebaseerd op de NV43 en niet op de NV41. Waarschijnlijk heeft de GF6200 gewoon 1 van de 2 quads disabled waardoor er een 4x1 overblijft. Als die extra quad geactiveerd kan worden, dan is dit wel een heel erg interessant kaartje...
De NV41 moet nog uit komen en is de native 12 pipeline kaart die de GF6800 gaat vervangen. En daarmee de tegenhanger is van de R430.
In de drivers staat ook:
NVIDIA_NV43.DEV_014F.1 = "NVIDIA GeForce 6200"
Wat ik overigens vreemd vind is de prijsklasse van de 256MB GF6200. Dit is $149,- en staat daarmee gelijk aan een standaard GF6600 en X700. De tests laten overduidelijk zien dat de 6200 niet mee kan met deze twee... maar er zullen natuurlijk altijd mensen zijn die denken dat 256MB geheugen 'beter en sneller' is dan de kaarten met maar 128MB.
Reviews:
http://www.anandtech.com/video/showdoc.aspx?i=2238
http://www.firingsquad.com/hardware/nvidia_geforce_6200/
http://www.hardocp.com/article.html?art=Njc0
http://www.hexus.net/cont...p?dXJsX3Jldmlld19JRD04ODI
http://www.neoseeker.com/...reviews/nv6200/index.html
http://techreport.com/onearticle.x/7447
ja maar het programeer werk blijft het zelfde alleen half life 2 gebruikt meer mogelijk hedden van de engine wat er toe lied dat hij meer vraag van de vga kaarten en niet zorg dat de dat x800 serie opeens een stuk sneller loopt op de engine, maar door de kracht van de kaart zelf.
En het verschil tussen de geforce 6800 ul en de ati x800 xt is bijna niks dus het zal zeker niet super veel zijn
[ Voor 9% gewijzigd door Anoniem: 94113 op 11-10-2004 21:04 ]
Anoniem: 119772
Ik las ff dat Xbitlabs artikel nog es ;
http://www.xbitlabs.com/a.../display/cs-source_9.html
http://www.xbitlabs.com/a...display/cs-source_10.html
best interessant : " This particular demo is pretty interesting because it puts load on CPU, as we explode the hostages, then it puts pressure on pixel shaders when we activate night vision, then it requires the VPU to rapidly and efficiently remove hidden surfaces, as the streets of the village locate loads of small houses that cause massive overdraw effect."
" Due to efficient architecture and hidden surface removal (HSR) engine, NVIDIA’s GeForce 6800-series outperforms ATI’s RADEON X800-family by a substantial margin here, on the “Italy” level. "
Ik neem aan dat erg nog meer hidden surfaces in HL2 zitten, meer map complexiteit ? Dus niet alleen meer shader fx.
Trouwens, waarom vind iedereen dat AF zo belangrijk ? 16 x AF vind ik textures in de verte toch echt onnatuurlijk scherp. Niet eens mooi. Omdat het sowieso een performance vreter is draai ik liever 4 x AF.
http://www.xbitlabs.com/a.../display/cs-source_9.html
http://www.xbitlabs.com/a...display/cs-source_10.html
best interessant : " This particular demo is pretty interesting because it puts load on CPU, as we explode the hostages, then it puts pressure on pixel shaders when we activate night vision, then it requires the VPU to rapidly and efficiently remove hidden surfaces, as the streets of the village locate loads of small houses that cause massive overdraw effect."
" Due to efficient architecture and hidden surface removal (HSR) engine, NVIDIA’s GeForce 6800-series outperforms ATI’s RADEON X800-family by a substantial margin here, on the “Italy” level. "
Ik neem aan dat erg nog meer hidden surfaces in HL2 zitten, meer map complexiteit ? Dus niet alleen meer shader fx.
Trouwens, waarom vind iedereen dat AF zo belangrijk ? 16 x AF vind ik textures in de verte toch echt onnatuurlijk scherp. Niet eens mooi. Omdat het sowieso een performance vreter is draai ik liever 4 x AF.
Anoniem: 115092
Dat is een persoonlijke smaak. 16xaf in combinatie met 8xaa is echt wel mooi, maar helaas zoals je al aangeeft eigenlijk tegen een onacceptabele performance drop. Ikzelf gebruik daarom ook liever 2xaa / 4xaf mode (op een 6800 LE @ 6800 NU).
Anoniem: 114616
Met welke kaart van ati of nvidia kan je de 6200 vergelijken?
Dus met de FX5600? of hoger......
Ati 9700?
Dus met de FX5600? of hoger......
Ati 9700?
Anoniem: 79835
Nee, x-bit vergelijkt HL2 met CS:S. Ik denk dat ik toch maar x-bit zal geloven; die hebben tenminste kennis van zaken.CJ schreef op 11 oktober 2004 @ 19:59:
[...]
Jij vergelijkt HL2 met CS:S?? Muhahaha. Laat me niet lachen man... CS:S gebruikt waarschijnlijk nog niet eens de helft van alle shaders die HL2 heeft...
Dan heb ik denk ik toch iets over het hoofd gezien. Ik zal het nog eens lezen en zien of ze inderdaad Half Life 2 met CS:S vergelijken en tot de conclusie komen dat HL2 eigenlijk helemaal geen ATi game is.Anoniem: 79835 schreef op 11 oktober 2004 @ 22:05:
[...]
Nee, x-bit vergelijkt HL2 met CS:S. Ik denk dat ik toch maar x-bit zal geloven; die hebben tenminste kennis van zaken. laten zien wat ik graag wil zien.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 115092
Neej, niet met een 9700 (pro) denk ik.... meer richting fx5600 en ti 4200 kaarten. maar dan wel met volledige dx9 ondersteuning + sm 3.0....Met welke kaart van ati of nvidia kan je de 6200 vergelijken?
Dus met de FX5600? of hoger......
Ati 9700?
[ Voor 34% gewijzigd door Anoniem: 115092 op 11-10-2004 22:44 ]
Anoniem: 81527
Quote''kun je inderdaad een 6800 (LE) omtoveren tot een Ultra. Hoe dit in zijn werk gaat kun je bijvoorbeeld hier lezen''
Ik heb het gelezen.
Ik zal het maar toegeven ik ben geen rocketscientist, wat je volgens de auteur dus ook niet hoeft te zijn maar...........
Dat hele
a= dit
B=zus
C=zo, verhaaltje ontgaat mij totaal ik zie binnen de door hem aangegeven rode vierkantjes niets dan de hele tijd dezelfde 6 blokjes met dezelfde printbaantjes.
Waar heeft ie het in godesnaam over?
Dat er iets doorgesoldeerd dient te worden snap ik dus wel.
Maar wat???????????
Hij geeft helemaal niets aan op die fotootjes.
Desondanks schijnt iedereen het in de reply's te begrijpen.
Is die site www.pluto.kosmos of zo?
Ik zou het best wel willen begrijpen dus als iemand mij het verlossende uitlegje zou kunnen geven.
Een ding kan ik wel en dat is solderen en ik ben ook wel bereid om dat op mijn le te doen, maar zoals eerder gezegd heb ik geen idee wat.
Thx
Ik heb het gelezen.
Ik zal het maar toegeven ik ben geen rocketscientist, wat je volgens de auteur dus ook niet hoeft te zijn maar...........
Dat hele
a= dit
B=zus
C=zo, verhaaltje ontgaat mij totaal ik zie binnen de door hem aangegeven rode vierkantjes niets dan de hele tijd dezelfde 6 blokjes met dezelfde printbaantjes.
Waar heeft ie het in godesnaam over?
Dat er iets doorgesoldeerd dient te worden snap ik dus wel.
Maar wat???????????

Hij geeft helemaal niets aan op die fotootjes.
Desondanks schijnt iedereen het in de reply's te begrijpen.
Is die site www.pluto.kosmos of zo?
Ik zou het best wel willen begrijpen dus als iemand mij het verlossende uitlegje zou kunnen geven.
Een ding kan ik wel en dat is solderen en ik ben ook wel bereid om dat op mijn le te doen, maar zoals eerder gezegd heb ik geen idee wat.
Thx
jeej mijn club 3d geforce 5900 xt loopt nu op 489 - 801
Facts don't care about your feelings
Anoniem: 119772
Dit gaat niet direct over de NV40 hardware, maar dit interview is wel een ruggesteuntje voor NV40 keuze en als je Splinter Cell fan bent :
Uit interview met Dany Lepage (Technical Director/Lead Programmer for Ubisoft Canada's Splinter Cell : Chaos Theory op www.beyond3d.com
" Q ; Are you setting a texture as a depth stencil surface (normally known as Depth Stencil Texture, or DST) and add in Percentage Closest Filtering (normally known as PCF)? AFAIK, with the currently available 3D video cards, DST+PCF can only be achieved on NVIDIA cards. How would ATI cards render shadows in SC-CT then?
A ; It actually depends on the hardware we are running on. We developed a shadow map algorithm that work well with SM 1.1 and deliver a quality just as good as the one we can achieve with DST+PCF and work on all hardware. The details of this algorithm are confidential. We also have a special path for Nvidia hardware that use DST+PCF for better performance (shader is shorter).
EDIT : Slight correction; We do use DST but we don't use PCF! We were using PCF before but it wasn't giving very good results and it's now using point sampling. For the high end version details, I'll get you to talk with the lead 3D Programmer of the project once we have details and screenshots. "
" Q ; Since the screenshot is taken using a SM1.1 renderer, can you tell me what improvements we'll see when using SM2.x and SM3.0 renderers instead of a SM1.1 renderer? Also, what difference will we see between SM2.x and SM3.0?
A ; The SM 2.0/3.0 version is in development at the moment but we aren't ready to talk about its advantages (beside removing gradients/banding) yet. As always, the improvement in quality we will get is dependent upon the amount of assets redesigned to take full advantage of SM 2.0/3.0 shaders. That said, some of the art in the game is going to look significantly better without having to restart from scratch. "
en
http://www.beyond3d.com/forum/viewtopic.php?t=9982
Daar doe je het uiteindelijk voor, het kopen van zo'n 6800GT kaart. Althans, ik wel.
Uit interview met Dany Lepage (Technical Director/Lead Programmer for Ubisoft Canada's Splinter Cell : Chaos Theory op www.beyond3d.com
" Q ; Are you setting a texture as a depth stencil surface (normally known as Depth Stencil Texture, or DST) and add in Percentage Closest Filtering (normally known as PCF)? AFAIK, with the currently available 3D video cards, DST+PCF can only be achieved on NVIDIA cards. How would ATI cards render shadows in SC-CT then?
A ; It actually depends on the hardware we are running on. We developed a shadow map algorithm that work well with SM 1.1 and deliver a quality just as good as the one we can achieve with DST+PCF and work on all hardware. The details of this algorithm are confidential. We also have a special path for Nvidia hardware that use DST+PCF for better performance (shader is shorter).
EDIT : Slight correction; We do use DST but we don't use PCF! We were using PCF before but it wasn't giving very good results and it's now using point sampling. For the high end version details, I'll get you to talk with the lead 3D Programmer of the project once we have details and screenshots. "
" Q ; Since the screenshot is taken using a SM1.1 renderer, can you tell me what improvements we'll see when using SM2.x and SM3.0 renderers instead of a SM1.1 renderer? Also, what difference will we see between SM2.x and SM3.0?
A ; The SM 2.0/3.0 version is in development at the moment but we aren't ready to talk about its advantages (beside removing gradients/banding) yet. As always, the improvement in quality we will get is dependent upon the amount of assets redesigned to take full advantage of SM 2.0/3.0 shaders. That said, some of the art in the game is going to look significantly better without having to restart from scratch. "
en
http://www.beyond3d.com/forum/viewtopic.php?t=9982
Daar doe je het uiteindelijk voor, het kopen van zo'n 6800GT kaart. Althans, ik wel.
Als je van links naar rechts teld en van boven naar beneden wordt het al snel duidelijk wat hij bedoelde.Anoniem: 81527 schreef op 12 oktober 2004 @ 00:13:toon volledige bericht
Quote''kun je inderdaad een 6800 (LE) omtoveren tot een Ultra. Hoe dit in zijn werk gaat kun je bijvoorbeeld hier lezen''
Ik heb het gelezen.
Ik zal het maar toegeven ik ben geen rocketscientist, wat je volgens de auteur dus ook niet hoeft te zijn maar...........
Dat hele
a= dit
B=zus
C=zo, verhaaltje ontgaat mij totaal ik zie binnen de door hem aangegeven rode vierkantjes niets dan de hele tijd dezelfde 6 blokjes met dezelfde printbaantjes.
Waar heeft ie het in godesnaam over?
Dat er iets doorgesoldeerd dient te worden snap ik dus wel.
Maar wat???????????![]()
Hij geeft helemaal niets aan op die fotootjes.
Desondanks schijnt iedereen het in de reply's te begrijpen.
Is die site www.pluto.kosmos of zo?
Ik zou het best wel willen begrijpen dus als iemand mij het verlossende uitlegje zou kunnen geven.
Een ding kan ik wel en dat is solderen en ik ben ook wel bereid om dat op mijn le te doen, maar zoals eerder gezegd heb ik geen idee wat.
Thx
6800LE
A = B C D links boven is connected, rechts boven niet connected
E = F G = H Midden weerstanden zijn beide connected
X = Y O P Links onder connected, rechts onder niet
6800NU
A B C = D Links boven niet connected, rechts boven wel
E F G = H Links midden niet connected, rechts midden wel
X = Y O P Links onder connected, rechts onder niet
edit: ff een plaatje er bij gemaakt

Als je deze mod van LE naar NU doet hou je dus één weerstand over.
LE naar ultra gaat dus niet lukken aangezien het pcb anders is.
Hopelijk is het nu duidelijk
[ Voor 13% gewijzigd door fast-server op 12-10-2004 14:03 ]
PV Output SolarEdge SE5000H, 12x Jinko JKM390N-6RL3 Tiger> 4,68 kWp, Helling 42°, Oriëntatie 196° (ZZW)
Anoniem: 79835
Ik heb niet gezegd dat X-bit dat beweert. Ik heb heb gezegd dat X-bit CS:S vergelijkt met HL2. Lezen gaat moeizaam door een rode bril lijkt me.CJ schreef op 11 oktober 2004 @ 22:42:
[...]
Dan heb ik denk ik toch iets over het hoofd gezien. Ik zal het nog eens lezen en zien of ze inderdaad Half Life 2 met CS:S vergelijken en tot de conclusie komen dat HL2 eigenlijk helemaal geen ATi game is.
En "lezen wat ik graag wil lezen" is onzin, als een review site met een onbesproken reputatie zoals X-bit een tegenvallende review schrijft voor ATi dan is zijn ze natuurlijk niks waard voor de rode jongens. Deze review is gewoon goed gemaakt.
ALs ik wil "lezen wat ik graag wil lezen" lees ik wel nvnews of nfhq. Of jij driverheaven.
Ik ben er zeker van dat de 6800u het goed gaat doen in HL2, dit wijzen benchmarks van de beta en van de source engine uit. Nu kan je zeggen wat je wil over die shaders maar de beta had al die shaders ook en toch geven die benchmarks eenzelfde resultaat als in deze review.
Maar de tendens is al duidelijk: De X800XT overheerst in 16x12 met AA/AF maar in al de andere resoluties moet het de ultra laten voorgaan. Net zoals de GT altijd de X800pro zal voorblijven. Natuurlijk kan er nog wat aan de drivers getweaked worden maar een 2de 128MB bug gaan ze bij ATi niet vinden.
HL2 wordt in ieder geval geen afgang voor nv wat Doom3 wel voor ATi was.
Het is ook meer als logisch dat op 1600x1200 met AA en Af aan dat de radeon sneller is, ze hebben immers een hogere fillrate. Alleen is op 1600x1200 met Af is eigenlijk relevant AA heeft weinig nut meer aangezien alles al zo nauwkeurig is dat kartels er dan al eigenlijk niet meer zijn.Anoniem: 79835 schreef op 12 oktober 2004 @ 14:41:
Maar de tendens is al duidelijk: De X800XT overheerst in 16x12 met AA/AF maar in al de andere resoluties moet het de ultra laten voorgaan. Net zoals de GT altijd de X800pro zal voorblijven. Natuurlijk kan er nog wat aan de drivers getweaked worden maar een 2de 128MB bug gaan ze bij ATi niet vinden.
Ik vind niet eens dat Ati een afgang heeft gemaakt met d3 het was toch prima te spelen op ati kaarten. Het was va te voren al bekend dat nvidia karten hier sterker waren.HL2 wordt in ieder geval geen afgang voor nv wat Doom3 wel voor ATi was.
Dat er vette problemen waren met spikkels komt door de befaamde brakke koeling op de 9800 pro kaarten die echt te klein is. Je hoort zoveel verhalen van mensen met die kaarten waarbij de temp bij gemiddeld gamen als rond de 75 graden kwam, doom3 is transistor effectief en maakt het nog wat warmer.
Ach en hl2 is op elke beetje moderne kaart prima te spelen dus daar zou ik ook niet speciaal een ati kaart voor halen.
In mijn ogen is er nu geen beter merk enkel betere prijzen en die liggen strak naast elkaar. Dus welke kleur vind je mooier? Rood of groen
Blijkbaar wel... het enige wat ik heb kunnen vinden is een uitleg over de de verschillen tussen CS en CS:S. En vooral opmerkingen dat CS:S niets zegt over HL2 performance... Maar dat zal inderdaad wel door m'n rode bril komen ->Anoniem: 79835 schreef op 12 oktober 2004 @ 14:41:
[...]
Ik heb niet gezegd dat X-bit dat beweert. Ik heb heb gezegd dat X-bit CS:S vergelijkt met HL2. Lezen gaat moeizaam door een rode bril lijkt me.
nVnews heeft overigens een leuke review van de X800XT PE geplaatst. Die komt daar best goed uit de bus.En "lezen wat ik graag wil lezen" is onzin, als een review site met een onbesproken reputatie zoals X-bit een tegenvallende review schrijft voor ATi dan is zijn ze natuurlijk niks waard voor de rode jongens. Deze review is gewoon goed gemaakt.
ALs ik wil "lezen wat ik graag wil lezen" lees ik wel nvnews of nfhq. Of jij driverheaven.
X-Bit maakt ook zeer goed het volgende duidelijk:Ik ben er zeker van dat de 6800u het goed gaat doen in HL2, dit wijzen benchmarks van de beta en van de source engine uit. Nu kan je zeggen wat je wil over die shaders maar de beta had al die shaders ook en toch geven die benchmarks eenzelfde resultaat als in deze review.
Dus de performance in CS:S zegt niets over de performance in Half-Life 2. Ze sluiten zelfs af met een stuk over 'beta' drivers:It would not be absolutely correct to extrapolate the peculiarities of the Counter Strike: Source to the forthcoming Half-Life 2, as the first person shooter games typically have more eye candy compared to online titles.
Dus het is nog te voorbarig om conclusies te trekken... En de laatste regel heb je ook even over het hoofd gezien:Unfortunately, current drivers from ATI and NVIDIA are beta, which is why the final words on the performance of modern graphics boards in Counter Strike: Source are to be said in future.
Dit is dus precies wat ik al zei... CS:S performance zegt niet zo heel erg veel over HL2 performance.Please keep in mind that Half-Life 2 performance may differ from what we see with the Counter Strike: Source
FYI. De X800XT PE is sinds de release van de laatste hotfixdrivers sneller dan een GF6800U in Doom3... en dit is ook bevestigd door sommige mensen hier op het forum zoals Edward2.Maar de tendens is al duidelijk: De X800XT overheerst in 16x12 met AA/AF maar in al de andere resoluties moet het de ultra laten voorgaan. Net zoals de GT altijd de X800pro zal voorblijven. Natuurlijk kan er nog wat aan de drivers getweaked worden maar een 2de 128MB bug gaan ze bij ATi niet vinden.
HL2 wordt in ieder geval geen afgang voor nv wat Doom3 wel voor ATi was.
Dus zo'n 'afgang' is Doom3 niet hoor.edward2 schreef op 30 september 2004 @ 12:17:
[...]
UT2004 (20-20% sneller) Doom3 weer een paar fps sneller tov de Humus fix
Doom3 speelt nu sneller op m'n XT
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik denk niet dat Ati of Nvida een afgang heeft gemaakt met hun nieuwe generatie kaarten.
In Sommige games is ati sneller en in andere Nvidia.
Mijn keuze is op de Nvidia 6800 gevallen om de volgende reden:
Ik wil mijn spellen op 1280x1024 op de maximale kwaliteit kunnen spelen en aangezien ik ook veel aan mpeg2 en mpeg4 encoding doe helpt de 6800 GPU ook nog eens de processor een aardig handje mee.
De Ati kaarten kunnen/ondersteunen dit niet.
Dus als je veel met video encoding werkt kun je dus beter voor een 6800LE/NU/GT/Ultra kaart kiezen.
scheelt de usenet gebruiker toch al 2uurtjes met cce 9passes
In Sommige games is ati sneller en in andere Nvidia.
Mijn keuze is op de Nvidia 6800 gevallen om de volgende reden:
Ik wil mijn spellen op 1280x1024 op de maximale kwaliteit kunnen spelen en aangezien ik ook veel aan mpeg2 en mpeg4 encoding doe helpt de 6800 GPU ook nog eens de processor een aardig handje mee.
De Ati kaarten kunnen/ondersteunen dit niet.
Dus als je veel met video encoding werkt kun je dus beter voor een 6800LE/NU/GT/Ultra kaart kiezen.
scheelt de usenet gebruiker toch al 2uurtjes met cce 9passes
[ Voor 7% gewijzigd door fast-server op 12-10-2004 16:04 ]
PV Output SolarEdge SE5000H, 12x Jinko JKM390N-6RL3 Tiger> 4,68 kWp, Helling 42°, Oriëntatie 196° (ZZW)
Geen afgang maar ze presteren wel minder als de nvidia concurent, zelfs de x800xt heeft een taaie aan de 6800gt daar. ik verwacht een vergelijkbaar beeld bij hl2 maar dan in het voordeel voor ati.CJ schreef op 12 oktober 2004 @ 15:30:
Dus zo'n 'afgang' is Doom3 niet hoor.
Het is gewoon een feit dat nv sneller is in d3 net als dat het een feit is dat ati beter scoort met aa en af aan.
Maar uhm... de Video processor op de 6800-serie was een klein beetje kaduuk... alleen MPEG2 decoding deed het een beetje en ook WMV9 werd gedeeltelijk geaccelereerd.fast-server schreef op 12 oktober 2004 @ 15:38:
Ik wil mijn spellen op 1280x1024 op de maximale kwaliteit kunnen spelen en aangezien ik ook veel aan mpeg2 en mpeg4 encoding doe helpt de 6800 GPU ook nog eens de processor een aardig handje mee.
De Ati kaarten kunnen/ondersteunen dit niet
Dus als je veel met video encoding werkt kun je dus beter voor een 6800LE/NU/GT/Ultra kaart kiezen.
Anandtech heeft er toevallig gisteren nog een stuk aan gewijd in de GF6200 review. nVidia heeft namelijk stilletjes de Video Processor gefixed in de 6600 en 6200 serie... Maar omdat het te veel vragen zou oproepen, hebben ze het gedeelte over de Video Processor maar uit de launch van de GF6200 geschrapt.
http://www.anandtech.com/video/showdoc.aspx?i=2238&p=2The Video Processor (soon to receive a true marketing name) on the NV40 was somewhat broken, although it featured MPEG 2 decode acceleration. Apparently, support for WMV9 decode acceleration was not up to par with what NVIDIA had hoped for. As of the publication of this article, NVIDIA still has not answered our questions of whether or not there is any hardware encoding acceleration as was originally promised with NV40. So, the feature set of the Video Processor on NV40 (the GeForce 6800) was incomplete, only in its support for WMV9 acceleration (arguably the most important feature of it).
NVIDIA quietly fixed the problem in the 6600GT and since the 6200 is based on the 6600, the 6200 also features the "fixed" Video Processor with WMV9 decode acceleration support. After much explaining to NVIDIA that their credibility when it comes to the Video Processor is pretty much shot, they decided to pull the talk about the Video Processor from their launch of the 6200. As a result, you won't see any benchmarks of it here. NVIDIA is currently aiming to have us a functional driver and codec that will enable the Video Processor and take advantage of its capabilities in the next month or so.
Nu maar hopen dat ze het dus kunnen fixen in drivers, alhoewel dat moeilijk gaat worden als het een hardwarematige fout is (wat ik zelf vermoed, gezien het feit dat het in de NV43 core gefixed is).
offtopic:
ATi kaarten ondersteunen overigens zowel hardwarematige decoding als encoding van MPEG1/2/4, Real Media, DivX and Microsoft Windows Media Video 9 dankzij de Cobra Engine (zit standaard in de cores) die gebruik maakt van de pixelshaders om de boel te versnellen.
ATi kaarten ondersteunen overigens zowel hardwarematige decoding als encoding van MPEG1/2/4, Real Media, DivX and Microsoft Windows Media Video 9 dankzij de Cobra Engine (zit standaard in de cores) die gebruik maakt van de pixelshaders om de boel te versnellen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik heb net mn Asus V9999 GT binnen 
Prachtig ding, grote cooler, heel erg netjes gedaan.
Staat nu op 350/700, en ik ga nu ff benchen en andere dingen
Ben er erg tevreden over !
Prachtig ding, grote cooler, heel erg netjes gedaan.
Staat nu op 350/700, en ik ga nu ff benchen en andere dingen
Ben er erg tevreden over !
Chipset GT, 700 mhz ipv 1000 en de helft van de echte gt 
Maar hij draait goed, zal goed draaien bij games.
Aleen moet ik nvidia drivers installen of Asus?
Maar hij draait goed, zal goed draaien bij games.
Aleen moet ik nvidia drivers installen of Asus?
Tja... die videoprocessor... ik mag toch echt wel eisen dat mijn 6800 al die acceleratie ondersteunt en met duidelijke prestatie-winsten. Merk er echter nog niksienada van, helaas.
Als er een hardware-foutje is en ze weten waar/wat het is, dan moet er toch een manier zijn om dit te verhelpen? Iets meer driverlevel-werk en toch de GPU aan het werk zetten, dat wil ik zien...
Op nV.com staat het hele verhaal nog steeds. Hardwarematig de- en encoden, motion estimation engine, fully programmable... Nog niets geschrapt...
Als er een hardware-foutje is en ze weten waar/wat het is, dan moet er toch een manier zijn om dit te verhelpen? Iets meer driverlevel-werk en toch de GPU aan het werk zetten, dat wil ik zien...
Op nV.com staat het hele verhaal nog steeds. Hardwarematig de- en encoden, motion estimation engine, fully programmable... Nog niets geschrapt...
Hardware-foutjes zijn helaas niet te herstellen, behalve dan via een nieuwe revisie van de NV40 chip.IceEyz schreef op 12 oktober 2004 @ 20:55:
Als er een hardware-foutje is en ze weten waar/wat het is, dan moet er toch een manier zijn om dit te verhelpen? Iets meer driverlevel-werk en toch de GPU aan het werk zetten, dat wil ik zien...
Herinner je je nog de Savage2000? Die had ook een TnL engine, maar die was stuk. S3 beloofd constant dat dit gefixed zou worden in de drivers. Pas later werd echt bekend gemaakt dat die engine gewoon helemaal FUBAR was op hardware-niveau.
Het zou misschien wel een goed idee zijn als nVidia de GPU aan het werk zouden zetten, net zoals ATi hun VPU's ook gebruikt om de CPU te ontlasten bij bv het encoden/decoden. Als je bijvoorbeeld een DivX bekijkt met DivX Player op een Radeon en je hebt "accelerated post-processing for supported ATi Radeon hardware" aan staan dan zie je dat de CPU usage van zo'n 30% naar 10% terug springt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
en ff rivatuner instellen, misschien kan je wel alle pipelines en vertex shaders aanzettenHidde schreef op 12 oktober 2004 @ 17:56:
Chipset GT, 700 mhz ipv 1000 en de helft van de echte gt
Maar hij draait goed, zal goed draaien bij games.
Aleen moet ik nvidia drivers installen of Asus?
Waarom maakt het eigenlijk zoveel uit dat de cpu 10% of 30% wordt belast bij het kijken van een dvix? (ik kijk nooit divx, nog ben ik aan het encode/decoden, dus op dit moment zie ik niet het doel van deze feature, waarvan ik niet weet of die het doet op mijn gtCJ schreef op 12 oktober 2004 @ 21:07:
[...]
Als je bijvoorbeeld een DivX bekijkt met DivX Player op een Radeon en je hebt "accelerated post-processing for supported ATi Radeon hardware" aan staan dan zie je dat de CPU usage van zo'n 30% naar 10% terug springt.
Je kijkt nooit DivX? Hmm... dat kan. De meeste films/series die ik download zijn vaak gecodeerd met het DivX codec. Dus ik gebruik het vrij vaak en met mij meer dan 75 miljoen mensen (DivX wordt zo'n 3 miljoen keer per maand gedownload).Schumi4ever schreef op 12 oktober 2004 @ 21:59:
[...]
Waarom maakt het eigenlijk zoveel uit dat de cpu 10% of 30% wordt belast bij het kijken van een dvix? (ik kijk nooit divx, nog ben ik aan het encode/decoden, dus op dit moment zie ik niet het doel van deze feature, waarvan ik niet weet of die het doet op mijn gt)
Maar het gaat niet alleen om de mindere belasting van de PC, ook worden de pixelshaders gebruikt om het beeld op te schonen (bv. minder ruis) en de boel strakker op je beeld te toveren (bv minder blokkerig), maar ook vloeiender. Normaal gesproken doet de CPU dit softwarematig (wat vooral op tragere pc's) voor schokken kan zorgen. Als de GPU dit hardwarematig doet, dan gaat het allemaal veel soepeler en kan de CPU zich op andere dingen concentreren zoals bv het geluid.
Maar goed, als je het toch niet gebruikt dan is het inderdaad een loze feature.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Het DivX tijdperk is voor mij ook al 2 jaar gesloten, denk eigenlijk voor de meeste mensen die 400 euro + besteden aan een videokaartCJ schreef op 12 oktober 2004 @ 22:38:
[...]
Je kijkt nooit DivX? Hmm... dat kan. De meeste films/series die ik download zijn vaak gecodeerd met het DivX codec. Dus ik gebruik het vrij vaak en met mij meer dan 75 miljoen mensen (DivX wordt zo'n 3 miljoen keer per maand gedownload).
Maar het gaat niet alleen om de mindere belasting van de PC, ook worden de pixelshaders gebruikt om het beeld op te schonen (bv. minder ruis) en de boel strakker op je beeld te toveren (bv minder blokkerig), maar ook vloeiender. Normaal gesproken doet de CPU dit softwarematig (wat vooral op tragere pc's) voor schokken kan zorgen. Als de GPU dit hardwarematig doet, dan gaat het allemaal veel soepeler en kan de CPU zich op andere dingen concentreren zoals bv het geluid.
Maar goed, als je het toch niet gebruikt dan is het inderdaad een loze feature.
Nou, de Savage2000 is misschien nog net niet van vóór mijn tijd, maar ik was nog niet echt een n3rD die zich met dat soort dingen bezig hield. (Ik weet 't wel van lezenzeggen hoor
)
Die 20% CPU-verschil kan natuurlijk ook nuttig worden ingezet door middel van koeitjes
Maar waar het mij vooral om gaat, is het versnellen van COderen. Een DV-filmpje omzetten naar MPEG2-DVD kan láng duren, net als het shrinken van dvd'tjes.
Als het 222-miljoen-transistors-tellende-chippe een speciaal pad hiervoor heeft, zou de benodigde tijd _behoorlijk_ kunnen dalen.
Verder hoor ik mijn vader altijd zeggen dat op de computer films er altijd zo bloederig mooi uitzien: scherp, helder, mooie kleuren... Ik ben er aan gewend, maar blijkbaar vind hij het nogal een verschil met z'n simpele tv'tje. Er wordt dus toch wel íets gedaan..?
Die 20% CPU-verschil kan natuurlijk ook nuttig worden ingezet door middel van koeitjes
Maar waar het mij vooral om gaat, is het versnellen van COderen. Een DV-filmpje omzetten naar MPEG2-DVD kan láng duren, net als het shrinken van dvd'tjes.
Als het 222-miljoen-transistors-tellende-chippe een speciaal pad hiervoor heeft, zou de benodigde tijd _behoorlijk_ kunnen dalen.
Verder hoor ik mijn vader altijd zeggen dat op de computer films er altijd zo bloederig mooi uitzien: scherp, helder, mooie kleuren... Ik ben er aan gewend, maar blijkbaar vind hij het nogal een verschil met z'n simpele tv'tje. Er wordt dus toch wel íets gedaan..?
offtopic:
Verder hebben mensen met zo'n dure videokaart vast wel een goeie geluidskaart die het werk van de CPU overneemt... Mag ik toch hopen?!
Verder hebben mensen met zo'n dure videokaart vast wel een goeie geluidskaart die het werk van de CPU overneemt... Mag ik toch hopen?!
Dit topic is gesloten.