[Algemeen] nVidia GeForce Topic! Deel 11 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 4 5 Laatste
Acties:
  • 2.359 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

Anoniem: 21889

Slash47 schreef op 06 oktober 2004 @ 20:22:
Kan iemand me vertellen hoe groot zo'n NV Silencer is? 'K heb namelijk een Shuttle SN95G5 en ik will weten of ie past. Er is nog ongeveer 1 cm ruimte tussen m'n behuizing en mijn XFX GT met standaard koeling. Gaat dat passen?
Het is een behoorlijke koeler, de NV 5 bedekt zo ongeveer m'n gehele 6800LE kaart (in de lengte dan).. :)

Acties:
  • 0 Henk 'm!

  • wheeler
  • Registratie: Juli 1999
  • Laatst online: 02-06 11:54
Slash47 schreef op 06 oktober 2004 @ 20:22:
Kan iemand me vertellen hoe groot zo'n NV Silencer is? 'K heb namelijk een Shuttle SN95G5 en ik will weten of ie past. Er is nog ongeveer 1 cm ruimte tussen m'n behuizing en mijn XFX GT met standaard koeling. Gaat dat passen?
lees dit forum eens... Aardig wat threads maar het lijkt erop dat zonder je zijkant open te zagen denk ik niet dat het ooit zal gaan passen.

Acties:
  • 0 Henk 'm!

  • SlowikPL
  • Registratie: December 2001
  • Laatst online: 31-05 17:05
Ik zit nu ook te wachten op de Nvidia PCI - Express VGA`s die sneller zijn als de 6600 serie. Weet iemand wanner we dit kunnen verwachten, want overal zijn div. roadmaps maar niets concreets.

en nog iets, word nu ineens toch wel de NV48e native PCI-E :?


The NV48 will probably have a few tweaks, but nothing significant. The largest "tweaks" would be native PCI-E support, slightly faster clock speeds, and some architectural changes (such as a working video encoder/decoder).

* Intel Core i7-6700K @ 4.8Ghz * Asus MAXIMUS VIII EXTREME* nVidia Asus Poseidon 1080Ti * Mushkin 16 GB * SSD Samsung M.2 2280 256GB + 3x Samsung 256GB 850Pro* Enermax Revolution85+ 1250W * CM Stacker 832 SE * Waretcooling CPU, NB ,VGA 3x Mora


Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

(such as a working video encoder/decoder).
????
hoezo is die van de 6800 niet werkend dan?

Acties:
  • 0 Henk 'm!

Anoniem: 116529

vraagje over de 6800 serie:
ik de handleiding van de 6800's lees ik:

"GeForce 6800 Boards will have two standard disk drive on the back end of the card. Both power connectors must be connected for normal use. You may us a Y-cable or connect two dongles off at the same power cable if plugs are short for normal use." en dan nog wat over OC-en.
bron: http://www.paradigit.nl/pdf/10007497v.pdf

mijn vraag: wat bedoelen ze hiermee? ik wordt er echt niet wijs van

bedankt,
wim

Acties:
  • 0 Henk 'm!

  • rswar
  • Registratie: November 2002
  • Laatst online: 23:23
Anoniem: 116529 schreef op 08 oktober 2004 @ 10:16:
vraagje over de 6800 serie:
ik de handleiding van de 6800's lees ik:

"GeForce 6800 Boards will have two standard disk drive on the back end of the card. Both power connectors must be connected for normal use. You may us a Y-cable or connect two dongles off at the same power cable if plugs are short for normal use." en dan nog wat over OC-en.
bron: http://www.paradigit.nl/pdf/10007497v.pdf

mijn vraag: wat bedoelen ze hiermee? ik wordt er echt niet wijs van

bedankt,
wim
2 stroom aansluitingen 12 volt

Acties:
  • 0 Henk 'm!

Anoniem: 89518

Muhahah heb net mn XFX geforce 6800 GT incl. doom 3 binnen gekregen.

Nu nog ff vraagje voor ik hem erin ga zetten: welke drivers zijn het best?

Ik lees op veel plekken dat de 66.70 drivers het best zijn, klopt dit?

( geen format nodig toch? ik ga van ati radeon 9700 pro naar nvidia 6800 GT)

Acties:
  • 0 Henk 'm!

  • _XipHiaS_
  • Registratie: Mei 2002
  • Niet online
Anoniem: 89518 schreef op 08 oktober 2004 @ 14:10:
Muhahah heb net mn XFX geforce 6800 GT incl. doom 3 binnen gekregen.

Nu nog ff vraagje voor ik hem erin ga zetten: welke drivers zijn het best?

Ik lees op veel plekken dat de 66.70 drivers het best zijn, klopt dit?

( geen format nodig toch? ik ga van ati radeon 9700 pro naar nvidia 6800 GT)
Nou, gezien de Radeon een ATI is en de 6800GT een nVidia... Zou'k toch maar ff grote schoonmaak houden daar ;).

Acties:
  • 0 Henk 'm!

Anoniem: 89518

_XipHiaS_ schreef op 08 oktober 2004 @ 14:19:
[...]


Nou, gezien de Radeon een ATI is en de 6800GT een nVidia... Zou'k toch maar ff grote schoonmaak houden daar ;).
Is driver cleaner niet genoeg?


* Anoniem: 89518 ziet op tegen WEER een format ;(

Acties:
  • 0 Henk 'm!

Anoniem: 62850

Ik zit hier met 2 oude kaarten (Geforce 2 MX 400 + Geforce 3 TI200) en wil graag wat met ze knutselen, ik wil er een nieuwe bios op zetten.Maar eerst natuurlijk de voltage ophoog zetten.Is er een programma waarmee de bios rom kunt uitwerken?

Met Bios Editor lukt de voltage instellen niet.

Acties:
  • 0 Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 16-05 23:37
Anoniem: 89518 schreef op 08 oktober 2004 @ 14:44:
[...]


Is driver cleaner niet genoeg?


* Anoniem: 89518 ziet op tegen WEER een format ;(
Je kunt het proberen zonder, maar als je er zeker van wilt zijn dat alles goed loopt is een format wel aan te raden :)

Acties:
  • 0 Henk 'm!

Anoniem: 89518

Dus nieuwe kaart erin, en dan formatteren, of formatteren, en dan je kaart erin doen voordat je je drivers installeert?

Of maakt dat niet uit?

Acties:
  • 0 Henk 'm!

Anoniem: 89518

En is het echt nodig om de 'anti-static precautions' te volgen?

( dat je jezelf niet statisch maakt ofzo? :))

Acties:
  • 0 Henk 'm!

  • Talon
  • Registratie: Maart 2001
  • Laatst online: 14-05 07:58

Talon

Booooom !

Is wel aan te raden aangezien een beetje lekspanning je kaart zo naar de tyfus kan blazen ...
En in het ergste geval je hele PC (theoretisch dan hé).

Acties:
  • 0 Henk 'm!

Anoniem: 89518

Talon schreef op 08 oktober 2004 @ 15:44:
Is wel aan te raden aangezien een beetje lekspanning je kaart zo naar de tyfus kan blazen ...
En in het ergste geval je hele PC (theoretisch dan hé).
Wat moet ik dan doen?
Kachel aanraken ofzo toch? (zal wel heel noob zijn dit:))

Acties:
  • 0 Henk 'm!

  • Talon
  • Registratie: Maart 2001
  • Laatst online: 14-05 07:58

Talon

Booooom !

Kachel aanraken ...
Ijzerdraadje van je pols naar de verwarming ...
Geen wollen trui aan ...
geen rubberzolen , maar gewoon blote voeten op de grond ...
Ik doe maar een gooi ...

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Anoniem: 89518 schreef op 08 oktober 2004 @ 15:19:
Dus nieuwe kaart erin, en dan formatteren, of formatteren, en dan je kaart erin doen voordat je je drivers installeert?

Of maakt dat niet uit?
Voordat je al die moeite doet, probeer anders eerst gewoon oude kaart erin, drivers uninstallen, uitzetten, nieuwe kaart erin, drivers installen. Windows compleet opnieuw installeren of driver clean utilities is voor de meeste mensen echt overbodig. Alleen doen als je problemen krijgt.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

Anoniem: 62850

Anoniem: 62850 schreef op 08 oktober 2004 @ 14:56:
Ik zit hier met 2 oude kaarten (Geforce 2 MX 400 + Geforce 3 TI200) en wil graag wat met ze knutselen, ik wil er een nieuwe bios op zetten.Maar eerst natuurlijk de voltage ophoog zetten.Is er een programma waarmee de bios rom kunt uitwerken?

Met Bios Editor lukt de voltage instellen niet.
Niemand die een oplossing weet??

Acties:
  • 0 Henk 'm!

Anoniem: 119772

Nieuwe Expertool voor alle Gainward kaarten ! Versie 3.20

http://www.gainward.de/drivers/ 8)

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 09:20
nV41 komt in November, een 12 pipes versie van nV40 om de kosten te drukken, als ik die specs zie en de speculatie dat die Gf6700 gaat heten frons ik me wenkbrauwen. Zo te zien wordt die stuk sneller dan 6800NU(of hij moet gedeeltelijk 6x2 zijn), de 6800NU zal verdwijnen verwacht men. Als ik dat zo zie kan deze 6700 de 800 Pro misschien aan. De 6800LE zal ook van nV41 afgeleid worden. Het wordt druk in de ~190 tot 350€ regio, zeker als Ati ook nog zijn 800SE op de markt zet, en de 800 Pro omlaag prijst.

[ Voor 23% gewijzigd door Sjah op 09-10-2004 10:53 ]


Acties:
  • 0 Henk 'm!

  • Hidde
  • Registratie: November 2002
  • Laatst online: 10:13
Maandag heb ik mijn V9999 GT, van wat ik heb gelezen, IS het een 6800 GT maar ipv 1000 memory, 700 mhz.
Wat lager geclockt dus.
Ik denk dat ik em wel kan OCen naar een volwaardige GT. :)

Verder zijn zijn specs zoals pipelines zelfde als de GT.

Acties:
  • 0 Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 16-05 23:37
Hidde schreef op 09 oktober 2004 @ 11:48:
Maandag heb ik mijn V9999 GT, van wat ik heb gelezen, IS het een 6800 GT maar ipv 1000 memory, 700 mhz.
Wat lager geclockt dus.
Ik denk dat ik em wel kan OCen naar een volwaardige GT. :)

Verder zijn zijn specs zoals pipelines zelfde als de GT.
Met dat verschil dat je ddr1 geheugen hebt ipv gddr3. 1000mhz of in de buurt zou erg knap zijn ;)

Acties:
  • 0 Henk 'm!

Anoniem: 123011

Sjah schreef op 09 oktober 2004 @ 10:44:
nV41 komt in November, een 12 pipes versie van nV40 om de kosten te drukken, als ik die specs zie en de speculatie dat die Gf6700 gaat heten frons ik me wenkbrauwen. Zo te zien wordt die stuk sneller dan 6800NU(of hij moet gedeeltelijk 6x2 zijn), de 6800NU zal verdwijnen verwacht men. Als ik dat zo zie kan deze 6700 de 800 Pro misschien aan. De 6800LE zal ook van nV41 afgeleid worden. Het wordt druk in de ~190 tot 350€ regio, zeker als Ati ook nog zijn 800SE op de markt zet, en de 800 Pro omlaag prijst.
Maar de lol is dat wij nu al onze 6800LEs hebben gekocht, en met de komst van de 6700 zal het niet mogelijk zijn om voor 199 euro een 16 pipe kaart te krijgen d.m.v. softmodden.

Dus : goed voor ons :)

Acties:
  • 0 Henk 'm!

  • Hidde
  • Registratie: November 2002
  • Laatst online: 10:13
Schumi4ever schreef op 09 oktober 2004 @ 12:10:
[...]


Met dat verschil dat je ddr1 geheugen hebt ipv gddr3. 1000mhz of in de buurt zou erg knap zijn ;)
Oja dat ook, maar bij tests, maakt het toch niet zo heel veel uit?
Ik zal verschillen bij 128 en 256 mb versies 5-10 fps ofzo.

Achja hij zal games goeddraaien, ongetwijfeld, daar ben ik al blij mee. :)

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 09:20
Anoniem: 123011 schreef op 09 oktober 2004 @ 12:25:
[...]


Maar de lol is dat wij nu al onze 6800LEs hebben gekocht, en met de komst van de 6700 zal het niet mogelijk zijn om voor 199 euro een 16 pipe kaart te krijgen d.m.v. softmodden.

Dus : goed voor ons :)
Yup wij zitten prima, maar als die nV41 LE met 1000Mhz 256mb komt (zal wel niet dat laatste) had ik die liever gehad , mits die natuurlijk unlocked naar 12.

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

Als ik mijn GT overclock naar bv 395/1000 dan loopt hij vast in Warhammer na een tijdje spelen.
In 3Dmark05 loopt hij goed, alleen als ik het geheugen hoger clock dan staat hij af en toe stil in de benchmark en klokt hij terug (neem ik aan).

In de driver staat dit pas ingesteld op 120C neem niet aan dat hij al zo warm wordt. ?
Heb een XFX 6800 GT.

De GPU Fan spint wel op bij het booten van de PC, maar tijdens spelen niet, daarom zal de GPU wel te heet worden?

Acties:
  • 0 Henk 'm!

  • rswar
  • Registratie: November 2002
  • Laatst online: 23:23
M55 schreef op 09 oktober 2004 @ 12:52:
Als ik mijn GT overclock naar bv 395/1000 dan loopt hij vast in Warhammer na een tijdje spelen.
In 3Dmark05 loopt hij goed, alleen als ik het geheugen hoger clock dan staat hij af en toe stil in de benchmark en klokt hij terug (neem ik aan).

In de driver staat dit pas ingesteld op 120C neem niet aan dat hij al zo warm wordt. ?
Heb een XFX 6800 GT.

De GPU Fan spint wel op bij het booten van de PC, maar tijdens spelen niet, daarom zal de GPU wel te heet worden?
120 graden???

als dat zo is kook je je kaart

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

tja dat is de standaard instelling van de driver hoor :)

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 09:20
rswar schreef op 09 oktober 2004 @ 13:39:
[...]


120 graden???

als dat zo is kook je je kaart
Wel als er nog wat water van het fabricageproces is achtergbleven. :D

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

is er geen util om de fan te regelen?

Acties:
  • 0 Henk 'm!

Anoniem: 90323

Sjah schreef op 09 oktober 2004 @ 13:45:
[...]


Wel als er nog wat water van het fabricageproces is achtergbleven. :D
We zullen het hier wel over het Engelse stelsel cq. fahrenheit hebben..Ff nadenken mensen.... 8)7 8)7 8)7 |:(

120 fahrenheit is 50 graden celcius

http://zellortega.tripod.com/calc01.htm

Acties:
  • 0 Henk 'm!

Anoniem: 119772

Hidde schreef op 09 oktober 2004 @ 11:48:
Maandag heb ik mijn V9999 GT, van wat ik heb gelezen, IS het een 6800 GT maar ipv 1000 memory, 700 mhz.
Wat lager geclockt dus.
Ik denk dat ik em wel kan OCen naar een volwaardige GT. :)

Verder zijn zijn specs zoals pipelines zelfde als de GT.
...Maar, waarom heb je em gekocht dan ? Is ie zoveel goedkoper dan de goedkoopste ECHTE GT !? En ik zie op de Asus site dat de kaart 128mb aan
DDR1 geheugen heeft ipv 256mb aan DDR3 geheugen van GT reference specs
(Ik heb het vermoeden dat die DDR1 2.8ns geheugen is terwijl GT DDR3 geheugen 2.0ns behoort te zijn) ;

een verschil in performance zal er denk ik toch wel zijn. DDR3 schijnt daarnaast
ook nog ietsje koeler te blijven bij load.

Wat ik ook zo vaag vind is dat als je NU naar een van de internationale Asus sites gaat ; als je daar een van de NV40 gebaseerde kaarten aanklikt dan kun je om een of andere vage reden NIET in het SPECIFICATION menu komen : je komt dan gewoon uit op de pagina voor de gehele product lijn. Volgens mij willen ze voorkomen dat mensen de EXACTE specs van hun NV40 kaarten zien. Mainstream pc gebruikers zijn op deze manier heel gemakkelijk om de tuin te leiden met mooie PR praat op die 'overview' pagina. Imho is dit alles geen goeie zaak van Asus :r

[ Voor 5% gewijzigd door Anoniem: 119772 op 09-10-2004 14:40 ]


Acties:
  • 0 Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 16-05 23:37
Anoniem: 90323 schreef op 09 oktober 2004 @ 14:26:
[...]


We zullen het hier wel over het Engelse stelsel cq. fahrenheit hebben..Ff nadenken mensen.... 8)7 8)7 8)7 |:(

120 fahrenheit is 50 graden celcius

http://zellortega.tripod.com/calc01.htm
Lijkt me stug dattie op 120graden fahrenheit, oftewel 50 graden celsius gaat throttlen :/

Is gewoon 120 graden celsius lijkt mij :P

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

idd 50 graden celsius no way.. hij is standaard al 53 graden :D

maar ehm, iemand antwoord op mijn oorspronkelijke vraag ? :+

[ Voor 42% gewijzigd door M55 op 09-10-2004 14:52 ]


Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

Anoniem: 119772 schreef op 09 oktober 2004 @ 14:37:
[...]


...Maar, waarom heb je em gekocht dan ? Is ie zoveel goedkoper dan de goedkoopste ECHTE GT !? En ik zie op de Asus site dat de kaart 128mb aan
DDR1 geheugen heeft ipv 256mb aan DDR3 geheugen van GT reference specs
(Ik heb het vermoeden dat die DDR1 2.8ns geheugen is terwijl GT DDR3 geheugen 2.0ns behoort te zijn) ;

een verschil in performance zal er denk ik toch wel zijn. DDR3 schijnt daarnaast
ook nog ietsje koeler te blijven bij load.

Wat ik ook zo vaag vind is dat als je NU naar een van de internationale Asus sites gaat ; als je daar een van de NV40 gebaseerde kaarten aanklikt dan kun je om een of andere vage reden NIET in het SPECIFICATION menu komen : je komt dan gewoon uit op de pagina voor de gehele product lijn. Volgens mij willen ze voorkomen dat mensen de EXACTE specs van hun NV40 kaarten zien. Mainstream pc gebruikers zijn op deze manier heel gemakkelijk om de tuin te leiden met mooie PR praat op die 'overview' pagina. Imho is dit alles geen goeie zaak van Asus :r
Over asus dwaze bezigheid hebben we al zo vaak hier gehad.... ze zijn gewoon vaag bezig daar.

Acties:
  • 0 Henk 'm!

Anoniem: 119772

M55 schreef op 09 oktober 2004 @ 14:51:
idd 50 graden celsius no way.. hij is standaard al 53 graden :D

maar ehm, iemand antwoord op mijn oorspronkelijke vraag ? :+
Ik denk dat je dit misschien eens wil proberen ;

http://www.nvnews.net/vbulletin/showthread.php?t=38319

Gainward's Expertool 3.20 is nu te d'l en het schijnt ook voor kaarten van andere merken te werken. Met Expertool kun je idd fanspeeds manual aanpassen of dynamisch laten draaien. Btw. ik vind 53c idle best hot.... mijn GT idled meestal rond de 44.

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

Anoniem: 119772 schreef op 09 oktober 2004 @ 14:59:
[...]


Ik denk dat je dit misschien eens wil proberen ;

http://www.nvnews.net/vbulletin/showthread.php?t=38319

Gainward's Expertool 3.20 is nu te d'l en het schijnt ook voor kaarten van andere merken te werken. Met Expertool kun je idd fanspeeds manual aanpassen of dynamisch laten draaien. Btw. ik vind 53c idle best hot.... mijn GT idled meestal rond de 44.
cool dat werkt goed! kan je idd erg makkelijk fan speed veranderen :)
btw dit programma geeft maar +/- 39 graden aan.

Acties:
  • 0 Henk 'm!

Anoniem: 119772

hmmm.. die temp meting van 39c klinkt beetje verd8...komt misschien omdat je kaart natuurlijk geen Gainward is en dat er daardoor enigzins incomp. met temp meting optreed. Of je kaart loopt idd op 350/1000 en dan zullen temps idd wat lager zijn...

misschien ff via bios checken wat de gpu temp is of rivatuner..

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

rivatuner geeft zelfde als driver, dus +/- 55C
als ik 3dmark05 draai wordt hij wel 73C :(

[ Voor 34% gewijzigd door M55 op 09-10-2004 16:52 ]


Acties:
  • 0 Henk 'm!

Anoniem: 119772

Even controleren of je de fan op 'dynamic speeds' hebt staan of 'locked'. Als je voor zowel 2d als 3d mode, de fan op 100% locked zet, dan weet je zeker dat ie altijd op 100% snelheid draait. Voor 2d mode in windows lijkt me 60% absoluut genoeg.

Tis ook een Gainward kaart utility uiteraard. Mijn Gainward GT kaart idled dus 44c en komt nooit boven 48c uit, afhankelijk van kamer temp. Load blijft ie altijd onder de 59c. Mjah, hij heeft dus ook Gainward's dual fan met koperen heatsink...

[ Voor 4% gewijzigd door Anoniem: 119772 op 09-10-2004 17:11 ]


Acties:
  • 0 Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 16-05 23:37
Ik haal idle 50 en load +-75. Zijn geen temps waar je je zorgen om hoeft te maken. Zoon gpu is gebouwd om dat aan te kunnen ;)

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

Vaag ik haalde nooit 400/1100 in 3dmark05 want dat ging hij terug clocken, erg irritant.. nu heb ik de fan op ze traagst gezet.. (50%) en nu haal ik het wel 8)7

hij wordt dan 79 C
5083 3DMark05 punten, op stock (350/1000) haalde ik +/- 4500

[ Voor 23% gewijzigd door M55 op 09-10-2004 17:32 ]


Acties:
  • 0 Henk 'm!

  • Hidde
  • Registratie: November 2002
  • Laatst online: 10:13
Ik zou em niet constant zo hoog zetten, als je 79 graden hebt en hij wordt ernstig stressed kan ie kapot gaan.

Acties:
  • 0 Henk 'm!

Anoniem: 89518

Hoe is een normale load tempature voor een XFX 6800 GT?

67 graden ofzo?

Acties:
  • 0 Henk 'm!

  • estorino
  • Registratie: Maart 2000
  • Laatst online: 09:29
Misschien is het eerder voorbij gekomen, maar ik heb het niet kunnen vinden:

Ik klok over met coolbits, maar de RAM snelheid gaat regelmatig terug naar de default waarde van 700Mhz. (5900xt)

Dit heeft niks te maken met stabiliteitsproblemen of artifacts of wat dan ook, want ik werk al tijden probleemloos op 450core, 850ram.

Any thoughts?

https://www.strava.com/athletes/10490675


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Hidde schreef op 09 oktober 2004 @ 18:30:
Ik zou em niet constant zo hoog zetten, als je 79 graden hebt en hij wordt ernstig stressed kan ie kapot gaan.
Valt wel mee hoor, een gpu kan veel meer hebben dan een cpu bijvoorbeeld.

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

dat mag ik hopen :) op stock speed gaat hij al richting 73C dus..

Acties:
  • 0 Henk 'm!

Anoniem: 114616

Er staat niets voor niets 120 max in de driver instellingen.

En er was bij de 5800ultra een screensaver waar de drivers het niet herkende als 3d dus aardig hoge temps kwamen.

Acties:
  • 0 Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 16-05 23:37
Als je 90 graden krijgt zo ik serieus ff kijken of alle koeling goed werkt ed. Bij de 80/85 misschien ook al, maar alles daarbeneden is safe.

Acties:
  • 0 Henk 'm!

Anoniem: 89518

Hoe checken jullie je temp TIJDENS load?
Je kunt niet tijdens een spel ff naar nvidia driver settings gaan..

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

rivatuner laten draaien op de achtergrond :) die houdt een grafiekje bij

Acties:
  • 0 Henk 'm!

Anoniem: 79835

http://www.gamespot.com/news/2004/10/08/news_6110146.html
The Opteron 250 GeForce 6800 GT SLI system scored an impressive 8,081 points in the recently released 3DMark05 benchmark
Dus 2 GT's in SLI, niet overclocked, haalt meer dan 8k. Zegt genoeg.
ATi, u was een fijn kandidaat.

Acties:
  • 0 Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 16-05 23:37
Anoniem: 79835 schreef op 10 oktober 2004 @ 21:12:
http://www.gamespot.com/news/2004/10/08/news_6110146.html

[...]


Dus 2 GT's in SLI, niet overclocked, haalt meer dan 8k. Zegt genoeg.
ATi, u was een fijn kandidaat.
En dat is dan met een sli in kinderschoenen.

Maar dat Ati daartegen geen kans maakt hoeft denk ik niet bewezen te worden. Standaard zijn ati en nvidia heel erg aan elkaar gewaagd, dus als er van de een twee kaarten samen draaien is het natuurlijk een duidelijke ko.

Acties:
  • 0 Henk 'm!

Anoniem: 38733

ATi, u was een fijn kandidaat.
Volgens mij staat één enkele X800XT nog steeds op no1 met dik over de 8000 (8250?)
punten. 2 tegen één en nog steeds niet kunnen winnen, how pathetic is that. :)

SLI overklokken schijnt niet zo simpel te zijn (beide kaarten moeten o.a. exact dezelfde speeds hebben), anders was Nv hier al lang mee op de proppen gekomen, de blamage die ze nu lijden moet niet al te lang duren natuurlijk. :+

[ Voor 24% gewijzigd door Anoniem: 38733 op 10-10-2004 21:35 ]


Acties:
  • 0 Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 16-05 23:37
Anoniem: 38733 schreef op 10 oktober 2004 @ 21:30:
[...]


Volgens mij staat één enkele X800XT nog steeds op no1 met dik over de 8000 (8250?)
punten. 2 tegen één en nog steeds niet kunnen winnen, how pathetic is that. :)

SLI overklokken schijnt niet zo simpel te zijn (beide kaarten moeten o.a. exact dezelfde speeds hebben), anders was Nv hier al lang mee op de proppen gekomen, de blamage die ze nu lijden moet niet al te lang duren natuurlijk. :+
Die x800xt was ook totaal niet oc :Z

Als je een 6800ultra gaat extreem gaat oc kom je met een enkele kaart al iig in de buurt ;)

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 08:02
Schumi4ever schreef op 10 oktober 2004 @ 22:22:
[...]


Die x800xt was ook totaal niet oc :Z

Als je een 6800ultra gaat extreem gaat oc kom je met een enkele kaart al iig in de buurt ;)
Ach laat apple lekker in z'n waan. Hij leeft nou eenmaal voor Ati B)
Wat maakt het nou uit welke de hoogste 3dmark heeft de scores zijn al hoog zat en als je ingame maar vlot kunt spelen is alles toch prima in orde.

[ Voor 23% gewijzigd door sjekneck op 10-10-2004 22:57 ]


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-06 00:59

SG

SG surft naar info hardewaren

Schumi4ever schreef op 10 oktober 2004 @ 22:22:
[...]


Die x800xt was ook totaal niet oc :Z

Als je een 6800ultra gaat extreem gaat oc kom je met een enkele kaart al iig in de buurt ;)
Juist ja en je bent wel ene 6800GT/U goedkoper uit.
KO in de beurs.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 08:02
SuperG schreef op 10 oktober 2004 @ 22:59:
[...]

Juist ja en je bent wel ene 6800GT/U goedkoper uit.
KO in de beurs.
En een vloeibare stikstof koeling is gratis zeker :z En dan heb ik het nog niet eens over het korte leven dat je hardware heeft als je daar continu mee draait. Jah single draaien dan overklokken das goed voor je beurs hoor O-)

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 30-05 15:27

epo

SuperG schreef op 10 oktober 2004 @ 22:59:
[...]

Juist ja en je bent wel ene 6800GT/U goedkoper uit.
KO in de beurs.
Voor die extra koeling kan je wel 4 extra GT's kopen :)

Acties:
  • 0 Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 16-05 23:37
epo schreef op 10 oktober 2004 @ 23:34:
[...]


Voor die extra koeling kan je wel 4 extra GT's kopen :)
En dat in SLI :9

Acties:
  • 0 Henk 'm!

  • davey s.
  • Registratie: Januari 2004
  • Laatst online: 05-05 00:16
http://www.nvnews.net/previews/geforce_6200/index.shtml

Leuk kaartje denk ik voor de budget, komt ie ook in agp versie uit?
Want dan is het een leuk kaartje voor me broertje als die te overclocken valt

Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 10:00
Ook op Guru3d, http://www.nvidia.com en google: De GeForce 6200 Launch :)

Kort gezegd: waarschijnlijk de helft van de performance van een 6600GT, dus zeg een 9600, Ti4200 en dergelijke videokaarten, maar dan met Shader Model 3, volledige DirectX 9c ondersteuning, Doom3 en HalfLife 2 speelbaar... allemaal voor ongeveer 100 euri. Leuk budgetkaartje dus!

Zal vanavond maar weer eens aan het schrijven gaan...

Acties:
  • 0 Henk 'm!

Anoniem: 79835

Toch weer goed resultaat in de Counter Strike: Source test van X-bits Labs


http://www.xbitlabs.com/a...eo/display/cs-source.html

Conclusie van X-Bit:
At this time we cannot find any clear leader among the high-end graphics cards. ATI’s RADEON X800 XT-series delivers extreme performance in cases where rapid pixel shaders are required. Though, NVIDIA’s GeForce 6800 Ultra and GT parts leave ATI’s RADEON X800-series behind once there is a higher load on texturing. Additionally, NVIDIA’s ForceWare drivers at this point seem to be better polished for the Counter Strike: Source, as systems based on NVIDIA’s GeForce 6 GPUs deliver a bit higher results in cases when performance depends on drivers and/or central processing unit’s speed.
Over de beeldkwaliteit:
3. Ok, looked at the first picture for refrence, as the others had some link problems...anywho, here's what I saw. First off, the NV had a bit clearer graphcis on the texturing, notable on the cracks along the wall above the window, they were fuzzy on the ATI. Second, the water ripples, the ATI did a generall fuzzy for the ripples while the NV had straiations. Lastly, the transparent graphics (the HUD) are clearer on the NV then on the ATI.

I do realize that most of this is on a finite level, but there are notable differences between the ATI and NV, though minute they may be.
Afbeeldingslocatie: http://www.xbitlabs.com/images/video/cssource/overall_hiend_1280_candy.gif
je ziet duidelijk dat de ultra de snelste is, zelfs de GT verslaat de PE meer dan hem lief is. De pro loopt er maar wat bij.

Afbeeldingslocatie: http://www.xbitlabs.com/images/video/cssource/overall_hiend_1600_candy.gif
Hier wint de XT PE, maar de ultra blijft de non PE voor. De GT is wederom sneller dan de pro.

Wie dacht dat HL2 een ATi game zou worden, think again :Y)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Anoniem: 79835 schreef op 11 oktober 2004 @ 19:45:
Wie dacht dat HL2 een ATi game zou worden, think again :Y)
Jij vergelijkt HL2 met CS:S?? Muhahaha. Laat me niet lachen man... CS:S gebruikt waarschijnlijk nog niet eens de helft van alle shaders die HL2 heeft...

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 10:00
Nou CJ, dat komt dan mooi uit, wordt de 6800 nóg veel sneller :P

Maar zonder gekheid, het valt wel op dat de 6800's verrekte snel zijn. Niet dat de X800 slecht is :) Het is dus nog steeds een nek-aan-de-nek-race.

Iedereen mag trouwens ff :bye naar de 6200 in de startpost :)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
IceEyz schreef op 11 oktober 2004 @ 20:06:
Nou CJ, dat komt dan mooi uit, wordt de 6800 nóg veel sneller :P

Maar zonder gekheid, het valt wel op dat de 6800's verrekte snel zijn. Niet dat de X800 slecht is :) Het is dus nog steeds een nek-aan-de-nek-race.

Iedereen mag trouwens ff :bye naar de 6200 in de startpost :)
CS:S speelt inderdaad gewoon goed op beide kaarten en het zal dan vooral een kwestie zijn van persoonlijke smaak. Alleen wanneer het op HL2 aan komt ben ik benieuwd hoe dat gaat lopen. Ik ben er niet zeker van dat de 6800 dan nog sneller zal zijn, aangezien (quote uit het X-Bit Labs artikel):
ATI’s RADEON X800 XT-series delivers extreme performance in cases where rapid pixel shaders are required.
De X800 serie van ATi is tot nu toe gewoon zeer sterk gebleken in shader intensieve games.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 94113

CJ schreef op 11 oktober 2004 @ 19:59:
[...]


Jij vergelijkt HL2 met CS:S?? Muhahaha. Laat me niet lachen man... CS:S gebruikt waarschijnlijk nog niet eens de helft van alle shaders die HL2 heeft...
nee maar het is wel vebazend dat een geforce sneller loopt op een half life 2 engen dan een ati.

En dan word half life 2 meschien zwaarder maat het blijft de zelfe enige dus word nek aan

Acties:
  • 0 Henk 'm!

Anoniem: 119772

IceEyz schreef op 11 oktober 2004 @ 20:06:
Nou CJ, dat komt dan mooi uit, wordt de 6800 nóg veel sneller :P
Huh, hoe kom jij tot die conclusie dan ?

Iig, de discussie kabbelt voort en ik denk dat uiteindelijk de X800XT PE met de eer gaat strijken wat betreft 16 x 12 @ AA + AF, in HL2.

Worden Nvidia kaart gebruikers dus pwned met dat gegeven ? Dat ligt er denk ik aan hoe je het bekijkt. Is HL2 DE enige game voor jou, dan ben je idd beter af met die XT PE. Voor mezelf ben ik al tevree met 1280 x 1024 plus 4AA en 4AF @ smooth fps. Aan de andere is het wel weer zo dat de GT als high end kaart beschouwd mag worden, zeker gezien de prijsklasse ; dan is 16 x 12 plus eye candy modes @ smooth fps een redelijke eis. Als HL2 eindelijk gespeeld kan worden zal het net wel overstromen met reviews en benchmarks. Nvidia zal het dan niet tof vinden als deze zelfde reviews "Ati pwns Nvidia again !" schreeuwen. Volgens mij is Nvidia druk in de weer met nieuwe whql Forceware die performance in D3D beter moet gaan maken....

Ach ja, Splintercell 3 is voor mij DE #1 verw8te game en die is, lekker puh, geoptimaliseerd voor NV40 kaarten en sm3.0 :+

Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 10:00
Euh Knot3D, lees de drie woordjes na die zin nog eens :)

@CJ: de shaderkracht van de X800 is inderdaad groot, erg groot, maar dat is vooral bij "rapid" shaders, ofwel simpele shaders die waarschijnlijk veel gebruikt worden. De 6800 (met z'n lagere kloksnelheid) doet die inderdaad minder snel, maar kán sneller zijn bij ingewikkelde shaders d.m.v. SM3.0 (hoewel dat met sm20b weer deels opgeheven wordt, als dat gebruikt gaat worden)

Uiteindelijk staan er bovenaan de performancelijst weer wat leuke kaartjes die niet echt onderdoen voor elkaar. (vind ik :P)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Anoniem: 94113 schreef op 11 oktober 2004 @ 20:17:
[...]


nee maar het is wel vebazend dat een geforce sneller loopt op een half life 2 engen dan een ati.

En dan word half life 2 meschien zwaarder maat het blijft de zelfe enige dus word nek aan
Nee, dit zegt dus helemaal niets. CS:S maakt dan wel gebruik van de Source Engine, maar er wordt waarschijnlijk maar 30 a 40% van de totale mogelijkheden gebruikt. HL2 is een stuk shader intensiever dan CS:S, dus dat kan (met nadruk op 'kan', dus het hoeft niet) anders uit pakken. Kijk bijvoorbeeld naar de Valve Stress Test... die maakt meer gebruik van shaders.

Overigens over de topicstart en GF6200... De GF6200 is gebaseerd op de NV43 en niet op de NV41. Waarschijnlijk heeft de GF6200 gewoon 1 van de 2 quads disabled waardoor er een 4x1 overblijft. Als die extra quad geactiveerd kan worden, dan is dit wel een heel erg interessant kaartje...

De NV41 moet nog uit komen en is de native 12 pipeline kaart die de GF6800 gaat vervangen. En daarmee de tegenhanger is van de R430.

In de drivers staat ook:

NVIDIA_NV43.DEV_014F.1 = "NVIDIA GeForce 6200"

Wat ik overigens vreemd vind is de prijsklasse van de 256MB GF6200. Dit is $149,- en staat daarmee gelijk aan een standaard GF6600 en X700. De tests laten overduidelijk zien dat de 6200 niet mee kan met deze twee... maar er zullen natuurlijk altijd mensen zijn die denken dat 256MB geheugen 'beter en sneller' is dan de kaarten met maar 128MB.

Reviews:
http://www.anandtech.com/video/showdoc.aspx?i=2238
http://www.firingsquad.com/hardware/nvidia_geforce_6200/
http://www.hardocp.com/article.html?art=Njc0
http://www.hexus.net/cont...p?dXJsX3Jldmlld19JRD04ODI
http://www.neoseeker.com/...reviews/nv6200/index.html
http://techreport.com/onearticle.x/7447

[ Voor 10% gewijzigd door CJ op 11-10-2004 20:47 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 10:00
Je hebt helemaal gelijk :)

Reviews... ja, ik heb er al heel wat gezien, maar om het nou reviews te noemen. TechReport heeft een paar cijfertjes en de rest had zo'n beetje alleen maar gepraat over de kaart, zonder cijfertjes. Dit allemaal met een engineering sample waarvan één kaart zelfs tot bijna 600Mhz op de core kwam. Ik wacht wel eventjes met die toevoegen aan de firstyposty.

"een aantal mensen" -> "bijna iedereen" helaas...
Vandaag kreeg een kerel nog een 9550 met 256MB ipv een bestelde 9800pro 128mb... Ja, nee... 256MB !! Stukken beter joh! ... ... ... :/

Acties:
  • 0 Henk 'm!

Anoniem: 94113

CJ schreef op 11 oktober 2004 @ 20:40:
[...]


Nee, dit zegt dus helemaal niets. CS:S maakt dan wel gebruik van de Source Engine, maar er wordt waarschijnlijk maar 30 a 40% van de totale mogelijkheden gebruikt. HL2 is een stuk shader intensiever dan CS:S, dus dat kan (met nadruk op 'kan', dus het hoeft niet) anders uit pakken. Kijk bijvoorbeeld naar de Valve Stress Test... die maakt meer gebruik van shaders.

Overigens over de topicstart en GF6200... De GF6200 is gebaseerd op de NV43 en niet op de NV41. Waarschijnlijk heeft de GF6200 gewoon 1 van de 2 quads disabled waardoor er een 4x1 overblijft. Als die extra quad geactiveerd kan worden, dan is dit wel een heel erg interessant kaartje...

De NV41 moet nog uit komen en is de native 12 pipeline kaart die de GF6800 gaat vervangen. En daarmee de tegenhanger is van de R430.

In de drivers staat ook:

NVIDIA_NV43.DEV_014F.1 = "NVIDIA GeForce 6200"

Wat ik overigens vreemd vind is de prijsklasse van de 256MB GF6200. Dit is $149,- en staat daarmee gelijk aan een standaard GF6600 en X700. De tests laten overduidelijk zien dat de 6200 niet mee kan met deze twee... maar er zullen natuurlijk altijd mensen zijn die denken dat 256MB geheugen 'beter en sneller' is dan de kaarten met maar 128MB.

Reviews:
http://www.anandtech.com/video/showdoc.aspx?i=2238
http://www.firingsquad.com/hardware/nvidia_geforce_6200/
http://www.hardocp.com/article.html?art=Njc0
http://www.hexus.net/cont...p?dXJsX3Jldmlld19JRD04ODI
http://www.neoseeker.com/...reviews/nv6200/index.html
http://techreport.com/onearticle.x/7447
toon volledige bericht
]

ja maar het programeer werk blijft het zelfde alleen half life 2 gebruikt meer mogelijk hedden van de engine wat er toe lied dat hij meer vraag van de vga kaarten en niet zorg dat de dat x800 serie opeens een stuk sneller loopt op de engine, maar door de kracht van de kaart zelf.

En het verschil tussen de geforce 6800 ul en de ati x800 xt is bijna niks dus het zal zeker niet super veel zijn

[ Voor 9% gewijzigd door Anoniem: 94113 op 11-10-2004 21:04 ]


Acties:
  • 0 Henk 'm!

Anoniem: 119772

Ik las ff dat Xbitlabs artikel nog es ;

http://www.xbitlabs.com/a.../display/cs-source_9.html
http://www.xbitlabs.com/a...display/cs-source_10.html

best interessant : " This particular demo is pretty interesting because it puts load on CPU, as we explode the hostages, then it puts pressure on pixel shaders when we activate night vision, then it requires the VPU to rapidly and efficiently remove hidden surfaces, as the streets of the village locate loads of small houses that cause massive overdraw effect."

" Due to efficient architecture and hidden surface removal (HSR) engine, NVIDIA’s GeForce 6800-series outperforms ATI’s RADEON X800-family by a substantial margin here, on the “Italy” level. "

Ik neem aan dat erg nog meer hidden surfaces in HL2 zitten, meer map complexiteit ? Dus niet alleen meer shader fx.

Trouwens, waarom vind iedereen dat AF zo belangrijk ? 16 x AF vind ik textures in de verte toch echt onnatuurlijk scherp. Niet eens mooi. Omdat het sowieso een performance vreter is draai ik liever 4 x AF.

Acties:
  • 0 Henk 'm!

Anoniem: 115092

Dat is een persoonlijke smaak. 16xaf in combinatie met 8xaa is echt wel mooi, maar helaas zoals je al aangeeft eigenlijk tegen een onacceptabele performance drop. Ikzelf gebruik daarom ook liever 2xaa / 4xaf mode (op een 6800 LE @ 6800 NU).

Acties:
  • 0 Henk 'm!

Anoniem: 114616

Met welke kaart van ati of nvidia kan je de 6200 vergelijken?

Dus met de FX5600? of hoger......

Ati 9700?

Acties:
  • 0 Henk 'm!

Anoniem: 79835

CJ schreef op 11 oktober 2004 @ 19:59:
[...]


Jij vergelijkt HL2 met CS:S?? Muhahaha. Laat me niet lachen man... CS:S gebruikt waarschijnlijk nog niet eens de helft van alle shaders die HL2 heeft...
Nee, x-bit vergelijkt HL2 met CS:S. Ik denk dat ik toch maar x-bit zal geloven; die hebben tenminste kennis van zaken.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Anoniem: 79835 schreef op 11 oktober 2004 @ 22:05:
[...]


Nee, x-bit vergelijkt HL2 met CS:S. Ik denk dat ik toch maar x-bit zal geloven; die hebben tenminste kennis van zaken. laten zien wat ik graag wil zien.
Dan heb ik denk ik toch iets over het hoofd gezien. Ik zal het nog eens lezen en zien of ze inderdaad Half Life 2 met CS:S vergelijken en tot de conclusie komen dat HL2 eigenlijk helemaal geen ATi game is.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 115092

Met welke kaart van ati of nvidia kan je de 6200 vergelijken?

Dus met de FX5600? of hoger......

Ati 9700?
Neej, niet met een 9700 (pro) denk ik.... meer richting fx5600 en ti 4200 kaarten. maar dan wel met volledige dx9 ondersteuning + sm 3.0....

[ Voor 34% gewijzigd door Anoniem: 115092 op 11-10-2004 22:44 ]


Acties:
  • 0 Henk 'm!

Anoniem: 81527

Quote''kun je inderdaad een 6800 (LE) omtoveren tot een Ultra. Hoe dit in zijn werk gaat kun je bijvoorbeeld hier lezen''

Ik heb het gelezen.
Ik zal het maar toegeven ik ben geen rocketscientist, wat je volgens de auteur dus ook niet hoeft te zijn maar...........
Dat hele
a= dit
B=zus
C=zo, verhaaltje ontgaat mij totaal ik zie binnen de door hem aangegeven rode vierkantjes niets dan de hele tijd dezelfde 6 blokjes met dezelfde printbaantjes.
Waar heeft ie het in godesnaam over?
Dat er iets doorgesoldeerd dient te worden snap ik dus wel.
Maar wat??????????? 8)7
Hij geeft helemaal niets aan op die fotootjes.
Desondanks schijnt iedereen het in de reply's te begrijpen.
Is die site www.pluto.kosmos of zo?
Ik zou het best wel willen begrijpen dus als iemand mij het verlossende uitlegje zou kunnen geven.
Een ding kan ik wel en dat is solderen en ik ben ook wel bereid om dat op mijn le te doen, maar zoals eerder gezegd heb ik geen idee wat.
Thx

Acties:
  • 0 Henk 'm!

  • YoshiBignose
  • Registratie: April 2004
  • Laatst online: 02-06 17:07
jeej mijn club 3d geforce 5900 xt loopt nu op 489 - 801 :D

Facts don't care about your feelings


Acties:
  • 0 Henk 'm!

Anoniem: 119772

Dit gaat niet direct over de NV40 hardware, maar dit interview is wel een ruggesteuntje voor NV40 keuze en als je Splinter Cell fan bent :

Uit interview met Dany Lepage (Technical Director/Lead Programmer for Ubisoft Canada's Splinter Cell : Chaos Theory op www.beyond3d.com

" Q ; Are you setting a texture as a depth stencil surface (normally known as Depth Stencil Texture, or DST) and add in Percentage Closest Filtering (normally known as PCF)? AFAIK, with the currently available 3D video cards, DST+PCF can only be achieved on NVIDIA cards. How would ATI cards render shadows in SC-CT then?

A ; It actually depends on the hardware we are running on. We developed a shadow map algorithm that work well with SM 1.1 and deliver a quality just as good as the one we can achieve with DST+PCF and work on all hardware. The details of this algorithm are confidential. We also have a special path for Nvidia hardware that use DST+PCF for better performance (shader is shorter).

EDIT : Slight correction; We do use DST but we don't use PCF! We were using PCF before but it wasn't giving very good results and it's now using point sampling. For the high end version details, I'll get you to talk with the lead 3D Programmer of the project once we have details and screenshots. "

" Q ; Since the screenshot is taken using a SM1.1 renderer, can you tell me what improvements we'll see when using SM2.x and SM3.0 renderers instead of a SM1.1 renderer? Also, what difference will we see between SM2.x and SM3.0?

A ; The SM 2.0/3.0 version is in development at the moment but we aren't ready to talk about its advantages (beside removing gradients/banding) yet. As always, the improvement in quality we will get is dependent upon the amount of assets redesigned to take full advantage of SM 2.0/3.0 shaders. That said, some of the art in the game is going to look significantly better without having to restart from scratch. "

en

http://www.beyond3d.com/forum/viewtopic.php?t=9982

Daar doe je het uiteindelijk voor, het kopen van zo'n 6800GT kaart. Althans, ik wel.

Acties:
  • 0 Henk 'm!

  • fast-server
  • Registratie: April 2003
  • Laatst online: 05-05 20:52
Anoniem: 81527 schreef op 12 oktober 2004 @ 00:13:
Quote''kun je inderdaad een 6800 (LE) omtoveren tot een Ultra. Hoe dit in zijn werk gaat kun je bijvoorbeeld hier lezen''

Ik heb het gelezen.
Ik zal het maar toegeven ik ben geen rocketscientist, wat je volgens de auteur dus ook niet hoeft te zijn maar...........
Dat hele
a= dit
B=zus
C=zo, verhaaltje ontgaat mij totaal ik zie binnen de door hem aangegeven rode vierkantjes niets dan de hele tijd dezelfde 6 blokjes met dezelfde printbaantjes.
Waar heeft ie het in godesnaam over?
Dat er iets doorgesoldeerd dient te worden snap ik dus wel.
Maar wat??????????? 8)7
Hij geeft helemaal niets aan op die fotootjes.
Desondanks schijnt iedereen het in de reply's te begrijpen.
Is die site www.pluto.kosmos of zo?
Ik zou het best wel willen begrijpen dus als iemand mij het verlossende uitlegje zou kunnen geven.
Een ding kan ik wel en dat is solderen en ik ben ook wel bereid om dat op mijn le te doen, maar zoals eerder gezegd heb ik geen idee wat.
Thx
toon volledige bericht
Als je van links naar rechts teld en van boven naar beneden wordt het al snel duidelijk wat hij bedoelde.


6800LE

A = B C D links boven is connected, rechts boven niet connected
E = F G = H Midden weerstanden zijn beide connected
X = Y O P Links onder connected, rechts onder niet

6800NU

A B C = D Links boven niet connected, rechts boven wel
E F G = H Links midden niet connected, rechts midden wel
X = Y O P Links onder connected, rechts onder niet

edit: ff een plaatje er bij gemaakt

Afbeeldingslocatie: http://www.magic.tweakdsl.nl/mod.jpg


Als je deze mod van LE naar NU doet hou je dus één weerstand over.
LE naar ultra gaat dus niet lukken aangezien het pcb anders is.

Hopelijk is het nu duidelijk

[ Voor 13% gewijzigd door fast-server op 12-10-2004 14:03 ]

PV Output SolarEdge SE5000H, 12x Jinko JKM390N-6RL3 Tiger> 4,68 kWp, Helling 42°, Oriëntatie 196° (ZZW)


Acties:
  • 0 Henk 'm!

Anoniem: 81527

dank je wel

Acties:
  • 0 Henk 'm!

Anoniem: 79835

CJ schreef op 11 oktober 2004 @ 22:42:
[...]


Dan heb ik denk ik toch iets over het hoofd gezien. Ik zal het nog eens lezen en zien of ze inderdaad Half Life 2 met CS:S vergelijken en tot de conclusie komen dat HL2 eigenlijk helemaal geen ATi game is.
Ik heb niet gezegd dat X-bit dat beweert. Ik heb heb gezegd dat X-bit CS:S vergelijkt met HL2. Lezen gaat moeizaam door een rode bril lijkt me.

En "lezen wat ik graag wil lezen" is onzin, als een review site met een onbesproken reputatie zoals X-bit een tegenvallende review schrijft voor ATi dan is zijn ze natuurlijk niks waard voor de rode jongens. Deze review is gewoon goed gemaakt.

ALs ik wil "lezen wat ik graag wil lezen" lees ik wel nvnews of nfhq. Of jij driverheaven.

Ik ben er zeker van dat de 6800u het goed gaat doen in HL2, dit wijzen benchmarks van de beta en van de source engine uit. Nu kan je zeggen wat je wil over die shaders maar de beta had al die shaders ook en toch geven die benchmarks eenzelfde resultaat als in deze review.

Maar de tendens is al duidelijk: De X800XT overheerst in 16x12 met AA/AF maar in al de andere resoluties moet het de ultra laten voorgaan. Net zoals de GT altijd de X800pro zal voorblijven. Natuurlijk kan er nog wat aan de drivers getweaked worden maar een 2de 128MB bug gaan ze bij ATi niet vinden.

HL2 wordt in ieder geval geen afgang voor nv wat Doom3 wel voor ATi was.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 08:02
Anoniem: 79835 schreef op 12 oktober 2004 @ 14:41:
Maar de tendens is al duidelijk: De X800XT overheerst in 16x12 met AA/AF maar in al de andere resoluties moet het de ultra laten voorgaan. Net zoals de GT altijd de X800pro zal voorblijven. Natuurlijk kan er nog wat aan de drivers getweaked worden maar een 2de 128MB bug gaan ze bij ATi niet vinden.
Het is ook meer als logisch dat op 1600x1200 met AA en Af aan dat de radeon sneller is, ze hebben immers een hogere fillrate. Alleen is op 1600x1200 met Af is eigenlijk relevant AA heeft weinig nut meer aangezien alles al zo nauwkeurig is dat kartels er dan al eigenlijk niet meer zijn.
HL2 wordt in ieder geval geen afgang voor nv wat Doom3 wel voor ATi was.
Ik vind niet eens dat Ati een afgang heeft gemaakt met d3 het was toch prima te spelen op ati kaarten. Het was va te voren al bekend dat nvidia karten hier sterker waren.
Dat er vette problemen waren met spikkels komt door de befaamde brakke koeling op de 9800 pro kaarten die echt te klein is. Je hoort zoveel verhalen van mensen met die kaarten waarbij de temp bij gemiddeld gamen als rond de 75 graden kwam, doom3 is transistor effectief en maakt het nog wat warmer.
Ach en hl2 is op elke beetje moderne kaart prima te spelen dus daar zou ik ook niet speciaal een ati kaart voor halen.
In mijn ogen is er nu geen beter merk enkel betere prijzen en die liggen strak naast elkaar. Dus welke kleur vind je mooier? Rood of groen :+

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Anoniem: 79835 schreef op 12 oktober 2004 @ 14:41:
[...]


Ik heb niet gezegd dat X-bit dat beweert. Ik heb heb gezegd dat X-bit CS:S vergelijkt met HL2. Lezen gaat moeizaam door een rode bril lijkt me.
Blijkbaar wel... het enige wat ik heb kunnen vinden is een uitleg over de de verschillen tussen CS en CS:S. En vooral opmerkingen dat CS:S niets zegt over HL2 performance... Maar dat zal inderdaad wel door m'n rode bril komen -> B)
En "lezen wat ik graag wil lezen" is onzin, als een review site met een onbesproken reputatie zoals X-bit een tegenvallende review schrijft voor ATi dan is zijn ze natuurlijk niks waard voor de rode jongens. Deze review is gewoon goed gemaakt.

ALs ik wil "lezen wat ik graag wil lezen" lees ik wel nvnews of nfhq. Of jij driverheaven.
nVnews heeft overigens een leuke review van de X800XT PE geplaatst. Die komt daar best goed uit de bus. :7 Maar persoonlijk ga ik liever af op meerdere sites, dan 1 enkele site.
Ik ben er zeker van dat de 6800u het goed gaat doen in HL2, dit wijzen benchmarks van de beta en van de source engine uit. Nu kan je zeggen wat je wil over die shaders maar de beta had al die shaders ook en toch geven die benchmarks eenzelfde resultaat als in deze review.
X-Bit maakt ook zeer goed het volgende duidelijk:
It would not be absolutely correct to extrapolate the peculiarities of the Counter Strike: Source to the forthcoming Half-Life 2, as the first person shooter games typically have more eye candy compared to online titles.
Dus de performance in CS:S zegt niets over de performance in Half-Life 2. Ze sluiten zelfs af met een stuk over 'beta' drivers:
Unfortunately, current drivers from ATI and NVIDIA are beta, which is why the final words on the performance of modern graphics boards in Counter Strike: Source are to be said in future.
Dus het is nog te voorbarig om conclusies te trekken... En de laatste regel heb je ook even over het hoofd gezien:
Please keep in mind that Half-Life 2 performance may differ from what we see with the Counter Strike: Source
Dit is dus precies wat ik al zei... CS:S performance zegt niet zo heel erg veel over HL2 performance.
Maar de tendens is al duidelijk: De X800XT overheerst in 16x12 met AA/AF maar in al de andere resoluties moet het de ultra laten voorgaan. Net zoals de GT altijd de X800pro zal voorblijven. Natuurlijk kan er nog wat aan de drivers getweaked worden maar een 2de 128MB bug gaan ze bij ATi niet vinden.

HL2 wordt in ieder geval geen afgang voor nv wat Doom3 wel voor ATi was.
FYI. De X800XT PE is sinds de release van de laatste hotfixdrivers sneller dan een GF6800U in Doom3... en dit is ook bevestigd door sommige mensen hier op het forum zoals Edward2.
edward2 schreef op 30 september 2004 @ 12:17:
[...]


UT2004 (20-20% sneller) Doom3 weer een paar fps sneller tov de Humus fix :)
Doom3 speelt nu sneller op m'n XT :D
Dus zo'n 'afgang' is Doom3 niet hoor.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • fast-server
  • Registratie: April 2003
  • Laatst online: 05-05 20:52
Ik denk niet dat Ati of Nvida een afgang heeft gemaakt met hun nieuwe generatie kaarten.

In Sommige games is ati sneller en in andere Nvidia.

Mijn keuze is op de Nvidia 6800 gevallen om de volgende reden:

Ik wil mijn spellen op 1280x1024 op de maximale kwaliteit kunnen spelen en aangezien ik ook veel aan mpeg2 en mpeg4 encoding doe helpt de 6800 GPU ook nog eens de processor een aardig handje mee.
De Ati kaarten kunnen/ondersteunen dit niet.

Dus als je veel met video encoding werkt kun je dus beter voor een 6800LE/NU/GT/Ultra kaart kiezen.

scheelt de usenet gebruiker toch al 2uurtjes met cce 9passes :)

[ Voor 7% gewijzigd door fast-server op 12-10-2004 16:04 ]

PV Output SolarEdge SE5000H, 12x Jinko JKM390N-6RL3 Tiger> 4,68 kWp, Helling 42°, Oriëntatie 196° (ZZW)


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 08:02
CJ schreef op 12 oktober 2004 @ 15:30:
Dus zo'n 'afgang' is Doom3 niet hoor.
Geen afgang maar ze presteren wel minder als de nvidia concurent, zelfs de x800xt heeft een taaie aan de 6800gt daar. ik verwacht een vergelijkbaar beeld bij hl2 maar dan in het voordeel voor ati.
Het is gewoon een feit dat nv sneller is in d3 net als dat het een feit is dat ati beter scoort met aa en af aan.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
fast-server schreef op 12 oktober 2004 @ 15:38:
Ik wil mijn spellen op 1280x1024 op de maximale kwaliteit kunnen spelen en aangezien ik ook veel aan mpeg2 en mpeg4 encoding doe helpt de 6800 GPU ook nog eens de processor een aardig handje mee.
De Ati kaarten kunnen/ondersteunen dit niet

Dus als je veel met video encoding werkt kun je dus beter voor een 6800LE/NU/GT/Ultra kaart kiezen.
Maar uhm... de Video processor op de 6800-serie was een klein beetje kaduuk... alleen MPEG2 decoding deed het een beetje en ook WMV9 werd gedeeltelijk geaccelereerd.

Anandtech heeft er toevallig gisteren nog een stuk aan gewijd in de GF6200 review. nVidia heeft namelijk stilletjes de Video Processor gefixed in de 6600 en 6200 serie... Maar omdat het te veel vragen zou oproepen, hebben ze het gedeelte over de Video Processor maar uit de launch van de GF6200 geschrapt.
The Video Processor (soon to receive a true marketing name) on the NV40 was somewhat broken, although it featured MPEG 2 decode acceleration. Apparently, support for WMV9 decode acceleration was not up to par with what NVIDIA had hoped for. As of the publication of this article, NVIDIA still has not answered our questions of whether or not there is any hardware encoding acceleration as was originally promised with NV40. So, the feature set of the Video Processor on NV40 (the GeForce 6800) was incomplete, only in its support for WMV9 acceleration (arguably the most important feature of it).

NVIDIA quietly fixed the problem in the 6600GT and since the 6200 is based on the 6600, the 6200 also features the "fixed" Video Processor with WMV9 decode acceleration support. After much explaining to NVIDIA that their credibility when it comes to the Video Processor is pretty much shot, they decided to pull the talk about the Video Processor from their launch of the 6200. As a result, you won't see any benchmarks of it here. NVIDIA is currently aiming to have us a functional driver and codec that will enable the Video Processor and take advantage of its capabilities in the next month or so.
http://www.anandtech.com/video/showdoc.aspx?i=2238&p=2

Nu maar hopen dat ze het dus kunnen fixen in drivers, alhoewel dat moeilijk gaat worden als het een hardwarematige fout is (wat ik zelf vermoed, gezien het feit dat het in de NV43 core gefixed is).

offtopic:
ATi kaarten ondersteunen overigens zowel hardwarematige decoding als encoding van MPEG1/2/4, Real Media, DivX and Microsoft Windows Media Video 9 dankzij de Cobra Engine (zit standaard in de cores) die gebruik maakt van de pixelshaders om de boel te versnellen. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Hidde
  • Registratie: November 2002
  • Laatst online: 10:13
Ik heb net mn Asus V9999 GT binnen :D

Prachtig ding, grote cooler, heel erg netjes gedaan.
Staat nu op 350/700, en ik ga nu ff benchen en andere dingen :)

Ben er erg tevreden over !

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

Je weet dat het geen echte GT is ?

Acties:
  • 0 Henk 'm!

  • Hidde
  • Registratie: November 2002
  • Laatst online: 10:13
Chipset GT, 700 mhz ipv 1000 en de helft van de echte gt :)

Maar hij draait goed, zal goed draaien bij games.
Aleen moet ik nvidia drivers installen of Asus?

Acties:
  • 0 Henk 'm!

  • M55
  • Registratie: September 2003
  • Niet online

M55

en DDR1 ipv DDR3 lijkt me geen kleinigheid :)

Gewoon nvidia drivers lijkt me

Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 10:00
Tja... die videoprocessor... ik mag toch echt wel eisen dat mijn 6800 al die acceleratie ondersteunt en met duidelijke prestatie-winsten. Merk er echter nog niksienada van, helaas.

Als er een hardware-foutje is en ze weten waar/wat het is, dan moet er toch een manier zijn om dit te verhelpen? Iets meer driverlevel-werk en toch de GPU aan het werk zetten, dat wil ik zien...

Op nV.com staat het hele verhaal nog steeds. Hardwarematig de- en encoden, motion estimation engine, fully programmable... Nog niets geschrapt...

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
IceEyz schreef op 12 oktober 2004 @ 20:55:
Als er een hardware-foutje is en ze weten waar/wat het is, dan moet er toch een manier zijn om dit te verhelpen? Iets meer driverlevel-werk en toch de GPU aan het werk zetten, dat wil ik zien...
Hardware-foutjes zijn helaas niet te herstellen, behalve dan via een nieuwe revisie van de NV40 chip.

Herinner je je nog de Savage2000? Die had ook een TnL engine, maar die was stuk. S3 beloofd constant dat dit gefixed zou worden in de drivers. Pas later werd echt bekend gemaakt dat die engine gewoon helemaal FUBAR was op hardware-niveau.

Het zou misschien wel een goed idee zijn als nVidia de GPU aan het werk zouden zetten, net zoals ATi hun VPU's ook gebruikt om de CPU te ontlasten bij bv het encoden/decoden. Als je bijvoorbeeld een DivX bekijkt met DivX Player op een Radeon en je hebt "accelerated post-processing for supported ATi Radeon hardware" aan staan dan zie je dat de CPU usage van zo'n 30% naar 10% terug springt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 30-05 15:27

epo

Hidde schreef op 12 oktober 2004 @ 17:56:
Chipset GT, 700 mhz ipv 1000 en de helft van de echte gt :)

Maar hij draait goed, zal goed draaien bij games.
Aleen moet ik nvidia drivers installen of Asus?
en ff rivatuner instellen, misschien kan je wel alle pipelines en vertex shaders aanzetten :) zie het 6800LE topic.

Acties:
  • 0 Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 16-05 23:37
CJ schreef op 12 oktober 2004 @ 21:07:
[...]

Als je bijvoorbeeld een DivX bekijkt met DivX Player op een Radeon en je hebt "accelerated post-processing for supported ATi Radeon hardware" aan staan dan zie je dat de CPU usage van zo'n 30% naar 10% terug springt.
Waarom maakt het eigenlijk zoveel uit dat de cpu 10% of 30% wordt belast bij het kijken van een dvix? (ik kijk nooit divx, nog ben ik aan het encode/decoden, dus op dit moment zie ik niet het doel van deze feature, waarvan ik niet weet of die het doet op mijn gt :P)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Schumi4ever schreef op 12 oktober 2004 @ 21:59:
[...]


Waarom maakt het eigenlijk zoveel uit dat de cpu 10% of 30% wordt belast bij het kijken van een dvix? (ik kijk nooit divx, nog ben ik aan het encode/decoden, dus op dit moment zie ik niet het doel van deze feature, waarvan ik niet weet of die het doet op mijn gt :P)
Je kijkt nooit DivX? Hmm... dat kan. De meeste films/series die ik download zijn vaak gecodeerd met het DivX codec. Dus ik gebruik het vrij vaak en met mij meer dan 75 miljoen mensen (DivX wordt zo'n 3 miljoen keer per maand gedownload).

Maar het gaat niet alleen om de mindere belasting van de PC, ook worden de pixelshaders gebruikt om het beeld op te schonen (bv. minder ruis) en de boel strakker op je beeld te toveren (bv minder blokkerig), maar ook vloeiender. Normaal gesproken doet de CPU dit softwarematig (wat vooral op tragere pc's) voor schokken kan zorgen. Als de GPU dit hardwarematig doet, dan gaat het allemaal veel soepeler en kan de CPU zich op andere dingen concentreren zoals bv het geluid.

Maar goed, als je het toch niet gebruikt dan is het inderdaad een loze feature. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 30-05 15:27

epo

CJ schreef op 12 oktober 2004 @ 22:38:
[...]


Je kijkt nooit DivX? Hmm... dat kan. De meeste films/series die ik download zijn vaak gecodeerd met het DivX codec. Dus ik gebruik het vrij vaak en met mij meer dan 75 miljoen mensen (DivX wordt zo'n 3 miljoen keer per maand gedownload).

Maar het gaat niet alleen om de mindere belasting van de PC, ook worden de pixelshaders gebruikt om het beeld op te schonen (bv. minder ruis) en de boel strakker op je beeld te toveren (bv minder blokkerig), maar ook vloeiender. Normaal gesproken doet de CPU dit softwarematig (wat vooral op tragere pc's) voor schokken kan zorgen. Als de GPU dit hardwarematig doet, dan gaat het allemaal veel soepeler en kan de CPU zich op andere dingen concentreren zoals bv het geluid.

Maar goed, als je het toch niet gebruikt dan is het inderdaad een loze feature. :)
Het DivX tijdperk is voor mij ook al 2 jaar gesloten, denk eigenlijk voor de meeste mensen die 400 euro + besteden aan een videokaart :)

Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 10:00
Nou, de Savage2000 is misschien nog net niet van vóór mijn tijd, maar ik was nog niet echt een n3rD die zich met dat soort dingen bezig hield. (Ik weet 't wel van lezenzeggen hoor :P )

Die 20% CPU-verschil kan natuurlijk ook nuttig worden ingezet door middel van koeitjes :)
Maar waar het mij vooral om gaat, is het versnellen van COderen. Een DV-filmpje omzetten naar MPEG2-DVD kan láng duren, net als het shrinken van dvd'tjes.
Als het 222-miljoen-transistors-tellende-chippe een speciaal pad hiervoor heeft, zou de benodigde tijd _behoorlijk_ kunnen dalen.

Verder hoor ik mijn vader altijd zeggen dat op de computer films er altijd zo bloederig mooi uitzien: scherp, helder, mooie kleuren... Ik ben er aan gewend, maar blijkbaar vind hij het nogal een verschil met z'n simpele tv'tje. Er wordt dus toch wel íets gedaan..?

offtopic:
Verder hebben mensen met zo'n dure videokaart vast wel een goeie geluidskaart die het werk van de CPU overneemt... Mag ik toch hopen?!
Pagina: 1 2 3 4 5 Laatste

Dit topic is gesloten.