[Algemeen] nVidia GeForce Topic! Deel 13 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 4 5 Laatste
Acties:
  • 5.004 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • Boushh
  • Registratie: Januari 2003
  • Laatst online: 28-12-2024

Boushh

of TFA

- 550W Gold Dual Fan PIV ATX 39,00
- Asus P5AD2 Deluxe/925X DDR2 209,00
- 2x DIMM 512MB PC-533 DDR-2 248,00
- P4 550 3.4GHZ 1mb/800 S775 BOX 289,00

Heb nu een Asus TI4600, dus dat zal dan wel even de bottleneck worden :)
Je Ti4600 gaat zeker de bottleneck vormen, dat is een AGP kaart namelijk, en die past niet is dat Asus moederbord. Verder ben ik het volledig met Tyranium eens: Koop ook een fatsoenlijke voeding !!! Als ik mij niet vergis heeft zo'n socket 775 plankje ook nog een andere voedings aansluiting (24 polig ipv 20, of net andersom). Nu zal er waarschijnlijk wel een verloop stekker bij zitten, maar het is natuurlijk handiger als je meteen een voeding hebt met de juiste aansluiting. Ik zou dat ook even nakijken voor de video kaart. Volgens mij zit er op PCIe kaarten namelijk ook een andere stekker (6 polig ipv 4), zover er al een stekker opzit natuurlijk :)

Hoe dan ook, download even de manuals voor je verder gaat. En let bij de voeding op het aantal ampere per rail dat er op zit: hoger is beter. Je +12 volt lijn is het belangrijkste...

Acties:
  • 0 Henk 'm!

  • Boushh
  • Registratie: Januari 2003
  • Laatst online: 28-12-2024

Boushh

of TFA

Deze kwam ik net tegen, en wilde ik jullie niet onthouden: 12k4 3DMark 05, en 28k8 3DMark03 _/-\o_

Niet echt een setup die je in je kamer wilt hebben volgens mij (om nog maar niet te spreken over de enrgie rekening), maar wat een score zeg :P

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

omg die scores, 28k in 3dmark03 :9~ :9~

Wel jammer dat je die performance niet kan gebruiken voor games, want het zal vast wel een instabiele setup zijn :P

[ Voor 60% gewijzigd door Tyranium op 19-12-2004 08:51 ]


Acties:
  • 0 Henk 'm!

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

Pricewatch mag ook wel eens geupdate worden met 6800PCIe kaarten. Waar zit atm de goedkoopste 6800NU? Of zijn deze tegenwoordig al zo goed gelockt dat ik een GT moet nemen om snelheden > ultra te halen??

[ Voor 34% gewijzigd door lvh op 19-12-2004 14:44 ]


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 17:01

epo

2x 6600Gt in SLI en je krijgt dit :)

Afbeeldingslocatie: http://www.amdzone.com/pics/videocards/asus/6600gt/vvst.jpg

Afbeeldingslocatie: http://www.amdzone.com/pics/videocards/asus/6600gt/halo.jpg

:9~ :9~ :9~ :9~

Klik voor het hele artikel hier http://www.amdzone.com/mo...ewarticle&artid=95&page=1

Als je dan eens deze kaart in SLI zou zetten, wat dan :o
Gigabyte technology innovates the world NO.1 3DMark 2003 performance graphics card of the world which uses 2 pcs Nvidia 6600GT GPU in one card and named “3D1”. It is the only one 6600GT card built with 256MB DDR III memory and supported 256bit memory bandwidth as well. “3D1” is the performance champion in visual gaming world definitely compared with other competing graphics cards.

[ Voor 69% gewijzigd door epo op 19-12-2004 17:09 ]


Acties:
  • 0 Henk 'm!

Anoniem: 38733

Ja, en nou met AA/AF. ;) In de reviews die ik gezien heb zijn 2x6600GT in Sli toch echt behoorlijk trager als een X800XT/6800GT/U zodra je op 1280 of hoger gaat spelen met AA/AF.

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 17:01

epo

Anoniem: 38733 schreef op zondag 19 december 2004 @ 17:42:
Ja, en nou met AA/AF. ;) In de reviews die ik gezien heb zijn 2x6600GT in Sli toch echt behoorlijk trager als een X800XT/6800GT/U zodra je op 1280 of hoger gaat spelen met AA/AF.
Apple is ook altijd de spelbreker he :> deze testjes geven gewoon toch aan wat voor potentie het heeft, snap dat eens. Natuurlijk is op hoge snelheden de bandbreede door het 128bits geheugen lager, maar toch is het een knappe prestatie.

Acties:
  • 0 Henk 'm!

Anoniem: 38733

Natuurlijk is op hoge snelheden de bandbreede door het 128bits geheugen lager...
Dit is idd het probleem. Je hebt in totaliteit wel 256MB, maar dat is verdeeld over 2x128MB met ieder een 128Mbit bus. Een hoop data moet dubbel bewaard worden en dat neemt kostbare plek in in het geheugen. Zodra je veel v/d kaart gaat vragen (hoge res met AA/AF) kakt de performance in en winnen de high-end stand-alone kaarten met overmacht.
Een knappe prestatie
Je geeft aan een 6600GT Sli systeem net zo veel geld uit als aan één high-end kaart, en 't lijkt mij dat je zo'n systeem koopt om te gamen op high-res met AA/AF, ik zie dus geen enkel voordeel aan 2 660GT's in Sli.

Acties:
  • 0 Henk 'm!

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

300 euro voor een 6800NU PCIe? Dat moet goedkoper. Een andere kost ~ 200 (AGP dus). Een bridge chip kost stukken minder dan 100 euro :'(

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 06-06 14:58
Anoniem: 38733 schreef op zondag 19 december 2004 @ 18:03:
[...]


Dit is idd het probleem. Je hebt in totaliteit wel 256MB, maar dat is verdeeld over 2x128MB met ieder een 128Mbit bus. Een hoop data moet dubbel bewaard worden en dat neemt kostbare plek in in het geheugen. Zodra je veel v/d kaart gaat vragen (hoge res met AA/AF) kakt de performance in en winnen de high-end stand-alone kaarten met overmacht.


[...]


Je geeft aan een 6600GT Sli systeem net zo veel geld uit als aan één high-end kaart, en 't lijkt mij dat je zo'n systeem koopt om te gamen op high-res met AA/AF, ik zie dus geen enkel voordeel aan 2 660GT's in Sli.
Het is wel degelijk handig. Het is goedkoper als een x800xt of 6800 ultra. En als je met een sli systeem rap 1600x1200 kan draaien dan hoeft AA al niet meer AF zal dan wel impact egevn maar gelijk of sneller zijn als een XT of ultra dus een goede keus lijkt me.

Acties:
  • 0 Henk 'm!

Anoniem: 38733

sjek schreef op zondag 19 december 2004 @ 19:10:
[...]

Het is wel degelijk handig. Het is goedkoper als een x800xt of 6800 ultra.
Niet goedkoper als een GT of ProVivo, of de komende X800XL(!). Daarnaast hoef je geen (duurder) Sli moederboard te kopen. Vergeet ook niet de voeding, een X800ProVivo@XT werkt perfect met een el-cheapo 300 wattertje, met sli moet je wat dieper in de portemonnee voor een voeding.
Ik hou geen pleidooi tegen Sli, absoluut niet, maar als je 't doet doe 't dan gewoon goed. Koop één 6800GT (presteert al beter dan 2x6600GT op high-res met AA) en koop er eventueel later eentje bij wanneer ze goedkoper zijn.
En als je met een sli systeem rap 1600x1200 kan draaien dan hoeft AA al niet meer
Dat zijn jouw woorden. Over een poosje zullen 20inch LCD's met 1600x1200 res goed betaalbaar worden, en daarop zie je toch echt goed 't verschil tussen wel of geen AA. Maar goed, zo'n discussie heeft weinig zin, er zijn legio mensen die zelfs op 1024 AA al flauwekul vinden, dit is persoonlijk.

[ Voor 3% gewijzigd door Anoniem: 38733 op 19-12-2004 20:10 ]


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 06-06 14:58
Anoniem: 38733 schreef op zondag 19 december 2004 @ 20:09:
[...]


Niet goedkoper als een GT of ProVivo, of de komende X800XL(!). Daarnaast hoef je geen (duurder) Sli moederboard te kopen. Vergeet ook niet de voeding, een X800ProVivo@XT werkt perfect met een el-cheapo 300 wattertje, met sli moet je wat dieper in de portemonnee voor een voeding.
Ik hou geen pleidooi tegen Sli, absoluut niet, maar als je 't doet doe 't dan gewoon goed. Koop één 6800GT (presteert al beter dan 2x6600GT op high-res met AA) en koop er eventueel later eentje bij wanneer ze goedkoper zijn.


[...]


Dat zijn jouw woorden. Over een poosje zullen 20inch LCD's met 1600x1200 res goed betaalbaar worden, en daarop zie je toch echt goed 't verschil tussen wel of geen AA. Maar goed, zo'n discussie heeft weinig zin, er zijn legio mensen die zelfs op 1024 AA al flauwekul vinden, dit is persoonlijk.
Een echte gamer gerbuikt een goede 19" of grotere crt deze dagen (vind ik dan al heeft een sli 6600 op 1280x960/1024 al marge zet om verlies te mogen lijden). Ik heb het over sli oplossigen op 1 kaart dus mobo boeit dan niet. En zo'n kaart trekt en beetje voeding wel, al heb je hier zeker wel een goed punt.
De X800xl heeft zeker potentie alleen niet met overklokken dan is de extra voedingsplug een gemis.

Acties:
  • 0 Henk 'm!

Anoniem: 119772

Ik ben geen hardcore pc gamer, maar heb wel een goeie 19inch CRT.

De 6600Sli ? Hmmm persoonlijk zou ik ook gaan voor voor eerst een Sli mobo en een 6800GT.

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 17:01

epo

Anoniem: 38733 schreef op zondag 19 december 2004 @ 20:09:
[...]


Niet goedkoper als een GT of ProVivo, of de komende X800XL(!). Daarnaast hoef je geen (duurder) Sli moederboard te kopen. Vergeet ook niet de voeding, een X800ProVivo@XT werkt perfect met een el-cheapo 300 wattertje, met sli moet je wat dieper in de portemonnee voor een voeding.
Ik hou geen pleidooi tegen Sli, absoluut niet, maar als je 't doet doe 't dan gewoon goed. Koop één 6800GT (presteert al beter dan 2x6600GT op high-res met AA) en koop er eventueel later eentje bij wanneer ze goedkoper zijn.


[...]


Dat zijn jouw woorden. Over een poosje zullen 20inch LCD's met 1600x1200 res goed betaalbaar worden, en daarop zie je toch echt goed 't verschil tussen wel of geen AA. Maar goed, zo'n discussie heeft weinig zin, er zijn legio mensen die zelfs op 1024 AA al flauwekul vinden, dit is persoonlijk.
Bullshit, een x800pro vivo die ik hebt werkt niet met mijn systeem met een 300w voeding! een 360w chieftec was al niet genoeg, dus.....

Enne die x800xl is vooralsnog niet te krijgen dus hou daar over op ;) en wie zegt dat de 6800gt niet met 50 euros gaat dalen.... Bovendien zijn die kloppen die adviesprijzen van ATI niet echt, maar goed dat is weer wat anders.
Ik ben het wel met je eens, maar het gaat mij even over de rauwe benchmarks die best goed zijn.
Ik game hier voorlopig nog op een 17inch TFT, als de 19 inch TFT's goed betaalbaar worden, en er ook echt een versie komt zonder ghosting is ie van mij :)
1600x1200 zou leuk zijn icm een TFT maar dan moet je echt een zware kaart hebben, 1280x1024 met alles aan is voor mij een goed compromis :)

[ Voor 17% gewijzigd door epo op 19-12-2004 20:30 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 38733 schreef op zondag 19 december 2004 @ 18:03:
...Je geeft aan een 6600GT Sli systeem net zo veel geld uit als aan één high-end kaart...
Als je dat artikel even goed leest, zie je dat zo'n "6600gt Sli systeem" goedkoper wordt dan een high-end kaart..... :O

Acties:
  • 0 Henk 'm!

  • -Sir_Killalot-
  • Registratie: Juni 2004
  • Laatst online: 13-05 23:08
Anoniem: 119772 schreef op donderdag 02 december 2004 @ 23:29:
Doen we btw nog niet aan vermelding van GF6800 OEM kaarten in de startpost ? Een hoop mensen kopen nog steeds OEM pc's zoals Dell. Hoewel Ati nu in Dell pc domineert is de
Geforce 6800 GTO wel een optie.

Tis min of meer een 6800 non ultra met 256bits memory interface, 12 pixelpipes en 5 vertex pipes. Minder mod potentieel dan een Asus GE dus.

Exacte specs van de GTO :

http://www.beyond3d.com/m...?view=boarddetails&id=172
Nog een review:
http://www.driverheaven.net/reviews/gto/index.htm
Maar hoezo minder mod potentieel? NV45 heeft toch nog steeds 16/6 architectuur? (afgezien van betere locking). Op zich stuk betere kaart dan die 6800 NU...had gewoon al 256MB moeten hebben was veel te duur IMHO.

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Ik vind Half Life 2 nog steeds vaag,

Ten eerste:
Volgens de benchmarks van bijv. Driverheaven is de X800XT PE behoorlijk sneller in HL2 dan de 6800 ultra, maar als ik dan bij Anandtech lees, zie ik dit opeens staan:
ATI managed to run quite a few benchmarks and even created some of their own demos of Half Life 2, all of which showed ATI hardware outperforming NVIDIA hardware. While ATI did share the demos with us for use in this article, we elected not to use them in favor of developing our own benchmarks in order to be as fair to both sides as possible. We did extend the offer to NVIDIA to provide their own demos for us to look at as well, to which NVIDIA responded that they were not allowed to record any timedemos. Their testbed hard drives were kept at Valve and will be returned to them sometime after the launch of the game.
bron: http://www.anandtech.com/video/showdoc.aspx?i=2278
En bij Anandtech zit de performance tussen de 6800U en de X800XTPE veel dichter bij elkaar ( ook zie je dat de performance tussen de 6800GT-X800pro ongeveer gelijk is).
Dan zakt de geloofwaardigheid van sites zoals Driverheaven bij mij behoorlijk.

Ten tweede:
Bij Nvidia 6800 kaarten zou de performance bij de hl2 engine behoorlijk slechter zijn dan bij de Ati X800 kaarten, maar als ik naar de tests kijk van bijv. de Valve stress test en Vampire: The Masquerade: Bloodlines zie ik dat de performance juist heel dicht bij elkaar zit.
edward2 schreef op vrijdag 05 november 2004 @ 01:38:
Zoals ik al eens eerder zei, de 6800 draait de VST, welke een indicatie kan zij voor de perf.HL2, met nieuwe drivers bloedsnel:

Valve Source Engine Stress Test - 1600 x 1200
ATI Radeon X800 XT PE 256MB-------107.8
ATI Radeon X800 XT 256MB ---------101.3

nVidia GeForce 6800 Ultra 256MB ----115.8
nVidia GeForce 6800 GT 256MB ------104.4
*Ik kan de benchmarks van Vampire:TM:B op het moment niet vinden, dat zoek ik morgen wel op :)

Zou dit allemaal misschien een indicatie kunnen zijn dat Nvidia nog goede geoptimaliseerde
drivers moet uitbrengen voor Half Life2?? Of heeft Ati juist té goed geoptimaliseerd? :P (Dit zal bijna zeker weten niet zo zijn) Ik zou graag willen horen hoe jullie hier over denken.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 06-06 14:58
Tyranium schreef op zondag 19 december 2004 @ 22:21:
Ik vind Half Life 2 nog steeds vaag,
Zou dit allemaal misschien een indicatie kunnen zijn dat Nvidia nog goede geoptimaliseerde
drivers moet uitbrengen voor Half Life2?? Of heeft Ati juist té goed geoptimaliseerd? :P (Dit zal bijna zeker weten niet zo zijn) Ik zou graag willen horen hoe jullie hier over denken.
Ik denk dat de timedemo's in het voordeel liggen voor Ati met veel intensieve shader stukken mischien. Ach we blijven speculeren.
Wat ik overgens frapanter vind is dat Ati in de board bij futuremark zit, lijkt me ook geen schone zaak.
Wat een vaag verhaal weer zo.

Acties:
  • 0 Henk 'm!

Anoniem: 38733

Zou dit allemaal misschien een indicatie kunnen zijn dat Nvidia nog goede geoptimaliseerde
drivers moet uitbrengen voor Half Life2?? Of heeft Ati juist té goed geoptimaliseerd? (Dit zal bijna zeker weten niet zo zijn) Ik zou graag willen horen hoe jullie hier over denken.
Dat een XTPE op de maximale stressbank (1600x1200/AA/AF) over het algemeen beter presteert in shader-heavy spellen als een Ultra is theoretisch verklaarbaar, in principe heeft het niets met optimalisatie's te maken: de fillrate (klokspeed&pipelines=fillrate) is 20% hoger als die van een Ultra.
Nvidia's "probleem" hierin is de extra SM3.0 transistoren die de core bevat in vergelijking met de R420, hierdoor kan deze niet zo hard lopen als een XTPE (wordt te heet). Een ander verhaal wordt het als een game-engine volledig geoptimaliseerd is op een kaart-ontwerp (Doom3) en/of
de drivers superieur zijn (OpenGL).
Wat ik overgens frapanter vind is dat Ati in de board bij futuremark zit, lijkt me ook geen schone zaak.
Nvidia zit er ook in. ;)
Wie denk je dat het gebruik van Nvidia's DST (schaduw compressie, default voor Nv kaarten in 3DM05) er doorheen gedrukt heeft? De Kerstman? :) Zonder DST, dus gewoon nette soft-shadows produceren, levert een Nv40 10-15% van haar score in, de Nv 35 zelfs tot 40%!

[ Voor 53% gewijzigd door Anoniem: 38733 op 20-12-2004 06:10 ]


Acties:
  • 0 Henk 'm!

  • JanW
  • Registratie: Oktober 2004
  • Laatst online: 09:10
Kan ik een videokaart met dual DVI aansluiten op mijn CRT Iiyama 17"monitor?

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 06-06 14:58
Anoniem: 38733 schreef op maandag 20 december 2004 @ 05:49:
Nvidia zit er ook in. ;)
Wie denk je dat het gebruik van Nvidia's DST (schaduw compressie, default voor Nv kaarten in 3DM05) er doorheen gedrukt heeft? De Kerstman? :) Zonder DST, dus gewoon nette soft-shadows produceren, levert een Nv40 10-15% van haar score in, de Nv 35 zelfs tot 40%!
Oh dacht juist vaker gelezen te hebben dat dit niet zo was :/ . Ach het blijven bronnen op internet zeggen we dan maar.

Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 18:08

Pubbert

random gestoord

epo schreef op zondag 19 december 2004 @ 20:27:
[...]


Bullshit, een x800pro vivo die ik hebt werkt niet met mijn systeem met een 300w voeding! een 360w chieftec was al niet genoeg, dus.....)
Mijn X800 Pro werkt hier prima op een 380watt voeding, daarnaast heb ik er nog 5 harddisks aanhangen, 2 DVD drives en een 4 dimmetjes, en een P4 @ 3.8Ghz, dus als je niet al te veel speciale hardware hebt, dan heb je aan 300watt voldoende :)

Daarnaast had ik er hiervoor ook een 360watt chieftec in (van de matrix serie) met alleen 1 HDD minder dan nu het geval is, en dat werkte ook gewoon prima :?

[ Voor 14% gewijzigd door Pubbert op 20-12-2004 12:59 ]

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
sjek schreef op maandag 20 december 2004 @ 12:51:
[...]

Oh dacht juist vaker gelezen te hebben dat dit niet zo was :/ . Ach het blijven bronnen op internet zeggen we dan maar.
De beste bron is nog altijd "de bron" van Futuremark zelf:

http://www.futuremark.com/bdp/

Daar zie je zowel ATi als nVidia in staan bij de Futuremark BDP Members, en daarnaast ook anderen als Beyond3D, Bitboys, XGI, Transmeta, Microsoft, Intel, AMD, Dell, Creative, S3, etc.

nVidia heeft het weer 'goed gemaakt' met Futuremark.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 103892

Thund3r schreef op maandag 20 december 2004 @ 12:57:
[...]


Mijn X800 Pro werkt hier prima op een 380watt voeding, daarnaast heb ik er nog 5 harddisks aanhangen, 2 DVD drives en een 4 dimmetjes, en een P4 @ 3.8Ghz, dus als je niet al te veel speciale hardware hebt, dan heb je aan 300watt voldoende :)

Daarnaast had ik er hiervoor ook een 360watt chieftec in (van de matrix serie) met alleen 1 HDD minder dan nu het geval is, en dat werkte ook gewoon prima :?
Helemaal correct. Ik had een X800 Pro draaien op een onbekend merk voeding van 300 W, en dat draaide perfect en stabiel !

Sjek, Epo,

Dat Nvidia fanboy gedrag is nou niet echt gepast, aangezien je alleen je zelf er mee voor lul zet. Als er goede argumenten zijn neem dat dan ook gewoon aan i.p.v. hard terug te reageren terwijl je reactie en argumenten gewoon niet correct zijn.
Begrijp me niet verkeerd, ik ben een trotse eigenaar van een 6800 GT en ik ben blij dat ik m'n X800 Pro hiervoor heb verkocht. Maar om nou overal wat een beetje negatief is voor Nvidia tegenin te gaan met loze argumenten is ook niet slim.
Ik (zoals een hoop andere mensen) volgen de Nvidia en de ATI topic al heel lang en lezen elke post en reactie, en ik moet echt zeggen dat de reacties van jullie twee echt het slechts uitkomen (qua waarheid en onderbouwing).
Wat ik wil zeggen, is gewoon, jongens . . . jullie werken geen van beide voor Nvidia, dus chill . . . rustig aan. Niemand wordt hier afgeschoten. ;)

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 05-06 18:00
Anoniem: 38733 schreef op maandag 20 december 2004 @ 05:49:
Nvidia zit er ook in. ;)
Wie denk je dat het gebruik van Nvidia's DST (schaduw compressie, default voor Nv kaarten in 3DM05) er doorheen gedrukt heeft? De Kerstman? :) Zonder DST, dus gewoon nette soft-shadows produceren, levert een Nv40 10-15% van haar score in, de Nv 35 zelfs tot 40%!
Bovendien is er 3dc support door zowel nvidia als ati, wat de keuzes van futuremark nog meer in vraag trekt.... (btw, dst is niet echt schaduwcompressie ;))

Ik vond 3dmark03 technologisch stukken beter, de 2005 inoveert amper, alleen meer polys en geavanceerde shaders(lees niet als innoverend). Bovendien had ik het niet mis gevonden als er shaders boven de ps2.0 limiet gingen, die kunnen dan toch gemultipassed worden :) als nodig. Het zou een betere indicatie geven over sterktes en zwaktes in de nieuwste architecturen.

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 01:40

Deathchant

Don't intend. Do!

Ep0ss schreef op maandag 20 december 2004 @ 12:38:
Kan ik een videokaart met dual DVI aansluiten op mijn CRT Iiyama 17"monitor?
Ik neem aan dat je deze vraag bij nader inzien toch beter zelf kunt beantwoorden he..... :?

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

Deathchant schreef op maandag 20 december 2004 @ 18:52:
[...]

Ik neem aan dat je deze vraag bij nader inzien toch beter zelf kunt beantwoorden he..... :?
Wat is volgens jou het antwoord dan?

Op DVI zit ook nog gewoon analoog AFAIK, convertortje is te doen dus.


Hoe zit het met 6800 PCIe-kaarten tegen een schappelijke prijs (300 euro???)

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 06-06 14:58
Anoniem: 103892 schreef op maandag 20 december 2004 @ 13:35:
[...]


Helemaal correct. Ik had een X800 Pro draaien op een onbekend merk voeding van 300 W, en dat draaide perfect en stabiel !

Sjek, Epo,

Dat Nvidia fanboy gedrag is nou niet echt gepast, aangezien je alleen je zelf er mee voor lul zet. Als er goede argumenten zijn neem dat dan ook gewoon aan i.p.v. hard terug te reageren terwijl je reactie en argumenten gewoon niet correct zijn.
Begrijp me niet verkeerd, ik ben een trotse eigenaar van een 6800 GT en ik ben blij dat ik m'n X800 Pro hiervoor heb verkocht. Maar om nou overal wat een beetje negatief is voor Nvidia tegenin te gaan met loze argumenten is ook niet slim.
Ik (zoals een hoop andere mensen) volgen de Nvidia en de ATI topic al heel lang en lezen elke post en reactie, en ik moet echt zeggen dat de reacties van jullie twee echt het slechts uitkomen (qua waarheid en onderbouwing).
Wat ik wil zeggen, is gewoon, jongens . . . jullie werken geen van beide voor Nvidia, dus chill . . . rustig aan. Niemand wordt hier afgeschoten. ;)
Erhm??? Krab krab......wat moet ik met de info? Dat mijn berichten jouw niks doen kan ik weinig mee. Iedereen heeft z'n zegje over een onderwerp en allemaal hebben we een mening. Ik leun meer naar het groene kamp epo ook (al heeft hij wel een x800 :+ ) net als dat apple,CJ,thunder etc meer naar het rode kamp leunen.
Ik besteed mijn tijd liever niet door de hele dag met links van vage sites aan te komen en als argument te gebruiken (nofi).
Voorbeeld: Mijn reactie op het 6600gt SLi verhaal is een rekensom waaruit ik concludeer dat een 6600gt is SLI een betere koop is als een 6800ultra of x800xtpe kwa prijs/prestatie zelfs met AA of AF. Nu schijnt de hit wel groter te zijn met SLI opstelling maar dat neemt niet weg dat die marge er mag zijn als er zonder al 25% meer winst is voor een lagere prijs. Nu is er ook bekend dat nvidia heeft aangegeven dat er meer winst te halen valt met AA en Af met SLI en hiermee bezig is atm. Dit zou dan een goede koop zijn prijstechnisch, is dit fanboy lulkoek :? Maakt dit mijn mening of argument slecht?
Als je dan echt vindt dat ik met slechte dingen aankom kom dan zelf wel met argumenten ipv een vage off-topic post wat inhoudelijk weinig nuttigs met zich meebrengt.

Ben even wezen neuzelen en zie dat je al eerder zo'n post als dit hebt gemaakt naar mijn adres. Probeer je soms wat uit te lokken ofzo?

[ Voor 10% gewijzigd door sjekneck op 20-12-2004 21:32 ]


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 17:01

epo

Thund3r schreef op maandag 20 december 2004 @ 12:57:
[...]


Mijn X800 Pro werkt hier prima op een 380watt voeding, daarnaast heb ik er nog 5 harddisks aanhangen, 2 DVD drives en een 4 dimmetjes, en een P4 @ 3.8Ghz, dus als je niet al te veel speciale hardware hebt, dan heb je aan 300watt voldoende :)

Daarnaast had ik er hiervoor ook een 360watt chieftec in (van de matrix serie) met alleen 1 HDD minder dan nu het geval is, en dat werkte ook gewoon prima :?
Ik heb een prescott, die vreet je 12v lijn geheel op bij overklokken, hiervoor heb je een enorme voeding nodig, en er zijn genoeg mensen met een prescott dus....
Mijn northwood systeem trok de Chieftec 360w wel, maar dan nog blijft het krap en zeker niet aan te raden.
Aan de andere kant, de prijzen van goede voedingen zijn tegenwoordig ook enorm
gedaald, dus als daar de bottleneck zou liggen kan je ook geen top of the bill videokaart kopen.

[ Voor 15% gewijzigd door epo op 20-12-2004 20:55 ]


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 17:01

epo

Anoniem: 103892 schreef op maandag 20 december 2004 @ 13:35:
[...]


Helemaal correct. Ik had een X800 Pro draaien op een onbekend merk voeding van 300 W, en dat draaide perfect en stabiel !

Sjek, Epo,

Dat Nvidia fanboy gedrag is nou niet echt gepast, aangezien je alleen je zelf er mee voor lul zet. Als er goede argumenten zijn neem dat dan ook gewoon aan i.p.v. hard terug te reageren terwijl je reactie en argumenten gewoon niet correct zijn.
Begrijp me niet verkeerd, ik ben een trotse eigenaar van een 6800 GT en ik ben blij dat ik m'n X800 Pro hiervoor heb verkocht. Maar om nou overal wat een beetje negatief is voor Nvidia tegenin te gaan met loze argumenten is ook niet slim.
Ik (zoals een hoop andere mensen) volgen de Nvidia en de ATI topic al heel lang en lezen elke post en reactie, en ik moet echt zeggen dat de reacties van jullie twee echt het slechts uitkomen (qua waarheid en onderbouwing).
Wat ik wil zeggen, is gewoon, jongens . . . jullie werken geen van beide voor Nvidia, dus chill . . . rustig aan. Niemand wordt hier afgeschoten. ;)
Zie mijn vorige post, icm een prescott en overklokken kan je dat absoluut vergeten, en ga nou niet doen alsog je het beter weet, want dat weet je dus niet >:)

Ten tweede probeer ik juist hier (Als ATI bezitter) juist positief te doen tov. Nvidia, echter als ik eens iets positief meldt wordt dit een iemand anders (noem geen namen) weer volledig afgezeken omdat hij ergens weer een geruchtje heeft gevonden. Noem je dat dan onderbouwing? Blijkbaar als iemand van een iets een heel verhaal maakt is het voor jouw een goede onderbouwing... maar goed, iedeeen is anders gelukkig !

Ten derde ben ik geen fanboy van Nvidia, ik koop in mijn budget, de kaart die voor mij het beste is, en dit geval was dat de x800xt pe. En bij de vorige generatie was dat een 9800 pro, bovendien heb ik ook nog een 9100 en een 9200 :o
Logisch he he als Nvidia Fanboy. :Z Maar qua merk heb ik wel een lichte voorkeur naar Nvidia, net zo als andere dat hebben voor ATI, thats life, niks mis mee, en als je er problemen mee hebt is dat JOUW probleem :P Nu weer Geforce nieuwtjes en stuff !
Nvidia NV48 still alive, expected to be released in 2Q 2005

Latest news
Charles Chou, Taipei; Steve Shen, DigiTimes.com [Monday 20 December 2004]

Nvidia has not given up on the NV48 and is expected to roll out the GPU in the second quarter of next year, despite market rumors saying the company has cancelled the chip, according to sources at Taiwan graphics card makers.

However, Nvidia plans to have Taiwan Semiconductor Manufacturing Company (TSMC) produce the NV48, instead of IBM, as originally planned, the sources noted. The NV48 will be built using a 0.11-micron process, the sources added.

Improved yields of the GeForce 6600 and GeForce 6200 manufactured at TSMC would probably be the reason for Nvidia to shift the production of the NV48 back to TSMC, the sources said.

The NV48 will take on ATI’s next-generation high-end graphics chip, the R520, which is also expected to be launched in the second quarter of 2005. The R520, however, will be the industry’s first GPU produced using a 90-nm process at TSMC
toon volledige bericht

Acties:
  • 0 Henk 'm!

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

Wat zitten de ATi fanboys eigenlijk in het nVidia topic aan te vangen? Veel geroep en getier over een merk waar het topic eigenlijk over gaat, terwijl andere vragen (bv waar vind ik een 6800 op PCIe) onbeantwoord blijven.

Wil je onderbouwing? Mooi.
Ik gebruik Linux. Ik heb nu een ATi. Ik heb mijn (toen nog peperdure) 9800 Pro gekocht met het idee er games te kunnen mee spelen (niet voor de software die erbij zat, waar zelfs geen CD-key bijzat :z).

Ik moet dus noodgedwongen met de fglrx driver omgaan. Een paar feiten:
Heb je een Athlon 64 en wil je ook effectief gebruik maken van je %rax register? (voor de niet-ASM'ers onder ons: de extra 32 bitjes die de processor levert) Spijtig, maar niet met ATi. Feit is dat er geen 64 bit ATi drivers bestaan.
ATi houdt je achter met nieuwe technologieen. Dankzij ongelofelijk veel community support (niks van ATi zelf) kan je de XFree86 drivers ook op Xorg6.7 draaien (out of the box werkt het alleen op XFree's), maar Xorg6.8 kan je vergeten. Hier zitten echter een hoop leuke features in (bijvoorbeeld composite rendering).
De performance is pure bagger. Een GF4Mx is in games consequent sneller dan een 9800Pro. Met dezelfde settings wordt er ongeveer 1.5x meer fps gehaald door de nVidia-kaart dan door die van ATi. Wie het niet geloofd, mag best van me komen kijken (A'pen).
De support is bagger. Als je een mail stuurt over de fglrxdriver is de policy simpel: no reply.
Drivers worden nauwelijks onderhouden. Er worden veel nieuwe releases gegeven, maar deze zijn zo goed als allemaal bugfix, of het supporten van een nieuwe kaart (die meestal al 2 maand oud is en al 1.5 maand dankzij community patches wel werkt), of het implementeren van community patches (in het binary gedeelte, wat overigens wel in strijd is met de GPL waaronder deze patches gelicensed zijn, maar goed). Voornamelijk zijn het bugfixes, maar toch zie jij bij elke changelog een "Known Issues" deel. Oeps! Onze driver werkt niet voor iedereen die PCIe heeft. Nou, toch maar shippen dan! Het feit dat de mensen met AGP artifacts hebben en nog baggerdere snelheden dan met de vorige versie doet er niet toe, X server start, fglrxgears start, DUS de driver werkt! SHIP IT!

Allemaal makkelijk bewijsbare feiten, trouwens. Als je bewijs moet hebben dirigeer ik u vriendelijk naar supportfora over de hele wereld waar de vinger bijzonder pijnlijk op de wonde wordt gelegd.

EDIT
Nog wat feitelijke onderbouwing, laatste vier versies van de ATi drivers opgezocht via meuktracker:
1. TV-out is al sinds 4 versies geleden kapot als je van reso switcht (als je van console naar X gaat switch je ook reso met vesafb_tng)
2. "3D Linux Applications Corrupt or Hang" als je multisampling aanzet
3. # 3D Applications Produce "Open of Shared Memory Object Failed" Error Message
In laatste versie *toegevoegd* OEPS 80% van alle opengl apps sterven

Gefixt deze release:
1. The System no longer fails to respond when moving the mouse around on the screen on some systems <-- how teh fook graakt dit ooit in je driver

Toegevoegd in begin September (6) dit jaar:
* RADEON 9550
* RADEON 9100 IGP
* RADEON 9100 PRO IGP
:-/

[ Voor 15% gewijzigd door lvh op 20-12-2004 21:44 ]


Acties:
  • 0 Henk 'm!

Anoniem: 115092

meuktracker: ATi Catalyst AMD64 beta 3 --> voor amd64 en winxp64.

De rest van bovenstaande reactie klinkt me als muziek in de oren (aangezien ik een Nvidia geforce 6800 GT heb), maar deugt van geen kanten. Zo kan een ATI Fanboy ook wel 1000 zaken noemen die bij Nvidia niet goed zijn. Laten we daar alsjeblieft mee op houden.

Ik ben Nvidia nu ook even zat met al die beta drivers. Zo langzamerhand word het toch wel weer eens tijd voor een nieuwe driver.

[ Voor 85% gewijzigd door Anoniem: 115092 op 20-12-2004 21:49 ]


Acties:
  • 0 Henk 'm!

Anoniem: 131946

Nu zie ik verbaasd dat mn moederboard maar AGP4x heeft,
ik krijg nu een score : 2976 3DMarks '05 ( 12x1 6vp ) LE

maakt die score dan veel verschil met AGP8x ?

[ Voor 6% gewijzigd door Anoniem: 131946 op 20-12-2004 21:54 ]


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 01:40

Deathchant

Don't intend. Do!

racoontje schreef op maandag 20 december 2004 @ 19:47:
[...]


Wat is volgens jou het antwoord dan?

Op DVI zit ook nog gewoon analoog AFAIK, convertortje is te doen dus.


Hoe zit het met 6800 PCIe-kaarten tegen een schappelijke prijs (300 euro???)
Bij ELKE videokaart (zeer zeker bij de dual DVI's) krijg je toch zo'n convertortje?
Ik snap hem niet. Hij vraagt of hij een videokaart met een DVI ook op een CRT kan aansluiten?

Hij weet toch zeker zelf wel dat CRT's die blauwe VGA connector nodig hebben? En dat er een convertortje bestaat? Die had ik nog bij mijn FX5900Ultra erbij zitten. Lijkt me niet zo moeilijk dacht ik zo

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

Anoniem: 115092 schreef op maandag 20 december 2004 @ 21:43:
meuktracker: ATi Catalyst AMD64 beta 3 --> voor amd64 en winxp64.

De rest van bovenstaande reactie klinkt me als muziek in de oren (aangezien ik een Nvidia geforce 6800 GT heb), maar deugt van geen kanten. Zo kan een ATI Fanboy ook wel 1000 zaken noemen die bij Nvidia niet goed zijn. Laten we daar alsjeblieft mee op houden.

Ik ben Nvidia nu ook even zat met al die beta drivers. Zo langzamerhand word het toch wel weer eens tijd voor een nieuwe driver.
1. Beta != officieel en gesupport
2. Windows != Linux, het ging tenslotte over de onbestaande kwaliteit van de Linux-drivers.

Ik ben het gezeik even zat, daarmee een beargumenteerde post waarom ik ATi niet moet hebben en waarom ze ook niet moeten pogen aan te tonen dat nVidia niet deugt :-/

[ Voor 8% gewijzigd door lvh op 20-12-2004 22:15 ]


Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 17:11
Laten we het daar dan bijhouden. Er hoeft niet verder met modder gegooid te worden naar users of groene/rode kampen. Persoonlijke voorkeur is niets mis mee, deze onderbouwen mag, maar is op zich niet nodig aangezien dit weer onnodige warretjes kan uitlokken.

Voor mensen met problemen, gebruik eens de search en pas als dat niks oplevert kun je een nieuw topic openen.

DVI-I-> CRT kan natuurlijk altijd, daarvoor wordt een connectortje bijgeleverd, wat ook op de site en doos staat


Ik ben benieuwd wat die NV48 dan gaat brengen en hoe deze op 110nm gaat concurreren met 90nm uit het andere kamp. Misschien pakt 90nm goed uit, misschien ook niet?

[ Voor 15% gewijzigd door IceEyz op 20-12-2004 22:29 ]


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 17:01

epo

racoontje schreef op maandag 20 december 2004 @ 22:13:
[...]

1. Beta != officieel en gesupport
2. Windows != Linux, het ging tenslotte over de onbestaande kwaliteit van de Linux-drivers.

Ik ben het gezeik even zat, daarmee een beargumenteerde post waarom ik ATi niet moet hebben en waarom ze ook niet moeten pogen aan te tonen dat nVidia niet deugt :-/
Hierover een artikel gevonden die het e.a. bevestigd wat racoontje verteld :
Final Thoughts
Both next generation driver sets add significant performance increases to the ATI and NVIDIA video card lineup on Linux. Unfortunately, just looking at the list of known issues in both readme files tends to give the feeling that there is still a long way to go. NVIDIA's to-do list seems fairly mundane; most issues exist with multi-display desktops. ATI's list, while shorter, looks more menacing - "fix screen corruption problems and crashes". Granted, we did not have any errors with screen corruption or crashes on ATI drivers this time around, but we have experienced some screen corruption issues in the past. Perhaps an even greater accomplishment for both vendors today were that the performance increases in today's analysis came without any crashing or unanticipated rendering behavior.

Still missing from ATI's official to-do list is 64-bit support. Not having a 64-bit driver is cutting into an ever growing portion of the Linux market share. Considering that virtually every main Linux distribution has a 64-bit branch and a 32-bit branch these days, ATI has some ground to catch up on. Virtually every new system that we recommend (and particularly on Linux) revolves around the Athlon 64 bit core. While performance gains between 32-bit and 64-bit distributions on Unreal Tournament 2004 were meager, the code base for most Linux applications has increased to the point where you won't feel any performance decreases going from 32-bit to 64-bit anymore (but that's another article for another day).

As far as measured performance goes, NVIDIA did a lot to increase their lead today. While ATI's drivers (at least in the 32-bit realm) are shaping up to make their hardware much more viable, the newest 1.0-6629 set gave us astonishing performance gains. As we saw (again) in almost every benchmark, NVIDIA continued to build their case as the vastly stronger brand on Linux hardware.
toon volledige bericht
Het gehele artikel is hier te vinden http://www.anandtech.com/linux/showdoc.aspx?i=2302&p=1
Het schijnt wel (zie ATI topic) dat ATI eindelijk druk bezig is om de linux drivers te verbeteren.

Acties:
  • 0 Henk 'm!

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

IceEyz schreef op maandag 20 december 2004 @ 22:27:
Laten we het daar dan bijhouden. Er hoeft niet verder met modder gegooid te worden naar users of groene/rode kampen. Persoonlijke voorkeur is niets mis mee, deze onderbouwen mag, maar is op zich niet nodig aangezien dit weer onnodige warretjes kan uitlokken.

Voor mensen met problemen, gebruik eens de search en pas als dat niks oplevert kun je een nieuw topic openen.

DVI-I-> CRT kan natuurlijk altijd, daarvoor wordt een connectortje bijgeleverd, wat ook op de site en doos staat


Ik ben benieuwd wat die NV48 dan gaat brengen en hoe deze op 110nm gaat concurreren met 90nm uit het andere kamp. Misschien pakt 90nm goed uit, misschien ook niet?
Kijk naar processoren, 90nm is bij AMD eerst naar low-end testbeds gegaan, de snelste AMD's zijn nog steeds 130nm (out of the box tenminste).


Damn, die 6800 PCIe bij komplett.nl is echt duuuuurrrr... 300 euro :|

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Nu online
Bij Anand een artikel over PureVideo, de videoacceleratie is nu toch geintroduceerd door nVidia met een 67.01 driver en een eigen decoder...nouja lees zelf maar.
Als dit alles is kan me het gestolen worden, of Anand is niet volledig maar dat betwijfel ik aangezien ik hem hoog heb zitten. Er is een nVidia NVDVD-decoder nodig, wmv9 werkt niet op de nv40, over encoding acceleratie lees ik niks, over mpeg2 decoding lees ik niks (een hdtv kan ook mpeg2 zijn), voor wmv9 op de 6600 is eigenlijk wmp10 nodig...
Nouja deinterlacen is wel ok.

Acties:
  • 0 Henk 'm!

Anoniem: 115092

Anoniem: 131946 schreef op maandag 20 december 2004 @ 21:54:
Nu zie ik verbaasd dat mn moederboard maar AGP4x heeft,
ik krijg nu een score : 2976 3DMarks '05 ( 12x1 6vp ) LE

maakt die score dan veel verschil met AGP8x ?
Ik haalde min of meer dezelfde score met een 6800 LE op een asus P4PE moederboord (4x AGP). Het verschil met 8X AGP zal niet denderend zijn. Hooguit een paar punten erbij. Het exacte verschil durf ik niet te zeggen, maar het is wel een klein verschil. Niet de moeite om te upgraden.

PCI-Express word wel interessant in de toekomst. Vooral voor het gebruik van normaal geheugen als videogeheugen (Nieuwe Geforce 6200 versie methode). PCI-Express is de toekomst, maar ook nu nog niet noodzakelijk.

Acties:
  • 0 Henk 'm!

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 17:11
Ik heb dat artikel ook ff gelezen... Kwaliteit van dat PureVideo zit wel helemaal goed :)

Maar, hoe durven ze dan nog steeds $19.99 voor die DVD-Decoder te vragen en nog steeds geen encode-mogelijkheden te bieden. Acht maanden zijn er al voorbij ja....

De performance op die 6600GT is ook weer niet verbijsterend beter als de Ati's ook hardware-support aanzetten. Ik mag toch hopen dat de volgende generatie PureVideo beter uitpakt.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Even over NV48 die volgens Digitimes niet gecanned is. Ik heb op bepaalde forums de speculatie gelezen dat de NV48 waar Digitimes het over heeft, waarschijnlijk de NV47 is (de 24 pipes op 0,11u). Dit zou meer in lijn liggen met het feit dat er 'iets' tegenover de R520 zou worden gezet.

Het cijfer 8, zoals in NVx8, was tot nu toe altijd een refresh core (NV18 -> GF 4MX 8xAGP, NV28 -> GF4 8xAGP, NV38 -> GF FX 5950U). En het lijkt niet logisch om een 'refresh' tegenover de R520 te zetten, tenzij nVidia de boel echt helemaal omgooit, dan wel erg zeker is van haar zaak (dat NV48 goed gaat presteren tov een R520).

En dan wat anders, NV50 (of misschien heet-ie nu wel NV60) schijnt volgens het Duitse 3DCenter een grote kans te hebben dat het ook unified shaders bevat net als R500 en R600.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Boushh
  • Registratie: Januari 2003
  • Laatst online: 28-12-2024

Boushh

of TFA

En het lijkt niet logisch om een 'refresh' tegenover de R520 te zetten, tenzij nVidia de boel echt helemaal omgooit, dan wel erg zeker is van haar zaak (dat NV48 goed gaat presteren tov een R520).
Opzich is het eigenlijk hetzelfde wat ATi deed toen nVidia met de FX reeks kwam. De 9800 reeks was ook een refresh van de 9700 reeks. ATi kon dat destijds doen omdat de 9700/9800 al een DX9 kaart was, terwijl nVidia dat pas met de FX had. Buiten dat bleek dat de 9800 de FX makkelijk kon bijhouden. Toen was er voor ATi ook geen reden om met iets geheel nieuws te komen.

Je hebt nu een beetje hetzelfde omdat nVidia al een DX9.0c kaart heeft, maar ATi nog niet.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Boushh schreef op dinsdag 21 december 2004 @ 01:56:
[...]

Opzich is het eigenlijk hetzelfde wat ATi deed toen nVidia met de FX reeks kwam. De 9800 reeks was ook een refresh van de 9700 reeks. ATi kon dat destijds doen omdat de 9700/9800 al een DX9 kaart was, terwijl nVidia dat pas met de FX had. Buiten dat bleek dat de 9800 de FX makkelijk kon bijhouden. Toen was er voor ATi ook geen reden om met iets geheel nieuws te komen.

Je hebt nu een beetje hetzelfde omdat nVidia al een DX9.0c kaart heeft, maar ATi nog niet.
Je vergeet dat de FX reeks ongeveer tegelijkertijd met de R300 reeks van ATi gelaunched werd. ATi lanceerde de R300 in Augustus 2002, terwijl nVidia de NV30 (FX5800-serie) een kleine twee maanden later in November 2002 lanceerde (op papier). NV30 stond eigenlijk ook al in de zomer van 2002 gepland, maar tijdens de launch beloofde men beschikbaarheid in December. De twee 'nieuwe' generaties werden dus nagenoeg gelijktijdig gelanceerd.

De NV30 werd echter pas begin 2003 mondjesmaat beschikbaar en nVidia werkte met man en macht aan de refresh NV35. Deze kwam toen ongeveer tegelijk uit met de R350, dus ook hier gingen de refreshes tegelijk tegen elkaar op. Het zelfde geldt natuurlijk voor de tweede refresh-cycle: R360 en NV38. Dus het is niet helemaal hetzelfde als toendertijd met de FX.

nV heeft nu inderdaad al een SM3.0 kaart, maar er valt nog wel het een en ander te verbeteren aan de NV40 (zoals o.a. verbeterde dynamic branching-performance om SM3.0 echt goed tot z'n recht te laten komen).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Boushh
  • Registratie: Januari 2003
  • Laatst online: 28-12-2024

Boushh

of TFA

Je vergeet dat de FX reeks ongeveer tegelijkertijd met de R300 reeks van ATi gelaunched werd. ATi lanceerde de R300 in Augustus 2002, terwijl nVidia de NV30 (FX5800-serie) een kleine twee maanden later in November 2002 lanceerde (op papier). NV30 stond eigenlijk ook al in de zomer van 2002 gepland, maar tijdens de launch beloofde men beschikbaarheid in December. De twee 'nieuwe' generaties werden dus nagenoeg gelijktijdig gelanceerd.

De NV30 werd echter pas begin 2003 mondjesmaat beschikbaar en nVidia werkte met man en macht aan de refresh NV35. Deze kwam toen ongeveer tegelijk uit met de R350, dus ook hier gingen de refreshes tegelijk tegen elkaar op. Het zelfde geldt natuurlijk voor de tweede refresh-cycle: R360 en NV38. Dus het is niet helemaal hetzelfde als toendertijd met de FX.
Dat is niet waar. Als we Tomshardware gebruiken als leidraad voor de introducties dan zien we het volgende:

Maart 2002 introduceerde nVidia de Geforce 4 serie, in juli 2002 kwam ATi met de 9700 Pro. Er was op dat moment zover ik mij kan herinneren nog geen officiele versie van DX9 (zat ook niet in XP, want daarin zat DX8.1). Zonder AF en FSAA waren de GF4 en de 9700Pro ongeveer gelijk. Dat veranderde echter totaal als AF en FSAA aangezet werden.

November 2002 lanceerd nVidia de FX reeks (op papier). De datum dat nVidia eigenlijk de refesh van de GF4 had moeten introduceren. Maar de 9700 veegde op AF en FSAA gebiedt zo de vloer aan met de GF4, dat nVidia toen al de FX reeks heeft gelanceerd. Al hadden ze vermoedelijk nog niet eens een werkende chip op dat moment. Want de kans is groot dat de FX reeks pas voor maart 2003 gepland stond.

Februari 2003 komen de eerste FX5800's uit. In maart komt ATi met de 9800, en in april komt nVidia alweer met de FX5900.

Dat nVidia in maart 2002 al de FX gepland zou hebben lijkt mij sterk. Er was nog geen DX9, dus inprincipe ook geen behoefte aan een DX9 kaart.. Verder was de GF4 ongeveer 2 keer zo snel als de GF3. Wat destijds ook normaal was bij de lancering van een volledig nieuwe GPU. De lancering van de GF4 past qua performance en tijd prima binnen het pad dat nVidia destijds volgde.

Verder was de lanceer datum van de 9700 2 maanden eerder dan je denkt. Dus was er ruim 4 maanden tussen de introductie van de 9700 en de FX. De lancering van de NV30 en de R3xx stonden duidelijk niet gepland voor dezelfde datum. Waarom zou nVidia immers de NV30 introduceren net na de introductie van de GF4 ?

De 9800 was de refresh van ATi, daar is als je naar de feitelijke releases kijkt zo klaar als een klontje.

Acties:
  • 0 Henk 'm!

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

* lvh kijkt naar z'n vorige post
* lvh kijkt naar topictitel

Remind me, waarom zitten we over ATi bezig?

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 01:40

Deathchant

Don't intend. Do!

idd

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 23009

zullen we nu veel verschil tussen Shader Model 3.0 en 4.0 kunnen zien of zal het meer aan de performance liggen van de application zelf?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
racoontje schreef op dinsdag 21 december 2004 @ 10:47:
* CJ kijkt naar z'n vorige post
* CJ kijkt naar topictitel

Remind me, waarom zitten we over ATi bezig?
Omdat volgens de firstpost dit een discussietopic is en er prima vergeleken kan worden met de concurrenten mits er niet geflamed wordt. Zolang het dus op een normale manier gebeurt, lijkt me het helemaal geen punt om nVidia te vergelijken met anderen.

Uit de topicregels:
Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic
Dus ik zie het probleem niet.
Boushh schreef op dinsdag 21 december 2004 @ 03:10:
[...]

Dat is niet waar. Als we Tomshardware gebruiken als leidraad voor de introducties dan zien we het volgende:

.... *knip* ....

De 9800 was de refresh van ATi, daar is als je naar de feitelijke releases kijkt zo klaar als een klontje.
Dat de R300 gepaperlaunched werd in Juli (18 om precies te zijn) daar heb je gelijk in. De leverbaarheid kwam echter pas op gang in Augustus. Maar ik heb nergens gezegd dat de FX al voor Maart 2002 gepland stond (heb gezegd zomer 2002).

Voor zover ik weet zou er geen refresh van de GF4 meer moeten uit komen, alhoewel je de FX eigenlijk wel als refresh zou kunnen beschouwen met z'n 4x2 architectuur. De GF4 was eigenlijk al een refresh van de GF3, net zoals de GF3Ti-serie een refresh was van de gewone GF3 (terwijl er hier niets aan veranderd werd). Zelfde architectuur, alleen flink getweaked voor meer power en niet te vergeten de 'wonderdrivers'.

Ik heb even wat dingen opgezocht en de NV30 stond gepland voor een "Fall Release", precies 6 maanden na de launch van de GF4 op 10 Februari 2004. Dat zou dus paperlaunch in Augustus/September zijn geweest met leverbaarheid in November.

Zie o.a.
http://www.beyond3d.com/previews/nvidia/gffxu/
http://www.anandtech.com/showdoc.aspx?i=1656
http://www.anandtech.com/showdoc.aspx?i=1678 (artikel uit Aug 2002 getiteld: NV30 where are you?)

Dit feestje werd echter om verschillende redenen verstoord:
- problemen met het 0,13u proces
- R300 die opeens toch heel erg goed bleek te zijn

Na de R300 launch bleek dat de NV30 te kort schoot op verschillende gebieden. nVidia had geen rekening gehouden met het feit dat de concurrent niet stil had gezeten... De bandbreedte was kleiner, door het gebruik van een 128-bit memory interface, waardoor men de oplossing zocht in sneller (en op dat moment veel duurder) GDDR2 geheugen. Verder probeerde men de core op z'n max te zetten (500 Mhz). Samen met het hooggeklokte geheugen werd de kaart superheet waardoor er een dualslot cooler op moest worden geplaatst die tot overmaat van ramp een enorm kabaal maakte.

Tapeout van NV30 had al in April/Mei 2002 moeten plaatsvinden, maar die vond pas plaats in Augustus 2002 toen R300 al richting de winkels ging. Dit hadden ze zelf voorspeld, maar dit werd later bijgesteld naar November 2002. In November kwam toen echter alleen maar de paperlaunch.

In de tijd van uitstel, dus van Augustus - Februari 2003, heeft nVidia met man en macht gewerkt aan de NV35. In Maart 2003 lanceerde ATi haar R350 (9800-serie) en kon nVidia de core hoog genoeg klokken om mee te kunnen met de concurrent.

Wat tijdschema's betreft hebben ATi en nVidia vaak dicht op elkaar gezet. Zo was al lang bekend dat NV35 in het voorjaar van 2003 uit zou komen, maar omdat NV30 pas begin 2003 leverbaar was, leek dit vreemd. Maar NV35 zat dus wel op schema (Mei 2003), alleen NV30 was de vreemde eend in de bijt met een dubbele vertraging.

De basis was echter NV30 en daardoor heeft NV35 ook de minder goede eigenschappen (zoals pure DX9 prestaties) overgenomen. In NV38 werd in October 2003 nog wel het een en ander gefixed, maar ook hier geldt weer dat de basis niet al te best was.

Ten tijde van de launch van R300 heeft nVidia waarschijnlijk ook haar NV40 roadmap helemaal aangepast. NV40 zou namelijk gebaseerd zijn op FX technologie en meer richting unified shaders gaan. Dit werd door David Kirk een aantal keren aangegeven. Maar later draaide hij 180 graden om en zei dat unified niet de toekomst had, maar dat men moest gaan voor parallelisme (net zoals R300-R420).

nVidia wijkt hier nu dus flink af van haar eigen strategie door de refresh over te slaan. Maar goed, beide fabrikanten wijken nu af van hun eigen schema. Zowel ATi als nVidia hebben gezegd dat ze om de 18 maanden een nieuwe generatie zouden uitbrengen met daartussen in 2 refreshes (na 6 en 12 maanden). nVidia lijkt dit te veranderen in: om de 24 maanden generatiesprong + 1 refresh na 12 maanden. En ATi brengt geen tweede refresh uit van de R4x0 serie.

Mocht ik iets over het hoofd hebben gezien, dan hoor ik dat graag.
Anoniem: 23009 schreef op dinsdag 21 december 2004 @ 12:48:
zullen we nu veel verschil tussen Shader Model 3.0 en 4.0 kunnen zien of zal het meer aan de performance liggen van de application zelf?
Shader Model 4.0 geeft hints naar een Unified Shader model. Dus wat dat betreft is dit een grote stap voorwaarts vanaf SM3.0. De stap SM2.0 -> SM3.0 is een stuk kleiner dan de stap SM3.0 -> SM4.0. Wat betreft performance is dat denk ik afhankelijk van de applicatie zelf. Maar wel is het zo dat, doordat men richting unified gaat, met elke extra shader zowel de performance van pixel shading als vertex shading omhoog gaat (want elke shader heeft dezelfde syntax en feature set).

In de huidige situatie met NV40 en R420 heb je dus 16 pixelshaders en 6 vertexshaders. In de unified situatie zouden alle shaders zowel pixel als vertex bewerkingen kunnen uitvoeren. Dus krijg je in pixelshader intensieve applicaties opeens toegang tot 22 pixelshaders, terwijl in vertex-intensieve applicaties opeens de pixelshaders ook vertexbewerkingen kunnen uitvoeren. Tel dan maar uit je winst.

Leuk artikel over DX Next en SM4: http://www.beyond3d.com/articles/directxnext/

[ Voor 8% gewijzigd door CJ op 21-12-2004 19:25 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Boushh
  • Registratie: Januari 2003
  • Laatst online: 28-12-2024

Boushh

of TFA

Dat de R300 gepaperlaunched werd in Juli (18 om precies te zijn) daar heb je gelijk in. De leverbaarheid kwam echter pas op gang in Augustus. Maar ik heb nergens gezegd dat de FX al voor Maart 2002 gepland stond (heb gezegd zomer 2002).

[.......]
Er valt weinig op of aan te merken aan jou uitleg. We hebben er alleen op een andere manier naar gekeken (ik naar de feitelijke releases, en jij meer naar wat de fabrikanten graag wilde en de geruchten en zo).

Ik begrijp wat je bedoelt hoor, de NV30 moest het tegen de R300 opnemen, en de NV35 tegen de R350. En dat door de problemen bij nVidia de releases van de NV30 en de NV35 dicht bij elkaar zijn komen te zitten.

Maar ik hoop ook dat je begrijpt wat ik bedoel: dat ATi de R350 of R360 niet had hoeven te releasen, maar dat ze ook hadden kunnen kiezen voor een next-gen produkt (bijvoorbeeld de R420 ipv de R360). Om de simpele reden dat nVidia daar toch geen antwoord op gehad zou hebben.

Ik kan mij best voorstellen dat het als ATi adapt vervelend is als de concurrent niet doet wat je er van verwacht (dus geen R480 tegenover de NV48, maar bijvoorbeeld een NV48 tegenover de R520). Maar dat gebeurt af en toe gewoon. Ik geloof er namelijk heilig in dat nVidia het hele FX tijdperk met geknepen billen heeft zit hopen dat ATi maar vooral niet eerder met bijvoorbeeld de R420 zou komen. De introductie van de R300 op het tijdstip dat het gebeurde was een verrassing voor nVidia, als nVidia nu de NV48 tegenover de R520 zou zetten dan denk ik dat ATi dat niet echt als een verassing zou zien.

En ik denk daarom dat beide fabrikanten tegen de introductie van DirectX Next weer samen op 1 lijn zullen zitten. Tot die tijd zullen de meeste introducties spannende verrassingen worden :)

Acties:
  • 0 Henk 'm!

Anoniem: 45027

Op de AGP versies van de 6600GT passen geen/weinig alternatieve koelers. De plaatsing van de core is namelijk anders. Past op de 6800 AGP serie ook weinig tot geen alternatieve koelers?

Ik baal er namelijk een beetje van, ik had erop gerekend dat ik de koeler kon vervangen. Maar helaas. Ik zat ook over een waterkoel setje te denken. Maar zo'n VGA waterblok zal dan ook wel niet passen op een 6600GT AGP :(

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 06-06 14:58
Anoniem: 45027 schreef op dinsdag 21 december 2004 @ 21:20:
Op de AGP versies van de 6600GT passen geen/weinig alternatieve koelers. De plaatsing van de core is namelijk anders. Past op de 6800 AGP serie ook weinig tot geen alternatieve koelers?

Ik baal er namelijk een beetje van, ik had erop gerekend dat ik de koeler kon vervangen. Maar helaas. Ik zat ook over een waterkoel setje te denken. Maar zo'n VGA waterblok zal dan ook wel niet passen op een 6600GT AGP :(
Ik heb nog niks vernomen over de koelblokjes maar als je het succes ziet van de 6600 serie kun je er vanuit gaan dat ze binnenkort op de markt zullen komen.
Ik zou nog even geduld hebben of proberen er zelf 1 te tweaken ;)

Acties:
  • 0 Henk 'm!

Anoniem: 107572

Na de kerstdagen zal mijn nieuwe Systeem besteld worden , het betreft hier een AMD64 3000+ , met een SLI capable mobo.. nu zit ik alleen te twijfelen , 200 euro voor een 6600GT,256MB ram , of een normale 6800 , maardie is ook gelijk bijna 200 euro duurder.. what todo , what todo..

ik wil iniedergeval Half Life 2,CS. Source, DOD Source zonder lag,framedrops etc etc kunnen spelen..
en het liefst ook spellen als Rome Total war, en Lord of the rings BFME.

dus wat denken jullie?

van allebij zal ik later een 2de kaart erbij kopen voor snellere prestaties.

gaat nu alleen ff om kwaliteit/geld/prestaties.. ikga geen 200 euro duurdere kaart kopen als ze bijna alles aankunnen allebij.

Acties:
  • 0 Henk 'm!

  • skaars
  • Registratie: Oktober 2004
  • Laatst online: 07-02 11:29
De kerst komt er al weer aan, en dat betekend voor mij dat ik weer wat geld erbij heb..
Nu leek het mij een goed idee om een nieuwe videokaart aan te schaffen en, voor zover dat kan, een beetje een goeie. nou viel mijn oog op de asus v9999ge. Zijn er mensen die al ervaring met deze kaart hebben en hem ten strengste afraden, of is hij wel goed?
Mijn pc is ook niet zo supr (ook aan een upgrade toe) AMD 2600+ 2250mhz 512 mb mem. etc etc. zou het mogelijk zijn mijn pc de "bottleneck" wordt of is deze kaart gewoon bagger?

het internet is als een neus, je moet eruit halen wat erin zit


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 01:40

Deathchant

Don't intend. Do!

Anoniem: 107572 schreef op woensdag 22 december 2004 @ 15:07:
Na de kerstdagen zal mijn nieuwe Systeem besteld worden , het betreft hier een AMD64 3000+ , met een SLI capable mobo.. nu zit ik alleen te twijfelen , 200 euro voor een 6600GT,256MB ram , of een normale 6800 , maardie is ook gelijk bijna 200 euro duurder.. what todo , what todo..

ik wil iniedergeval Half Life 2,CS. Source, DOD Source zonder lag,framedrops etc etc kunnen spelen..
en het liefst ook spellen als Rome Total war, en Lord of the rings BFME.

dus wat denken jullie?

van allebij zal ik later een 2de kaart erbij kopen voor snellere prestaties.

gaat nu alleen ff om kwaliteit/geld/prestaties.. ikga geen 200 euro duurdere kaart kopen als ze bijna alles aankunnen allebij.
Ik heb een Pentium 2.6GHZ en 1 gig geheugen (zie specs) en een Gainward 6800GT GoldenSample.

Ik heb een paar tests gedaan en ik game ALTIJD op 1600x1200. Ik kan Half life 2 met 3xfsaa en 16xaf spelen zonder haperingen!! farcry gaat echter iets minder met dit alles. Kan ik wel met 8xAF en 2xFSAA vloeiend draaien.

Voor CS:Source en HL2 is een GT MEER dan genoeg. of jij nou 2x6600GT's wil of 1x6800GT moet jij weten. een 6800GT krijg je al voor 398 euro

[ Voor 5% gewijzigd door Deathchant op 22-12-2004 19:25 ]

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 115092

dat kan ik bevestigen. Half Life 2 spelen met een 6800 GT draait echt heel goed met 4xaa / 8xaf met alles op max. Ik zou voor een 6800GT gaan ipv 2x een 6600GT of één dual 6600GT. Op hogere resoluties met AA en AF zul je met één 6800GT beter uit zijn. Daarnaast kun je over ene jaar of zo, als de 6800GT in prijs is gedaalt er altijd nog een 6800GT bij gaan plaatsen. Vanzelf sprekend is dat nog veel beter dan 2x een 6600GT.

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Extreme Tech heeft beloofd een Q&A met zowel ATi als nVidia te houden. De nVidia Q&A op Extreme Tech is nu geplaatst. David Kirk geeft antwoord op een aantal vragen van bezoekers. Sommige zijn 'verhelderend' waar andere toch eigenlijk vrij vaag en omzeilend blijven (zie ook 'broken videoprocessor' gedeelte). Interessant is dat David Kirk nog steeds laat blijken dat parallellisme misschien toch beter is dan unified, maar hij kan natuurlijk mensen om de tuin leiden.
Question: Are GPU architectures and Direct3D evolving toward a design where the distinction between vertex and pixel shaders essentially goes away?—davesalvator

David Kirk: For hardware architecture, I think that's an implementation detail, not a feature.

For sure, the distinction between the programming models and instruction sets of vertex shaders and pixel shaders should go away. It would be soooo nice for developers to be able to program to a single instruction set for both.

As to whether the architectures for vertex and pixel processors should be the same, it's a good question, and time will tell the answer. It's not clear to me that an architecture for a good, efficient, and fast vertex shader is the same as the architecture for a good and fast pixel shader. A pixel shader would need far, far more texture math performance and read bandwidth than an optimized vertex shader. So, if you used that pixel shader to do vertex shading, most of the hardware would be idle, most of the time. Which is better—a lean and mean optimized vertex shader and a lean and mean optimized pixel shader or two less-efficient hybrid shaders? There is an old saying: "Jack of all trades, master of none."
http://www.extremetech.com/article2/0,1558,1744806,00.asp

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Anoniem: 114862

SkaarS schreef op woensdag 22 december 2004 @ 15:22:
De kerst komt er al weer aan, en dat betekend voor mij dat ik weer wat geld erbij heb..
Nu leek het mij een goed idee om een nieuwe videokaart aan te schaffen en, voor zover dat kan, een beetje een goeie. nou viel mijn oog op de asus v9999ge. Zijn er mensen die al ervaring met deze kaart hebben en hem ten strengste afraden, of is hij wel goed?
Mijn pc is ook niet zo supr (ook aan een upgrade toe) AMD 2600+ 2250mhz 512 mb mem. etc etc. zou het mogelijk zijn mijn pc de "bottleneck" wordt of is deze kaart gewoon bagger?
ik heb de 6800GE en hij bevalt prima!
ondanks dat ik een barton 3200+ heb, toch nog 4200punten in 3dmark2005 :)

maar helaas is gisteren mijn vga koeler overleden, gelukkig dat mijn aerogate2 begon met piepen, die sensor zit welliswaar niet op de core maar wel in de buurt.

Zat te counterstriken en allemaal artifacts, volgens smartdoctor was de kaart net de 100graden gepasseerd :'(

neon fan bleek ook niet meer licht te geven.
Straks even omruilen (garantie :))

als ik wat geld bijleg heb ik een asus 6800 ultra deluxe :*)

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

Anoniem: 114862 schreef op donderdag 23 december 2004 @ 11:48:
[...]


ik heb de 6800GE en hij bevalt prima!
ondanks dat ik een barton 3200+ heb, toch nog 4200punten in 3dmark2005 :)

maar helaas is gisteren mijn vga koeler overleden, gelukkig dat mijn aerogate2 begon met piepen, die sensor zit welliswaar niet op de core maar wel in de buurt.

Zat te counterstriken en allemaal artifacts, volgens smartdoctor was de kaart net de 100graden gepasseerd :'(

neon fan bleek ook niet meer licht te geven.
Straks even omruilen (garantie :))

als ik wat geld bijleg heb ik een asus 6800 ultra deluxe :*)
toon volledige bericht
Waarom koop je dan niet gewoon een GT? Dan moet je zelfs geen pipes unlocken. Verschil GT en Ultra is pure clockspeed.

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

CJ schreef op donderdag 23 december 2004 @ 09:48:
Extreme Tech heeft beloofd een Q&A met zowel ATi als nVidia te houden. De nVidia Q&A op Extreme Tech is nu geplaatst. David Kirk geeft antwoord op een aantal vragen van bezoekers. Sommige zijn 'verhelderend' waar andere toch eigenlijk vrij vaag en omzeilend blijven (zie ook 'broken videoprocessor' gedeelte). Interessant is dat David Kirk nog steeds laat blijken dat parallellisme misschien toch beter is dan unified, maar hij kan natuurlijk mensen om de tuin leiden.


[...]


http://www.extremetech.com/article2/0,1558,1744806,00.asp
Wat natuurlijk ook kan is dat met de huidige technologie pixel en vertex shaders te veel van elkaar verschillen (maw dat de noden van de shaders anders liggen, de ene heeft rekenkracht nodig en de andere bandbreedte bijvoorbeeld), maar dat ATi dit op een of andere manier opgelost heeft.
Ik zie zelf eigenlijk het nut niet zo... In een echte server (niet in zo'n brakke onboard) zit de RAID ook op een aparte PCI-X kaart... Je laat je processor (die tenslotte over heel veel rekenkracht tov de raid processor beschikt) toch geen RAID5 berkenen? Die processor heeft daar veel meer moeite mee dan een simpel chipje wat er speciaal voor gebouwd is.... Dat ene chipje kan wel maar een ding, die processor kan vanalles :)

Anoniem: 23009

nog een vraagje ik weet dat het sinds GeForce3 bestaat hehe maare dat Quincunx is dat nou eigenlijk FSAAx3 of is dat een iets mindere mooie mode dan FSAA x2? Het komt wel een beetje over als een nooby little question hehe, maare dat zit me een beetje dwars, ik gebruik het nooit, ik heb toch een 6800GT 256 GDDR3 FSAA x8S en AF x16 zijn me huidige instellingen, maar dat quincunx is me nog niet echt door gedrongen aangezien dat van de Voodoo5 niet zit, daar is het maar x2 en x4 of voor de Voodoo5 6000 gebruiker FSAA x8 hehe.

Als iemand me duidelijk een beschrijving hoe dat quincunx in elkaar zit, dan hoor ik het graag! :)

[ Voor 10% gewijzigd door Anoniem: 23009 op 23-12-2004 14:20 ]


  • skaars
  • Registratie: Oktober 2004
  • Laatst online: 07-02 11:29
Anoniem: 114862 schreef op donderdag 23 december 2004 @ 11:48:
[...]


ik heb de 6800GE en hij bevalt prima!
ondanks dat ik een barton 3200+ heb, toch nog 4200punten in 3dmark2005 :)

:*)
Heb je "pipelines" open gegooit?
Zo nee, is dat zinvol in dit systeem?

het internet is als een neus, je moet eruit halen wat erin zit


  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

SkaarS schreef op donderdag 23 december 2004 @ 15:08:
[...]


Heb je "pipelines" open gegooit?
Zo nee, is dat zinvol in dit systeem?
Ik heb dus een 6800LE met een barton 2500+ (nu) @ 3200+, ik haal standaard +-6500 3dMarks03, na het unclocken van de pipelines +- 9000 en na nog wat overclocken zit ik al over de 11000. (4500 in 3dMark05), dus het heeft zeker wel nut. :)

Anoniem: 120251

Als cs:source met een Geforce 6600GT al mooi uitziet en soepel loopt, dan ben ik al dik tevreden. Hoef ik geen 400 euro voor uit te geven. :)
Los van het SLI gebeuren.

  • jprommen
  • Registratie: Juni 2000
  • Laatst online: 08-05 10:34
Anoniem: 23009 schreef op donderdag 23 december 2004 @ 14:19:
nog een vraagje ik weet dat het sinds GeForce3 bestaat hehe maare dat Quincunx is dat nou eigenlijk FSAAx3 of is dat een iets mindere mooie mode dan FSAA x2? Het komt wel een beetje over als een nooby little question hehe, maare dat zit me een beetje dwars, ik gebruik het nooit, ik heb toch een 6800GT 256 GDDR3 FSAA x8S en AF x16 zijn me huidige instellingen, maar dat quincunx is me nog niet echt door gedrongen aangezien dat van de Voodoo5 niet zit, daar is het maar x2 en x4 of voor de Voodoo5 6000 gebruiker FSAA x8 hehe.

Als iemand me duidelijk een beschrijving hoe dat quincunx in elkaar zit, dan hoor ik het graag! :)
Het is een manier om FSAA x4 met de load van FSAA 2x te realiseren. Natuurlijk is het niet echt FSAA 4x, maar voor de tijd van de GeForce 3 was het een handige manier om toch je beeld aanzienlijk op te schroeven.

Even Tweakers checken...


  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 09:38
jprommen2 schreef op donderdag 23 december 2004 @ 16:58:
[...]
Het is een manier om FSAA x4 met de load van FSAA 2x te realiseren. Natuurlijk is het niet echt FSAA 4x, maar voor de tijd van de GeForce 3 was het een handige manier om toch je beeld aanzienlijk op te schroeven.
het geeft bij mijn weten echter ook een flinke hoeveelheid blur...
een van de redenen (en dat de perf van huidige fsaa beter is) dat het niet meer zoveel wordt gebruikt dachtik

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Anoniem: 121781

ik heb maandag een xfx geforce 6800GT :)
dus kan ik een paar jaah weer vooruit
heb hem inplaatsvan een 5900XT
heb nu ff 9600 pro meteen weer problemen met beeld is zwart enzo
dus ATI sucks en geforce THE BEST ;)

heb er weer zin in

  • jprommen
  • Registratie: Juni 2000
  • Laatst online: 08-05 10:34
Anoniem: 121781 schreef op donderdag 23 december 2004 @ 18:27:
ik heb maandag een xfx geforce 6800GT :)
dus kan ik een paar jaah weer vooruit
heb hem inplaatsvan een 5900XT
heb nu ff 9600 pro meteen weer problemen met beeld is zwart enzo
dus ATI sucks en geforce THE BEST ;)

heb er weer zin in
Mag ik vragen waar je hem vandaan hebt :) Ik zie wel al de 6800GT's van andere merken op voorraad staan (alternate.nl / overclockers.co.uk), maar ik mag XFX wel. Ik ben nog op zoek naar twee kaarten ;)

Even Tweakers checken...


Anoniem: 121781

jprommen2 schreef op donderdag 23 december 2004 @ 18:36:
[...]


Mag ik vragen waar je hem vandaan hebt :) Ik zie wel al de 6800GT's van andere merken op voorraad staan (alternate.nl / overclockers.co.uk), maar ik mag XFX wel. Ik ben nog op zoek naar twee kaarten ;)
heb hem bij de paradigit besteld in eindhoven daar kwamen ze vrijdag maar omdat het kerst is zijn ze om 5 uur dicht en dan zijn die kaarten er ongeveer :'(
dus wordt het maandag

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

Anoniem: 121781 schreef op donderdag 23 december 2004 @ 18:27:
ik heb maandag een xfx geforce 6800GT :)
dus kan ik een paar jaah weer vooruit
heb hem inplaatsvan een 5900XT
heb nu ff 9600 pro meteen weer problemen met beeld is zwart enzo
dus ATI sucks en geforce THE BEST ;)

heb er weer zin in
Ik neem aan dit dit AGP is? Ben nog steeds op zoek naar een PCIe-kaart :'(

  • jprommen
  • Registratie: Juni 2000
  • Laatst online: 08-05 10:34
racoontje schreef op donderdag 23 december 2004 @ 19:04:
[...]


Ik neem aan dit dit AGP is? Ben nog steeds op zoek naar een PCIe-kaart :'(
Bah... dat is het natuurlijk... zit te veel in het SLI topic, vergeet bijna dat AGP ook nog bestaat.

BTW racoontje als je niet perse XFX wil, dan zijn bij alternate.nl en overclockers.co.uk echt PCIe 6800 (GT) kaarten op voorraad en direct leverbaar.

[ Voor 23% gewijzigd door jprommen op 23-12-2004 20:03 ]

Even Tweakers checken...


Anoniem: 115092

Kun je eigenlijk net zo goed tot maandag wachten, tenzij je hem persee en tegen elke prijs voor maandag wilt hebben.

Acties:
  • 0 Henk 'm!

Anoniem: 23009

jprommen2 schreef op donderdag 23 december 2004 @ 16:58:
[...]


Het is een manier om FSAA x4 met de load van FSAA 2x te realiseren. Natuurlijk is het niet echt FSAA 4x, maar voor de tijd van de GeForce 3 was het een handige manier om toch je beeld aanzienlijk op te schroeven.
aha dank je wel voor de uitleg :) ik zag dat het ook FSAA x2Q heet , hehe ik zag het bij me GeForce 6800 driver settings staan hehe, maare ik heb sinds vandaag het spel StarWars Battlefront en met me XFX Geforce 6800GT 256 DUAL DVI heb ik hem effe een stress test gedaan op 1600 x 1200 x32 alle detail op max settings in het spel en de kaart op High Quality met FSAA x8S en AFx 16 en ik haalde een mooie 43 frames per sec, nou dat is erg mooi voor een nieuw spel hehe. Maar het was erg klein op een 17inch Dell 1025HE scherpje dus dan maar terug op 1024 x 768 x 32 gezet, het beeldkwaliteid ging er helemaal niet op achteruit en de performance verdubbelde bijna naar 70 frames per sec.

Me NV40 sysje:

AMD Athlon64 3200+ 1MB L2 S754
MSI MS-7030 K8N Neo Platinum met nVidia nForce3 250Gb
2x 512Mb PC-3200 Elixir
XFX Geforce 6800GT 256 DUAL DVI Rev.B 0434 jaar 2004 week 34 ;)

Dus hier ken ik ook weer een paar jaar op vooruit. de Leadtek GeForce4 Ti4600 was me vorige kaart, maar die is nog ingebruik in me Dual Pentium!!!/EB 1Ghz, de GeForce4 Ti4600 blijft een heelijk kaartje. hehe Good ol NV25 :D

Zijn er nog meer blije XFX 6800GT mensen hier , dat zal toch wel! :o

[ Voor 12% gewijzigd door Anoniem: 23009 op 24-12-2004 02:54 ]


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 01:40

Deathchant

Don't intend. Do!

Anoniem: 115092 schreef op woensdag 22 december 2004 @ 22:28:
dat kan ik bevestigen. Half Life 2 spelen met een 6800 GT draait echt heel goed met 4xaa / 8xaf met alles op max. Ik zou voor een 6800GT gaan ipv 2x een 6600GT of één dual 6600GT. Op hogere resoluties met AA en AF zul je met één 6800GT beter uit zijn. Daarnaast kun je over ene jaar of zo, als de 6800GT in prijs is gedaalt er altijd nog een 6800GT bij gaan plaatsen. Vanzelf sprekend is dat nog veel beter dan 2x een 6600GT.
Spijker op kopje :)

en aan QreZiX: als ik je een advies mag geven. Ga voor de Leadtek A400GT TDH retail. Neef van me heeft em zich gekocht via ebay voor 350 euro nieuw in doos. Ik heb die eens heel goed geinspecteerd, en wat een monster.
Het is zwaar duidelijk te zien dat Leadtek niet zuinig gedaan heeft: massieve koperen heatsinks voor en achter, ook over het geheugen.

En boven de core is nog een extra koperen koelrib binnen de algehele heatsink, en binnen in die extra koperen koelrib is ook nog een koperen heatpipe.
Als die niet goed koelt weet ik het niet meer

[ Voor 36% gewijzigd door Deathchant op 24-12-2004 19:10 ]

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 115092

Jemig wat een koeling voor 350 euro! Das geen geld. Al helemaal goedkoop voor ene 6800 GT kaartje!

Zoals DeathChant al quote, mijn ervaringen zijn uitstekend met deze kaart! Ik kan iedereen een geforce 6800GT aanraden en de mensen met ene minder budget een 6800 LE. Ik heb beide kaarten gehad (de 6800GT heb ik nog steeds). De geforce 68xx / X8xx series zie ik als de ideale tussenkaarten tussen de oude generaties (DX8 en DX9 kaarten) en DX Next.

De R520 / NV47 generatie zou ik persoonlijk links laten liggen omdat je dan al dicht tegen de DX Next tijd aan komt tegen de tijd dat de kaarten daadwerkelijk leverbaar zijn. Het zou zonde zijn om over een half jaar tot ene jaar 200 - 500 euro te investeren als een echt vernieuwende generatie voor de deur staat (R600 / NV50 --> DX Next).

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Er zit een klein foutje in de startpost. :9 De 6800LE heeft namelijk gewoon 700mhz geheugen i.p.v. 650mhz. ;)

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 17:01

epo

Het ziet er toch naar uit dat de Dual 6600GT Gigabyte kaart een 256bits geheugenbus heeft ! :9
GIGABYTE technology innovates the world NO.1 3DMark 2003 performance graphics card of the world which uses 2 pcs Nvidia 6600GT GPU in one card and named “3D1”. It is the only one 6600GT card built with 256MB DDR III memory and supports 256bit memory bandwidth as well.

Instead of using 2 separate 6600GT cards and linked them up in SLI modem Gigabyte has the two cores linked up on one card. What that would mean it will have reduced latency. This is probably the first graphics card out that uses Dual 6600GT to unleash the power of SLI.

3D1 comes with 256MB of DDR III rated at 1.6ns which means a potential of 625MHz (1250MHz DDR). The card is rated with a core clock of 500Mhz and a memory clock of 560MHz (1120MHz DDR). The package comes with 2 games, Thief (DVD) and Joint Operation (CDROM).


Superior Features

 Powered by dual GeForce 6600GT.
 First 6600GT card be built with 256MB DDR III memory.
 First 6600GT card supports 256bit memory bandwidth.
 “3D1” takes advantage of the dual fan cooling system to control the airflow sucked and pushed out for remaining in low GPU temperature and reduces the noise of the fan.
 To achieve 3DMark 2003 performance over 14,000, and to create a new milestone of the graphics card.
 To support with GIGABYTE unique overclocking utility V-TUNER 2, and let customers can tweak two GPU simultaneously.
 Support HDTV output
 To bundle selling with GBT extra performance 8Σ series GA-K8NXP-SLI motherboard to provide the most deluxe gaming package.


GPU Dual 6600GT
Memory Size 256MB DDR III
Memory Bandwidth 256bit
Memory Clock 1120 MHz
Core Clock 500 MHz
Direct X 9.0C
D-SUB Yes
HDTV Yes
DVT Port DVI-I
toon volledige bericht
Hele artikel is hier te vinden http://www.ocworkbench.com/2004/gigabyte/gv-3d1/g1.htm

Prestaties :

Afbeeldingslocatie: http://www.ocworkbench.com/2004/archives/dec/m1benchmark.jpg

Foto van het kaartje :

Afbeeldingslocatie: http://www.ocworkbench.com/2004/archives/dec/Picture%202373%20copy.jpg

Dit ziet er toch erg leuk uit :*)

[ Voor 10% gewijzigd door epo op 24-12-2004 23:39 ]


Acties:
  • 0 Henk 'm!

Anoniem: 114616

zo, zeker!

Maar dan heeft nvidia toch een nieuwe 6600 chip ontwikkeld.?

Acties:
  • 0 Henk 'm!

Anoniem: 115092

Jemig wat een kaart is dat dan. In dat geval had ik hem zeker overwogen als hij echt een 256-bits bus heeft!

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Zo te zien een erg sterke kaart. :*) Nu alleen nog wat game benchmarks en de prijs; ze zeggen dat deze onder die van de high-end producten (500euro) zit, maar hoeveel?, 30...50..mss zelfs 100euro? :?
Ik gok dat deze toch minimaal 450 euro gaat kosten, nog steeds veel geld maar verreweg een betere prijs-performance dan een X850XT (PE)/X800XT (PE) etc en de 6800 Ultra/GT.

Acties:
  • 0 Henk 'm!

  • Lefty_38
  • Registratie: Mei 2004
  • Laatst online: 25-11-2024
Ik heb ff een vraagje over de Nvidia drivers. Want je kan je kaart overklokken met de software van NVIDIA zelf. Eerst kon ik dat ook maar na een driverupdate gedaan te hebben (66.81) staat die optie er niet meer tussen :? ... Weet iemand hoe je dat OC menutje kan activeren?

b.v.d.

Q6600 | 4GB | 24" Dell 2407-HC | Logitech Z-5500 | iPhone 4


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Lefty_38 schreef op zaterdag 25 december 2004 @ 16:54:
Ik heb ff een vraagje over de Nvidia drivers. Want je kan je kaart overklokken met de software van NVIDIA zelf. Eerst kon ik dat ook maar na een driverupdate gedaan te hebben (66.81) staat die optie er niet meer tussen :? ... Weet iemand hoe je dat OC menutje kan activeren?

b.v.d.
Klopt inderdaad, je moet coolbits weer opnieuw downloaden en installeren. :)

Acties:
  • 0 Henk 'm!

Anoniem: 115092

Over overklokken gesproken, dat lijkt me wel lastiger met een dual 6600GT. De 2 cores moeten namelijk wel even snel kunnen lopen... Van de andere kant zijn de prestaties toch al hoog genoeg! maar de echte modders en overklokkers kunnen dan toch beter uit kijken naar een Radeon X800Pro vio, 6800GT of een 6800 LE.

[ Voor 25% gewijzigd door Anoniem: 115092 op 25-12-2004 19:09 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 115092 schreef op zaterdag 25 december 2004 @ 19:08:
Over overklokken gesproken, dat lijkt me wel lastiger met een dual 6600GT. De 2 cores moeten namelijk wel even snel kunnen lopen... Van de andere kant zijn de prestaties toch al hoog genoeg! maar de echte modders en overklokkers kunnen dan toch beter uit kijken naar een Radeon X800Pro vio, 6800GT of een 6800 LE.
Daar wordt heus wel wat op gevonden.. ;) , Ze zeiden hetzelfde over gewoon SLI, dat het niet over te clocken is, maar het tegendeel is nu absoluut wel bewezen. :*)

Wat ik me nog afvraag, zou deze kaart ook nog in SLI gezet kunnen worden, dus met 2 kaarten? Ik zie geen connector op dat plaatje van Epo...

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 17:01

epo

Anoniem: 115092 schreef op zaterdag 25 december 2004 @ 19:08:
Over overklokken gesproken, dat lijkt me wel lastiger met een dual 6600GT. De 2 cores moeten namelijk wel even snel kunnen lopen... Van de andere kant zijn de prestaties toch al hoog genoeg! maar de echte modders en overklokkers kunnen dan toch beter uit kijken naar een Radeon X800Pro vio, 6800GT of een 6800 LE.
Wat valt er te modden aan een 6800GT ?? Hier kan je alleen mee overklokken!
Laten we de reviews eerst even afwachten, tenslotte de nr 1 bij 3dmark2005 heeft ook zijn SLI kaartjes beide vet overgeklokt!

[ Voor 22% gewijzigd door epo op 25-12-2004 19:57 ]


Acties:
  • 0 Henk 'm!

Anoniem: 119483

Voor de zoveelste keer: neehee want dit is al sli

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 17:01

epo

Anoniem: 119483 schreef op zaterdag 25 december 2004 @ 19:52:
Voor de zoveelste keer: neehee want dit is al sli
Moet wel mogelijk zijn, dat SLI kaartje is niet perse nodig. Alleen de software moet er mee om kunnen gaan.

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 119483 schreef op zaterdag 25 december 2004 @ 19:52:
Voor de zoveelste keer: neehee want dit is al sli
Hoe weet je zo zeker dat dit niet mogelijk is?? 3DFX had ook kaarten met 4 (en meer? :D ) chips op 1 kaart, waarom zouden dan 2 kaarten met beide 2 chips niet kunnen samenwerken? :?

Acties:
  • 0 Henk 'm!

Anoniem: 119483

anders had die aansluiting er toch wel gezeten ?

Acties:
  • 0 Henk 'm!

  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

Anoniem: 115092 schreef op zaterdag 25 december 2004 @ 19:08:
Over overklokken gesproken, dat lijkt me wel lastiger met een dual 6600GT. De 2 cores moeten namelijk wel even snel kunnen lopen... Van de andere kant zijn de prestaties toch al hoog genoeg! maar de echte modders en overklokkers kunnen dan toch beter uit kijken naar een Radeon X800Pro vio, 6800GT of een 6800 LE.
Ze moeten inderdaad wel even snel lopen, maar sowieso kan je beide wel een beetje OC'en, en een goed geOC'de kaart is nog altijd slomer dan twee matige OC's in SLI.

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 119483 schreef op zaterdag 25 december 2004 @ 20:38:
anders had die aansluiting er toch wel gezeten ?
Misschien nog maar een prototype ofzo? Ach, we zien het wel als de eerste officiele benchmarks uitkomen. :)

Acties:
  • 0 Henk 'm!

Anoniem: 115092

epo schreef op zaterdag 25 december 2004 @ 19:52:
[...]


Wat valt er te modden aan een 6800GT ?? Hier kan je alleen mee overklokken!
Laten we de reviews eerst even afwachten, tenslotte de nr 1 bij 3dmark2005 heeft ook zijn SLI kaartjes beide vet overgeklokt!
Juist, daarom zei ik ook modders en overklokkers.... Modders gaat vooral op voor de 6800LE natuurlijk (die je daarnaast ook nog kan overklokken). Maybe dat ik het een beetje onhandig neer gezet had zo in één zin. Mijn excuses dan ook voor de ontstane verwarring.

Zoals racoontje al aan geeft kun je de dual 6600gt wel oc'en, alleen moet je dan wel heel toevallig twee goede cores hebben om tot een hoog resultaat te komen. De kans is veel groter dat je een normale 6800 GT / ultra ver kan oc'en dan een dual oplossing.

[ Voor 31% gewijzigd door Anoniem: 115092 op 25-12-2004 21:12 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 115092 schreef op zaterdag 25 december 2004 @ 21:08:
[...]


Juist, daarom zei ik ook modders en overklokkers.... Modders gaat vooral op voor de 6800LE natuurlijk (die je daarnaast ook nog kan overklokken). Maybe dat ik het een beetje onhandig neer gezet had zo in één zin. Mijn excuses dan ook voor de ontstane verwarring.

Zoals racoontje al aan geeft kun je de dual 6600gt wel oc'en, alleen moet je dan wel heel toevallig twee goede cores hebben om tot een hoog resultaat te komen. De kans is veel groter dat je een normale 6800 GT / ultra ver kan oc'en dan een dual oplossing.
Dat is inderdaad waar, maar het is ook wel gebleken dat de 6600(GT) cores allemaal behoorlijk lekker overclocken, en 2 cores tegelijkertijd overclocken levert natuurlijk meer performance winst op dan dezelfde overclock op 1 core. ;)

Acties:
  • 0 Henk 'm!

Anoniem: 23009

weet je wat me ook leuk lijkt? een vette GeForceLAN in NL, dan kunnen met zijn allen een keer ontmoeten en gezellig gamen hehe dat lijkt me wel wat, aangezien die GeForce Lan mpg-tjes die je bij nVidia.com kan downloaden erg cool zijn.

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Anoniem: 23009 schreef op zaterdag 25 december 2004 @ 22:24:
weet je wat me ook leuk lijkt? een vette GeForceLAN in NL, dan kunnen met zijn allen een keer ontmoeten en gezellig gamen hehe dat lijkt me wel wat, aangezien die GeForce Lan mpg-tjes die je bij nVidia.com kan downloaden erg cool zijn.
Daar zegt iemand wat! >:) :9~

[ Voor 3% gewijzigd door Tyranium op 25-12-2004 22:44 ]


Acties:
  • 0 Henk 'm!

Anoniem: 115092

jooo, lijkt me inderdaad mega stoer zo'n lan! Sowieso zijn lan party's altijd gaaf...

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 17:01

epo

Anoniem: 115092 schreef op zaterdag 25 december 2004 @ 21:08:
[...]


Juist, daarom zei ik ook modders en overklokkers.... Modders gaat vooral op voor de 6800LE natuurlijk (die je daarnaast ook nog kan overklokken). Maybe dat ik het een beetje onhandig neer gezet had zo in één zin. Mijn excuses dan ook voor de ontstane verwarring.

Zoals racoontje al aan geeft kun je de dual 6600gt wel oc'en, alleen moet je dan wel heel toevallig twee goede cores hebben om tot een hoog resultaat te komen. De kans is veel groter dat je een normale 6800 GT / ultra ver kan oc'en dan een dual oplossing.
Is iemand die een 6800le koop nu gelijk een modder ? die kaart wordt voornamelijk gekocht vanwege zijn prijs. Bovendien als je alle pipes unlocked wordt de kaart nog enorm gelimiteerd door zijn DDR1 geheugen.
Het is altijd een gok of een kaart goed of niet goed kan overklokken, de kans met een met een dual core is natuurlijk slechter, maar nou en ? Het gaat hier om de standaard prestaties van de kaart tov. bv een 6800GT. En natuurlijk dan ook de prijsverhouding. Dat heeft allemaal niks te maken met dat overklokken, en modders geneuzel.

Acties:
  • 0 Henk 'm!

Anoniem: 115092

Tyranium schreef op zaterdag 25 december 2004 @ 21:27:
[...]

Dat is inderdaad waar, maar het is ook wel gebleken dat de 6600(GT) cores allemaal behoorlijk lekker overclocken, en 2 cores tegelijkertijd overclocken levert natuurlijk meer performance winst op dan dezelfde overclock op 1 core. ;)
Als dat werkelijk zo is, dan is de kaart echt een toppertje! Zeker als hij vriendelijker geprijsd zal zijn dan een 6800 Ultra!

@Epo, nee iemand die ene 6800le koopt is niet meteen ene modder nee. Maar voor modders isde kaart wel interessant zoals ik al aan gaf. Een 6800Le is Prijs / kwaliteit een van de beste kaartjes op dit moment. Helemaal als je 4 of 8 extra pipes kan unlocken. Met een goede koeling erbij kom je vaak tot betere resultaten dan een gewone geforce 6800. Het enige nadeel van de kaart is inderdaad het gewone DDR geheugen en dat hij daar maar 128mb van heeft.

Verder vraag ik me eigenlijk af waar de 512Mb videokaarten blijven en hoe ze gaan presteren tegenover een 256MB kaart. Zouden de huidige generatie videokaarten al echt veel voordeel kunnen halen uit 256MB extra geheugen?

[ Voor 45% gewijzigd door Anoniem: 115092 op 26-12-2004 11:58 ]


Acties:
  • 0 Henk 'm!

Anoniem: 114616

Misschien mag hij niet van nvidia in sli omdat de prestaties dan te hoog worden om nog een grote verbetering te laten zien met de nieuwe generatie aka nv48, 47???

[ Voor 21% gewijzigd door Anoniem: 114616 op 26-12-2004 11:57 ]


Acties:
  • 0 Henk 'm!

Anoniem: 119772

Sjonge,
gister brak m'n Gainward GT een nieuw coolheids record, idle @ 37.850 graden celcius.
(gemeten met Gainward Expertool 3.18 omstreeks 2:00 am @ gpu 350 mhz ddr3 1000 mhz
fanspeed 60 %)
Twas niet eens super fris in de kamer. Ik kan me voorstellen dat die Leadtek ook best koel
zal draaien 8)

[ Voor 13% gewijzigd door Anoniem: 119772 op 26-12-2004 13:33 ]

Pagina: 1 2 3 4 5 Laatste

Dit topic is gesloten.