Toon posts:

[Algemeen] nVidia Nieuws & Discussie Topic - Deel 33 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 6 Laatste
Acties:
  • 34.727 views

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://tweakers.net/ext/f/052c1f249dcb1943dd9fb26e9eaba12a/full.jpg
http://www.xs4all.nl/~mlmk/nvts/topicregels.jpg

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Veel lees- en discussieerplezier toegewenst! :)
http://tweakers.net/ext/f/beb208f38018eb46714219f5c71ee181/full.jpg

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, zie o.a. [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27

http://tweakers.net/ext/f/c2258c1a2b5fc7d1d9228ad5f47aba37/full.jpg

In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur. Op het moment van schrijven is de 8800 Ultra de snelste GPU die er is. In bepaalde gevallen zelfs sneller dan high-end kaarten in SLI of Crossfire configuratie.


De belangrijkste features van de G80 zijn:
  • Unified shaders
  • DirectX 10 ondersteuning
  • OpenGL 2.0 ondersteuning
  • Nieuwe AA modes CSAA, 8Q, 16Q
  • 128 bit HDR ondersteuning in combinatie met AA
  • 16x hoekonafhankelijke AF
  • Ondersteuning voor GPU Physics
  • Shader Model 4
  • Purevideo (HD)
  • SLI
Hieronder volgen de modellen uitgerust met een G80 core:

8800 serie

http://www.xs4all.nl/~mlmk/nvts/cards/8800gts.jpg
8800 GTS
  • GPU: G80
  • Release Date: 11/2006
  • Interface: PCI-E x16
  • Transistors: 681 million
  • Unified shaders: 96
  • ROP's: 20
  • Core Clock: 500 MHz
  • Memory Clock: 800 MHz (1600 DDR)
  • Memory Bandwidth: 64 GB/sec
  • Memory Interface: 320 bit
  • Memory: 320 / 640 MB

http://www.xs4all.nl/~mlmk/nvts/cards/8800gtx.jpg
8800 GTX
  • GPU: G80
  • Release Date: 11/2006
  • Interface: PCI-E x16
  • Transistors: 681 million
  • Unified shaders: 128
  • ROP's: 24
  • Core Clock: 575 MHz
  • Memory Clock: 900 MHz (1800 DDR)
  • Memory Bandwidth: 86.4 GB/sec
  • Memory Interface: 384 bit
  • Memory: 768 MB


8800 serie
http://www.hardware.info/images/pcadvice/comp/001320.jpg
8800 Ultra
  • GPU: G80
  • Release Date: 11/2006
  • Interface: PCI-E x16
  • Transistors: 681 million
  • Unified shaders: 128
  • ROP's: 24
  • Core Clock: 612 MHz
  • Memory Clock: 1080 MHz
  • Memory Bandwidth: 86.4 GB/sec
  • Memory Interface: 384 bit
  • Memory: 768 MB



8600 serie

http://www.hardware.info/images/products/mini_thumbs/002054.jpg
8600 GT
  • GPU: G84
  • Release Date: 04/2007
  • Interface: PCI-E x16
  • Transistors: 289 million
  • Unified shaders: 32
  • ROP's: 8
  • Core Clock: 540 MHz
  • Memory Clock: 700 MHz (1400 DDR)
  • Memory Bandwidth: 22,4 GB/sec
  • Memory Interface: 128 bit
  • Memory: 256 MB

http://www.hardware.info/images/products/mini_thumbs/002053.jpg
8600 GTS
  • GPU: G84
  • Release Date: 04/2007
  • Interface: PCI-E x16
  • Transistors: 289 million
  • Unified shaders: 32
  • ROP's: 8
  • Core Clock: 675 MHz
  • Memory Clock: 1000 MHz (2000 DDR)
  • Memory Bandwidth: 32 GB/sec
  • Memory Interface: 128 bit
  • Memory: 256 MB



8500 en 8400

http://www.hardware.info/images/products/mini_thumbs/002054.jpg
8500 GT
  • GPU: G86
  • Release Date: 04/2007
  • Interface: PCI-E x16
  • Transistors: 210 million
  • Unified shaders: 16
  • ROP's: 8
  • Core Clock: 460 MHz
  • Memory Clock: 400 MHz (800 DDR)
  • Memory Bandwidth: 12,8 GB/sec
  • Memory Interface: 128 bit
  • Memory: 256 MB

http://www.hardware.info/images/products/mini_thumbs/002053.jpg
8400 GS
  • GPU: G86
  • Release Date: 06/2007
  • Interface: PCI-E x16
  • Transistors: 210 million
  • Unified shaders: 16
  • ROP's: 4
  • Core Clock: 460 MHz
  • Memory Clock: 400 MHz (800 DDR)
  • Memory Bandwidth: 6,4 GB/sec
  • Memory Interface: 64 bit
  • Memory: 256 MB

http://studwww.ugent.be/~dpaeps/g92.PNG

Sinds eind oktober 2007 is ook de G92 core op de markt. Dit is een G80 core, maar dan met enkele optimalisaties en gebakken op 65 i.p.v. 80nm, wat resulteert in een lager stroomverbruik.

Vanaf G92 core zijn er nog wat nog een extra technologieën gebruikt:
"HybridPower™* technology offers exceptional graphics performance and power savings for everyday needs"
en PCI-E 2.0 interface, wat een maximum transfer snelheid van 16GB/s oplevert <> PCI-E 1.0 die "slechts" 8GB/S als maximum heeft


8800 serie

http://www.shopbot.com.au/i/2007/10/3993341430_small.jpg
8800 GS / 9600GSO
  • GPU: G92
  • Release Date: 01/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 96
  • Shader Clock: 1375/1625 MHZ
  • ROP's: 12
  • Core Clock: 550/650 MHz
  • Memory Clock: 800/900 MHz (GDDR3)
  • Memory Bandwidth: 38.4/45.6 GB/s
  • Memory Interface: 192 bit
  • Memory: 384/768 MB

http://www.hardware.info/images/articles/teasers/001243.jpg



8800 GT
  • GPU: G92
  • Release Date: 10/2007
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 112
  • Shader Clock: 1500 MHz
  • ROP's: 16
  • Core Clock: 600 MHz
  • Memory Clock: 900 MHz (GDDR3)
  • Memory Bandwidth: 44.8/57.6 GB/sec (256MB/512,1024MB)
  • Memory Interface: 256 bit
  • Memory: 256,512,1024 MB



8800 en 9500

http://www.hardware.info/images/products/mini_thumbs/002559.jpg
8800 GTS 512MB
  • GPU: G92
  • Release Date: 12/2007
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 128
  • Shader clock: 1625
  • ROP's: 16
  • Core Clock: 650 MHz
  • Memory Clock: 970 MHz (GDDR3)
  • Memory Bandwidth: 64 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB

http://studwww.ugent.be/~dpaeps/vraagteken.PNG
9500 GT
  • GPU: G96
  • Release Date: Q3 2008?
  • Interface: PCI-E x16 2.0
  • Transistors: 754 million
  • Unified shaders: 32
  • Shader clock: 1375 MHz
  • Texture units: ??
  • ROP's: 12
  • Core Clock: 550 MHz
  • Memory Clock: 500/800 MHz (GDDR2/GDDR3)
  • Memory Bandwidth: 14.4/28.8 GB/sec (GDDR2/GDDR3)
  • Memory Interface: 128 bit
  • Memory: 256 MB (GDDR2/GDDR3)


9600 en 9800

http://www.hardware.info/images/products/mini_thumbs/020369.jpg
9600 GT
[list]
• GPU: G94
• Release Date: 02/2008
• Interface: PCI-E 2.0 x16
• Transistors: 505 million
• Unified shaders: 64
• shader clock: 1625 MHz
• Texture units: 32
• ROP's: 16
• Core Clock: 650 MHz
• Memory Clock: 900 MHz (DDR2/GDDR3)
• Memory Bandwidth: 57.6 GB/sec
• Memory Interface: 256 bit
• Memory: 512 (256/1024 )MB

http://www.hardware.info/images/news/teasers/011155.jpg
9800 GTX
  • GPU: G92
  • Release Date: 03/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 754 million
  • Unified shaders: 128
  • shader clock: 1688 MHz
  • Texture units: 64
  • ROP's: 16
  • Core Clock: 675 MHz
  • Memory Clock: 1100 MHz (GDDR3)
  • Memory Bandwidth: 70.4 GB/sec
  • Memory Interface: 256 bit
  • Memory: 512 MB


9800 serie

http://studwww.ugent.be/~dpaeps/vraagteken.PNG
9800 GTX+
  • GPU: G92 (55nm)
  • Release Date: 07/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: ??? million
  • Unified shaders: 128
  • Shader clock: 1836 MHz
  • Texture units: ??
  • ROP's: 16
  • Core Clock: 738 MHz
  • Memory Clock: 1000 MHz (GDDR3)
  • Shader Clock: 1836 MHz
  • Memory Bandwidth: ??? GB/sec
  • Memory Interface: ??? bit
  • Memory: ??? MB
  • 2-3 way SLI support

http://www.hardware.info/images/products/mini_thumbs/020360.jpg
9800 Gx2
  • GPU: 2x G92
  • Release Date: 03/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 2X 754 million
  • Unified shaders: 2x 128
  • Shader clock: 1500 MHz
  • ROP's: 2x 16
  • Core Clock: 600 MHz
  • Memory Clock: 1000 MHz (GDDR3)
  • Memory Bandwidth: 128 GB/sec
  • Memory Interface: 512 bit (2x 256 bit)
  • Memory: 1024 MB (2x 512MB)

http://studwww.ugent.be/~dpaeps/GT_200.PNG


De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.

De eerste 2 kaarten gereleased in deze nieuwe reeks zijn direct de high end kaarten. Deze kaarten zijn stukken beter dan de vorige high end maar dit brengt een mooi prijskaartje met zich mee. Hoewel dat er veel kans is dat deze prijs snel kan dalen doordat ati zijn kaarten deze keer veel beter opkunnen tegen het NVIDIA geweld (we denken aan de HD4870x2)
De GeForce GTX 280 en 260 gebruiken dezelfde identieke GPU cores maar het in het 260 model werden onderdelen van de core uitgeschakeld en ook de RAM en memory interface werden verminderd voor marketing doeleinden.

• De GT200 is tot nu toe de grootste GPU core die men tot nu toe ooit gefabriceerd heeft hij bestaat uit 1.4 miljard transistoren die een oppervlakte bestreiken van 575mm² gebakken met 65nm procédé hoewel men hard werkt om over te kunnen snappen naar 55nm. De totale kaart meet 27 cm.
• De 2 huidig gereleasde 200serie kaarten ondersteuen ook 10 bit kleuren, hiervoor heb je wel displayport nodig, dus voor dit feature zal je moeten wachten tot een fabrikant grafische kaarten met deze uitgangen beschikbaar zal stellen op de markt.
• Beide kaarten hebben een verbeterde versie van PureVideo voor het hardwarematig decoderen van oa VC-1,WMV9 en H.264 geëncodeerde filmbestanden.
• De standaard referentie kaart hebben allemaal 2 dual link DCI connectors en een HDTV/s-Video connector.
• Energieconsumptie: De high end kaarten zijn weer energievreters zoals je kon verwachten. Het maximale vermogen van deze kaarten zijn: 182 Watt (GTX260) tot 236 Watt (GTX 280)
• De GTX 280 zal 1 8-pin en 1 6-pin pci-e power connectoren vereisen wanneer de GTX 260 toekomt met "slechts" 2 6-pin pci-e power conectoren.

GT 200

http://www.hardware.info/images/products/mini_thumbs/026201.jpg
GTX 260
  • GPU: D10U-20
  • Release Date: 26/06/2008
  • Interface: PCI-E 2.0 x16
  • Transistors: 1400 million
  • Unified shaders: 192
  • Shader clock: 1242 MHz
  • ROP's: 28
  • Core Clock: 576 MHz
  • Memory Clock: 999 MHz (GDDR3)
  • Memory Bandwidth: 111.9 GB/sec
  • Memory Interface: 448 bit
  • Memory: 896 MB

http://www.hardware.info/images/products/mini_thumbs/026200.jpg
GTX 280
  • GPU: D10U-30 (65nm)
  • Release Date: 17/06/2008
  • Interface: PCI-E x16 2.0
  • Transistors: 1400 million
  • Unified shaders: 240
  • Shader clock: 1296 MHz
  • ROP's: 32
  • Core Clock: 602 MHz
  • Memory Clock: 1107 MHz (GDDR3)
  • Memory Bandwidth:141.7 GB/sec (GDDR3)
  • Memory Interface: 512 bit
  • Memory: 1024 MB (GDDR3)


http://www.xs4all.nl/~mlmk/nvts/geruchten.jpg


Yields

Het gerucht gaat dat de yields van deze nieuwe paradapaardjes niet echt hoog liggen (wat niet echt moeilijk te geloven is als men kijkt hoe groot de gpu is..). Nvidia zou zo snel mogelijk willen overstappen naar een 55nm procédé voor deze kaarten wat ook een prijsvermindering (en energieverbruik dus warmte vermindering??)
Een andere mogelijkheid is natuurlijk ook dat de voordelen van een 55nm versie ingezet zullen worden voor deze kaarten nog sneller te maken zoals de 9800GTX+, maar in alle 2 de gevallen zal de GPU fysiek kleiner worden ==> meer gpu's op 1 wafer + kans kleiner op uitval per gpu, wat de kostprijs danig kan drukken.

9800 GTX+
Het gerucht gaat dat verschillende fabrikanten deze kaart niet zullen verkopen maar hun fabrieksoverklokte kaarten zullen blijven inzetten op dit segment door de prijs van deze kaarten een stuk te laten dalen. Het moet gezegd worden dat buiten het feit dat deze kaarten wss meer zullen verbruiken dan een GTX 9800+ ze verder idd even snel kunnen zijn.

NV komt na de launch van de GTX 200 Serie met een driver die PhysX activeert op de GPU.

PhysX
NVIDIA begint met (momenteel nog beta) drivers uit te brengen die ervoor zouden moeten zorgen dat de grafische kaarten nu ook Physx gaan supporten.
Eerst zullen de high end kaarten aan de beurt komen voor deze ondersteuning maar later zullen alle grafische kaarten van de 8 en 9 serie deze support krijgen.
Dat Physx wel degelijk een positief effect kunnen hebben toont volgende grafiek mooi aan (UT3 map dat speciaal ontwikkeld is voor Physx )
http://www.techarp.com/editorials/img/0823_PhysX_03.png
Momenteel zijn er al beta drivers uit die reviewers kunnen gebruiken. De laatste software hiervoor zijn: Nvidia Forceware 177.39 + NVIDIA physX 8.06.12
Zie ook voor meer uitleg
en NVIDIA physX 8.06.12 driver


Naamgeving
Zoals aangekondigd gaat NVIDIA hun naamgeving "vereenvoudigen", dit gaat naar alle waarschijnlijkheid nieuwe naamgeving worden van nVidia:

GeForce GTX = Enthusiast
GeForce GT = High-end performance
GeForce GS = Mid-range performance
GeForce G= Entry (en IGP)

GTX= van 260 tot en met 290
GT= van 230 tot en met 250
GS= van 210 tot en met 220
G= van 201 tot en met 209

Dus straks zien we ongetwijfeld de:
GeForce GT 250 - 230
GeForce GS 220 - 210
GeForce G 209 - 201

Waarheidsfactor: 95%
Met dank aan CJ voor deze informatie


http://tweakers.net/ext/f/e8ef17b68ffe71bbc84d3cc54a05ee14/full.jpg

http://tweakers.net/ext/i.dsp/1158295888.jpg

Wat is PureVideo?
NVIDIA PureVideo™ technology is the combination of high-definition video processors and software that delivers unprecedented picture clarity, smooth video, accurate color, and precise image scaling for all video content. It turns your PC into a high-end home-theater.
NVIDIA PureVideo technology:
* Accelerates WMV HD and MPEG video,
* Features spatial-temporal de-interlacing for HD and SD content, and
* Performs inverse telecine, bad edit correction, and other post-processing functions to eliminate jaggies and blurriness, resulting in a sharp picture..
Dit document geeft een aardig overzicht : PureVideo Technology Overview (pdf)

Wat heb ik nodig?
• Een GeForce 6, 7 of 8 GPU
• Microsoft Windows XP mét Service Pack 2 (voor VMR9 support)
• NVidia's ForceWare driver
• NVidia's PureVideo Decoder
Windows Media Player 10 build 3923 of nieuwer (met DRM update & DXVA hotfix)

Hoe kom ik aan PureVideo?
Je kunt op de site van NVidia een 30-dagen trial downloaden, die met deze key 60 dagen werkt :)
First and Last Name: Trial-60
Email Address: dvdtrial@nVidia.com
Last 4 Digits of Credit Card: 2005
Activation Key: 84CA-4A56-9BF7-2D53-5BA3-5FD6-FA56
Na deze proefperiode kan je de PureVideo Decoder hier kopen.

Hoe configureer ik PureVideo?
Naast de NVIDIA PureVideo Decoder User's Guide is er ook een Reviewers Guide met tips (enigszins gedateerd). Voor beste kwaliteit en prestaties is het noodzakelijk Video Mixing Renderer (VMR) te activeren in Windows Media Player :
To set up the VMR follow these steps

1. Launch Windows Media Player
2. Click on Tools > Options on the menu bar
3. Click on the Performance tab
4. Click on the Advanced button

File Playback Video mixing renderer mode: check “Use video mixing renderer” and “use high quality mode”

DVD-Video playback Video mixing renderer mode: check “Use video mixing renderer” and uncheck “Use overlays”
Als "use high quality mode" is aangevinkt onder "File Playback", dan is het mogelijk dat MPEG-4 ASP videobestanden (XviD, DivX5 etc.) in zwart/wit met een groenige waas worden afgespeeld. Selecteer dan "Use overlays" onder "File Playback".

Als FFDShow op je systeem staat of stond, dan werkt PureVideo waarschijnlijk niet. Wees terughoudend met het installeren van codecpacks. Controleer met Windows XP Video Decoder Checkup Utility of PureVideo als MPEG-2 preferred codec actief is.

Meer informatie :
ATI VideoShaders - NVIDIA PureVideo
ATI's Avivo vs. NVIDIA's PureVideo: De-Interlacing Quality Compared
NVIDIA GeForce 7800 GTX Preview (de eerste 6 slides)
NVIDIA PureVideo Presentation
Principled Technologies PureVideo test report (PDF-bestand)
Scott Vouri Interview #1
Scott Vouri Interview #2
• En natuurlijk NVIDIA.com zelf.

Met dank aan FFWD
http://tweakers.net/ext/f/6b3772001871c65438368dd130158c2e/full.jpg

Officiële nVidia drivers voor GeForce 8 en 9 serie

175.16 Win XP 32-bit
175.16 Win XP 64-bit en win server 2003
175.16 Win Vista 32-bit
175.16 Win Vista 64-bit


173.14.05 Linux 32-bit
173.14.05 Linux 64-bit
173.14.05 FreeBSD 32-bit
173.14.05 Solaris 32 en 64-bit


nVidia BETA drivers voor GeForce 8 en 9 serie zijn hier te vinden:

nVidia BETA drivers

Nieuwe nVidia beta drivers. WHQL candidates:

XP 32-bit 177.79
Vista 32-bit 177.79
Vista 64-bit: 177.79
Met dank aan Rappie Rappie voor het posten van deze beta/whql kanidaat driver

Officiële nVidia drivers voor Mobile GPU's 84.63 32-bit
Een goede site voor drivers voor Mobile GPU's is www.laptopvideo2go.com

nVidia drivers voor de Geforce 200 serie
Nvidia GeForce 177.26 x64 met CUDA ondersteuning
Modded inf voor deze driver (voor niet g200 gtx kaarten dus)
Met dank aan biobak voor deze informatie

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


http://tweakers.net/ext/f/40245977b9afbc674b15978a1b3f6f31/full.jpg

Reviews GeForce 8800 GT en GTS (G92):
nVidia GeForce 8800 GT test
nVidia GeForce 8800 GTS 512 MB test
Sparkle GeForce 8800 GTS 512MB getest

Reviews GeForce 8800 GTX en GTS:
HardOCP
Anandtech
Firingsquad (GTX & GTS OC-ed)
Firingsquad (preview)
Tweakers.net
Tom's Hardware

Reviews GeForce 9600GT:
Tom's Hardware
Tweaktown
Guru3D
Firingsquad
Hard Ocp
Computerbase.de 9600GT Sli

Reviews GeForce 9800GTX:
FiringSquad 9800GTX Preview (ja met benchmarks)
PC-Online
Tweaktown
Nordic Hardware
Techspot

Reviews GeForce 9800GX2:
Hothardware
PCperspective
Anandtech
Twee Geforce 9800gx2 kaarten in sli (quad-sli)

Reviews Geforce GTX 280:
tweaktown
Guru3D
Guru3D Sli-Triple test
Hot Hardware
Drivers Heaven
The Tech Report
Legit Reviews
Hardware.info
nvnews.net
Tom's Hardware
HardOCP
Anandtech
Computerbase.de


Vorige Topics:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 18
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 19
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 20
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 21
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 22
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 23
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 24
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 25
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 26
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 28
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 29
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 30
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 31
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 32

Andere Interessante Topics:
[OC] nVidia GeForce 7 Series - Deel 1
[OC] nVidia GeForce 7 Series - Deel 2

Pricewatch
GeForce 8 serie in de Pricewatch
GeForce 9 serie in de Pricewatch
GeForce 200 serie in de Pricewatch

Voedingsissues 9800GX2
Deze kaart vereist een power supply van een pci-e 8 pins kabel.
Let hier mee op: Er zijn dus bijvoorbeeld heel veel modulaire voedingen waar een pci-e 6 pins naar pci-e 8 pins kabel bij zit.
Volgens Nvidia en EVGA zijn deze kabels niet goed en kunnen ze de kaart zelfs beschadigen bij gebruik.
Meer uitleg hierover kan je in dit topic vinden
Een lijst van voedingen gecontroleerd door nvidia zelf is te vinden op
NVidia Site
Met dank aan HugoBoss1985 voor deze informatie

Startpost: Jejking & biobak & RappieRappie
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

Specs


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://tweakers.net/ext/f/052c1f249dcb1943dd9fb26e9eaba12a/full.jpg
http://www.xs4all.nl/~mlmk/nvts/topicregels.jpg

Ik heb ervoor gekozen ook mobiele kaarten in de Openingpost(s) op te nemen, dit onder andere doordat laptops steeds een groter deel van de pc verkoop gaan innemen ten kosten van het (procentuele ) verkoop van desktops.
Dat ook de mobiele kaarten voor nieuwswaarde kunnen zorgen toont de volgende nieuwstopics op de tweakers FP mooi aan:
Nvidia ontkent geruchten over grootschalige gpu problemen
Dell brengt bios update uit voor nvidia bug
HP nvidia bug speelt al sinds november 2007

of wa positief nieuws voor de verandering ;):
Details GPU's GeForce 9700M en 9800M bekendgemaakt

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Veel lees- en discussieerplezier toegewenst! :)
http://tweakers.net/ext/f/beb208f38018eb46714219f5c71ee181/full.jpg

Informatie over de G70 core wordt in dit topic niet meer bijgehouden, daar deze kaarten al een redelijke leeftijd hebben en alle nieuwe laptops nu een 8 of 9 reeks van mobiele kaart hebben. De nieuwswaarde van de 7 reeks of oudere mobiele kaarten is dus enorm laag in te schatten.
http://tweakers.net/ext/f/c2258c1a2b5fc7d1d9228ad5f47aba37/full.jpg

In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur. Op het moment van schrijven is de 8800 Ultra de snelste GPU die er is. In bepaalde gevallen zelfs sneller dan high-end kaarten in SLI of Crossfire configuratie.


De belangrijkste features van de G80 zijn:
  • Unified shaders
  • DirectX 10 ondersteuning
  • OpenGL 2.0 ondersteuning
  • Nieuwe AA modes CSAA, 8Q, 16Q
  • 128 bit HDR ondersteuning in combinatie met AA
  • 16x hoekonafhankelijke AF
  • Ondersteuning voor GPU Physics
  • Shader Model 4
  • Purevideo (HD)
  • SLI
Hieronder volgen de Mobiele modellen uit de Geforce 8M reeks:

8 serie

8400M
Deze kaart is de opvolger van de go 7400M kaart. Technisch gezien zijn het tragere 8600M GS kaarten.
De voordelen zijn vooral DirectX 10 supportte en ondersteuning van purevideo.
De Qaudro FX 360M is gebaseerd op deze kaart.
  • GPU: G86M
  • Announce Date: 09/05/2007
  • Interface: PCI-E x16
  • Consumption: 11(GS)-14(GT) Watt
  • Transistors: 210 million


Geforce 8400M G GeForce 8400M GS GeForce 8400M GT
Stream-Processors 8 16 16
Core Clock (MHz) 400 400 450
Shader Clock (MHz) 800 800 900
Memory Clock (MHz) 600 600 600
Maximum Memory 256MB 256MB 512MB
Memory Interface 64-bit 64-bit 128-bit
Memory Bandwidth (GB/sec) 9.6 9.6 19.2
Texture Fill Rate (billion/sec) 3.2 3.2 3.6




8600M GT
Deze kaart is in essentie technisch gezien een hoger geklokte 8400M GT kaart. De performatie ligt net ietsje hoger dan de 7600 / 7700 go grafische kaarten.
De 8600M kaart is één van de eerste laptop GPU's die DirectX 10 support en hardwarematige versnelling van decodatie van H.264-geëncodeerde HD-films.
De quadro FX 570M kaart is gebaseerd op deze kaart.
  • GPU: G84M
  • Announce Date: 09/06/2007
  • Interface: PCI-E x16
  • Consumption: 20 Watt
  • Transistors: 289 million


GeForce 8600M GS GeForce8 600M GT
Stream-Processors 16 32
Core Clock (MHz) 600 475
Shader Clock (MHz) 1200 950
Memory Clock (MHz) 700 700
Maximum Memory 512MB 512MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 12.8/22.4 (DDR2/GDDR3) 12.8/22.4 (DDR2/GDDR3)
Texture Fill Rate (billion/sec) 4.8 7.6



8700M Serie
Deze Serie was oorspronkelijk ontwikkeld voor de high-end markt. Er is maar 1 versie van deze reeks namelijk de 8700M GT en een quadro afgeleidde de fx 1600M
Deze chipset kan je eigenlijk eerder zien als een deftige mid-end kaart dankzij oa zijn 128-bit memory bus. (Deze kaart toont bv een goede 3D mark performantie maar doet het ingame veel slechter dankzij de kleine memory bus, wat nog eens 3dmark zijn relevantie aantoont :'))
Hierdoor is deze kaart een in essentie een hoger geklokte 8600M GT kaart met GDDR-3. Deze kaart toont wel goede performantie in een dual-card sli configuratie. En is alleen goed genoeg om te gamen.
  • GPU: G84M/G84GLM(quadro fx 1600M)
  • Announce Date: 12/06/2007
  • Interface: PCI-E x16
  • Consumption: 29 /50Qqaudro) Watt
  • Transistors: 289 million


GeForce 8700M GT Qaudro fx 1600M
Stream-Processors 32 32
Core Clock (MHz) 625 625
Shader Clock (MHz) 1250 1250
Memory Clock (MHz) 800 800
Maximum Memory 512MB 512MB
Memory Interface 128-bit 128-bit
Memory Bandwidth (GB/sec) 25.6 (GDDR3) 25.6 (GDDR3)
Texture Fill Rate (billion/sec) 10 10



8800M Serie
Met de G92M core en een 256 bit Memory bus is deze serie is de echte Mobile 8 high-end serie. Er zijn 2 varianten van deze serie plus een Quadro afgeleide op de markt.
  • GPU: G92M (65 nm)
  • Announce Date: 19/11/2007
  • Interface: PCI-E x16
  • Consumption: 35 /37 Watt
  • Transistors: 754 million


GeForce 8800M GTS Qaudro FX 3600M GeForce 8800M GTX
Stream-Processors 64 (64 of) 96 96
Core Clock (MHz) 500 500 500
Shader Clock (MHz) 1250 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 512MB 512MB 512MB
Memory Interface 256-bit 256-bit 256-bit
Memory Bandwidth (GB/sec) 51.2 (GDDR3) 51.2 (GDDR3) 51.2 (GDDR3)
Texture Fill Rate (billion/sec) 16 16 24



http://studwww.ugent.be/~dpaeps/g92.PNG

De GeForce 9M Serie werd gereased op 21 februarie 2008 eerst exclusief voor asus maar daarop volgend ook voor andere merken (oa medion laptop beschikken al een tijdje over grafische kaarten van deze nieuwe reeks)

Alle GPU's in de Geforce 9M Serie beschikken over volgende eigenschappen:
  • Betere performantie bij hetzelfde verbruik in vergelijking met de GeForce 8M Serie voor de low- en mid-end kaarten.
  • Volledige DirectX 10.0 en OpenGL 2 compatibileit,
  • Mogelijkheid tot 16X antialiasing
  • Full HD DVD / Blu-ray hardware decodering.

9100M G
Geïntigreerde grafische kaart op het moederbord Met 8 stream processors, kan theoretisch 26 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze IGP kan kan samenwerken via hybrid sli met een 9200M of 9300M kaart wat resulteert in een performantie van een Geforce 9400M kaart
  • GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
  • GeForce 9100M G + GeForce 9200M GS = GeForce 9400M



9200M GS
Ultra low end grafische mobiele kaart Met 8 stream processors, kan theoretisch 31 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is gemaakt met als doel samen te werken met een GeForce 9100M via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart
  • GeForce 9100M G + GeForce 9200M GS = GeForce 9400M
  • GPU: NB9M
  • Announce Date: 03/06/2008
  • Interface: PCI-E x16
  • Consumption: 13 Watt
  • Transistors: ?? million
  • Core Speed: 550 MHz
  • Shader Speed: 1300 MHz
  • Memory Speed: 700 MHz
  • Memory Bus Width 64 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 256 MB



9300M G
low-mid end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart ondersteunt ook NVIDIA® Quantum Effects en kan samen werken met een GeForce 9100M (GS editie) via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart.
  • GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
  • GPU: NB9M
  • Announce Date: 04/06/2008
  • Interface: PCI-E x16
  • Consumption: 13 Watt
  • Transistors: ?? million
  • Stream processors: 16
  • Core Speed: 400 MHz
  • Shader Clock: 800 MHz
  • Memory Clock: 600MHz
  • Memory Bus Width: 64 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 256 MB


9500M Serie

95000M G
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 (ook 16 stream processors). Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
  • GPU: NB9P
  • Announce Date: 03/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ?? Watt
  • Transistors: ?? million
  • Stream processors: 16
  • Core Speed: 500 MHz
  • Shader Clock: 1250 MHz
  • Memory Clock: 800 MHz
  • Memory Bus Width: 128 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 1024 MB

95000M GS
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 maar met 32 stream processors. Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
Door de optimalisaties en dubbel aantal stream processors haalt deze kaart ongeveer 10% betere performance dan een 8600GT.
  • GPU: G84-50
  • Announce Date: 03/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ?? Watt
  • Transistors: ?? million
  • Stream processors: 32
  • Core Speed: 475 MHz
  • Shader Clock: 950 MHz
  • Memory Clock: 700 MHz
  • Memory Bus Width: 128 Bit
  • Memory Type GDDR2, GDDR3
  • Max. Amount of Memory 512 MB



9600M Serie
Deze med-end kaart is geproduceed met het 65nm proces welke hogere klok frequenties toelaten met hetzelfde verbruik. Ook deze kaart heeft de nieuwe PureVideo HD video processor (VP3) en HybridPower support.
Deze HybridPower support zorgt ervoor dat in samenwerking met de Nvidia 9100M G integrated graphics kaart er minder stroom wordt gebruikt (1 van de 2 wordt gebruikt echter nooit samen dit zou namelijk geen speed boost meer opleveren)

Deze kaart kan je qua performantie vergelijken met een 9500 GT desktop grafische kaart daar de 9600GT een 256 bit memory interface heeft en het dus stukken beter doet ;)
  • GPU: NB9P (65nm)
  • Announce Date: 3/06/2008
  • Interface: PCI-E2.0 x16
  • Consumption: ???/29 Watt (9650M GS)
  • Transistors: ??? million


GeForce 9600M GS GeForce 9600M GT GeForce 9650M GS
Stream-Processors 32 32 32
Core Clock (MHz) 430 500 625
Shader Clock (MHz) 1075 1250 1250
Memory Clock (MHz) 800 800 800
Maximum Memory 1024MB (GDDR2/GDDR3) 1024MB (GDDR2/GDDR3) 512MB (GDDR2?/GDDR3)
Memory Interface 128-bit 128-bit 128-bit
Memory Bandwidth (GB/sec) (GDDR3)
Texture Fill Rate (billion/sec)



http://tweakers.net/ext/f/6b3772001871c65438368dd130158c2e/full.jpg


Officiële nVidia drivers voor Mobile GPU's 84.63 32-bit
Een goede site voor drivers voor Mobile GPU's is www.laptopvideo2go.com


Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg
  • de 9700M en 9800M kaarten moeten nog bijgevoegd worden, maar sorry het wordt te laat vandaag.. of te vroeg tis maar hoe je het wilt bekijken
  • Mogelijke fouten en correcties mogen mij altijd gemeld worden via een DM of een forum postje in dit topic.
  • ook layout opmerkingen, vooral hints hoe het beter kan zijn altijd welkom atm ist echt niet super he :/ Maar ik vond inhoud belangrijker dan de verpakking (sounds nice voor te zeggen dat ik tot nu toe te lazy was voor meer naar layout te kijken .. :p)
  • Volgende punten waar aandacht gaan aan besteed worden, update TS, Hybrid SLI + PShychixs .. moet wa meer en betere uitleg in de TS

[Voor 98% gewijzigd door lightdestroyer op 30-07-2008 01:49]

Specs


Anoniem: 190625

Toen ik mijn 7950GX2 kocht was hij binnen 5 maanden verdwenen uit alle toonaangevende benchmarks.
Nu gebeurd naar mijn beste inschattingsvermogen hetzelfde met mijn 8800GTS 512.
Hoe kan ik nou weten of ik (nog) genoeg FPS behaal om mezelf te doen inzien dat ik nog niet aan vervanging toe ben in verhouding tot de nieuwe HD48XX kaarten als de benchmark aanbieders hooguit de 9800GTX en 9800GTX + en 9800GX2 hanteren op een enkeling na die de GT variant er bij voegt.
Kaarten die ik juist links heb laten liggen omdat ik géén sloot met geld meer uit wens te geven aan high end kaarten die harder vallen uit benchmarks dan bang for bucks kaarten.
Lekker vervelend dus als je zoals ik een 8800GTS 512mb (TOP) kaart hebt en zo nu en dan nog wil glunderen wanneer blijkt dat je kaart tactisch gezien een prima aankoop blijkt.
Dit word je echter niet gegund...
Ik heb nu een uurtje gegoogled en zover ik heb waargenomen is geen van de benchmarks waar Nvdia en Ati het tegen elkaar op nemen voorzien in een 8800 GTS 512.
Heb jij er wel een gevonden met dankzij je magische Google trefwoorden skill ..
Please let me know ...

[Voor 12% gewijzigd door Anoniem: 190625 op 23-06-2008 01:46]


  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 02-06 14:49

TGEN

Hmmmx_

Anoniem: 190625 schreef op maandag 23 juni 2008 @ 01:37:
Toen ik mijn 7950GX2 kocht was hij binnen 5 maanden verdwenen uit alle toonaangevende benchmarks.
Nu gebeurd naar mijn beste inschattingsvermogen hetzelfde met mijn 8800GTS 512.
Hoe kan ik nou weten of ik (nog) genoeg FPS behaal om mezelf te doen inzien dat ik nog niet aan vervanging toe ben in verhouding tot de nieuwe HD48XX kaarten als de benchmark aanbieders hooguit de 9800GTX en 9800GTX + en 9800GX2 hanteren op een enkeling na die de GT variant er bij voegt.
Kaarten die ik juist links heb laten liggen omdat ik géén sloot met geld meer uit wens te geven aan high end kaarten die harder vallen uit benchmarks dan bang for bucks kaarten.
Lekker vervelend dus als je zoals ik een 8800GTS 512mb (TOP) kaart hebt en zo nu en dan nog wil glunderen wanneer blijkt dat je kaart tactisch gezien een prima aankoop blijkt.
Dit word je echter niet gegund...
Ik heb nu een uurtje gegoogled en zover ik heb waargenomen is geen van de benchmarks waar Nvdia en Ati het tegen elkaar op nemen voorzien in een 8800 GTS 512.
Heb jij er wel een gevonden met dankzij je magische Google trefwoorden skill ..
Please let me know ...
Ten eerste is je 8800GTS512 redelijk vergelijkbaar met een 9800GTX. Haal er wat procenten van een score af, en je weet wat jouw kaart zou doen (zie 9800GTX reviews daarvoor). Ook is het een beetje suf om reviews van andere kaarten te willen lezen waarin jouw kaart nog goed voor de dag komt; dit soort dingen hoor je bij aankoop al van overtuigd te moeten zijn. Dat er na het besluiten tot het kopen van een product betere producten op de markt komen, met in de toekomst ook betere prijs-kwaliteitsverhoudingen, is een waarheid als een koe. Maak je dus niet druk erover, en kijk over een half jaar hoe de vlag erbij staat.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


  • psychoclown
  • Registratie: Juli 2006
  • Laatst online: 26-05 15:43

psychoclown

Back in black

@ Sherpmes

Tom's Hardware - GPU Charts is niet helemaal up to date maar geeft wel wat je zoekt eigenlijk.

WoT Profile | Noobmeter - kyozu | Youtube channel | Livestream


  • Wildfire
  • Registratie: Augustus 2000
  • Laatst online: 00:45

Wildfire

Joy to the world!

Ik heb dus afgelopen zaterdag mijn GTX 280 ingebouwd. Ik had de nieuwe PSU al klaarliggen voor de inbouw, blijkt @@#$@# dat ik 'm niet nodig heb. In tegenstelling tot de specs blijkt mijn PSU (Corsair HX620W) wèl een 8-pins PCI Express connector te hebben.

Ik zal later nog cijfers posten, maar mijn 3DMark Vantage score was iig verdubbeld tov mijn GeForce 8800 Ultra.

Systeemspecs | Mijn V&A spulletjes | Mijn RIPE Atlas probe


  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Wildfire schreef op maandag 23 juni 2008 @ 09:49:
Ik heb dus afgelopen zaterdag mijn GTX 280 ingebouwd. Ik had de nieuwe PSU al klaarliggen voor de inbouw, blijkt @@#$@# dat ik 'm niet nodig heb. In tegenstelling tot de specs blijkt mijn PSU (Corsair HX620W) wèl een 8-pins PCI Express connector te hebben.
Waarom heb je dat niet ff vooraf gechecked dan? Dergelijk spul wordt vaak tussentijds geupdate in een nieuwe revisie ;)

Als het goed is moet je die nieuwe voeding nog kunnen retoursturen naar de shop waar je 'm vandaan hebt. Het kost je dan alleen 8 Euro verzendkosten, dus geen man overboord :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Wildfire
  • Registratie: Augustus 2000
  • Laatst online: 00:45

Wildfire

Joy to the world!

Cheetah schreef op maandag 23 juni 2008 @ 10:08:
[...]
Waarom heb je dat niet ff vooraf gechecked dan? Dergelijk spul wordt vaak tussentijds geupdate in een nieuwe revisie ;)
Ik had geen zin om de hele moeite te doen om mijn behuizing weer los te koppelen enzo, dat ding staat dusdanig dat dat wat moeite kost. Dus ik controleerde de handleiding... :)
Als het goed is moet je die nieuwe voeding nog kunnen retoursturen naar de shop waar je 'm vandaan hebt. Het kost je dan alleen 8 Euro verzendkosten, dus geen man overboord :)
Weet ik, het retourrecht ivm de wet koop op afstand. Ik twijfel alleen of ik 'm wil terugsturen. Ergens in juli ben ik van plan een nieuwe behuizing te kopen en deze voeding kan ik dan meteen inbouwen. Is qua aansluitingen iets meer toekomstbestending dan mijn huidige voeding namelijk.

Systeemspecs | Mijn V&A spulletjes | Mijn RIPE Atlas probe


  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 20-05 09:57
Anoniem: 190625 schreef op maandag 23 juni 2008 @ 01:37:
Toen ik mijn 7950GX2 kocht was hij binnen 5 maanden verdwenen uit alle toonaangevende benchmarks.
Nu gebeurd naar mijn beste inschattingsvermogen hetzelfde met mijn 8800GTS 512.
Hoe kan ik nou weten of ik (nog) genoeg FPS behaal om mezelf te doen inzien dat ik nog niet aan vervanging toe ben in verhouding tot de nieuwe HD48XX kaarten als de benchmark aanbieders hooguit de 9800GTX en 9800GTX + en 9800GX2 hanteren op een enkeling na die de GT variant er bij voegt.
Kaarten die ik juist links heb laten liggen omdat ik géén sloot met geld meer uit wens te geven aan high end kaarten die harder vallen uit benchmarks dan bang for bucks kaarten.
Lekker vervelend dus als je zoals ik een 8800GTS 512mb (TOP) kaart hebt en zo nu en dan nog wil glunderen wanneer blijkt dat je kaart tactisch gezien een prima aankoop blijkt.
Dit word je echter niet gegund...
Ik heb nu een uurtje gegoogled en zover ik heb waargenomen is geen van de benchmarks waar Nvdia en Ati het tegen elkaar op nemen voorzien in een 8800 GTS 512.
Heb jij er wel een gevonden met dankzij je magische Google trefwoorden skill ..
Please let me know ...
Misschien heb je hier wat aan. Ik heb m'n opgevoerde G92 8800 GTS (825/2000) (dat zijn dus nog hogere 9800GTX+ snelheden voor de core!) vergeleken met m'n overgeklokte HD4850 (700/2300). Uiteindelijke conclusie:
default res zonder AA en AF is nVidia sneller, op high res met AA en met AF is ATi sneller.

Run 3DMark06 gedaan op Default 0xAA /0x AF 1280x1024 en een run op High 4x AA/16x AF 1680x1050.

Test setup NVidia:
E8400 @ 4.25 ( 8.5x500)
2GB DDR2-1200 (5-4-4-12)
Zotac G92 8800 GTS @ 825/2125/2000 (gpu/shaders/ram)

Test setup ATi:
E8400 @ 4.25 ( 8.5x500)
2GB DDR2-1200 (5-4-4-12)
Asus HD4850 @ 690/2250 (gpu/ram)

Default
8800GTS 0xAA /0x AF 1280x1024 15628
HD4850 0xAA /0x AF 1280x1024 13623

High
8800GTS 4xAA /16x AF 1680x1050 6856
HD4850 4xAA /16x AF 1680x1050 10020

details per test Default:
HD4850 0x AA/0x AF 1280x1024 (groen) tov 8800 GTS 0x AA/ 0x AF 1280x1024 (rood)
http://img209.imageshack.us/img209/3864/defwa7.jpg

details per test High:
HD4850 4x AA/16x AF 1680x1050 (groen) tov 8800 GTS 4x AA/16x AF 1680x1050
(rood, yeah i know :Y) )
http://img402.imageshack.us/img402/9987/highqu4.jpg

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


  • Apoca
  • Registratie: November 2001
  • Laatst online: 08:17

Apoca

Array Technology Industry

K zijn allemaal high tests dus op 1680x1050 he ( game zelf ook op deze resolutie vandaar dat ik het ff vraag), en zie je deze lijn ook in games op het moment dat je AA en AF daar aan zet? Zou je niet een COD 4 bench ofzo kunnen draaien? Unreal 3 is ook wel een leuke omdat veel games van die engine gebruik maken.

Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i


  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 20-05 09:57
Dat spel heb ik momenteel niet, maar zal eens kijken wat ik kan doen. Unreal3 heb ik :). Waarmee/hoe draai ik daarmee een goeie bench?
Bijvoorbeeld met die 'Unreal Tournament 3 Benchmark Tool' van Guru3D ?

Zal vanavond ook eens aan de slag gaan met de DevilMay Cry 4 benchmark

[Voor 36% gewijzigd door Demon_Eyez op 23-06-2008 12:54]

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


  • Apoca
  • Registratie: November 2001
  • Laatst online: 08:17

Apoca

Array Technology Industry

Dergelijke tools zijn altijd goed ja, ook TechPowerUP heeft een paar leuke DX10 Benchmarks:

http://www.techpowerup.com/downloads/Benchmarking/

Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i


  • Cleetje
  • Registratie: Februari 2006
  • Laatst online: 29-03 13:47

Cleetje

Psycho Slave ++

Ik ben van plan om 'binnenkort' (1-2 maanden) een upgrade uit te voeren van mn GPU. Momenteel doe ik het nog met een 8800GTS 320MB (G80) en ik wil een overstap maken naar SLI. Dat worden 2 nieuwe kaarten aangezien de G80 mij te warm wordt en bovendien flink aan de prijs is (slecht verkrijgbaar). Nu heb ik hoofdzakelijk 3 opties: 2x 9600GT, 2x 8800GTS en (in minder mate) 2x 9800GTX.

Het blijkt dat het verschil dus met name in het aantal shaders en transistors zit, terwijl de kloksnelheden aardig bij elkaar in de buurt komen (iig de beoogde 9600GT Alpha Dog van XFX). Mijn vraag: hoe groot is de impact van die shaders en transistors in dit segment? Met name vanwege het feit dat een 9600GT ongeveer de helft kost van een 9800GTX en +/- 75% van een 8800GTS) vraag ik me af of ik het prijsverschil over heb/merk in prestaties...

En wat is nu het grote verschil tussen de 9800GTX en de 8800GTS? De kloksnelheden zijn (wederom) iets hoger bij de 9800GTX, maar daar staat tegenover dat je gemakkelijk een factory O/Ced 8800GTS kan aanschaffen voor minder. Dat in combinatie met mijn huidige specs verwacht ik maar weinig extra performance van die 9800GTX, maar misschien dat iemand hier wat meer licht kan werpen?

Verdere (relevante) specs:

CPU: Intel E6600
RAM: 2GB DDRII @800MHz

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 20-05 09:57
Apoca schreef op maandag 23 juni 2008 @ 13:00:
Dergelijke tools zijn altijd goed ja, ook TechPowerUP heeft een paar leuke DX10 Benchmarks:

http://www.techpowerup.com/downloads/Benchmarking/
Ik draai zelf geen Vista, dus DX10 gaat niet lukken. Vroeg ik me af, wat is beter om te benchen. Een run met bots erin of een flyby run. Bij die tool van Guru3D kan je namelijk kiezen tussen bot-run en flyby. Ik ben geneigd voor flyby te kiezen als je verschillende kaarten wil vergelijken, en voor echte ingame experience results voor een bot-run, lijkt me in het laatste geval dat je CPU dan ook wat meer gaat uitmaken.

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


  • Wildfire
  • Registratie: Augustus 2000
  • Laatst online: 00:45

Wildfire

Joy to the world!

Apoca schreef op maandag 23 juni 2008 @ 13:00:
Dergelijke tools zijn altijd goed ja, ook TechPowerUP heeft een paar leuke DX10 Benchmarks:

http://www.techpowerup.com/downloads/Benchmarking/
Ter info: die URL werkt niet zomaar. TechPowerUp controleert op referrer, dus even in een nieuwe tab/venster copypasten (of Firefox met de NoReferrer addon gebruiken).

Systeemspecs | Mijn V&A spulletjes | Mijn RIPE Atlas probe


  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Ik wil niet als een ati fanboy klinken maar op dit moment is de 9800gtx geen goede keuze in vergelijking met de hd4850....

  • justifire
  • Registratie: December 2001
  • Laatst online: 22:55

justifire

Shut up and squat !!

Cleetje schreef op maandag 23 juni 2008 @ 14:03:
Ik ben van plan om 'binnenkort' (1-2 maanden) een upgrade uit te voeren van mn GPU.
Heb hier nog 2 8800GTX-en in de aanbieding.
Misschien ook interesant voor jou ? (Als je ten minste niks tegen 2de hands hebt)
256 mb meer geheugen dan de 9800GTX ;)

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙


  • rickyy
  • Registratie: Mei 2007
  • Laatst online: 24-03 18:34
justifire schreef op maandag 23 juni 2008 @ 16:30:
[...]

Heb hier nog 2 8800GTX-en in de aanbieding.
Misschien ook interesant voor jou ? (Als je ten minste niks tegen 2de hands hebt)
256 mb meer geheugen dan de 9800GTX ;)
Krijgt je 3e 8800GTX een plekje op de muur? P:

Core i5 4670k, 8gb, MSI GTX460 HAWK TA


  • Mag
  • Registratie: Juni 2004
  • Laatst online: 13-10-2020
Ik weet niet hoe het komt, maar opeens blijkt mijn scherm onscherper te zijn. Zo lijken sommige letters in windows menutjes en in mijn browser nu alsof ze opgeslagen zijn als lage kwaliteit .jpg. Oftewel, de kleuren lopen buiten de daadwerkelijke letter zeg maar. Ik heb gewoon de laatste drivers enzo. Geen idee hoe dit komt, maar ik krijg er echt koppijn van.

Scherm: Samsung Syncmaster 931c 19"
Vid Kaart: Asus GeForce EN8800GTS/HTDP 320MB PCI-E1

edit: ter verduidelijking, het is niet alleen zo dat de letters wat "blurry" zijn op sommige plaatsen, op de plekken waar ze zo zijn zijn ze ook wat paarsig.
Modbreak:Dit is een nieuws & discussietopic, niet een "stel je simpele vraagjes" topic :o

Post on-topic of post elders/niet...

[Voor 25% gewijzigd door dion_b op 25-06-2008 21:02]


  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 02-06 08:16
The INQ is niet echt te spreken over de laatste 3dmark scores trouwens:
http://www.theinquirer.ne.../nvidia-cheats-3dmark-177

  • Apoca
  • Registratie: November 2001
  • Laatst online: 08:17

Apoca

Array Technology Industry

Moet zeggen een goed stukje tekst van de Inq in lange tijd :)

Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i


  • Mag
  • Registratie: Juni 2004
  • Laatst online: 13-10-2020
Mgc schreef op maandag 23 juni 2008 @ 20:22:
Ik weet niet hoe het komt, maar opeens blijkt mijn scherm onscherper te zijn. Zo lijken sommige letters in windows menutjes en in mijn browser nu alsof ze opgeslagen zijn als lage kwaliteit .jpg. Oftewel, de kleuren lopen buiten de daadwerkelijke letter zeg maar. Ik heb gewoon de laatste drivers enzo. Geen idee hoe dit komt, maar ik krijg er echt koppijn van.

Scherm: Samsung Syncmaster 931c 19"
Vid Kaart: Asus GeForce EN8800GTS/HTDP 320MB PCI-E1

edit: ter verduidelijking, het is niet alleen zo dat de letters wat "blurry" zijn op sommige plaatsen, op de plekken waar ze zo zijn zijn ze ook wat paarsig.
Ik heb ondertussen geprobeerd om de drivers gewoon te deinstalleren en opnieuw te installeren. Toen vond ik dit:

**ranzig grote pic**

De "typische gebruiksscenario" gaat precies op. Ik kan het balkje echter niet slepen. En ipv 0% staat er ook "Geen". Iemand enig idee hoe dit komt?


Het is een beetje moeilijk te omschrijven allemaal, maar het is echt alsof mn scherm in een verkeerde resolutie staat, terwijl die dat niet is, en het is echt super irritant.


edit: het is al opgelost, Vormgeving -> effecten -> randen van letters vloeiend op het scherm weergeven
Modbreak:Kortom een doodgewoon softwareprobleem dat niets in VB te zoeken heeft en helemaal niets in dit topic. Om nog maar te zwijgen over de ranzig grote layout- en laadtijdverneukende pic.

Hou het graag offtopic, en als je vragen geen eigen topic waard zijn, zeker niet in andermans topic posten :o

[Voor 17% gewijzigd door dion_b op 25-06-2008 21:04]


  • justifire
  • Registratie: December 2001
  • Laatst online: 22:55

justifire

Shut up and squat !!

rickyy schreef op maandag 23 juni 2008 @ 17:30:
[...]


Krijgt je 3e 8800GTX een plekje op de muur? P:
Haha nee, die is al verkocht :)

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

whiteguy schreef op maandag 23 juni 2008 @ 20:44:
The INQ is niet echt te spreken over de laatste 3dmark scores trouwens:
http://www.theinquirer.ne.../nvidia-cheats-3dmark-177
Klopt, en hier een bevestiging van de situatie:

http://www.bjorn3d.com/Ma...800%20GTX+/SCORE_3DVP.png
http://www.bjorn3d.com/Ma...800%20GTX+/SCORE_3DVH.png

Bron: http://www.bjorn3d.com/read.php?cID=1297&pageID=5020

Een laatste redmiddel? Ben benieuwd wanneer Futuremark nVidia afschiet, maar iets zegt mij dat dat niet zo snel zal gebeuren. Die laten het hendig over aan de reviewsites ;)

[Voor 1% gewijzigd door Jejking op 23-06-2008 22:22. Reden: plaatjes stuk...]


  • Vincentio
  • Registratie: Februari 2002
  • Niet online
Ik betwijfel of Futuremark wel gaat optreden tegen deze situatie, als ze het doen en nVidia blokkeert in hun drivers de normale werking van 3D Mark, is het eerder Futuremark die er problemen door gaat krijgen dan nVidia.

Overigens dat PhysX is wel leuk en aardig, maar als je dan het lijstje games ziet wat het ondersteunt en nu nog er echt profijt van heeft is dat maar heel klein.

Aan een kant ben ik dan ook wel blij dat ik bijna niet meer game op mijn PC, maar meer op mijn Xbox, want een half jaar geleden 8800GT is nu al weer zwaar verouderd en meer dan 100 euro afschrijven in een half jaar is niet grappig.

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 02-06 08:16
Vincentio schreef op dinsdag 24 juni 2008 @ 00:50:
Ik betwijfel of Futuremark wel gaat optreden tegen deze situatie, als ze het doen en nVidia blokkeert in hun drivers de normale werking van 3D Mark, is het eerder Futuremark die er problemen door gaat krijgen dan nVidia.

Overigens dat PhysX is wel leuk en aardig, maar als je dan het lijstje games ziet wat het ondersteunt en nu nog er echt profijt van heeft is dat maar heel klein.

Aan een kant ben ik dan ook wel blij dat ik bijna niet meer game op mijn PC, maar meer op mijn Xbox, want een half jaar geleden 8800GT is nu al weer zwaar verouderd en meer dan 100 euro afschrijven in een half jaar is niet grappig.
de eerste hit op google als je zoekt op:
physx supported games

:o :D

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 12-01 23:43
the chance of it being approved are something between zero and having to buy Futuremark.
_O-

specs


  • Vincentio
  • Registratie: Februari 2002
  • Niet online
whiteguy schreef op dinsdag 24 juni 2008 @ 10:15:
[...]

de eerste hit op google als je zoekt op:
physx supported games

:o :D
Your point being? Ik heb die lijst gelezen en maar heel weinig games zullen er voordeel van hebben in vergelijking met een goede CPU. Het gaat meer om wat nog zou moeten gaan komen wat er profijt van heeft omdat deze al zwaarder de processor belasten.

Lezen is moeilijk soms he?

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 02-06 08:16
Vincentio schreef op dinsdag 24 juni 2008 @ 10:46:
[...]


Your point being? Ik heb die lijst gelezen en maar heel weinig games zullen er voordeel van hebben in vergelijking met een goede CPU. Het gaat meer om wat nog zou moeten gaan komen wat er profijt van heeft omdat deze al zwaarder de processor belasten.

Lezen is moeilijk soms he?
Het ging mij meer om het feit dat de bovenste hit een 404 error page is op het nvidia domein:
NVIDIA: Page Not Found
- [ Vertaal deze pagina ]
Press Room · NVISION 08 · Product Reviews · Events Calendar · Success Stories · NVIDIA in the News · NVIDIA Newsletter. Support ...
www.nvidia.com/page/mobile.html - 16k - In cache - Gelijkwaardige pagina's - Noteren

Anoniem: 246563

Wildfire schreef op maandag 23 juni 2008 @ 09:49:
Ik heb dus afgelopen zaterdag mijn GTX 280 ingebouwd. Ik had de nieuwe PSU al klaarliggen voor de inbouw, blijkt @@#$@# dat ik 'm niet nodig heb. In tegenstelling tot de specs blijkt mijn PSU (Corsair HX620W) wèl een 8-pins PCI Express connector te hebben.

Ik zal later nog cijfers posten, maar mijn 3DMark Vantage score was iig verdubbeld tov mijn GeForce 8800 Ultra.
Ik heb die voeding ook maar ik zie toch nergens een 8pin aansluiting zitten voor video kaarten :|
Of heb je 2 6pins naar een 8 pin laten omvormen?

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

whiteguy schreef op maandag 23 juni 2008 @ 20:44:
The INQ is niet echt te spreken over de laatste 3dmark scores trouwens:
http://www.theinquirer.ne.../nvidia-cheats-3dmark-177
Wat specifieker: Charlie Demerjian van The Inq is nooit te spreken over ook maar iets dat van nVidia afkomstig is ;)

Zie ook de comments direct eronder:
If you got it ,flaunt it
Nvidia owns Physx ,boo hoo ,if you got it flaunt it, you have every right to if you own something. This is deliberate obviously ,since Nvidia can flaunt those numbers ,wheres ATI cant ,simple as. Theres nothing new here and reviewers take an obvious note and move on.
posted by : ALz00, 23 June 2008

Oh Please
I am the biggest ATI fanboy on the east coast, nevertheless this article is bull. If Nvidia can offload the physx pipline off to the GPU and the user can see a dramatic gain in games without a loss of visual quality, I don't care how Futuremark has their legalese written about what is a valid score - there is significant and measureable improvement in physics calculations. In fact, someone who didn't have an Ageia card can now benefit in a way unheard of from all previous graphics drivers, as their card can do something that upon purchase, it was never intended to do!

I will upgrade to the latest 4000 series this winter and stay true to my ATI fanboy status, but I will give credit where credit is due - Nvidia pulled a rabbit out of their hat with this one.
posted by : estarkey, 23 June 2008

Bash the right people.
This is not something nvidia is doing wrong, this is the 3dmark people putting a CPU test in their suite and adding its result into a final score and then (many) reviewers using it to test graphics cards on themselves.
They should have designed the test to separate the CPU/PPU and GPU related tests also in the final score, since they know what their test is predominately used for, namely testing graphics cards and far far less for testing the capacities of an entire system to run games (if ever).
posted by : W.-, 23 June 2008

eh
As if 3DMark wasn't useless already.
It's amazing that getting better performance now for free can be construed as a bad thing. Looks to me that aside from the hoops you have to jump through, the GPU solution is fair. When someone plays an actual game, they can take advantage of this. Why not in a benchmark?

Just because Futuremark didn't have the foresight to call a physics test a physics test and not a CPU test doesn't mean nVidia users should have to gimp their setup for a benchmark.
Was it cheating to use a PhysX card on this benchmark?
posted by : Chris, 23 June 2008

how is this cheating?
How anti-Nvidia can you be? If you had a AgeiaPhysX card installed would not you get a "inflated" score versus if said cad was not installed?
If you have a game that used PhysX and it runs better on a Nvidia card now since they do the the PhysX calculations on GPU as compaired to the same game running on a ATI card that is not cheating on the part of Nvidia, it is a matter of ATI not doing the PhysX calculations.

If the purpose of 3DMark is to give you an idea of which GPU/CPU setup is faster overall and thus a better setup for gaming, would'nt it make sense to show that it produces higher scores with a Nvidia GPU that supports PhysX since a game that supported PhysX would also run faster?
posted by : game, 23 June 2008
So right... :)
Charlie moet niet huilen. nV kan physics doen op hun GPU. ATi (nog) niet. nV heeft die investering gedaan. ATi niet. Vantage ondersteund PhysX... dus heeft nV daar nou voordeel van en ATi niet.
Is physics op de GPU een 'big-deal'? Waarschijnlijk wel, want zowel ATi als nV zijn er mee bezig, al dan niet in tandem met diverse gamedeveloppers... alleen heeft ATi het op dit moment nog niet voor elkaar (ondanks ze al vanaf de X1000 serie roepen dat het eraan komt). Is nog niet echt een probleem, want er zijn nog niet dramatisch veel games die het ondersteunen. Vantage ondersteund het echter wel, en dat blijkt ook uit de totaalscore. Wil je de GPU score weten dan is het allemaal heel simpel: kijk naar de Vantage GPU score :)

Doet allemaal overigens weinig af aan mijn huidige voornemen om mijn volgende graphics setup uit 4850CF of een single 4870 te laten bestaan. Price/performancewise zien die er momenteel het best uit op mijn 1920x1200 reso met minimaal 4xAA/16xAF. Mijn complimenten aan ATi... ze laten met de 4-serie een teleurstellende 2 en 3 serie achter zich hebben na 2 jaar eindelijk weer een klant aan me :)

[Voor 16% gewijzigd door Cheetah op 24-06-2008 14:27]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Jedi_Pimp
  • Registratie: April 2006
  • Laatst online: 08:05
Cheetah schreef op dinsdag 24 juni 2008 @ 14:24:
[...]
Wat specifieker: Charlie Demerjian van The Inq is nooit te spreken over ook maar iets dat van nVidia afkomstig is ;)

Zie ook de comments direct eronder:

[...]
So right... :)
Charlie moet niet huilen. nV kan physics doen op hun GPU. ATi (nog) niet. nV heeft die investering gedaan. ATi niet. Vantage ondersteund PhysX... dus heeft nV daar nou voordeel van en ATi niet.
Is physics op de GPU een 'big-deal'? Waarschijnlijk wel, want zowel ATi als nV zijn er mee bezig, al dan niet in tandem met diverse gamedeveloppers... alleen heeft ATi het op dit moment nog niet voor elkaar (ondanks ze al vanaf de X1000 serie roepen dat het eraan komt). Is nog niet echt een probleem, want er zijn nog niet dramatisch veel games die het ondersteunen. Vantage ondersteund het echter wel, en dat blijkt ook uit de totaalscore. Wil je de GPU score weten dan is het allemaal heel simpel: kijk naar de Vantage GPU score :)

Doet allemaal overigens weinig af aan mijn huidige voornemen om mijn volgende graphics setup uit 4850CF of een single 4870 te laten bestaan. Price/performancewise zien die er momenteel het best uit op mijn 1920x1200 reso met minimaal 4xAA/16xAF. Mijn complimenten aan ATi... ze laten met de 4-serie een teleurstellende 2 en 3 serie achter zich hebben na 2 jaar eindelijk weer een klant aan me :)
Desalniettemin is het toch een goed verhaal, als je kijkt naar het technische aspect. Daarmee bedoel ik dat hij het goed uitlegt. De waarde "cheating" die hij er aan toekent, hoef je als lezer niet bepaald over te nemen... Waarom is volgens jou trouwens de HD3k serie teleurstellend?

"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Cheating noem ik het niet. Eerder een hele creatieve methode, alleen niet op zijn plek. Een CPU-test is een CPU-test. Als dat de totale score flink ophoogt doe je iets niet goed. Oftewel: Futuremark moet eens een apart gedeelte maken voor CPU-scores en niet langer zo'n idiote berekening op de punten loslaten.

  • Vincentio
  • Registratie: Februari 2002
  • Niet online
Jejking schreef op dinsdag 24 juni 2008 @ 21:54:
Cheating noem ik het niet. Eerder een hele creatieve methode, alleen niet op zijn plek. Een CPU-test is een CPU-test. Als dat de totale score flink ophoogt doe je iets niet goed. Oftewel: Futuremark moet eens een apart gedeelte maken voor CPU-scores en niet langer zo'n idiote berekening op de punten loslaten.
Sowieso het is Futuremark die de support voor Ageia kaarten heeft toegevoegd in die test, niet nVidia.
Dat nVidia daar tegenwoordig geen aparte kaart meer voor nodig heeft is niet hun probleem, dan moet of Futuremark het maar zo coden dat die Ageia kaart support er niet in zit, want met een aparte PhysX kaart had je hetzelfde resultaat gehad of het is gewoon working as intended.

  • Apoca
  • Registratie: November 2001
  • Laatst online: 08:17

Apoca

Array Technology Industry

Het is allemaal gezeur om niks, alleen in-game power telt uiteindelijk. Al haal ik 20K in Vantage, als ik geen fatsoenlijke hoeveelheid frames op mijn scherm krijg bij games heb je der geen fluit aan.

Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i


  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Apoca schreef op woensdag 25 juni 2008 @ 00:21:
Het is allemaal gezeur om niks, alleen in-game power telt uiteindelijk. Al haal ik 20K in Vantage, als ik geen fatsoenlijke hoeveelheid frames op mijn scherm krijg bij games heb je der geen fluit aan.
qft.

De meeste mensen deugen!


  • Wildfire
  • Registratie: Augustus 2000
  • Laatst online: 00:45

Wildfire

Joy to the world!

Anoniem: 246563 schreef op dinsdag 24 juni 2008 @ 13:18:
[...]

Ik heb die voeding ook maar ik zie toch nergens een 8pin aansluiting zitten voor video kaarten :|
Of heb je 2 6pins naar een 8 pin laten omvormen?
Nee, bij mijn 6-pins PCI Express aansluitingen zit nog een losse 2-pins connector ernaast die van de 6-pins dus een 8-pins connector maakt.

Zoiets als dit dus:

[Voor 33% gewijzigd door Wildfire op 25-06-2008 21:11]

Systeemspecs | Mijn V&A spulletjes | Mijn RIPE Atlas probe


  • Zarkov
  • Registratie: Augustus 2006
  • Laatst online: 01-06 21:04
Anoniem: 246563 schreef op dinsdag 24 juni 2008 @ 13:18:
[...]

Ik heb die voeding ook maar ik zie toch nergens een 8pin aansluiting zitten voor video kaarten :|
Of heb je 2 6pins naar een 8 pin laten omvormen?
De Corsair HX620 heeft volgens mij ergens tussentijds een update gehad waarin ook die 8 pins connectoren zijn toegevoegd. Ik had ook een eerste generatie HX620 en die had ook geen 8 pins connectoren. De kaarten van Asus komen trouwens wel met een 2*6 pins naar 1*8 pins connector.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Vincentio schreef op woensdag 25 juni 2008 @ 00:17:
[...]


Sowieso het is Futuremark die de support voor Ageia kaarten heeft toegevoegd in die test, niet nVidia.
Dat nVidia daar tegenwoordig geen aparte kaart meer voor nodig heeft is niet hun probleem, dan moet of Futuremark het maar zo coden dat die Ageia kaart support er niet in zit, want met een aparte PhysX kaart had je hetzelfde resultaat gehad of het is gewoon working as intended.
Juist, met zo'n Ageia PCI kaart krijg je vast ook een hogere score, aangezien die het ook van de cpu zal overnemen. We proberen al jaren PhysX van de grond te krijgen, en nu er eindelijk vaart in komt dankzij nVidia, gaat men het afbreken, voor een waardeloze benchmark tool :')
Your point being? Ik heb die lijst gelezen en maar heel weinig games zullen er voordeel van hebben in vergelijking met een goede CPU. Het gaat meer om wat nog zou moeten gaan komen wat er profijt van heeft omdat deze al zwaarder de processor belasten.
PhysX zal nu een enorme boost krijgen, nog een jaartje geduld. nVidia heeft ook nog veel werk aan haar drivers.

[Voor 19% gewijzigd door XWB op 25-06-2008 11:38]

World War One


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Ik ben bang dat tegen de tijd dat PhysX echt een impact gaat hebben, de al een andere physics API hebben.... een overkoepelende... bv DirectPhysics.... die op alle GPUs werkt ongeacht van welke IHV het komt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dat lijkt me pas in DirectX 11 te komen, 2010?

World War One


  • The Source
  • Registratie: April 2000
  • Laatst online: 02-06 18:02
Hacku schreef op woensdag 25 juni 2008 @ 12:23:
Dat lijkt me pas in DirectX 11 te komen, 2010?
niet in DX11,dus pas eventueel veel later, 2012?

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Voor zover ik weet ging DirectX 11 iets doen met PhysX, maar ik heb het verkeerd op?

World War One


  • KneoK
  • Registratie: December 2001
  • Laatst online: 21:09

KneoK

Not in a million lightyears

Hacku schreef op woensdag 25 juni 2008 @ 11:36:
[...]


Juist, met zo'n Ageia PCI kaart krijg je vast ook een hogere score, aangezien die het ook van de cpu zal overnemen. We proberen al jaren PhysX van de grond te krijgen, en nu er eindelijk vaart in komt dankzij nVidia, gaat men het afbreken, voor een waardeloze benchmark tool :')


[...]


PhysX zal nu een enorme boost krijgen, nog een jaartje geduld. nVidia heeft ook nog veel werk aan haar drivers.
En voor zover ik weet is Ati ook nog steeds met een eigen GPU physics engine bezig, dus nVidia's zogenaamde cheaten blijft ook niet lang hangen.


Pas als je je PhysX engine zo ver krijgt dat je taken die puur bedoeld zijn voor CPU overneemt ben je aan het cheaten, al zou ik dat juist enorm toejuichen ! Lekker belangrijk dat er een of ander getalletje omhoog gaat, zoals gezegd gaat dat ook met een dedicated physics kaartje. Als ik in UT3 de eerste muur zie afbrokkelen, hoe karig ook, dan is me dat veel meer waard dan dat stomme getal.

Ik ben heel erg benieuwd naar de officiele launch van de drivers en ben ook heel benieuwd of ze al wat zaken kunnen optimaliseren.

[Voor 4% gewijzigd door KneoK op 25-06-2008 18:55]


  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-06 01:00

SG

SG surft naar info hardewaren

Hacku schreef op woensdag 25 juni 2008 @ 18:18:
Voor zover ik weet ging DirectX 11 iets doen met PhysX, maar ik heb het verkeerd op?
Duurt even er na DX11 release ook daadwerkelijk DX11 games zijn en dan nog die goed gebruik maken van 'n immature PhysX api. Die moet ook groeien. Hoop dat ze het in een keer goed doen. Anders wordt het pas DX12. Havoc en PhysX zijn gebaseerd op veteranen API die al heel lang mee lopen en soms van eigenaar en naam zijn veranderd (Novodex).
Tenzij MS 'n andere goede veteraan opkoopt en daarop verderbouwd of het wiel opnieuw uit gaat vinden. En dat kost heel veel tijd. En maakt het ook nog onaantrekkelijk.

Kijk maar hoe Direct3D gegroeid is van DX2 tot DX10.

Dan krijg je de langzame migratie van games.

nV PhysX krijgt hier ook last van duurd even eer er goede games zijn die tot 'n full dedicated GPU kan benutten. op ene interresante en waardevolle manier.

Bionic commando of Shadow harvest of Alien collonial mariens of borderlands mischien.

Ik wacht eerst op goede games en dat weet je pas na release na vele reviews dan pas gericht upgraden. Zal wel ergens eind dit jaar worden.

Misschien dat
crysis Warhead
Farcry 2
Mij tot upgraden kunnen verlijden.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Anoniem: 219166

Ik heb bij het speld GRID AA en AF aangezet (4x en 16x) in nvidia CC. Maar ik blijf maar karteling en tinteling zien aan de zijlijnen van de circuits. Hoe kan dit nu? :s

  • justifire
  • Registratie: December 2001
  • Laatst online: 22:55

justifire

Shut up and squat !!

Anoniem: 219166 schreef op woensdag 25 juni 2008 @ 21:08:
Ik heb bij het speld GRID AA en AF aangezet (4x en 16x) in nvidia CC. Maar ik blijf maar karteling en tinteling zien aan de zijlijnen van de circuits. Hoe kan dit nu? :s
Tijdens het rijden? Vsync aan?
En gekozen voor 'override aplication control' ?
Zet ook je Transparant AA op Supervoorbeelden

[Voor 6% gewijzigd door justifire op 25-06-2008 21:43]

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙


  • The Source
  • Registratie: April 2000
  • Laatst online: 02-06 18:02
http://www.hothardware.co...hysX_Cheating_Allegation/
NVIDIA Responds To GPU PhysX Cheating Allegation

Conclusie: toegelaten, zoals ik al verwacht had. Geen wonder dat NV helemaal lyrish is over Vantage.

[Voor 48% gewijzigd door The Source op 25-06-2008 23:32]


  • KneoK
  • Registratie: December 2001
  • Laatst online: 21:09

KneoK

Not in a million lightyears

The Source schreef op woensdag 25 juni 2008 @ 23:30:
http://www.hothardware.co...hysX_Cheating_Allegation/
NVIDIA Responds To GPU PhysX Cheating Allegation

Conclusie: toegelaten, zoals ik al verwacht had. Geen wonder dat NV helemaal lyrish is over Vantage.
Ik vind dit in dat stuk veel interessanter:

And finally, to complete the picture a bit more, Mark Rein of Epic Games had this to say..."We couldn't care less about synthetic benchmarks. Real players play real games and in this case there is a real performance gain for a large number of users playing our game. The updated drivers that people are talking about allow properly-equipped Unreal Tournament 3 players users to use some amazing UT3 content that was specifically designed to take advantage of hardware-accelerated physics. So now that content works on high-end Nvidia graphics cards, as opposed to Ageia PPUs. This is a great thing as high-end Nvidia cards number in the millions, or tens of millions, compared to Ageia PPUs which obviously numbered far, far less. So Nvidia has done a cool optimization that allows their customers to get more value and performance out of their graphics cards. How anyone could possibly confuse this for a bad thing is beyond me."

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Apoca schreef op woensdag 25 juni 2008 @ 00:21:
Het is allemaal gezeur om niks, alleen in-game power telt uiteindelijk. Al haal ik 20K in Vantage, als ik geen fatsoenlijke hoeveelheid frames op mijn scherm krijg bij games heb je der geen fluit aan.
En wie kijkt er niet verder dan zijn neus lang is? De consument. Waar kijkt de consument naar? Naar Futuremark, want hoe hoger hoe beter! That's marketing ;)

  • Apoca
  • Registratie: November 2001
  • Laatst online: 08:17

Apoca

Array Technology Industry

Soms denk ik nog wel eens dat de "domheid" van de consument een overschat iets is, mensen nemen tegenwoordig steeds meer de moeite iets meer beslagen ten ijs te komen bij het kopen van producten.

Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
The Source schreef op woensdag 25 juni 2008 @ 23:30:
http://www.hothardware.co...hysX_Cheating_Allegation/
NVIDIA Responds To GPU PhysX Cheating Allegation

Conclusie: toegelaten, zoals ik al verwacht had. Geen wonder dat NV helemaal lyrish is over Vantage.
En toch klopt het niet.

De CPU test is niet meer dan dat... een CPU test.

De GPU wordt in de GPU test voor 100% gestressed. De CPU zou 100% moeten worden gestressed in de CPU test, tenzij je een dedicated PPU hebt. De CPU wordt nu echter niet meer volledig gestressed in de CPU test, maar de GPU doet dit ook voor een groot gedeelte... ik geloof dat die zich ook voor 100% in zet in de physics test.

Op zich niets mis mee... maar waar het mis gaat is het feit dat 3DMark een gamersbenchmark is en een indicatie moet geven van de performance in games. De scores zijn nu compleet opgeblazen en geven geen goed beeld meer.

Nu zijn er inderdaad games die PhysX gebruiken, maar in die games zal een GPU nooit 100% bezig zijn met 3D rendering terwijl het ook nog eens tegelijkertijd bezig is met 100% Physics. Daar is het altijd een balans tussen beide, dus bijvoorbeeld 70% rendering en 30% physics. Dit zie je niet terug in 3DMark Vantage, want daar werkt de GPU gewoon voor de volle 100% in zowel de GPU test als de CPU test. En dat was niet de bedoeling van 3DMark Vantage.... ;)

Mensen die dus verwachten dat PhysX acceleratie een giga boost gaat geven in games aan de hand van de opgeblazen 3DM Vantage scores zullen bedrogen uit komen. In shaderintensieve games zal je zelfs blij moeten zijn als je enkele frames meer hebt, want daar heb je alle shaderpower nodig om het beeld te renderen, laat staan dat er power over is om physx te berekenen. Anders wordt het wanneer je een tweede dedicated kaart hebt die zich volledig voor physX kan inzetten. Maar daar gaat het bij 3DMark Vantage niet om. :+

[Voor 3% gewijzigd door CJ op 26-06-2008 01:37]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Bejit
  • Registratie: Februari 2005
  • Laatst online: 29-05 13:30

Bejit

Svenska Faderland

CJ schreef op donderdag 26 juni 2008 @ 01:31:
[...]


En toch klopt het niet.

De CPU test is niet meer dan dat... een CPU test.

De GPU wordt in de GPU test voor 100% gestressed. De CPU zou 100% moeten worden gestressed in de CPU test, tenzij je een dedicated PPU hebt. De CPU wordt nu echter niet meer volledig gestressed in de CPU test, maar de GPU doet dit ook voor een groot gedeelte... ik geloof dat die zich ook voor 100% in zet in de physics test.

Op zich niets mis mee... maar waar het mis gaat is het feit dat 3DMark een gamersbenchmark is en een indicatie moet geven van de performance in games. De scores zijn nu compleet opgeblazen en geven geen goed beeld meer.
Het is eigenlijk helemaal geen CPU test, maar een physics test. Als je PPU in je systeem hebt verhoogt dit ook je CPU score, dan hebben toch ook niet over cheaten of over kromme benchmarks? PPU is ook geen CPU, dus ja.

Nu dat nVidia het gruwel PPU(€ 150 euro voor 2de hands technology :z) van de kaart heeft geveegd en nu combineert in 1, is dan ook niet meer dan een verademing.(Vooral voor je budget :P)

Systeempje


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Bejit schreef op donderdag 26 juni 2008 @ 08:52:
[...]

Het is eigenlijk helemaal geen CPU test, maar een physics test. Als je PPU in je systeem hebt verhoogt dit ook je CPU score, dan hebben toch ook niet over cheaten of over kromme benchmarks? PPU is ook geen CPU, dus ja.

Nu dat nVidia het gruwel PPU(€ 150 euro voor 2de hands technology :z) van de kaart heeft geveegd en nu combineert in 1, is dan ook niet meer dan een verademing.(Vooral voor je budget :P)
Je mist eigenlijk het hele punt van het stukje. Lees het nog eens zou ik zeggen, en dan het stukje over opgeblazen scores...

Een PPU in je system verhoogt inderdaad de scores. Maar die is 100% bezig met physics. Dat is het in games en dat is het in 3DMark.

Een GPU is niet 100% bezig met physics in games. Hij doet EN rendering EN physics. Vantage gaat wel uit van die situatie dat de CPU 2 test volledig gedaan wordt door dedicated hardware, waardoor de scores opgeblazen worden en er nog minder waarde aan de totaalscore gegeven moet worden dan er tot nu toe al aan gedaan werd.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Depep
  • Registratie: Juni 2007
  • Laatst online: 12-01 23:43
The Source schreef op woensdag 25 juni 2008 @ 23:30:
http://www.hothardware.co...hysX_Cheating_Allegation/
NVIDIA Responds To GPU PhysX Cheating Allegation

Conclusie: toegelaten, zoals ik al verwacht had. Geen wonder dat NV helemaal lyrish is over Vantage.
Waar lees jij dat het toegelaten wordt? In de tekst van nVidia lees ik duidelijk dat ze de driver niet naar Futuremark hebben gestuurd voor authorization. In de tekst van Futuremark lees ik hetzelfde, nVidia heeft de 177.35 driver ingestuurd, maar niet de 177.39 waarin PhysX enabled is.

Natuurlijk is het PhysX verhaal positief, als het nuttig is voor games zal je niemand horen klagen. Maar het punt is dat nVidia de drivers zo aanpast dat hun GPU de score van de CPU test in 3Dmark beïnvloedt. Bij de CPU test wordt de GPU normaal helemaal niet gebruikt en zou deze dus helemaal voor PhysX ingezet kunnen worden. Dat is geen realistische benchmark, aangezien in games de GPU erg druk is met graphics en slechts een deel ervan voor PhysX gebruikt kan worden. Op deze manier geeft een 3Dmark score dus een vertekend beeld.

edit: ja, wat CJ zegt :P

specs


  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Depep schreef op donderdag 26 juni 2008 @ 09:46:
Maar het punt is dat nVidia de drivers zo aanpast dat hun GPU de score van de CPU test in 3Dmark beïnvloedt.
Het is geen CPU test, het is een physics test.
Bij de CPU test wordt de GPU normaal helemaal niet gebruikt en zou deze dus helemaal voor PhysX ingezet kunnen worden. Dat is geen realistische benchmark, aangezien in games de GPU erg druk is met graphics en slechts een deel ervan voor PhysX gebruikt kan worden. Op deze manier geeft een 3Dmark score dus een vertekend beeld.
Een vertekend beeld?
Kijk hier eens naar.

http://www.techarp.com/editorials/img/0823_PhysX_03.png

Dat zijn 2,5x zo veel fps met physics enabled in een echt spel.
Ik begrijp niet wat er te miepen valt over 10% extra punten in Vantage, wanneer er 150% extra performance bereikt wordt in een real life game. Ik blijf er dan ook bij dat AMD/ATi's politieke keuze voor Havok CPU acceleratie i.p.v. PhysX GPU acceleratie een verkeerde was.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Shrimp O Vis
  • Registratie: Augustus 2007
  • Laatst online: 02-04-2019

Shrimp O Vis

Battle.net: SkyDiDeLY.628

Is dat met een pentium 3?

Ik neem aan dat bij de HD4850 en 9800GTX+ (zonder physx) de CPU voor de physx zorgt. Dus dan is dat de bottleneck toch? Maar bij de 9800GTX+ (met physx) zorgt de GPU daarvoor.. Dus dan heeft de CPU minder invloed en wordt niet gebottleneckt..

Maar met een e8400 @ 3,6 ghz zal het verschil een stuk kleiner (lees: bijna niets) zijn. Of zie ik het fout?

[Voor 56% gewijzigd door Shrimp O Vis op 26-06-2008 12:20]

Core 2 Duo E8400; 2x2gb OCZ; Sapphire Radeon HD4850; Gigabyte EX38-DS4; NZXT Apollo;
If I asked "Is an electron a wave OR a particle?", my question would be wrong before you even answered.


  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • masterchi
  • Registratie: Juli 2007
  • Laatst online: 15-01 09:49
CJ schreef op donderdag 26 juni 2008 @ 01:31:
[...]


En toch klopt het niet.

De CPU test is niet meer dan dat... een CPU test.

De GPU wordt in de GPU test voor 100% gestressed. De CPU zou 100% moeten worden gestressed in de CPU test, tenzij je een dedicated PPU hebt. De CPU wordt nu echter niet meer volledig gestressed in de CPU test, maar de GPU doet dit ook voor een groot gedeelte... ik geloof dat die zich ook voor 100% in zet in de physics test.

Op zich niets mis mee... maar waar het mis gaat is het feit dat 3DMark een gamersbenchmark is en een indicatie moet geven van de performance in games. De scores zijn nu compleet opgeblazen en geven geen goed beeld meer.

Nu zijn er inderdaad games die PhysX gebruiken, maar in die games zal een GPU nooit 100% bezig zijn met 3D rendering terwijl het ook nog eens tegelijkertijd bezig is met 100% Physics. Daar is het altijd een balans tussen beide, dus bijvoorbeeld 70% rendering en 30% physics. Dit zie je niet terug in 3DMark Vantage, want daar werkt de GPU gewoon voor de volle 100% in zowel de GPU test als de CPU test. En dat was niet de bedoeling van 3DMark Vantage.... ;)

Mensen die dus verwachten dat PhysX acceleratie een giga boost gaat geven in games aan de hand van de opgeblazen 3DM Vantage scores zullen bedrogen uit komen. In shaderintensieve games zal je zelfs blij moeten zijn als je enkele frames meer hebt, want daar heb je alle shaderpower nodig om het beeld te renderen, laat staan dat er power over is om physx te berekenen. Anders wordt het wanneer je een tweede dedicated kaart hebt die zich volledig voor physX kan inzetten. Maar daar gaat het bij 3DMark Vantage niet om. :+
Dat de GPU niet volledig beschikbaar is voor het renderen als het ook Physics moet doen is natuurlijk waar. Maar dat is het zelfde in de situatie van de CPU. Deze moet ook een deel van de resources aan Physics besteden in een echte game, welke mogelijk ook fps gaat kosten. En als het een Physics test is en niet een CPU test dan is dit in principe volgens de regels. Maar ik ken vantage niet goed genoeg om dit zeker te weten.
Verder ben ik het natuurlijk met je eens dat Vantage hiermee een scheef beeld gaat geven. Maar dat is niks nieuws. Het wordt alleen erger. Heel de 3dmark is tegenwoordig alleen nog (een beetje) geschikt voor het onderscheiden van kaarten van 1 fabrikant.

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Shrimp O Vis schreef op donderdag 26 juni 2008 @ 12:09:
Ik neem aan dat bij de HD4850 en 9800GTX+ (zonder physx) de CPU voor de physx zorgt. Dus dan is dat de bottleneck toch? Maar bij de 9800GTX+ (met physx) zorgt de GPU daarvoor.. Dus dan heeft de CPU minder invloed en wordt niet gebottleneckt..

Maar met een e8400 @ 3,6 ghz zal het verschil een stuk kleiner (lees: bijna niets) zijn. Of zie ik het fout?
Dat is het hele punt: een general purpose CPU (Core2, Phenom) is veel minder geschikt voor physics als een grafische kaart. Dezelfde physicsberekeningen kosten op een CPU veel meer resources.
Door physics in ieder geval gedeeltelijk te offloaden naar de GPU kan dus een behoorlijke winst worden geboekt: de GPU staat dan namelijk niet meer op de CPU te wachten, totdat deze de physicsberekeningen heeft gedaan.

Een e8400 @3.6 gaat niet veel verschil maken. Een quadcore zet, indien supported, al iets meer zoden aan de dijk, maar zelfs dan haal je dit soort resultaten niet... Dit is een architecturele kwestie, en de architectuur van graphiscscards leent zich veel beter voor physics dan die van general purpose cpu's.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op donderdag 26 juni 2008 @ 11:54:
[...]
Het is geen CPU test, het is een physics test.

[...]
Een vertekend beeld?
Kijk hier eens naar.

[afbeelding]

Dat zijn 2,5x zo veel fps met physics enabled in een echt spel.
Ik begrijp niet wat er te miepen valt over 10% extra punten in Vantage, wanneer er 150% extra performance bereikt wordt in een real life game. Ik blijf er dan ook bij dat AMD/ATi's politieke keuze voor Havok CPU acceleratie i.p.v. PhysX GPU acceleratie een verkeerde was.
En nog geeft het een vertekend beeld. Het is een speciaal PhysX level die gebouwd is voor de PhysX PPU.

De gemiddelde huis tuin en keuken game die gebruik maakt van de PhysX library zal niet direct zo'n boost krijgen. Oh wacht, de rest de UT3 game krijgt niet zo'n boost... die maken namelijk gebruik van de PhysX library op de CPU (ik geloof in de vorm van Novodex?) en zijn dus niet geoptimaliseerd voor de PPU.

De PhysX library ondersteunt zowel physics op de CPU (net zoals Havok) en op de PPU. Een game moet echter wel specifiek geprogrammeerd zijn voor de PPU wil deze er gebruik van maken. En dat zijn de meeste games nog niet... zoals je ziet met bv UT3 waar er speciale levels zijn voor physics. Ongetwijfeld zal NV er een smak geld tegen aan gooien om het probleem te verhelpen.

Daarnaast is de UE3 engine natuurlijk wel het stokpaardje van NV. Het draait zowiezo al super op slomere GPUs, dus de snelste GPUs hebben 'power to spare', zoals AMD dat zo leuk zegt. De meeste streamprocessors zitten vaak uit hun neus te eten. Laat ze eerst maar eens hetzelfde flikken in een zwaardere engine waar de GPU onder full load alles nodig heeft om de nodige fps op het scherm te toveren....

Overigens is je veronderstelling dat AMD alleen voor Havok kiest voor CPU acceleratie de verkeerde. Maar dat is iets wat later nog wel uit de doeken gedaan wordt. De keuze is gemaakt op basis van de grootste, meest gebruikte, bekendste physics API. ;)

[Voor 6% gewijzigd door CJ op 26-06-2008 13:23]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-06 01:00

SG

SG surft naar info hardewaren

Cheetah schreef op donderdag 26 juni 2008 @ 11:54:
Dat zijn 2,5x zo veel fps met physics enabled in een echt spel.
Ik begrijp niet wat er te miepen valt over 10% extra punten in Vantage, wanneer er 150% extra performance bereikt wordt in een real life game. Ik blijf er dan ook bij dat AMD/ATi's politieke keuze voor Havok CPU acceleratie i.p.v. PhysX GPU acceleratie een verkeerde was.
Klopt dat de Vantage score marginaal vooruit gaat en de formule wazig is, wat iig niet overdreven is.
Maar men kijkt ook naar de CPU2 score.
Dat is geen 2,5 x in zware Real game situatie.
Tov die synthetisch Puur GPU wat 'n factor 9 laat zien wat absoluut niet reëel is voor single card use.
With GPU PhysX disabled, the overall 3DMark Vantage score is P11720 with a CPU Test 2 score of 14.95 FPS. With GPU PhysX enabled, the overall score jumps to P14298 with a CPU Test 2 score of 127.77 FPS.
Als de Fake 'GPGPU' CPU test als synthetish wordt gezien. Zoals 'n pure Shader bench routine. Of Fillrate routine. IS het geen punt.
Dat de real Game waardering. de totaal score. de gelimiteerde waarde van die test ook marginaal meerekend is ook 'n methode om dit probleem te dempen.

Maar PhysX brengt geen FPS boost van tegen 1000% volgens al die CPU bench testjes.

Het blijft zoals Futermark het noemd 'n CPU test. Dat houd dus in die PhysX moet over de CPU heen.

Mogelijke oplossing Futermark noem het na 'n Patch een Pure PhysX test. Probleem opgelost.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • Madrox
  • Registratie: Mei 2002
  • Laatst online: 26-05 21:57

Madrox

Oh, Pharaoh!

Cheetah schreef op donderdag 26 juni 2008 @ 11:54:
[...]

Een vertekend beeld?
Kijk hier eens naar.
Uit dat artikel waar je naar linkt...
but if these charts from NVIDIA....
:+

Meer hoef ik niet te zeggen.

[Voor 5% gewijzigd door Madrox op 26-06-2008 19:04]

Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!


Anoniem: 164902

Ik vind die hele discussie over PhysX in 3dMarkt erg interessant.
Ik ben het eens met hen die zeggen dat 3dMark een benchmark is voor game-systemen. Als je met een nVidia kaart overall een hogere score haalt, dan is een dergelijk systeem gewoon sneller (mits de software een en ander ondersteunt natuurlijk). Ere wie ere toekomt, dus hulde voor nVidia.
Waar het volgens mij fout loopt is daar waar men denkt / ervan uit gaat dat 3dMark een score oplevert waaruit je kunt opmaken hoe goed een videokaart is in wat hij in de klassieke zin moet doen, namelijk 3d-beelden zo mooi en snel mogelijk renderen (iets wat de naam wèl suggereert en wat 'de massa' volgens mij aanneemt). Dan ontstaat immers de indruk dat nVidia-kaarten puur als grafische processor stukken sneller zijn dan ATi-kaarten. Vanuit die redenering kan ik mij de klachten uit het ATi-kamp goed voorstellen en deel ik ze ook.

[Voor 4% gewijzigd door Anoniem: 164902 op 26-06-2008 19:57]


  • -db-
  • Registratie: Februari 2003
  • Laatst online: 02-06 15:46

-db-

Hoi

3Dmark oogt erop een benchmark voor toekomstige spellen te zijn, of PhysX significant moet meetellen zou dus afhangen van het gebruik ervan in toekomstige spellen.
Vantage werd al van alle kanten afgebrand omdat er geen DX10.1 in word gedaan, dat zou immers de toekomst zijn. Nvidia kennende, dankzij intensieve samenwerking met gamedevs, zal PhysX waarschijnlijk sneller in games worden toegepast dan DX10.1. Daarom denk ik dat het percentage waarmee de Vantage score omhoog gaat best reeel is voor een benchmark gericht op de toekomst.
Blijft wel dat de CPU score hierdoor natuurlijk totaal niet meer representatief is voor werkelijk CPU prestatie vergelijk, maar dat was het met een kaart van Ageia ook al niet.
Ik stem er dan ook voor de CPU test 2 te renamen naar physics test en het vervolgens goed te keuren.

[Voor 11% gewijzigd door -db- op 26-06-2008 20:25]


  • justifire
  • Registratie: December 2001
  • Laatst online: 22:55

justifire

Shut up and squat !!

Snap niet wat ze lopen te zeiken.
Als iemand zijn processor op 8 ghz laat lopen schiet die score ook omhoog, maar dan is het toch ook geen cheaten?
Het gaat toch om het gehele systeem?
Hoe meer punten hoe beter, en heb tot nu toe nog nooit iemand horen klagen als een driver enkele honderden punten meer neerzette in 3dmark/vantage, of word er soms al vanaf het begin gecheated?
Het is imo vrij simpel, meer punten in vantage betekent meer fps in spellen en dat is toch super?

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙


  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 30-05 09:18
Alleen meer fps in ondersteunende PhysX spellen.
Maar binnenkort ook PhysX op Radeons..(hopelijk) :*) ..http://www.ngohq.com/news/14219-physx-gpu-acceleration-radeon-hd-3850-a.html

|2600k|Asus 290|


  • Shrimp O Vis
  • Registratie: Augustus 2007
  • Laatst online: 02-04-2019

Shrimp O Vis

Battle.net: SkyDiDeLY.628

justifire schreef op donderdag 26 juni 2008 @ 22:29:
Het gaat toch om het gehele systeem?
Nou nee... dat is waar de discussie over gaat.. als het een CPU test is, dan moet het een CPU test zijn en blijven en niet CPU+GPU... Maar het is idd wel een beetje mieren*eken... Als ze CPU test naar Phyisc test renamen, dan is het probleem wel opgelost..
Bullus schreef op donderdag 26 juni 2008 @ 22:42:
Alleen meer fps in ondersteunende PhysX spellen.
Als je een slome proc hebt, ja.

[Voor 19% gewijzigd door Shrimp O Vis op 26-06-2008 22:47]

Core 2 Duo E8400; 2x2gb OCZ; Sapphire Radeon HD4850; Gigabyte EX38-DS4; NZXT Apollo;
If I asked "Is an electron a wave OR a particle?", my question would be wrong before you even answered.


  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Zullen we in dit topic zeggen dat de meningen erover verschillen? Anders blijft dit echt nog lang door gaan, krijgen we een remake van de vorige nVidia cheat discussie jabba jabba. Let's not go there again :> ?

Ben trouwens benieuwd of nVidia na de release van de HD4870 de prijs van de GTX280 ook gaat verlagen; heb namelijk een geruchtje vernomen dat dit mogelijk is binnen 3 weken.

De meeste mensen deugen!


  • Apoca
  • Registratie: November 2001
  • Laatst online: 08:17

Apoca

Array Technology Industry

Denk dat ze beter de GTX260 omlaag kunnen doen, en de GTX280 zo lang mogelijk hoog kunnen houden tot ATi er met de R700 is

Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i


  • Depep
  • Registratie: Juni 2007
  • Laatst online: 12-01 23:43
Leest nou niemand de posts in dit topic, of is het zo moeilijk om begrijpend te lezen? Volgens mij hebben CJ en ik dit allebei al een keer proberen uit te leggen, maar er komen nog steeds reacties waaruit blijkt dat mensen het punt helemaal niet begrepen hebben.

3Dmark test de physics en graphics apart, omdat dit in het verleden 2 aparte dingen waren. Nu hebben we 1 kaart die beide dingen doet. Die kan dus in beide tests volledig ingezet worden. Tijdens games echter, moet de kaart beide dingen tegelijk doen. Deze manier van testen is dus absoluut niet representatief voor games en het resultaat is eigenlijk waardeloos geworden.

Het erge is, nVidia verandert instellingen zodat de kaart dubbel ingezet wordt. Daarmee maken ze de test dus eigenlijk waardeloos. En dat alleen maar om een paar puntjes hoger te scoren. Natuurlijk worden deze scores niet door Futuremark geaccepteerd, maar als de gemiddelde tweaker zich al zo makkelijk voor de gek laat houden dat hij uit z'n dak gaat omdat hij nu een hoger getalletje ziet, kan je je voorstellen hoe de gemiddelde gebruiker deze scores gaat opvatten.

specs


  • Eindhoven657
  • Registratie: December 2002
  • Laatst online: 02-06 09:13
Depep schreef op vrijdag 27 juni 2008 @ 10:31:
Leest nou niemand de posts in dit topic, of is het zo moeilijk om begrijpend te lezen? Volgens mij hebben CJ en ik dit allebei al een keer proberen uit te leggen, maar er komen nog steeds reacties waaruit blijkt dat mensen het punt helemaal niet begrepen hebben.

3Dmark test de physics en graphics apart, omdat dit in het verleden 2 aparte dingen waren. Nu hebben we 1 kaart die beide dingen doet. Die kan dus in beide tests volledig ingezet worden. Tijdens games echter, moet de kaart beide dingen tegelijk doen. Deze manier van testen is dus absoluut niet representatief voor games en het resultaat is eigenlijk waardeloos geworden.

Het erge is, nVidia verandert instellingen zodat de kaart dubbel ingezet wordt. Daarmee maken ze de test dus eigenlijk waardeloos. En dat alleen maar om een paar puntjes hoger te scoren. Natuurlijk worden deze scores niet door Futuremark geaccepteerd, maar als de gemiddelde tweaker zich al zo makkelijk voor de gek laat houden dat hij uit z'n dak gaat omdat hij nu een hoger getalletje ziet, kan je je voorstellen hoe de gemiddelde gebruiker deze scores gaat opvatten.
Boeit me niet wat jij en CJ er van vinden... Lekker belangrijk. Als het fps oplevert vind ik het prima.
We willen toch de beste resultaten? of niet. Wie trekt zich nu nog iets aan van 3dmarks?

Trouwens met ati kun je nu ook cheaten: http://www.hardware.info/...en_ook_op_AMD_videokaart/
Of heet het dan geen cheaten meer?

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 12-01 23:43
Eindhoven657 schreef op vrijdag 27 juni 2008 @ 11:28:
[...]


Boeit me niet wat jij en CJ er van vinden... Lekker belangrijk. Als het fps oplevert vind ik het prima.
We willen toch de beste resultaten? of niet. Wie trekt zich nu nog iets aan van 3dmarks?

Trouwens met ati kun je nu ook cheaten: http://www.hardware.info/...en_ook_op_AMD_videokaart/
Of heet het dan geen cheaten meer?
Vinden? Mijn post was opgebouwd uit feiten, er staat geen mening in. Ik ben ook helemaal voorstander van physics op een videokaart laten uitvoeren, als dat extra fps oplevert denk ik dat nVidia een goede weg ingeslagen is en dat ATi niet achter kan blijven.

Wat ik probeerde te zeggen is dat nVidia wijzigingen heeft doorgevoerd waardoor 3dmark scores niet meer indicatief zijn voor gaming performance. Dat werd de laatste tijd sowieso al minder en minder, maar dit is wel een plotseling extreem verschil. Het feit dat ze deze wijzigingen bewust hebben doorgevoerd om dit doel te bereiken noem ik cheaten. En het probleem daarbij is dat een heleboel mensen zich (onterecht) nog steeds wel veel aantrekken van 3dmark scores. Gelukkig weten wij wel beter....

specs


  • Eindhoven657
  • Registratie: December 2002
  • Laatst online: 02-06 09:13
Depep schreef op vrijdag 27 juni 2008 @ 11:40:
[...]


Dat werd de laatste tijd sowieso al minder en minder, maar dit is wel een plotseling extreem verschil. Het feit dat ze deze wijzigingen bewust hebben doorgevoerd om dit doel te bereiken noem ik cheaten. En het probleem daarbij is dat een heleboel mensen zich (onterecht) nog steeds wel veel aantrekken van 3dmark scores. Gelukkig weten wij wel beter....
Kuch.... waarom stond ATi de laatste tijd zo hoog met hun kaarten in de 3dmark scores. En in games stonden ze nooit/bijna nooit boven aan. Tweaks? aanpassingen in drivers? Dat is toch hetzelfde. Dat gaf toch ook geen reeël beeld... Dus ik zie het probleem niet. Het enige reële beeld zie ik terug in games... En hoe ze dat doen boeit me niet.
Verdomme, we gamen toch geen 3dmark. 8)7

[Voor 7% gewijzigd door Eindhoven657 op 27-06-2008 11:46]


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Eindhoven657 schreef op vrijdag 27 juni 2008 @ 11:28:
[...]


Boeit me niet wat jij en CJ er van vinden... Lekker belangrijk. Als het fps oplevert vind ik het prima.
We willen toch de beste resultaten? of niet. Wie trekt zich nu nog iets aan van 3dmarks?

Trouwens met ati kun je nu ook cheaten: http://www.hardware.info/...en_ook_op_AMD_videokaart/
Of heet het dan geen cheaten meer?
Je snapt het niet echt he?

3DM Vantage geeft dan nog altijd een verkeerd beeld van echte gameprestaties van een systeem. In een game is je GPU niet 100% met physics bezig zoals dat nu gebeurt in de CPU 2 test in Vantage.

Dan maakt het niet uit of NV die test op de GPU laat uit voeren, of AMD dat doet op hun Radeons of dat S3 dat doet op een Chrome 430s. Dat gaat tegen de Driver Approval Policy in van Futuremark zelf. Maar dat had je kunnen weten als je die policy gelezen had op de FM site.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Eindhoven657
  • Registratie: December 2002
  • Laatst online: 02-06 09:13
Ja hoor ik snap het wel. Alleen wordt ik moe van neuzelaars die toch altijd vinden dat ze gelijk hebben. meer performance in games: Goeie zaak, en f8ck 3dmark. Was de laatste versies toch al een kansloze graadmeter.

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Klopt ja. Maar voor het grootste gedeelte van de mensen is 3DMark een 'indicatie' van wat er mogelijk is in games. Die gaan er nog altijd blindelings van uit. Zelfs hier op het forum heb je dat soort mensen. En die mensen worden nu dus misleid en denken ten onrechte dat ze in alle games met PhysX een soortgelijke boost krijgen.

Overigens zijn de afzonderlijke tests zoals de GPU test en Feature Tests betere indicaties van de presentaties van een videokaart.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Eolis
  • Registratie: September 2005
  • Laatst online: 09-12-2021

Eolis

And the heavens shall tremble

Hey . . . wat the f* is dit? Is dit al eerder voorbij gekomen?

http://core.tweakers.net/nieuws/54225/nieuwe-geforce-drivers-zorgen-voor-slechtere-prestaties.html

Zouden ze nu toch wat zaken uit de nieuwe versie drivers hebben gehaald?

@ CJ, Enig idee?

  • ownage maxim
  • Registratie: Augustus 2007
  • Laatst online: 17-03 11:04
He CJ. Hoe kan het dat we met deze kaarten niet de minicore structure terug zien waar we toen veel over hebben gelezen/gehoord tijdens de R600 launch?

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
Als ze erin geslaagd zijn om the nvidia physX drivers te laten werken met ati kaarten ruikt dat naar een software truc. Ik denk niet dat het mogelijk is om zomaar even een CUDA-ID naar CAL-IL convertor te schrijven (die nog eens realtime zou moeten werken). Ik denk dus dat de nvidia physX drivers een zeer snelle software implementatie zijn (en geen gpu gebruiken) ALS de amd-physx hack werkt.

  • Eindhoven657
  • Registratie: December 2002
  • Laatst online: 02-06 09:13
CJ schreef op vrijdag 27 juni 2008 @ 12:13:

Overigens zijn de afzonderlijke tests zoals de GPU test en Feature Tests betere indicaties van de presentaties van een videokaart.
Heb je gelijk in.

  • Pt0x
  • Registratie: Juni 2001
  • Laatst online: 18-03 22:52

Pt0x

Why are we here..

Modbreak:Deze Nieuws-discussie heeft niets aan een post met het lijstje van bestelde onderdelen van jouw nieuwe PC en dat je voor het eerst in 8 jaar voor een nVidia kaart kiest hoor.
Iets het voor show topic in de HK misschien?

[Voor 96% gewijzigd door Ultraman op 27-06-2008 17:18]


  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 23:38

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Eolis schreef op vrijdag 27 juni 2008 @ 15:17:
Hey . . . wat the f* is dit? Is dit al eerder voorbij gekomen?

http://core.tweakers.net/nieuws/54225/nieuwe-geforce-drivers-zorgen-voor-slechtere-prestaties.html

Zouden ze nu toch wat zaken uit de nieuwe versie drivers hebben gehaald?

@ CJ, Enig idee?
waarom test je t niet zelf, zoals ik in de replies kan lezen zijn er bij sommige minimale verslechteringen opgetreden ( lees 5-10%) ipv de 45% die t artikel steld..

En van nog veel meer de reactie dat ze vaak er op vooruit zijn gegaan ipv achteruit
Ook is dit een 175.xx ipv 177.xx serie die voor de gf9x00 en gt2x0 uit zijn..

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


  • Skybullet
  • Registratie: April 2008
  • Laatst online: 02-06 20:15
de "echte" nieuw driver is 177.41 en die is super :D . Moet effe een gemodde inf gebruiken, maar dan werkt ie ook voor de 8 serie. Beste driver die ik ooit heb gebruikt voor mijn 8800 GTS 640. Betere performance en betere iq . warom loopt iedereen altijd mijlenver achter met drivers ?? . Of willen je echt alleen de whql versies gebruiken ???

5800X - B550 - 32GB 3600MHZ - 7900xtx sapphire pulse - @4k 144hz


  • The Source
  • Registratie: April 2000
  • Laatst online: 02-06 18:02
Waar is de modded .inf te vinden?

  • -db-
  • Registratie: Februari 2003
  • Laatst online: 02-06 15:46

-db-

Hoi

Gewoon modded inf van de 177.35 gebruiken, alleen de driver versie in de inf aanpassen.
Is te vinden in het nvidia PhysX topic als je de linkjes volgt.

  • Skybullet
  • Registratie: April 2008
  • Laatst online: 02-06 20:15
The Source schreef op vrijdag 27 juni 2008 @ 20:05:
Waar is de modded .inf te vinden?
kijk op de forums van Guru3D, daar haal ik altijd mijn videokaartdrivers vandaan. Zijn bijna altijd de eerste en zijn altijd goede discussietopics met handige tips en informatie ;)

5800X - B550 - 32GB 3600MHZ - 7900xtx sapphire pulse - @4k 144hz


  • justifire
  • Registratie: December 2001
  • Laatst online: 22:55

justifire

Shut up and squat !!

Zo, vandaag ff in de weer geweest met mijn gtx280 tri-sli setup :D
Kaarten nog niet oc-ed, gewoon op stock speeds.
Rest van specs in sig.

Futuremark vantage:
Extreme: X13428 gpu 12944 cpu 46382
Performance: P27119 gpu 23796 cpu 46666

Verder trekt de gehele setup onder full load 700 watt, valt dus best mee en een 1000 watt voeding is dus nog ruim voldoende.

De disorted schaduwen waarvan ik op de 8800gtx last had bij o.a. Overlord en Tomb Raider zijn verleden tijd met de 200 serie :D

Ook het 'stotteren' van Test Drive Unlimited is verholpen, haha na 2 jaar eindelijk die game eens van de plank afhalen :P

Ga zo eens ff Crysis proberen, had deze na 5 minuten weggelegen met mijn 3x8800gtx setup, gewoonweg onspeelbaar op 2560x1600 very high, ben benieuwd.

edit:
Whaha 6-7 fps op het stukje waar je vanuit het bos het strand op loopt, en de eerste hutjes ziet staan 8)7
Wat een baggerspel zeg.
Hoop dat Far Cry 2 beter word geprogrammeerd.

[Voor 10% gewijzigd door justifire op 28-06-2008 16:35]

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙


  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 02-06 17:10
2x r700 had toch iets van x12***?

  • ToeingTheLine
  • Registratie: Juni 2002
  • Laatst online: 28-05 22:11

ToeingTheLine

Mask of sanity

De R700 is nog niet uit.

Life is what you others make it.


  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 02-06 17:10
Maar daar had cj toch een plaatje van gepost?
http://tweakimg.net/g/for...titopicr700previewxg4.jpg
die bedoel ik dus. Als ze de drivers optimaliseren scoort 2x r700 dan misschien nog wel meer dan 3xgtx280 ;)

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 01-06 22:04
justifire schreef op zaterdag 28 juni 2008 @ 15:47:
Ga zo eens ff Crysis proberen, had deze na 5 minuten weggelegen met mijn 3x8800gtx setup, gewoonweg onspeelbaar op 2560x1600 very high, ben benieuwd.

edit:
Whaha 6-7 fps op het stukje waar je vanuit het bos het strand op loopt, en de eerste hutjes ziet staan 8)7
Wat een baggerspel zeg.
Hoop dat Far Cry 2 beter word geprogrammeerd.
Probeer het gewoon eens op high, dan ziet het spel er al super uit, van high naar very high kost altijd een enorme performance drop, terwijl het er amper beter uitziet, ik snap dat je met die hardware alles wilt maxxen, maar wel een beetje kort door de bocht om het gelijk een baggerspel te noemen en weer aan de kant te gooien.
Geef het spel anders met een custom config eens een kans ;) .

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
EdwardvGelder schreef op zaterdag 28 juni 2008 @ 17:58:
Maar daar had cj toch een plaatje van gepost?
http://tweakimg.net/g/for...titopicr700previewxg4.jpg
die bedoel ik dus. Als ze de drivers optimaliseren scoort 2x r700 dan misschien nog wel meer dan 3xgtx280 ;)
Het zijn dan wel 4 GPUs vs 3 he? ;)

Maar dat wordt ruimschoots goedgemaakt in prijs. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 15-05 15:00
EdwardvGelder schreef op zaterdag 28 juni 2008 @ 17:58:
Maar daar had cj toch een plaatje van gepost?
http://tweakimg.net/g/for...titopicr700previewxg4.jpg
die bedoel ik dus. Als ze de drivers optimaliseren scoort 2x r700 dan misschien nog wel meer dan 3xgtx280 ;)
Verschil in score komt vooral door CPU subscore heb ik het idee. Subscore GPU scheelt 400 punten, terwijl de totaalscore 1000+ scheelt.

Heb zelf alleen geen ervaring met Vantage, dus kan er natuurlijk naast zitten ^_^


Edit:
Kom net op de driverpage van nVidia, 175.19 is van de site gehaald! Heb gister nog geupdate naar 175.19, gedownload mbv de zoekfunctie naar XPdrivers voor Geforce 8 serie. Nu bij invullen van zelfde waardes bij de search kom je op de downloadpage van 175.16!

[Voor 17% gewijzigd door Snorro op 29-06-2008 09:13]


Acties:
  • 0Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Wellicht zijn ze van mening dat de .19 het bedrijf meer schade dan goed doet. Ik kan me er iets bij voorstellen. Ben overigens wel nieuwsgierig hoe hard nVidia de GTX2xx-series gaat laten droppen in prijs om bij concurrent ATi in de buurt te komen.

Acties:
  • 0Henk 'm!

  • justifire
  • Registratie: December 2001
  • Laatst online: 22:55

justifire

Shut up and squat !!

mdcobra schreef op zaterdag 28 juni 2008 @ 21:41:
[...]


Probeer het gewoon eens op high, dan ziet het spel er al super uit, van high naar very high kost altijd een enorme performance drop, terwijl het er amper beter uitziet, ik snap dat je met die hardware alles wilt maxxen, maar wel een beetje kort door de bocht om het gelijk een baggerspel te noemen en weer aan de kant te gooien.
Geef het spel anders met een custom config eens een kans ;) .
Rustig maar :)
Ik gooi hem heus niet zomaar aan de kant.
Feit is voor mij wel dat het gewoon ontzettend slecht geprogrameerd is als ik zie hoe de andere games over het scherm heen vliegen.
Daar doelde ik meer op dan op de inhoud van het spel.
Zal vandaag ook nog ff een benchmark draaien want vind het wel vreemd dat Hilbert van guru3d met een tri-sli setup en minder snelle processor crysis wel speelbaar heeft.
http://www.guru3d.com/art...sli-triple-review-test/13
Nou ja, misschien word het verderop in het spel wel wat minder zwaar?

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙


Acties:
  • 0Henk 'm!

  • Jim423
  • Registratie: September 2007
  • Laatst online: 21:09
Zover ik weet word het spel steeds zwaarder naarmate je vordert. Ik weet ook niet hoe dit kan.
Vooral het level met sneeuw waar Prophet weer terugkeerd haal ik maar 6 FPS terwijl ik in het level Island 25 FPS haal.

AMD Ryzen 5800X - 32GB DDR4 Corsair RGB - XFX 6900XT - Panasonic HIT 990Wp - AE200L WPB met cv-ondersteuning


Acties:
  • 0Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
aiaiai nvidia

http://www.overclockersclub.com/reviews/powercolor_hd4870/

Dit ziet er zeker niet goed uit voor nvidia.

  • Jim423
  • Registratie: September 2007
  • Laatst online: 21:09
De performance ligt een stuk hoger dan ik had gedacht, en dat tegen een 500+ euro kostende kaart :)

[Voor 66% gewijzigd door Jim423 op 30-06-2008 01:46]

AMD Ryzen 5800X - 32GB DDR4 Corsair RGB - XFX 6900XT - Panasonic HIT 990Wp - AE200L WPB met cv-ondersteuning


Anoniem: 215257

Pros:
Performance equal to or better than the GTX 280

Wat moet nVidia hier nu mee? Maar hopen dat de fanboys hun topkaart blijven kopen, en het uitzitten tot de 55nm, want de 4870 gaat al voor ~200 euro over de toonbank.
Pagina: 1 2 3 ... 6 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWS & DISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond nVidia kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee