![]() | ||||||||||||||||
![]() | ||||||||||||||||
![]() | ||||||||||||||||
In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
![]() | ||||||||||||||||
![]() | ||||||||||||||||
Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, zie o.a. [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27 | ||||||||||||||||
![]() | ||||||||||||||||
In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur. Op het moment van schrijven is de 8800 Ultra de snelste GPU die er is. In bepaalde gevallen zelfs sneller dan high-end kaarten in SLI of Crossfire configuratie. De belangrijkste features van de G80 zijn:
| ||||||||||||||||
Sinds eind oktober 2007 is ook de G92 core op de markt. Dit is een G80 core, maar dan met enkele optimalisaties en gebakken op 65 i.p.v. 80nm, wat resulteert in een lager stroomverbruik. Vanaf G92 core zijn er nog wat nog een extra technologieën gebruikt: "HybridPower™* technology offers exceptional graphics performance and power savings for everyday needs" en PCI-E 2.0 interface, wat een maximum transfer snelheid van 16GB/s oplevert <> PCI-E 1.0 die "slechts" 8GB/S als maximum heeft
| ||||||||||||||||
De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken. Ook nu is er geen DX 10.1 ondersteuning. De eerste 2 kaarten gereleased in deze nieuwe reeks zijn direct de high end kaarten. Deze kaarten zijn stukken beter dan de vorige high end maar dit brengt een mooi prijskaartje met zich mee. Hoewel dat er veel kans is dat deze prijs snel kan dalen doordat ati zijn kaarten deze keer veel beter opkunnen tegen het NVIDIA geweld (we denken aan de HD4870x2) De GeForce GTX 280 en 260 gebruiken dezelfde identieke GPU cores maar het in het 260 model werden onderdelen van de core uitgeschakeld en ook de RAM en memory interface werden verminderd voor marketing doeleinden. • De GT200 is tot nu toe de grootste GPU core die men tot nu toe ooit gefabriceerd heeft hij bestaat uit 1.4 miljard transistoren die een oppervlakte bestreiken van 575mm² gebakken met 65nm procédé hoewel men hard werkt om over te kunnen snappen naar 55nm. De totale kaart meet 27 cm. • De 2 huidig gereleasde 200serie kaarten ondersteuen ook 10 bit kleuren, hiervoor heb je wel displayport nodig, dus voor dit feature zal je moeten wachten tot een fabrikant grafische kaarten met deze uitgangen beschikbaar zal stellen op de markt. • Beide kaarten hebben een verbeterde versie van PureVideo voor het hardwarematig decoderen van oa VC-1,WMV9 en H.264 geëncodeerde filmbestanden. • De standaard referentie kaart hebben allemaal 2 dual link DCI connectors en een HDTV/s-Video connector. • Energieconsumptie: De high end kaarten zijn weer energievreters zoals je kon verwachten. Het maximale vermogen van deze kaarten zijn: 182 Watt (GTX260) tot 236 Watt (GTX 280) • De GTX 280 zal 1 8-pin en 1 6-pin pci-e power connectoren vereisen wanneer de GTX 260 toekomt met "slechts" 2 6-pin pci-e power conectoren.
| ||||||||||||||||
![]() | ||||||||||||||||
Yields Het gerucht gaat dat de yields van deze nieuwe paradapaardjes niet echt hoog liggen (wat niet echt moeilijk te geloven is als men kijkt hoe groot de gpu is..). Nvidia zou zo snel mogelijk willen overstappen naar een 55nm procédé voor deze kaarten wat ook een prijsvermindering (en energieverbruik dus warmte vermindering??) Een andere mogelijkheid is natuurlijk ook dat de voordelen van een 55nm versie ingezet zullen worden voor deze kaarten nog sneller te maken zoals de 9800GTX+, maar in alle 2 de gevallen zal de GPU fysiek kleiner worden ==> meer gpu's op 1 wafer + kans kleiner op uitval per gpu, wat de kostprijs danig kan drukken. 9800 GTX+ Het gerucht gaat dat verschillende fabrikanten deze kaart niet zullen verkopen maar hun fabrieksoverklokte kaarten zullen blijven inzetten op dit segment door de prijs van deze kaarten een stuk te laten dalen. Het moet gezegd worden dat buiten het feit dat deze kaarten wss meer zullen verbruiken dan een GTX 9800+ ze verder idd even snel kunnen zijn. NV komt na de launch van de GTX 200 Serie met een driver die PhysX activeert op de GPU. PhysX NVIDIA begint met (momenteel nog beta) drivers uit te brengen die ervoor zouden moeten zorgen dat de grafische kaarten nu ook Physx gaan supporten. Eerst zullen de high end kaarten aan de beurt komen voor deze ondersteuning maar later zullen alle grafische kaarten van de 8 en 9 serie deze support krijgen. Dat Physx wel degelijk een positief effect kunnen hebben toont volgende grafiek mooi aan (UT3 map dat speciaal ontwikkeld is voor Physx ) ![]() Momenteel zijn er al beta drivers uit die reviewers kunnen gebruiken. De laatste software hiervoor zijn: Nvidia Forceware 177.39 + NVIDIA physX 8.06.12 Zie ook voor meer uitleg en NVIDIA physX 8.06.12 driver Naamgeving Zoals aangekondigd gaat NVIDIA hun naamgeving "vereenvoudigen", dit gaat naar alle waarschijnlijkheid nieuwe naamgeving worden van nVidia: GeForce GTX = Enthusiast GeForce GT = High-end performance GeForce GS = Mid-range performance GeForce G= Entry (en IGP) GTX= van 260 tot en met 290 GT= van 230 tot en met 250 GS= van 210 tot en met 220 G= van 201 tot en met 209 Dus straks zien we ongetwijfeld de: GeForce GT 250 - 230 GeForce GS 220 - 210 GeForce G 209 - 201 Waarheidsfactor: 95% Met dank aan CJ voor deze informatie | ||||||||||||||||
![]() | ||||||||||||||||
![]() Wat is PureVideo?
Dit document geeft een aardig overzicht : PureVideo Technology Overview (pdf) Wat heb ik nodig? • Een GeForce 6, 7 of 8 GPU • Microsoft Windows XP mét Service Pack 2 (voor VMR9 support) • NVidia's ForceWare driver • NVidia's PureVideo Decoder • Windows Media Player 10 build 3923 of nieuwer (met DRM update & DXVA hotfix) Hoe kom ik aan PureVideo? Je kunt op de site van NVidia een 30-dagen trial downloaden, die met deze key 60 dagen werkt ![]() Na deze proefperiode kan je de PureVideo Decoder hier kopen. Hoe configureer ik PureVideo? Naast de NVIDIA PureVideo Decoder User's Guide is er ook een Reviewers Guide met tips (enigszins gedateerd). Voor beste kwaliteit en prestaties is het noodzakelijk Video Mixing Renderer (VMR) te activeren in Windows Media Player : Als "use high quality mode" is aangevinkt onder "File Playback", dan is het mogelijk dat MPEG-4 ASP videobestanden (XviD, DivX5 etc.) in zwart/wit met een groenige waas worden afgespeeld. Selecteer dan "Use overlays" onder "File Playback". Als FFDShow op je systeem staat of stond, dan werkt PureVideo waarschijnlijk niet. Wees terughoudend met het installeren van codecpacks. Controleer met Windows XP Video Decoder Checkup Utility of PureVideo als MPEG-2 preferred codec actief is. Meer informatie : • ATI VideoShaders - NVIDIA PureVideo • ATI's Avivo vs. NVIDIA's PureVideo: De-Interlacing Quality Compared • NVIDIA GeForce 7800 GTX Preview (de eerste 6 slides) • NVIDIA PureVideo Presentation • Principled Technologies PureVideo test report (PDF-bestand) • Scott Vouri Interview #1 • Scott Vouri Interview #2 • En natuurlijk NVIDIA.com zelf. Met dank aan FFWD | ||||||||||||||||
![]() | ||||||||||||||||
Officiële nVidia drivers voor GeForce 8 en 9 serie 175.16 Win XP 32-bit 175.16 Win XP 64-bit en win server 2003 175.16 Win Vista 32-bit 175.16 Win Vista 64-bit 173.14.05 Linux 32-bit 173.14.05 Linux 64-bit 173.14.05 FreeBSD 32-bit 173.14.05 Solaris 32 en 64-bit nVidia BETA drivers voor GeForce 8 en 9 serie zijn hier te vinden: nVidia BETA drivers Nieuwe nVidia beta drivers. WHQL candidates: XP 32-bit 177.79 Vista 32-bit 177.79 Vista 64-bit: 177.79 Met dank aan Rappie Rappie voor het posten van deze beta/whql kanidaat driver Officiële nVidia drivers voor Mobile GPU's 84.63 32-bit Een goede site voor drivers voor Mobile GPU's is www.laptopvideo2go.com nVidia drivers voor de Geforce 200 serie Nvidia GeForce 177.26 x64 met CUDA ondersteuning Modded inf voor deze driver (voor niet g200 gtx kaarten dus) Met dank aan biobak voor deze informatie Register tweaks voor het enablen van het klassieke controle paneel enableoldNV_CP.reg ( 1.46K ) Voor de veranderingen ongedaan te maken: enablenewNV_CP.reg ( 1.46K ) enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP) | ||||||||||||||||
![]() | ||||||||||||||||
Reviews GeForce 8800 GT en GTS (G92): nVidia GeForce 8800 GT test nVidia GeForce 8800 GTS 512 MB test Sparkle GeForce 8800 GTS 512MB getest Reviews GeForce 8800 GTX en GTS: HardOCP Anandtech Firingsquad (GTX & GTS OC-ed) Firingsquad (preview) Tweakers.net Tom's Hardware Reviews GeForce 9600GT: Tom's Hardware Tweaktown Guru3D Firingsquad Hard Ocp Computerbase.de 9600GT Sli Reviews GeForce 9800GTX: FiringSquad 9800GTX Preview (ja met benchmarks) PC-Online Tweaktown Nordic Hardware Techspot Reviews GeForce 9800GX2: Hothardware PCperspective Anandtech Twee Geforce 9800gx2 kaarten in sli (quad-sli) Reviews Geforce GTX 280: tweaktown Guru3D Guru3D Sli-Triple test Hot Hardware Drivers Heaven The Tech Report Legit Reviews Hardware.info nvnews.net Tom's Hardware HardOCP Anandtech Computerbase.de Vorige Topics: [Algemeen] nVidia Nieuws & Discussie Topic - Deel 18 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 19 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 20 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 21 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 22 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 23 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 24 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 25 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 26 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 28 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 29 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 30 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 31 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 32 Andere Interessante Topics: [OC] nVidia GeForce 7 Series - Deel 1 [OC] nVidia GeForce 7 Series - Deel 2 Pricewatch GeForce 8 serie in de Pricewatch GeForce 9 serie in de Pricewatch GeForce 200 serie in de Pricewatch Voedingsissues 9800GX2 Deze kaart vereist een power supply van een pci-e 8 pins kabel. Let hier mee op: Er zijn dus bijvoorbeeld heel veel modulaire voedingen waar een pci-e 6 pins naar pci-e 8 pins kabel bij zit. Volgens Nvidia en EVGA zijn deze kabels niet goed en kunnen ze de kaart zelfs beschadigen bij gebruik. Meer uitleg hierover kan je in dit topic vinden Een lijst van voedingen gecontroleerd door nvidia zelf is te vinden op NVidia Site Met dank aan HugoBoss1985 voor deze informatie | ||||||||||||||||
Startpost: Jejking & biobak & RappieRappie | ||||||||||||||||
![]() |
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Ik heb ervoor gekozen ook mobiele kaarten in de Openingpost(s) op te nemen, dit onder andere doordat laptops steeds een groter deel van de pc verkoop gaan innemen ten kosten van het (procentuele ) verkoop van desktops. Dat ook de mobiele kaarten voor nieuwswaarde kunnen zorgen toont de volgende nieuwstopics op de tweakers FP mooi aan: Nvidia ontkent geruchten over grootschalige gpu problemen Dell brengt bios update uit voor nvidia bug HP nvidia bug speelt al sinds november 2007 of wa positief nieuws voor de verandering ;): Details GPU's GeForce 9700M en 9800M bekendgemaakt In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Informatie over de G70 core wordt in dit topic niet meer bijgehouden, daar deze kaarten al een redelijke leeftijd hebben en alle nieuwe laptops nu een 8 of 9 reeks van mobiele kaart hebben. De nieuwswaarde van de 7 reeks of oudere mobiele kaarten is dus enorm laag in te schatten. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur. Op het moment van schrijven is de 8800 Ultra de snelste GPU die er is. In bepaalde gevallen zelfs sneller dan high-end kaarten in SLI of Crossfire configuratie. De belangrijkste features van de G80 zijn:
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
De GeForce 9M Serie werd gereased op 21 februarie 2008 eerst exclusief voor asus maar daarop volgend ook voor andere merken (oa medion laptop beschikken al een tijdje over grafische kaarten van deze nieuwe reeks) Alle GPU's in de Geforce 9M Serie beschikken over volgende eigenschappen:
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Officiële nVidia drivers voor Mobile GPU's 84.63 32-bit Een goede site voor drivers voor Mobile GPU's is www.laptopvideo2go.com Register tweaks voor het enablen van het klassieke controle paneel enableoldNV_CP.reg ( 1.46K ) Voor de veranderingen ongedaan te maken: enablenewNV_CP.reg ( 1.46K ) enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP) | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() |
- de 9700M en 9800M kaarten moeten nog bijgevoegd worden, maar sorry het wordt te laat vandaag.. of te vroeg tis maar hoe je het wilt bekijken
- Mogelijke fouten en correcties mogen mij altijd gemeld worden via een DM of een forum postje in dit topic.
- ook layout opmerkingen, vooral hints hoe het beter kan zijn altijd welkom atm ist echt niet super he
Maar ik vond inhoud belangrijker dan de verpakking (sounds nice voor te zeggen dat ik tot nu toe te lazy was voor meer naar layout te kijken ..
)
- Volgende punten waar aandacht gaan aan besteed worden, update TS, Hybrid SLI + PShychixs .. moet wa meer en betere uitleg in de TS
[Voor 98% gewijzigd door lightdestroyer op 30-07-2008 01:49]
Anoniem: 190625
Toen ik mijn 7950GX2 kocht was hij binnen 5 maanden verdwenen uit alle toonaangevende benchmarks.
Nu gebeurd naar mijn beste inschattingsvermogen hetzelfde met mijn 8800GTS 512.
Hoe kan ik nou weten of ik (nog) genoeg FPS behaal om mezelf te doen inzien dat ik nog niet aan vervanging toe ben in verhouding tot de nieuwe HD48XX kaarten als de benchmark aanbieders hooguit de 9800GTX en 9800GTX + en 9800GX2 hanteren op een enkeling na die de GT variant er bij voegt.
Kaarten die ik juist links heb laten liggen omdat ik géén sloot met geld meer uit wens te geven aan high end kaarten die harder vallen uit benchmarks dan bang for bucks kaarten.
Lekker vervelend dus als je zoals ik een 8800GTS 512mb (TOP) kaart hebt en zo nu en dan nog wil glunderen wanneer blijkt dat je kaart tactisch gezien een prima aankoop blijkt.
Dit word je echter niet gegund...
Ik heb nu een uurtje gegoogled en zover ik heb waargenomen is geen van de benchmarks waar Nvdia en Ati het tegen elkaar op nemen voorzien in een 8800 GTS 512.
Heb jij er wel een gevonden met dankzij je magische Google trefwoorden skill ..
Please let me know ...
Nu gebeurd naar mijn beste inschattingsvermogen hetzelfde met mijn 8800GTS 512.
Hoe kan ik nou weten of ik (nog) genoeg FPS behaal om mezelf te doen inzien dat ik nog niet aan vervanging toe ben in verhouding tot de nieuwe HD48XX kaarten als de benchmark aanbieders hooguit de 9800GTX en 9800GTX + en 9800GX2 hanteren op een enkeling na die de GT variant er bij voegt.
Kaarten die ik juist links heb laten liggen omdat ik géén sloot met geld meer uit wens te geven aan high end kaarten die harder vallen uit benchmarks dan bang for bucks kaarten.
Lekker vervelend dus als je zoals ik een 8800GTS 512mb (TOP) kaart hebt en zo nu en dan nog wil glunderen wanneer blijkt dat je kaart tactisch gezien een prima aankoop blijkt.
Dit word je echter niet gegund...
Ik heb nu een uurtje gegoogled en zover ik heb waargenomen is geen van de benchmarks waar Nvdia en Ati het tegen elkaar op nemen voorzien in een 8800 GTS 512.
Heb jij er wel een gevonden met dankzij je magische Google trefwoorden skill ..
Please let me know ...
[Voor 12% gewijzigd door Anoniem: 190625 op 23-06-2008 01:46]
Ten eerste is je 8800GTS512 redelijk vergelijkbaar met een 9800GTX. Haal er wat procenten van een score af, en je weet wat jouw kaart zou doen (zie 9800GTX reviews daarvoor). Ook is het een beetje suf om reviews van andere kaarten te willen lezen waarin jouw kaart nog goed voor de dag komt; dit soort dingen hoor je bij aankoop al van overtuigd te moeten zijn. Dat er na het besluiten tot het kopen van een product betere producten op de markt komen, met in de toekomst ook betere prijs-kwaliteitsverhoudingen, is een waarheid als een koe. Maak je dus niet druk erover, en kijk over een half jaar hoe de vlag erbij staat.Anoniem: 190625 schreef op maandag 23 juni 2008 @ 01:37:
Toen ik mijn 7950GX2 kocht was hij binnen 5 maanden verdwenen uit alle toonaangevende benchmarks.
Nu gebeurd naar mijn beste inschattingsvermogen hetzelfde met mijn 8800GTS 512.
Hoe kan ik nou weten of ik (nog) genoeg FPS behaal om mezelf te doen inzien dat ik nog niet aan vervanging toe ben in verhouding tot de nieuwe HD48XX kaarten als de benchmark aanbieders hooguit de 9800GTX en 9800GTX + en 9800GX2 hanteren op een enkeling na die de GT variant er bij voegt.
Kaarten die ik juist links heb laten liggen omdat ik géén sloot met geld meer uit wens te geven aan high end kaarten die harder vallen uit benchmarks dan bang for bucks kaarten.
Lekker vervelend dus als je zoals ik een 8800GTS 512mb (TOP) kaart hebt en zo nu en dan nog wil glunderen wanneer blijkt dat je kaart tactisch gezien een prima aankoop blijkt.
Dit word je echter niet gegund...
Ik heb nu een uurtje gegoogled en zover ik heb waargenomen is geen van de benchmarks waar Nvdia en Ati het tegen elkaar op nemen voorzien in een 8800 GTS 512.
Heb jij er wel een gevonden met dankzij je magische Google trefwoorden skill ..
Please let me know ...
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
@ Sherpmes
Tom's Hardware - GPU Charts is niet helemaal up to date maar geeft wel wat je zoekt eigenlijk.
Tom's Hardware - GPU Charts is niet helemaal up to date maar geeft wel wat je zoekt eigenlijk.
WoT Profile | Noobmeter - kyozu | Youtube channel | Livestream
Ik heb dus afgelopen zaterdag mijn GTX 280 ingebouwd. Ik had de nieuwe PSU al klaarliggen voor de inbouw, blijkt @@#$@# dat ik 'm niet nodig heb. In tegenstelling tot de specs blijkt mijn PSU (Corsair HX620W) wèl een 8-pins PCI Express connector te hebben.
Ik zal later nog cijfers posten, maar mijn 3DMark Vantage score was iig verdubbeld tov mijn GeForce 8800 Ultra.
Ik zal later nog cijfers posten, maar mijn 3DMark Vantage score was iig verdubbeld tov mijn GeForce 8800 Ultra.
Waarom heb je dat niet ff vooraf gechecked dan? Dergelijk spul wordt vaak tussentijds geupdate in een nieuwe revisieWildfire schreef op maandag 23 juni 2008 @ 09:49:
Ik heb dus afgelopen zaterdag mijn GTX 280 ingebouwd. Ik had de nieuwe PSU al klaarliggen voor de inbouw, blijkt @@#$@# dat ik 'm niet nodig heb. In tegenstelling tot de specs blijkt mijn PSU (Corsair HX620W) wèl een 8-pins PCI Express connector te hebben.

Als het goed is moet je die nieuwe voeding nog kunnen retoursturen naar de shop waar je 'm vandaan hebt. Het kost je dan alleen 8 Euro verzendkosten, dus geen man overboord

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ik had geen zin om de hele moeite te doen om mijn behuizing weer los te koppelen enzo, dat ding staat dusdanig dat dat wat moeite kost. Dus ik controleerde de handleiding...Cheetah schreef op maandag 23 juni 2008 @ 10:08:
[...]
Waarom heb je dat niet ff vooraf gechecked dan? Dergelijk spul wordt vaak tussentijds geupdate in een nieuwe revisie

Weet ik, het retourrecht ivm de wet koop op afstand. Ik twijfel alleen of ik 'm wil terugsturen. Ergens in juli ben ik van plan een nieuwe behuizing te kopen en deze voeding kan ik dan meteen inbouwen. Is qua aansluitingen iets meer toekomstbestending dan mijn huidige voeding namelijk.Als het goed is moet je die nieuwe voeding nog kunnen retoursturen naar de shop waar je 'm vandaan hebt. Het kost je dan alleen 8 Euro verzendkosten, dus geen man overboord
Misschien heb je hier wat aan. Ik heb m'n opgevoerde G92 8800 GTS (825/2000) (dat zijn dus nog hogere 9800GTX+ snelheden voor de core!) vergeleken met m'n overgeklokte HD4850 (700/2300). Uiteindelijke conclusie:Anoniem: 190625 schreef op maandag 23 juni 2008 @ 01:37:
Toen ik mijn 7950GX2 kocht was hij binnen 5 maanden verdwenen uit alle toonaangevende benchmarks.
Nu gebeurd naar mijn beste inschattingsvermogen hetzelfde met mijn 8800GTS 512.
Hoe kan ik nou weten of ik (nog) genoeg FPS behaal om mezelf te doen inzien dat ik nog niet aan vervanging toe ben in verhouding tot de nieuwe HD48XX kaarten als de benchmark aanbieders hooguit de 9800GTX en 9800GTX + en 9800GX2 hanteren op een enkeling na die de GT variant er bij voegt.
Kaarten die ik juist links heb laten liggen omdat ik géén sloot met geld meer uit wens te geven aan high end kaarten die harder vallen uit benchmarks dan bang for bucks kaarten.
Lekker vervelend dus als je zoals ik een 8800GTS 512mb (TOP) kaart hebt en zo nu en dan nog wil glunderen wanneer blijkt dat je kaart tactisch gezien een prima aankoop blijkt.
Dit word je echter niet gegund...
Ik heb nu een uurtje gegoogled en zover ik heb waargenomen is geen van de benchmarks waar Nvdia en Ati het tegen elkaar op nemen voorzien in een 8800 GTS 512.
Heb jij er wel een gevonden met dankzij je magische Google trefwoorden skill ..
Please let me know ...
default res zonder AA en AF is nVidia sneller, op high res met AA en met AF is ATi sneller.
Run 3DMark06 gedaan op Default 0xAA /0x AF 1280x1024 en een run op High 4x AA/16x AF 1680x1050.
Test setup NVidia:
E8400 @ 4.25 ( 8.5x500)
2GB DDR2-1200 (5-4-4-12)
Zotac G92 8800 GTS @ 825/2125/2000 (gpu/shaders/ram)
Test setup ATi:
E8400 @ 4.25 ( 8.5x500)
2GB DDR2-1200 (5-4-4-12)
Asus HD4850 @ 690/2250 (gpu/ram)
Default
8800GTS 0xAA /0x AF 1280x1024 15628
HD4850 0xAA /0x AF 1280x1024 13623
High
8800GTS 4xAA /16x AF 1680x1050 6856
HD4850 4xAA /16x AF 1680x1050 10020
details per test Default:
HD4850 0x AA/0x AF 1280x1024 (groen) tov 8800 GTS 0x AA/ 0x AF 1280x1024 (rood)

details per test High:
HD4850 4x AA/16x AF 1680x1050 (groen) tov 8800 GTS 4x AA/16x AF 1680x1050
(rood, yeah i know


i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
K zijn allemaal high tests dus op 1680x1050 he ( game zelf ook op deze resolutie vandaar dat ik het ff vraag), en zie je deze lijn ook in games op het moment dat je AA en AF daar aan zet? Zou je niet een COD 4 bench ofzo kunnen draaien? Unreal 3 is ook wel een leuke omdat veel games van die engine gebruik maken.
Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i
Dat spel heb ik momenteel niet, maar zal eens kijken wat ik kan doen. Unreal3 heb ik
. Waarmee/hoe draai ik daarmee een goeie bench?
Bijvoorbeeld met die 'Unreal Tournament 3 Benchmark Tool' van Guru3D ?
Zal vanavond ook eens aan de slag gaan met de DevilMay Cry 4 benchmark

Bijvoorbeeld met die 'Unreal Tournament 3 Benchmark Tool' van Guru3D ?
Zal vanavond ook eens aan de slag gaan met de DevilMay Cry 4 benchmark
[Voor 36% gewijzigd door Demon_Eyez op 23-06-2008 12:54]
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
Dergelijke tools zijn altijd goed ja, ook TechPowerUP heeft een paar leuke DX10 Benchmarks:
http://www.techpowerup.com/downloads/Benchmarking/
http://www.techpowerup.com/downloads/Benchmarking/
Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i
Ik ben van plan om 'binnenkort' (1-2 maanden) een upgrade uit te voeren van mn GPU. Momenteel doe ik het nog met een 8800GTS 320MB (G80) en ik wil een overstap maken naar SLI. Dat worden 2 nieuwe kaarten aangezien de G80 mij te warm wordt en bovendien flink aan de prijs is (slecht verkrijgbaar). Nu heb ik hoofdzakelijk 3 opties: 2x 9600GT, 2x 8800GTS en (in minder mate) 2x 9800GTX.
Het blijkt dat het verschil dus met name in het aantal shaders en transistors zit, terwijl de kloksnelheden aardig bij elkaar in de buurt komen (iig de beoogde 9600GT Alpha Dog van XFX). Mijn vraag: hoe groot is de impact van die shaders en transistors in dit segment? Met name vanwege het feit dat een 9600GT ongeveer de helft kost van een 9800GTX en +/- 75% van een 8800GTS) vraag ik me af of ik het prijsverschil over heb/merk in prestaties...
En wat is nu het grote verschil tussen de 9800GTX en de 8800GTS? De kloksnelheden zijn (wederom) iets hoger bij de 9800GTX, maar daar staat tegenover dat je gemakkelijk een factory O/Ced 8800GTS kan aanschaffen voor minder. Dat in combinatie met mijn huidige specs verwacht ik maar weinig extra performance van die 9800GTX, maar misschien dat iemand hier wat meer licht kan werpen?
Verdere (relevante) specs:
CPU: Intel E6600
RAM: 2GB DDRII @800MHz
Het blijkt dat het verschil dus met name in het aantal shaders en transistors zit, terwijl de kloksnelheden aardig bij elkaar in de buurt komen (iig de beoogde 9600GT Alpha Dog van XFX). Mijn vraag: hoe groot is de impact van die shaders en transistors in dit segment? Met name vanwege het feit dat een 9600GT ongeveer de helft kost van een 9800GTX en +/- 75% van een 8800GTS) vraag ik me af of ik het prijsverschil over heb/merk in prestaties...
En wat is nu het grote verschil tussen de 9800GTX en de 8800GTS? De kloksnelheden zijn (wederom) iets hoger bij de 9800GTX, maar daar staat tegenover dat je gemakkelijk een factory O/Ced 8800GTS kan aanschaffen voor minder. Dat in combinatie met mijn huidige specs verwacht ik maar weinig extra performance van die 9800GTX, maar misschien dat iemand hier wat meer licht kan werpen?
Verdere (relevante) specs:
CPU: Intel E6600
RAM: 2GB DDRII @800MHz
Ik draai zelf geen Vista, dus DX10 gaat niet lukken. Vroeg ik me af, wat is beter om te benchen. Een run met bots erin of een flyby run. Bij die tool van Guru3D kan je namelijk kiezen tussen bot-run en flyby. Ik ben geneigd voor flyby te kiezen als je verschillende kaarten wil vergelijken, en voor echte ingame experience results voor een bot-run, lijkt me in het laatste geval dat je CPU dan ook wat meer gaat uitmaken.Apoca schreef op maandag 23 juni 2008 @ 13:00:
Dergelijke tools zijn altijd goed ja, ook TechPowerUP heeft een paar leuke DX10 Benchmarks:
http://www.techpowerup.com/downloads/Benchmarking/
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
Ter info: die URL werkt niet zomaar. TechPowerUp controleert op referrer, dus even in een nieuwe tab/venster copypasten (of Firefox met de NoReferrer addon gebruiken).Apoca schreef op maandag 23 juni 2008 @ 13:00:
Dergelijke tools zijn altijd goed ja, ook TechPowerUP heeft een paar leuke DX10 Benchmarks:
http://www.techpowerup.com/downloads/Benchmarking/
Ik wil niet als een ati fanboy klinken maar op dit moment is de 9800gtx geen goede keuze in vergelijking met de hd4850....
Heb hier nog 2 8800GTX-en in de aanbieding.Cleetje schreef op maandag 23 juni 2008 @ 14:03:
Ik ben van plan om 'binnenkort' (1-2 maanden) een upgrade uit te voeren van mn GPU.
Misschien ook interesant voor jou ? (Als je ten minste niks tegen 2de hands hebt)
256 mb meer geheugen dan de 9800GTX

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Krijgt je 3e 8800GTX een plekje op de muur? P:justifire schreef op maandag 23 juni 2008 @ 16:30:
[...]
Heb hier nog 2 8800GTX-en in de aanbieding.
Misschien ook interesant voor jou ? (Als je ten minste niks tegen 2de hands hebt)
256 mb meer geheugen dan de 9800GTX
Core i5 4670k, 8gb, MSI GTX460 HAWK TA
Ik weet niet hoe het komt, maar opeens blijkt mijn scherm onscherper te zijn. Zo lijken sommige letters in windows menutjes en in mijn browser nu alsof ze opgeslagen zijn als lage kwaliteit .jpg. Oftewel, de kleuren lopen buiten de daadwerkelijke letter zeg maar. Ik heb gewoon de laatste drivers enzo. Geen idee hoe dit komt, maar ik krijg er echt koppijn van.
Scherm: Samsung Syncmaster 931c 19"
Vid Kaart: Asus GeForce EN8800GTS/HTDP 320MB PCI-E1
edit: ter verduidelijking, het is niet alleen zo dat de letters wat "blurry" zijn op sommige plaatsen, op de plekken waar ze zo zijn zijn ze ook wat paarsig.
Scherm: Samsung Syncmaster 931c 19"
Vid Kaart: Asus GeForce EN8800GTS/HTDP 320MB PCI-E1
edit: ter verduidelijking, het is niet alleen zo dat de letters wat "blurry" zijn op sommige plaatsen, op de plekken waar ze zo zijn zijn ze ook wat paarsig.
[Voor 25% gewijzigd door dion_b op 25-06-2008 21:02]
The INQ is niet echt te spreken over de laatste 3dmark scores trouwens:
http://www.theinquirer.ne.../nvidia-cheats-3dmark-177
http://www.theinquirer.ne.../nvidia-cheats-3dmark-177
Moet zeggen een goed stukje tekst van de Inq in lange tijd 

Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i
Ik heb ondertussen geprobeerd om de drivers gewoon te deinstalleren en opnieuw te installeren. Toen vond ik dit:Mgc schreef op maandag 23 juni 2008 @ 20:22:
Ik weet niet hoe het komt, maar opeens blijkt mijn scherm onscherper te zijn. Zo lijken sommige letters in windows menutjes en in mijn browser nu alsof ze opgeslagen zijn als lage kwaliteit .jpg. Oftewel, de kleuren lopen buiten de daadwerkelijke letter zeg maar. Ik heb gewoon de laatste drivers enzo. Geen idee hoe dit komt, maar ik krijg er echt koppijn van.
Scherm: Samsung Syncmaster 931c 19"
Vid Kaart: Asus GeForce EN8800GTS/HTDP 320MB PCI-E1
edit: ter verduidelijking, het is niet alleen zo dat de letters wat "blurry" zijn op sommige plaatsen, op de plekken waar ze zo zijn zijn ze ook wat paarsig.
**ranzig grote pic**
De "typische gebruiksscenario" gaat precies op. Ik kan het balkje echter niet slepen. En ipv 0% staat er ook "Geen". Iemand enig idee hoe dit komt?
Het is een beetje moeilijk te omschrijven allemaal, maar het is echt alsof mn scherm in een verkeerde resolutie staat, terwijl die dat niet is, en het is echt super irritant.
edit: het is al opgelost, Vormgeving -> effecten -> randen van letters vloeiend op het scherm weergeven
[Voor 17% gewijzigd door dion_b op 25-06-2008 21:04]
Haha nee, die is al verkochtrickyy schreef op maandag 23 juni 2008 @ 17:30:
[...]
Krijgt je 3e 8800GTX een plekje op de muur? P:

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Klopt, en hier een bevestiging van de situatie:whiteguy schreef op maandag 23 juni 2008 @ 20:44:
The INQ is niet echt te spreken over de laatste 3dmark scores trouwens:
http://www.theinquirer.ne.../nvidia-cheats-3dmark-177
http://www.bjorn3d.com/Ma...800%20GTX+/SCORE_3DVP.png
http://www.bjorn3d.com/Ma...800%20GTX+/SCORE_3DVH.png
Bron: http://www.bjorn3d.com/read.php?cID=1297&pageID=5020
Een laatste redmiddel? Ben benieuwd wanneer Futuremark nVidia afschiet, maar iets zegt mij dat dat niet zo snel zal gebeuren. Die laten het hendig over aan de reviewsites

[Voor 1% gewijzigd door Jejking op 23-06-2008 22:22. Reden: plaatjes stuk...]
Ik betwijfel of Futuremark wel gaat optreden tegen deze situatie, als ze het doen en nVidia blokkeert in hun drivers de normale werking van 3D Mark, is het eerder Futuremark die er problemen door gaat krijgen dan nVidia.
Overigens dat PhysX is wel leuk en aardig, maar als je dan het lijstje games ziet wat het ondersteunt en nu nog er echt profijt van heeft is dat maar heel klein.
Aan een kant ben ik dan ook wel blij dat ik bijna niet meer game op mijn PC, maar meer op mijn Xbox, want een half jaar geleden 8800GT is nu al weer zwaar verouderd en meer dan 100 euro afschrijven in een half jaar is niet grappig.
Overigens dat PhysX is wel leuk en aardig, maar als je dan het lijstje games ziet wat het ondersteunt en nu nog er echt profijt van heeft is dat maar heel klein.
Aan een kant ben ik dan ook wel blij dat ik bijna niet meer game op mijn PC, maar meer op mijn Xbox, want een half jaar geleden 8800GT is nu al weer zwaar verouderd en meer dan 100 euro afschrijven in een half jaar is niet grappig.
de eerste hit op google als je zoekt op:Vincentio schreef op dinsdag 24 juni 2008 @ 00:50:
Ik betwijfel of Futuremark wel gaat optreden tegen deze situatie, als ze het doen en nVidia blokkeert in hun drivers de normale werking van 3D Mark, is het eerder Futuremark die er problemen door gaat krijgen dan nVidia.
Overigens dat PhysX is wel leuk en aardig, maar als je dan het lijstje games ziet wat het ondersteunt en nu nog er echt profijt van heeft is dat maar heel klein.
Aan een kant ben ik dan ook wel blij dat ik bijna niet meer game op mijn PC, maar meer op mijn Xbox, want een half jaar geleden 8800GT is nu al weer zwaar verouderd en meer dan 100 euro afschrijven in een half jaar is niet grappig.
physx supported games


Your point being? Ik heb die lijst gelezen en maar heel weinig games zullen er voordeel van hebben in vergelijking met een goede CPU. Het gaat meer om wat nog zou moeten gaan komen wat er profijt van heeft omdat deze al zwaarder de processor belasten.whiteguy schreef op dinsdag 24 juni 2008 @ 10:15:
[...]
de eerste hit op google als je zoekt op:
physx supported games
![]()
Lezen is moeilijk soms he?
Het ging mij meer om het feit dat de bovenste hit een 404 error page is op het nvidia domein:Vincentio schreef op dinsdag 24 juni 2008 @ 10:46:
[...]
Your point being? Ik heb die lijst gelezen en maar heel weinig games zullen er voordeel van hebben in vergelijking met een goede CPU. Het gaat meer om wat nog zou moeten gaan komen wat er profijt van heeft omdat deze al zwaarder de processor belasten.
Lezen is moeilijk soms he?
NVIDIA: Page Not Found
- [ Vertaal deze pagina ]
Press Room · NVISION 08 · Product Reviews · Events Calendar · Success Stories · NVIDIA in the News · NVIDIA Newsletter. Support ...
www.nvidia.com/page/mobile.html - 16k - In cache - Gelijkwaardige pagina's - Noteren
Anoniem: 246563
Ik heb die voeding ook maar ik zie toch nergens een 8pin aansluiting zitten voor video kaartenWildfire schreef op maandag 23 juni 2008 @ 09:49:
Ik heb dus afgelopen zaterdag mijn GTX 280 ingebouwd. Ik had de nieuwe PSU al klaarliggen voor de inbouw, blijkt @@#$@# dat ik 'm niet nodig heb. In tegenstelling tot de specs blijkt mijn PSU (Corsair HX620W) wèl een 8-pins PCI Express connector te hebben.
Ik zal later nog cijfers posten, maar mijn 3DMark Vantage score was iig verdubbeld tov mijn GeForce 8800 Ultra.

Of heb je 2 6pins naar een 8 pin laten omvormen?
Wat specifieker: Charlie Demerjian van The Inq is nooit te spreken over ook maar iets dat van nVidia afkomstig iswhiteguy schreef op maandag 23 juni 2008 @ 20:44:
The INQ is niet echt te spreken over de laatste 3dmark scores trouwens:
http://www.theinquirer.ne.../nvidia-cheats-3dmark-177

Zie ook de comments direct eronder:
So right...If you got it ,flaunt it
Nvidia owns Physx ,boo hoo ,if you got it flaunt it, you have every right to if you own something. This is deliberate obviously ,since Nvidia can flaunt those numbers ,wheres ATI cant ,simple as. Theres nothing new here and reviewers take an obvious note and move on.
posted by : ALz00, 23 June 2008
Oh Please
I am the biggest ATI fanboy on the east coast, nevertheless this article is bull. If Nvidia can offload the physx pipline off to the GPU and the user can see a dramatic gain in games without a loss of visual quality, I don't care how Futuremark has their legalese written about what is a valid score - there is significant and measureable improvement in physics calculations. In fact, someone who didn't have an Ageia card can now benefit in a way unheard of from all previous graphics drivers, as their card can do something that upon purchase, it was never intended to do!
I will upgrade to the latest 4000 series this winter and stay true to my ATI fanboy status, but I will give credit where credit is due - Nvidia pulled a rabbit out of their hat with this one.
posted by : estarkey, 23 June 2008
Bash the right people.
This is not something nvidia is doing wrong, this is the 3dmark people putting a CPU test in their suite and adding its result into a final score and then (many) reviewers using it to test graphics cards on themselves.
They should have designed the test to separate the CPU/PPU and GPU related tests also in the final score, since they know what their test is predominately used for, namely testing graphics cards and far far less for testing the capacities of an entire system to run games (if ever).
posted by : W.-, 23 June 2008
eh
As if 3DMark wasn't useless already.
It's amazing that getting better performance now for free can be construed as a bad thing. Looks to me that aside from the hoops you have to jump through, the GPU solution is fair. When someone plays an actual game, they can take advantage of this. Why not in a benchmark?
Just because Futuremark didn't have the foresight to call a physics test a physics test and not a CPU test doesn't mean nVidia users should have to gimp their setup for a benchmark.
Was it cheating to use a PhysX card on this benchmark?
posted by : Chris, 23 June 2008
how is this cheating?
How anti-Nvidia can you be? If you had a AgeiaPhysX card installed would not you get a "inflated" score versus if said cad was not installed?
If you have a game that used PhysX and it runs better on a Nvidia card now since they do the the PhysX calculations on GPU as compaired to the same game running on a ATI card that is not cheating on the part of Nvidia, it is a matter of ATI not doing the PhysX calculations.
If the purpose of 3DMark is to give you an idea of which GPU/CPU setup is faster overall and thus a better setup for gaming, would'nt it make sense to show that it produces higher scores with a Nvidia GPU that supports PhysX since a game that supported PhysX would also run faster?
posted by : game, 23 June 2008

Charlie moet niet huilen. nV kan physics doen op hun GPU. ATi (nog) niet. nV heeft die investering gedaan. ATi niet. Vantage ondersteund PhysX... dus heeft nV daar nou voordeel van en ATi niet.
Is physics op de GPU een 'big-deal'? Waarschijnlijk wel, want zowel ATi als nV zijn er mee bezig, al dan niet in tandem met diverse gamedeveloppers... alleen heeft ATi het op dit moment nog niet voor elkaar (ondanks ze al vanaf de X1000 serie roepen dat het eraan komt). Is nog niet echt een probleem, want er zijn nog niet dramatisch veel games die het ondersteunen. Vantage ondersteund het echter wel, en dat blijkt ook uit de totaalscore. Wil je de GPU score weten dan is het allemaal heel simpel: kijk naar de Vantage GPU score

Doet allemaal overigens weinig af aan mijn huidige voornemen om mijn volgende graphics setup uit 4850CF of een single 4870 te laten bestaan. Price/performancewise zien die er momenteel het best uit op mijn 1920x1200 reso met minimaal 4xAA/16xAF. Mijn complimenten aan ATi... ze laten met de 4-serie een teleurstellende 2 en 3 serie achter zich hebben na 2 jaar eindelijk weer een klant aan me

[Voor 16% gewijzigd door Cheetah op 24-06-2008 14:27]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Desalniettemin is het toch een goed verhaal, als je kijkt naar het technische aspect. Daarmee bedoel ik dat hij het goed uitlegt. De waarde "cheating" die hij er aan toekent, hoef je als lezer niet bepaald over te nemen... Waarom is volgens jou trouwens de HD3k serie teleurstellend?Cheetah schreef op dinsdag 24 juni 2008 @ 14:24:
[...]
Wat specifieker: Charlie Demerjian van The Inq is nooit te spreken over ook maar iets dat van nVidia afkomstig is
Zie ook de comments direct eronder:
[...]
So right...
Charlie moet niet huilen. nV kan physics doen op hun GPU. ATi (nog) niet. nV heeft die investering gedaan. ATi niet. Vantage ondersteund PhysX... dus heeft nV daar nou voordeel van en ATi niet.
Is physics op de GPU een 'big-deal'? Waarschijnlijk wel, want zowel ATi als nV zijn er mee bezig, al dan niet in tandem met diverse gamedeveloppers... alleen heeft ATi het op dit moment nog niet voor elkaar (ondanks ze al vanaf de X1000 serie roepen dat het eraan komt). Is nog niet echt een probleem, want er zijn nog niet dramatisch veel games die het ondersteunen. Vantage ondersteund het echter wel, en dat blijkt ook uit de totaalscore. Wil je de GPU score weten dan is het allemaal heel simpel: kijk naar de Vantage GPU score
Doet allemaal overigens weinig af aan mijn huidige voornemen om mijn volgende graphics setup uit 4850CF of een single 4870 te laten bestaan. Price/performancewise zien die er momenteel het best uit op mijn 1920x1200 reso met minimaal 4xAA/16xAF. Mijn complimenten aan ATi... ze laten met de 4-serie een teleurstellende 2 en 3 serie achter zich hebben na 2 jaar eindelijk weer een klant aan me
"Ich verteidige den Atheismus als die notwendige und selbstverständliche Form menschlicher Intelligenz" - Max Bense, Professor der Philosophie und Wissenschaftstheorie, 1910-1990
Cheating noem ik het niet. Eerder een hele creatieve methode, alleen niet op zijn plek. Een CPU-test is een CPU-test. Als dat de totale score flink ophoogt doe je iets niet goed. Oftewel: Futuremark moet eens een apart gedeelte maken voor CPU-scores en niet langer zo'n idiote berekening op de punten loslaten.
Sowieso het is Futuremark die de support voor Ageia kaarten heeft toegevoegd in die test, niet nVidia.Jejking schreef op dinsdag 24 juni 2008 @ 21:54:
Cheating noem ik het niet. Eerder een hele creatieve methode, alleen niet op zijn plek. Een CPU-test is een CPU-test. Als dat de totale score flink ophoogt doe je iets niet goed. Oftewel: Futuremark moet eens een apart gedeelte maken voor CPU-scores en niet langer zo'n idiote berekening op de punten loslaten.
Dat nVidia daar tegenwoordig geen aparte kaart meer voor nodig heeft is niet hun probleem, dan moet of Futuremark het maar zo coden dat die Ageia kaart support er niet in zit, want met een aparte PhysX kaart had je hetzelfde resultaat gehad of het is gewoon working as intended.
Het is allemaal gezeur om niks, alleen in-game power telt uiteindelijk. Al haal ik 20K in Vantage, als ik geen fatsoenlijke hoeveelheid frames op mijn scherm krijg bij games heb je der geen fluit aan.
Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i
qft.Apoca schreef op woensdag 25 juni 2008 @ 00:21:
Het is allemaal gezeur om niks, alleen in-game power telt uiteindelijk. Al haal ik 20K in Vantage, als ik geen fatsoenlijke hoeveelheid frames op mijn scherm krijg bij games heb je der geen fluit aan.
De meeste mensen deugen!
Nee, bij mijn 6-pins PCI Express aansluitingen zit nog een losse 2-pins connector ernaast die van de 6-pins dus een 8-pins connector maakt.Anoniem: 246563 schreef op dinsdag 24 juni 2008 @ 13:18:
[...]
Ik heb die voeding ook maar ik zie toch nergens een 8pin aansluiting zitten voor video kaarten![]()
Of heb je 2 6pins naar een 8 pin laten omvormen?
Zoiets als dit dus:
[Voor 33% gewijzigd door Wildfire op 25-06-2008 21:11]
De Corsair HX620 heeft volgens mij ergens tussentijds een update gehad waarin ook die 8 pins connectoren zijn toegevoegd. Ik had ook een eerste generatie HX620 en die had ook geen 8 pins connectoren. De kaarten van Asus komen trouwens wel met een 2*6 pins naar 1*8 pins connector.Anoniem: 246563 schreef op dinsdag 24 juni 2008 @ 13:18:
[...]
Ik heb die voeding ook maar ik zie toch nergens een 8pin aansluiting zitten voor video kaarten![]()
Of heb je 2 6pins naar een 8 pin laten omvormen?
Juist, met zo'n Ageia PCI kaart krijg je vast ook een hogere score, aangezien die het ook van de cpu zal overnemen. We proberen al jaren PhysX van de grond te krijgen, en nu er eindelijk vaart in komt dankzij nVidia, gaat men het afbreken, voor een waardeloze benchmark toolVincentio schreef op woensdag 25 juni 2008 @ 00:17:
[...]
Sowieso het is Futuremark die de support voor Ageia kaarten heeft toegevoegd in die test, niet nVidia.
Dat nVidia daar tegenwoordig geen aparte kaart meer voor nodig heeft is niet hun probleem, dan moet of Futuremark het maar zo coden dat die Ageia kaart support er niet in zit, want met een aparte PhysX kaart had je hetzelfde resultaat gehad of het is gewoon working as intended.

PhysX zal nu een enorme boost krijgen, nog een jaartje geduld. nVidia heeft ook nog veel werk aan haar drivers.Your point being? Ik heb die lijst gelezen en maar heel weinig games zullen er voordeel van hebben in vergelijking met een goede CPU. Het gaat meer om wat nog zou moeten gaan komen wat er profijt van heeft omdat deze al zwaarder de processor belasten.
[Voor 19% gewijzigd door XWB op 25-06-2008 11:38]
Ik ben bang dat tegen de tijd dat PhysX echt een impact gaat hebben, de al een andere physics API hebben.... een overkoepelende... bv DirectPhysics.... die op alle GPUs werkt ongeacht van welke IHV het komt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
niet in DX11,dus pas eventueel veel later, 2012?Hacku schreef op woensdag 25 juni 2008 @ 12:23:
Dat lijkt me pas in DirectX 11 te komen, 2010?
En voor zover ik weet is Ati ook nog steeds met een eigen GPU physics engine bezig, dus nVidia's zogenaamde cheaten blijft ook niet lang hangen.Hacku schreef op woensdag 25 juni 2008 @ 11:36:
[...]
Juist, met zo'n Ageia PCI kaart krijg je vast ook een hogere score, aangezien die het ook van de cpu zal overnemen. We proberen al jaren PhysX van de grond te krijgen, en nu er eindelijk vaart in komt dankzij nVidia, gaat men het afbreken, voor een waardeloze benchmark tool
[...]
PhysX zal nu een enorme boost krijgen, nog een jaartje geduld. nVidia heeft ook nog veel werk aan haar drivers.
Pas als je je PhysX engine zo ver krijgt dat je taken die puur bedoeld zijn voor CPU overneemt ben je aan het cheaten, al zou ik dat juist enorm toejuichen ! Lekker belangrijk dat er een of ander getalletje omhoog gaat, zoals gezegd gaat dat ook met een dedicated physics kaartje. Als ik in UT3 de eerste muur zie afbrokkelen, hoe karig ook, dan is me dat veel meer waard dan dat stomme getal.
Ik ben heel erg benieuwd naar de officiele launch van de drivers en ben ook heel benieuwd of ze al wat zaken kunnen optimaliseren.
[Voor 4% gewijzigd door KneoK op 25-06-2008 18:55]
Duurt even er na DX11 release ook daadwerkelijk DX11 games zijn en dan nog die goed gebruik maken van 'n immature PhysX api. Die moet ook groeien. Hoop dat ze het in een keer goed doen. Anders wordt het pas DX12. Havoc en PhysX zijn gebaseerd op veteranen API die al heel lang mee lopen en soms van eigenaar en naam zijn veranderd (Novodex).Hacku schreef op woensdag 25 juni 2008 @ 18:18:
Voor zover ik weet ging DirectX 11 iets doen met PhysX, maar ik heb het verkeerd op?
Tenzij MS 'n andere goede veteraan opkoopt en daarop verderbouwd of het wiel opnieuw uit gaat vinden. En dat kost heel veel tijd. En maakt het ook nog onaantrekkelijk.
Kijk maar hoe Direct3D gegroeid is van DX2 tot DX10.
Dan krijg je de langzame migratie van games.
nV PhysX krijgt hier ook last van duurd even eer er goede games zijn die tot 'n full dedicated GPU kan benutten. op ene interresante en waardevolle manier.
Bionic commando of Shadow harvest of Alien collonial mariens of borderlands mischien.
Ik wacht eerst op goede games en dat weet je pas na release na vele reviews dan pas gericht upgraden. Zal wel ergens eind dit jaar worden.
Misschien dat
crysis Warhead
Farcry 2
Mij tot upgraden kunnen verlijden.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Anoniem: 219166
Ik heb bij het speld GRID AA en AF aangezet (4x en 16x) in nvidia CC. Maar ik blijf maar karteling en tinteling zien aan de zijlijnen van de circuits. Hoe kan dit nu? 

Tijdens het rijden? Vsync aan?Anoniem: 219166 schreef op woensdag 25 juni 2008 @ 21:08:
Ik heb bij het speld GRID AA en AF aangezet (4x en 16x) in nvidia CC. Maar ik blijf maar karteling en tinteling zien aan de zijlijnen van de circuits. Hoe kan dit nu?
En gekozen voor 'override aplication control' ?
Zet ook je Transparant AA op Supervoorbeelden
[Voor 6% gewijzigd door justifire op 25-06-2008 21:43]
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
http://www.hothardware.co...hysX_Cheating_Allegation/
NVIDIA Responds To GPU PhysX Cheating Allegation
Conclusie: toegelaten, zoals ik al verwacht had. Geen wonder dat NV helemaal lyrish is over Vantage.
NVIDIA Responds To GPU PhysX Cheating Allegation
Conclusie: toegelaten, zoals ik al verwacht had. Geen wonder dat NV helemaal lyrish is over Vantage.
[Voor 48% gewijzigd door The Source op 25-06-2008 23:32]
Ik vind dit in dat stuk veel interessanter:The Source schreef op woensdag 25 juni 2008 @ 23:30:
http://www.hothardware.co...hysX_Cheating_Allegation/
NVIDIA Responds To GPU PhysX Cheating Allegation
Conclusie: toegelaten, zoals ik al verwacht had. Geen wonder dat NV helemaal lyrish is over Vantage.
And finally, to complete the picture a bit more, Mark Rein of Epic Games had this to say..."We couldn't care less about synthetic benchmarks. Real players play real games and in this case there is a real performance gain for a large number of users playing our game. The updated drivers that people are talking about allow properly-equipped Unreal Tournament 3 players users to use some amazing UT3 content that was specifically designed to take advantage of hardware-accelerated physics. So now that content works on high-end Nvidia graphics cards, as opposed to Ageia PPUs. This is a great thing as high-end Nvidia cards number in the millions, or tens of millions, compared to Ageia PPUs which obviously numbered far, far less. So Nvidia has done a cool optimization that allows their customers to get more value and performance out of their graphics cards. How anyone could possibly confuse this for a bad thing is beyond me."
En wie kijkt er niet verder dan zijn neus lang is? De consument. Waar kijkt de consument naar? Naar Futuremark, want hoe hoger hoe beter! That's marketingApoca schreef op woensdag 25 juni 2008 @ 00:21:
Het is allemaal gezeur om niks, alleen in-game power telt uiteindelijk. Al haal ik 20K in Vantage, als ik geen fatsoenlijke hoeveelheid frames op mijn scherm krijg bij games heb je der geen fluit aan.

Soms denk ik nog wel eens dat de "domheid" van de consument een overschat iets is, mensen nemen tegenwoordig steeds meer de moeite iets meer beslagen ten ijs te komen bij het kopen van producten.
Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i
En toch klopt het niet.The Source schreef op woensdag 25 juni 2008 @ 23:30:
http://www.hothardware.co...hysX_Cheating_Allegation/
NVIDIA Responds To GPU PhysX Cheating Allegation
Conclusie: toegelaten, zoals ik al verwacht had. Geen wonder dat NV helemaal lyrish is over Vantage.
De CPU test is niet meer dan dat... een CPU test.
De GPU wordt in de GPU test voor 100% gestressed. De CPU zou 100% moeten worden gestressed in de CPU test, tenzij je een dedicated PPU hebt. De CPU wordt nu echter niet meer volledig gestressed in de CPU test, maar de GPU doet dit ook voor een groot gedeelte... ik geloof dat die zich ook voor 100% in zet in de physics test.
Op zich niets mis mee... maar waar het mis gaat is het feit dat 3DMark een gamersbenchmark is en een indicatie moet geven van de performance in games. De scores zijn nu compleet opgeblazen en geven geen goed beeld meer.
Nu zijn er inderdaad games die PhysX gebruiken, maar in die games zal een GPU nooit 100% bezig zijn met 3D rendering terwijl het ook nog eens tegelijkertijd bezig is met 100% Physics. Daar is het altijd een balans tussen beide, dus bijvoorbeeld 70% rendering en 30% physics. Dit zie je niet terug in 3DMark Vantage, want daar werkt de GPU gewoon voor de volle 100% in zowel de GPU test als de CPU test. En dat was niet de bedoeling van 3DMark Vantage....

Mensen die dus verwachten dat PhysX acceleratie een giga boost gaat geven in games aan de hand van de opgeblazen 3DM Vantage scores zullen bedrogen uit komen. In shaderintensieve games zal je zelfs blij moeten zijn als je enkele frames meer hebt, want daar heb je alle shaderpower nodig om het beeld te renderen, laat staan dat er power over is om physx te berekenen. Anders wordt het wanneer je een tweede dedicated kaart hebt die zich volledig voor physX kan inzetten. Maar daar gaat het bij 3DMark Vantage niet om.

[Voor 3% gewijzigd door CJ op 26-06-2008 01:37]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Het is eigenlijk helemaal geen CPU test, maar een physics test. Als je PPU in je systeem hebt verhoogt dit ook je CPU score, dan hebben toch ook niet over cheaten of over kromme benchmarks? PPU is ook geen CPU, dus ja.CJ schreef op donderdag 26 juni 2008 @ 01:31:
[...]
En toch klopt het niet.
De CPU test is niet meer dan dat... een CPU test.
De GPU wordt in de GPU test voor 100% gestressed. De CPU zou 100% moeten worden gestressed in de CPU test, tenzij je een dedicated PPU hebt. De CPU wordt nu echter niet meer volledig gestressed in de CPU test, maar de GPU doet dit ook voor een groot gedeelte... ik geloof dat die zich ook voor 100% in zet in de physics test.
Op zich niets mis mee... maar waar het mis gaat is het feit dat 3DMark een gamersbenchmark is en een indicatie moet geven van de performance in games. De scores zijn nu compleet opgeblazen en geven geen goed beeld meer.
Nu dat nVidia het gruwel PPU(€ 150 euro voor 2de hands technology


Je mist eigenlijk het hele punt van het stukje. Lees het nog eens zou ik zeggen, en dan het stukje over opgeblazen scores...Bejit schreef op donderdag 26 juni 2008 @ 08:52:
[...]
Het is eigenlijk helemaal geen CPU test, maar een physics test. Als je PPU in je systeem hebt verhoogt dit ook je CPU score, dan hebben toch ook niet over cheaten of over kromme benchmarks? PPU is ook geen CPU, dus ja.
Nu dat nVidia het gruwel PPU(€ 150 euro voor 2de hands technology) van de kaart heeft geveegd en nu combineert in 1, is dan ook niet meer dan een verademing.(Vooral voor je budget
)
Een PPU in je system verhoogt inderdaad de scores. Maar die is 100% bezig met physics. Dat is het in games en dat is het in 3DMark.
Een GPU is niet 100% bezig met physics in games. Hij doet EN rendering EN physics. Vantage gaat wel uit van die situatie dat de CPU 2 test volledig gedaan wordt door dedicated hardware, waardoor de scores opgeblazen worden en er nog minder waarde aan de totaalscore gegeven moet worden dan er tot nu toe al aan gedaan werd.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Waar lees jij dat het toegelaten wordt? In de tekst van nVidia lees ik duidelijk dat ze de driver niet naar Futuremark hebben gestuurd voor authorization. In de tekst van Futuremark lees ik hetzelfde, nVidia heeft de 177.35 driver ingestuurd, maar niet de 177.39 waarin PhysX enabled is.The Source schreef op woensdag 25 juni 2008 @ 23:30:
http://www.hothardware.co...hysX_Cheating_Allegation/
NVIDIA Responds To GPU PhysX Cheating Allegation
Conclusie: toegelaten, zoals ik al verwacht had. Geen wonder dat NV helemaal lyrish is over Vantage.
Natuurlijk is het PhysX verhaal positief, als het nuttig is voor games zal je niemand horen klagen. Maar het punt is dat nVidia de drivers zo aanpast dat hun GPU de score van de CPU test in 3Dmark beïnvloedt. Bij de CPU test wordt de GPU normaal helemaal niet gebruikt en zou deze dus helemaal voor PhysX ingezet kunnen worden. Dat is geen realistische benchmark, aangezien in games de GPU erg druk is met graphics en slechts een deel ervan voor PhysX gebruikt kan worden. Op deze manier geeft een 3Dmark score dus een vertekend beeld.
edit: ja, wat CJ zegt

Het is geen CPU test, het is een physics test.Depep schreef op donderdag 26 juni 2008 @ 09:46:
Maar het punt is dat nVidia de drivers zo aanpast dat hun GPU de score van de CPU test in 3Dmark beïnvloedt.
Een vertekend beeld?Bij de CPU test wordt de GPU normaal helemaal niet gebruikt en zou deze dus helemaal voor PhysX ingezet kunnen worden. Dat is geen realistische benchmark, aangezien in games de GPU erg druk is met graphics en slechts een deel ervan voor PhysX gebruikt kan worden. Op deze manier geeft een 3Dmark score dus een vertekend beeld.
Kijk hier eens naar.

Dat zijn 2,5x zo veel fps met physics enabled in een echt spel.
Ik begrijp niet wat er te miepen valt over 10% extra punten in Vantage, wanneer er 150% extra performance bereikt wordt in een real life game. Ik blijf er dan ook bij dat AMD/ATi's politieke keuze voor Havok CPU acceleratie i.p.v. PhysX GPU acceleratie een verkeerde was.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Is dat met een pentium 3?
Ik neem aan dat bij de HD4850 en 9800GTX+ (zonder physx) de CPU voor de physx zorgt. Dus dan is dat de bottleneck toch? Maar bij de 9800GTX+ (met physx) zorgt de GPU daarvoor.. Dus dan heeft de CPU minder invloed en wordt niet gebottleneckt..
Maar met een e8400 @ 3,6 ghz zal het verschil een stuk kleiner (lees: bijna niets) zijn. Of zie ik het fout?
[Voor 56% gewijzigd door Shrimp O Vis op 26-06-2008 12:20]
Core 2 Duo E8400; 2x2gb OCZ; Sapphire Radeon HD4850; Gigabyte EX38-DS4; NZXT Apollo;
If I asked "Is an electron a wave OR a particle?", my question would be wrong before you even answered.
Shrimp O Vis schreef op donderdag 26 juni 2008 @ 12:09:
Is dat met een pentium 3?

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Dat de GPU niet volledig beschikbaar is voor het renderen als het ook Physics moet doen is natuurlijk waar. Maar dat is het zelfde in de situatie van de CPU. Deze moet ook een deel van de resources aan Physics besteden in een echte game, welke mogelijk ook fps gaat kosten. En als het een Physics test is en niet een CPU test dan is dit in principe volgens de regels. Maar ik ken vantage niet goed genoeg om dit zeker te weten.CJ schreef op donderdag 26 juni 2008 @ 01:31:
[...]
En toch klopt het niet.
De CPU test is niet meer dan dat... een CPU test.
De GPU wordt in de GPU test voor 100% gestressed. De CPU zou 100% moeten worden gestressed in de CPU test, tenzij je een dedicated PPU hebt. De CPU wordt nu echter niet meer volledig gestressed in de CPU test, maar de GPU doet dit ook voor een groot gedeelte... ik geloof dat die zich ook voor 100% in zet in de physics test.
Op zich niets mis mee... maar waar het mis gaat is het feit dat 3DMark een gamersbenchmark is en een indicatie moet geven van de performance in games. De scores zijn nu compleet opgeblazen en geven geen goed beeld meer.
Nu zijn er inderdaad games die PhysX gebruiken, maar in die games zal een GPU nooit 100% bezig zijn met 3D rendering terwijl het ook nog eens tegelijkertijd bezig is met 100% Physics. Daar is het altijd een balans tussen beide, dus bijvoorbeeld 70% rendering en 30% physics. Dit zie je niet terug in 3DMark Vantage, want daar werkt de GPU gewoon voor de volle 100% in zowel de GPU test als de CPU test. En dat was niet de bedoeling van 3DMark Vantage....
Mensen die dus verwachten dat PhysX acceleratie een giga boost gaat geven in games aan de hand van de opgeblazen 3DM Vantage scores zullen bedrogen uit komen. In shaderintensieve games zal je zelfs blij moeten zijn als je enkele frames meer hebt, want daar heb je alle shaderpower nodig om het beeld te renderen, laat staan dat er power over is om physx te berekenen. Anders wordt het wanneer je een tweede dedicated kaart hebt die zich volledig voor physX kan inzetten. Maar daar gaat het bij 3DMark Vantage niet om.
Verder ben ik het natuurlijk met je eens dat Vantage hiermee een scheef beeld gaat geven. Maar dat is niks nieuws. Het wordt alleen erger. Heel de 3dmark is tegenwoordig alleen nog (een beetje) geschikt voor het onderscheiden van kaarten van 1 fabrikant.
Dat is het hele punt: een general purpose CPU (Core2, Phenom) is veel minder geschikt voor physics als een grafische kaart. Dezelfde physicsberekeningen kosten op een CPU veel meer resources.Shrimp O Vis schreef op donderdag 26 juni 2008 @ 12:09:
Ik neem aan dat bij de HD4850 en 9800GTX+ (zonder physx) de CPU voor de physx zorgt. Dus dan is dat de bottleneck toch? Maar bij de 9800GTX+ (met physx) zorgt de GPU daarvoor.. Dus dan heeft de CPU minder invloed en wordt niet gebottleneckt..
Maar met een e8400 @ 3,6 ghz zal het verschil een stuk kleiner (lees: bijna niets) zijn. Of zie ik het fout?
Door physics in ieder geval gedeeltelijk te offloaden naar de GPU kan dus een behoorlijke winst worden geboekt: de GPU staat dan namelijk niet meer op de CPU te wachten, totdat deze de physicsberekeningen heeft gedaan.
Een e8400 @3.6 gaat niet veel verschil maken. Een quadcore zet, indien supported, al iets meer zoden aan de dijk, maar zelfs dan haal je dit soort resultaten niet... Dit is een architecturele kwestie, en de architectuur van graphiscscards leent zich veel beter voor physics dan die van general purpose cpu's.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
En nog geeft het een vertekend beeld. Het is een speciaal PhysX level die gebouwd is voor de PhysX PPU.Cheetah schreef op donderdag 26 juni 2008 @ 11:54:
[...]
Het is geen CPU test, het is een physics test.
[...]
Een vertekend beeld?
Kijk hier eens naar.
[afbeelding]
Dat zijn 2,5x zo veel fps met physics enabled in een echt spel.
Ik begrijp niet wat er te miepen valt over 10% extra punten in Vantage, wanneer er 150% extra performance bereikt wordt in een real life game. Ik blijf er dan ook bij dat AMD/ATi's politieke keuze voor Havok CPU acceleratie i.p.v. PhysX GPU acceleratie een verkeerde was.
De gemiddelde huis tuin en keuken game die gebruik maakt van de PhysX library zal niet direct zo'n boost krijgen. Oh wacht, de rest de UT3 game krijgt niet zo'n boost... die maken namelijk gebruik van de PhysX library op de CPU (ik geloof in de vorm van Novodex?) en zijn dus niet geoptimaliseerd voor de PPU.
De PhysX library ondersteunt zowel physics op de CPU (net zoals Havok) en op de PPU. Een game moet echter wel specifiek geprogrammeerd zijn voor de PPU wil deze er gebruik van maken. En dat zijn de meeste games nog niet... zoals je ziet met bv UT3 waar er speciale levels zijn voor physics. Ongetwijfeld zal NV er een smak geld tegen aan gooien om het probleem te verhelpen.
Daarnaast is de UE3 engine natuurlijk wel het stokpaardje van NV. Het draait zowiezo al super op slomere GPUs, dus de snelste GPUs hebben 'power to spare', zoals AMD dat zo leuk zegt. De meeste streamprocessors zitten vaak uit hun neus te eten. Laat ze eerst maar eens hetzelfde flikken in een zwaardere engine waar de GPU onder full load alles nodig heeft om de nodige fps op het scherm te toveren....
Overigens is je veronderstelling dat AMD alleen voor Havok kiest voor CPU acceleratie de verkeerde. Maar dat is iets wat later nog wel uit de doeken gedaan wordt. De keuze is gemaakt op basis van de grootste, meest gebruikte, bekendste physics API.

[Voor 6% gewijzigd door CJ op 26-06-2008 13:23]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Klopt dat de Vantage score marginaal vooruit gaat en de formule wazig is, wat iig niet overdreven is.Cheetah schreef op donderdag 26 juni 2008 @ 11:54:
Dat zijn 2,5x zo veel fps met physics enabled in een echt spel.
Ik begrijp niet wat er te miepen valt over 10% extra punten in Vantage, wanneer er 150% extra performance bereikt wordt in een real life game. Ik blijf er dan ook bij dat AMD/ATi's politieke keuze voor Havok CPU acceleratie i.p.v. PhysX GPU acceleratie een verkeerde was.
Maar men kijkt ook naar de CPU2 score.
Dat is geen 2,5 x in zware Real game situatie.
Tov die synthetisch Puur GPU wat 'n factor 9 laat zien wat absoluut niet reëel is voor single card use.
Als de Fake 'GPGPU' CPU test als synthetish wordt gezien. Zoals 'n pure Shader bench routine. Of Fillrate routine. IS het geen punt.With GPU PhysX disabled, the overall 3DMark Vantage score is P11720 with a CPU Test 2 score of 14.95 FPS. With GPU PhysX enabled, the overall score jumps to P14298 with a CPU Test 2 score of 127.77 FPS.
Dat de real Game waardering. de totaal score. de gelimiteerde waarde van die test ook marginaal meerekend is ook 'n methode om dit probleem te dempen.
Maar PhysX brengt geen FPS boost van tegen 1000% volgens al die CPU bench testjes.
Het blijft zoals Futermark het noemd 'n CPU test. Dat houd dus in die PhysX moet over de CPU heen.
Mogelijke oplossing Futermark noem het na 'n Patch een Pure PhysX test. Probleem opgelost.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Uit dat artikel waar je naar linkt...
but if these charts from NVIDIA....

Meer hoef ik niet te zeggen.
[Voor 5% gewijzigd door Madrox op 26-06-2008 19:04]
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Anoniem: 164902
Ik vind die hele discussie over PhysX in 3dMarkt erg interessant.
Ik ben het eens met hen die zeggen dat 3dMark een benchmark is voor game-systemen. Als je met een nVidia kaart overall een hogere score haalt, dan is een dergelijk systeem gewoon sneller (mits de software een en ander ondersteunt natuurlijk). Ere wie ere toekomt, dus hulde voor nVidia.
Waar het volgens mij fout loopt is daar waar men denkt / ervan uit gaat dat 3dMark een score oplevert waaruit je kunt opmaken hoe goed een videokaart is in wat hij in de klassieke zin moet doen, namelijk 3d-beelden zo mooi en snel mogelijk renderen (iets wat de naam wèl suggereert en wat 'de massa' volgens mij aanneemt). Dan ontstaat immers de indruk dat nVidia-kaarten puur als grafische processor stukken sneller zijn dan ATi-kaarten. Vanuit die redenering kan ik mij de klachten uit het ATi-kamp goed voorstellen en deel ik ze ook.
Ik ben het eens met hen die zeggen dat 3dMark een benchmark is voor game-systemen. Als je met een nVidia kaart overall een hogere score haalt, dan is een dergelijk systeem gewoon sneller (mits de software een en ander ondersteunt natuurlijk). Ere wie ere toekomt, dus hulde voor nVidia.
Waar het volgens mij fout loopt is daar waar men denkt / ervan uit gaat dat 3dMark een score oplevert waaruit je kunt opmaken hoe goed een videokaart is in wat hij in de klassieke zin moet doen, namelijk 3d-beelden zo mooi en snel mogelijk renderen (iets wat de naam wèl suggereert en wat 'de massa' volgens mij aanneemt). Dan ontstaat immers de indruk dat nVidia-kaarten puur als grafische processor stukken sneller zijn dan ATi-kaarten. Vanuit die redenering kan ik mij de klachten uit het ATi-kamp goed voorstellen en deel ik ze ook.
[Voor 4% gewijzigd door Anoniem: 164902 op 26-06-2008 19:57]
3Dmark oogt erop een benchmark voor toekomstige spellen te zijn, of PhysX significant moet meetellen zou dus afhangen van het gebruik ervan in toekomstige spellen.
Vantage werd al van alle kanten afgebrand omdat er geen DX10.1 in word gedaan, dat zou immers de toekomst zijn. Nvidia kennende, dankzij intensieve samenwerking met gamedevs, zal PhysX waarschijnlijk sneller in games worden toegepast dan DX10.1. Daarom denk ik dat het percentage waarmee de Vantage score omhoog gaat best reeel is voor een benchmark gericht op de toekomst.
Blijft wel dat de CPU score hierdoor natuurlijk totaal niet meer representatief is voor werkelijk CPU prestatie vergelijk, maar dat was het met een kaart van Ageia ook al niet.
Ik stem er dan ook voor de CPU test 2 te renamen naar physics test en het vervolgens goed te keuren.
Vantage werd al van alle kanten afgebrand omdat er geen DX10.1 in word gedaan, dat zou immers de toekomst zijn. Nvidia kennende, dankzij intensieve samenwerking met gamedevs, zal PhysX waarschijnlijk sneller in games worden toegepast dan DX10.1. Daarom denk ik dat het percentage waarmee de Vantage score omhoog gaat best reeel is voor een benchmark gericht op de toekomst.
Blijft wel dat de CPU score hierdoor natuurlijk totaal niet meer representatief is voor werkelijk CPU prestatie vergelijk, maar dat was het met een kaart van Ageia ook al niet.
Ik stem er dan ook voor de CPU test 2 te renamen naar physics test en het vervolgens goed te keuren.
[Voor 11% gewijzigd door -db- op 26-06-2008 20:25]
Snap niet wat ze lopen te zeiken.
Als iemand zijn processor op 8 ghz laat lopen schiet die score ook omhoog, maar dan is het toch ook geen cheaten?
Het gaat toch om het gehele systeem?
Hoe meer punten hoe beter, en heb tot nu toe nog nooit iemand horen klagen als een driver enkele honderden punten meer neerzette in 3dmark/vantage, of word er soms al vanaf het begin gecheated?
Het is imo vrij simpel, meer punten in vantage betekent meer fps in spellen en dat is toch super?
Als iemand zijn processor op 8 ghz laat lopen schiet die score ook omhoog, maar dan is het toch ook geen cheaten?
Het gaat toch om het gehele systeem?
Hoe meer punten hoe beter, en heb tot nu toe nog nooit iemand horen klagen als een driver enkele honderden punten meer neerzette in 3dmark/vantage, of word er soms al vanaf het begin gecheated?
Het is imo vrij simpel, meer punten in vantage betekent meer fps in spellen en dat is toch super?
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Alleen meer fps in ondersteunende PhysX spellen.
Maar binnenkort ook PhysX op Radeons..(hopelijk)
..http://www.ngohq.com/news/14219-physx-gpu-acceleration-radeon-hd-3850-a.html
Maar binnenkort ook PhysX op Radeons..(hopelijk)

|2600k|Asus 290|
Nou nee... dat is waar de discussie over gaat.. als het een CPU test is, dan moet het een CPU test zijn en blijven en niet CPU+GPU... Maar het is idd wel een beetje mieren*eken... Als ze CPU test naar Phyisc test renamen, dan is het probleem wel opgelost..justifire schreef op donderdag 26 juni 2008 @ 22:29:
Het gaat toch om het gehele systeem?
Als je een slome proc hebt, ja.Bullus schreef op donderdag 26 juni 2008 @ 22:42:
Alleen meer fps in ondersteunende PhysX spellen.
[Voor 19% gewijzigd door Shrimp O Vis op 26-06-2008 22:47]
Core 2 Duo E8400; 2x2gb OCZ; Sapphire Radeon HD4850; Gigabyte EX38-DS4; NZXT Apollo;
If I asked "Is an electron a wave OR a particle?", my question would be wrong before you even answered.
Zullen we in dit topic zeggen dat de meningen erover verschillen? Anders blijft dit echt nog lang door gaan, krijgen we een remake van de vorige nVidia cheat discussie jabba jabba. Let's not go there again
?
Ben trouwens benieuwd of nVidia na de release van de HD4870 de prijs van de GTX280 ook gaat verlagen; heb namelijk een geruchtje vernomen dat dit mogelijk is binnen 3 weken.

Ben trouwens benieuwd of nVidia na de release van de HD4870 de prijs van de GTX280 ook gaat verlagen; heb namelijk een geruchtje vernomen dat dit mogelijk is binnen 3 weken.
De meeste mensen deugen!
Denk dat ze beter de GTX260 omlaag kunnen doen, en de GTX280 zo lang mogelijk hoog kunnen houden tot ATi er met de R700 is
Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i
Leest nou niemand de posts in dit topic, of is het zo moeilijk om begrijpend te lezen? Volgens mij hebben CJ en ik dit allebei al een keer proberen uit te leggen, maar er komen nog steeds reacties waaruit blijkt dat mensen het punt helemaal niet begrepen hebben.
3Dmark test de physics en graphics apart, omdat dit in het verleden 2 aparte dingen waren. Nu hebben we 1 kaart die beide dingen doet. Die kan dus in beide tests volledig ingezet worden. Tijdens games echter, moet de kaart beide dingen tegelijk doen. Deze manier van testen is dus absoluut niet representatief voor games en het resultaat is eigenlijk waardeloos geworden.
Het erge is, nVidia verandert instellingen zodat de kaart dubbel ingezet wordt. Daarmee maken ze de test dus eigenlijk waardeloos. En dat alleen maar om een paar puntjes hoger te scoren. Natuurlijk worden deze scores niet door Futuremark geaccepteerd, maar als de gemiddelde tweaker zich al zo makkelijk voor de gek laat houden dat hij uit z'n dak gaat omdat hij nu een hoger getalletje ziet, kan je je voorstellen hoe de gemiddelde gebruiker deze scores gaat opvatten.
3Dmark test de physics en graphics apart, omdat dit in het verleden 2 aparte dingen waren. Nu hebben we 1 kaart die beide dingen doet. Die kan dus in beide tests volledig ingezet worden. Tijdens games echter, moet de kaart beide dingen tegelijk doen. Deze manier van testen is dus absoluut niet representatief voor games en het resultaat is eigenlijk waardeloos geworden.
Het erge is, nVidia verandert instellingen zodat de kaart dubbel ingezet wordt. Daarmee maken ze de test dus eigenlijk waardeloos. En dat alleen maar om een paar puntjes hoger te scoren. Natuurlijk worden deze scores niet door Futuremark geaccepteerd, maar als de gemiddelde tweaker zich al zo makkelijk voor de gek laat houden dat hij uit z'n dak gaat omdat hij nu een hoger getalletje ziet, kan je je voorstellen hoe de gemiddelde gebruiker deze scores gaat opvatten.
Boeit me niet wat jij en CJ er van vinden... Lekker belangrijk. Als het fps oplevert vind ik het prima.Depep schreef op vrijdag 27 juni 2008 @ 10:31:
Leest nou niemand de posts in dit topic, of is het zo moeilijk om begrijpend te lezen? Volgens mij hebben CJ en ik dit allebei al een keer proberen uit te leggen, maar er komen nog steeds reacties waaruit blijkt dat mensen het punt helemaal niet begrepen hebben.
3Dmark test de physics en graphics apart, omdat dit in het verleden 2 aparte dingen waren. Nu hebben we 1 kaart die beide dingen doet. Die kan dus in beide tests volledig ingezet worden. Tijdens games echter, moet de kaart beide dingen tegelijk doen. Deze manier van testen is dus absoluut niet representatief voor games en het resultaat is eigenlijk waardeloos geworden.
Het erge is, nVidia verandert instellingen zodat de kaart dubbel ingezet wordt. Daarmee maken ze de test dus eigenlijk waardeloos. En dat alleen maar om een paar puntjes hoger te scoren. Natuurlijk worden deze scores niet door Futuremark geaccepteerd, maar als de gemiddelde tweaker zich al zo makkelijk voor de gek laat houden dat hij uit z'n dak gaat omdat hij nu een hoger getalletje ziet, kan je je voorstellen hoe de gemiddelde gebruiker deze scores gaat opvatten.
We willen toch de beste resultaten? of niet. Wie trekt zich nu nog iets aan van 3dmarks?
Trouwens met ati kun je nu ook cheaten: http://www.hardware.info/...en_ook_op_AMD_videokaart/
Of heet het dan geen cheaten meer?
Vinden? Mijn post was opgebouwd uit feiten, er staat geen mening in. Ik ben ook helemaal voorstander van physics op een videokaart laten uitvoeren, als dat extra fps oplevert denk ik dat nVidia een goede weg ingeslagen is en dat ATi niet achter kan blijven.Eindhoven657 schreef op vrijdag 27 juni 2008 @ 11:28:
[...]
Boeit me niet wat jij en CJ er van vinden... Lekker belangrijk. Als het fps oplevert vind ik het prima.
We willen toch de beste resultaten? of niet. Wie trekt zich nu nog iets aan van 3dmarks?
Trouwens met ati kun je nu ook cheaten: http://www.hardware.info/...en_ook_op_AMD_videokaart/
Of heet het dan geen cheaten meer?
Wat ik probeerde te zeggen is dat nVidia wijzigingen heeft doorgevoerd waardoor 3dmark scores niet meer indicatief zijn voor gaming performance. Dat werd de laatste tijd sowieso al minder en minder, maar dit is wel een plotseling extreem verschil. Het feit dat ze deze wijzigingen bewust hebben doorgevoerd om dit doel te bereiken noem ik cheaten. En het probleem daarbij is dat een heleboel mensen zich (onterecht) nog steeds wel veel aantrekken van 3dmark scores. Gelukkig weten wij wel beter....
Kuch.... waarom stond ATi de laatste tijd zo hoog met hun kaarten in de 3dmark scores. En in games stonden ze nooit/bijna nooit boven aan. Tweaks? aanpassingen in drivers? Dat is toch hetzelfde. Dat gaf toch ook geen reeël beeld... Dus ik zie het probleem niet. Het enige reële beeld zie ik terug in games... En hoe ze dat doen boeit me niet.Depep schreef op vrijdag 27 juni 2008 @ 11:40:
[...]
Dat werd de laatste tijd sowieso al minder en minder, maar dit is wel een plotseling extreem verschil. Het feit dat ze deze wijzigingen bewust hebben doorgevoerd om dit doel te bereiken noem ik cheaten. En het probleem daarbij is dat een heleboel mensen zich (onterecht) nog steeds wel veel aantrekken van 3dmark scores. Gelukkig weten wij wel beter....
Verdomme, we gamen toch geen 3dmark.

[Voor 7% gewijzigd door Eindhoven657 op 27-06-2008 11:46]
Je snapt het niet echt he?Eindhoven657 schreef op vrijdag 27 juni 2008 @ 11:28:
[...]
Boeit me niet wat jij en CJ er van vinden... Lekker belangrijk. Als het fps oplevert vind ik het prima.
We willen toch de beste resultaten? of niet. Wie trekt zich nu nog iets aan van 3dmarks?
Trouwens met ati kun je nu ook cheaten: http://www.hardware.info/...en_ook_op_AMD_videokaart/
Of heet het dan geen cheaten meer?
3DM Vantage geeft dan nog altijd een verkeerd beeld van echte gameprestaties van een systeem. In een game is je GPU niet 100% met physics bezig zoals dat nu gebeurt in de CPU 2 test in Vantage.
Dan maakt het niet uit of NV die test op de GPU laat uit voeren, of AMD dat doet op hun Radeons of dat S3 dat doet op een Chrome 430s. Dat gaat tegen de Driver Approval Policy in van Futuremark zelf. Maar dat had je kunnen weten als je die policy gelezen had op de FM site.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ja hoor ik snap het wel. Alleen wordt ik moe van neuzelaars die toch altijd vinden dat ze gelijk hebben. meer performance in games: Goeie zaak, en f8ck 3dmark. Was de laatste versies toch al een kansloze graadmeter.
Klopt ja. Maar voor het grootste gedeelte van de mensen is 3DMark een 'indicatie' van wat er mogelijk is in games. Die gaan er nog altijd blindelings van uit. Zelfs hier op het forum heb je dat soort mensen. En die mensen worden nu dus misleid en denken ten onrechte dat ze in alle games met PhysX een soortgelijke boost krijgen.
Overigens zijn de afzonderlijke tests zoals de GPU test en Feature Tests betere indicaties van de presentaties van een videokaart.
Overigens zijn de afzonderlijke tests zoals de GPU test en Feature Tests betere indicaties van de presentaties van een videokaart.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Hey . . . wat the f* is dit? Is dit al eerder voorbij gekomen?
http://core.tweakers.net/nieuws/54225/nieuwe-geforce-drivers-zorgen-voor-slechtere-prestaties.html
Zouden ze nu toch wat zaken uit de nieuwe versie drivers hebben gehaald?
@ CJ, Enig idee?
http://core.tweakers.net/nieuws/54225/nieuwe-geforce-drivers-zorgen-voor-slechtere-prestaties.html
Zouden ze nu toch wat zaken uit de nieuwe versie drivers hebben gehaald?
@ CJ, Enig idee?
He CJ. Hoe kan het dat we met deze kaarten niet de minicore structure terug zien waar we toen veel over hebben gelezen/gehoord tijdens de R600 launch?
Als ze erin geslaagd zijn om the nvidia physX drivers te laten werken met ati kaarten ruikt dat naar een software truc. Ik denk niet dat het mogelijk is om zomaar even een CUDA-ID naar CAL-IL convertor te schrijven (die nog eens realtime zou moeten werken). Ik denk dus dat de nvidia physX drivers een zeer snelle software implementatie zijn (en geen gpu gebruiken) ALS de amd-physx hack werkt.
Heb je gelijk in.CJ schreef op vrijdag 27 juni 2008 @ 12:13:
Overigens zijn de afzonderlijke tests zoals de GPU test en Feature Tests betere indicaties van de presentaties van een videokaart.
[Voor 96% gewijzigd door Ultraman op 27-06-2008 17:18]
waarom test je t niet zelf, zoals ik in de replies kan lezen zijn er bij sommige minimale verslechteringen opgetreden ( lees 5-10%) ipv de 45% die t artikel steld..Eolis schreef op vrijdag 27 juni 2008 @ 15:17:
Hey . . . wat the f* is dit? Is dit al eerder voorbij gekomen?
http://core.tweakers.net/nieuws/54225/nieuwe-geforce-drivers-zorgen-voor-slechtere-prestaties.html
Zouden ze nu toch wat zaken uit de nieuwe versie drivers hebben gehaald?
@ CJ, Enig idee?
En van nog veel meer de reactie dat ze vaak er op vooruit zijn gegaan ipv achteruit
Ook is dit een 175.xx ipv 177.xx serie die voor de gf9x00 en gt2x0 uit zijn..
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
de "echte" nieuw driver is 177.41 en die is super
. Moet effe een gemodde inf gebruiken, maar dan werkt ie ook voor de 8 serie. Beste driver die ik ooit heb gebruikt voor mijn 8800 GTS 640. Betere performance en betere iq . warom loopt iedereen altijd mijlenver achter met drivers ?? . Of willen je echt alleen de whql versies gebruiken ???

5800X - B550 - 32GB 3600MHZ - 7900xtx sapphire pulse - @4k 144hz
Gewoon modded inf van de 177.35 gebruiken, alleen de driver versie in de inf aanpassen.
Is te vinden in het nvidia PhysX topic als je de linkjes volgt.
Is te vinden in het nvidia PhysX topic als je de linkjes volgt.
kijk op de forums van Guru3D, daar haal ik altijd mijn videokaartdrivers vandaan. Zijn bijna altijd de eerste en zijn altijd goede discussietopics met handige tips en informatieThe Source schreef op vrijdag 27 juni 2008 @ 20:05:
Waar is de modded .inf te vinden?

5800X - B550 - 32GB 3600MHZ - 7900xtx sapphire pulse - @4k 144hz
Zo, vandaag ff in de weer geweest met mijn gtx280 tri-sli setup 
Kaarten nog niet oc-ed, gewoon op stock speeds.
Rest van specs in sig.
Futuremark vantage:
Extreme: X13428 gpu 12944 cpu 46382
Performance: P27119 gpu 23796 cpu 46666
Verder trekt de gehele setup onder full load 700 watt, valt dus best mee en een 1000 watt voeding is dus nog ruim voldoende.
De disorted schaduwen waarvan ik op de 8800gtx last had bij o.a. Overlord en Tomb Raider zijn verleden tijd met de 200 serie
Ook het 'stotteren' van Test Drive Unlimited is verholpen, haha na 2 jaar eindelijk die game eens van de plank afhalen
Ga zo eens ff Crysis proberen, had deze na 5 minuten weggelegen met mijn 3x8800gtx setup, gewoonweg onspeelbaar op 2560x1600 very high, ben benieuwd.
edit:
Whaha 6-7 fps op het stukje waar je vanuit het bos het strand op loopt, en de eerste hutjes ziet staan
Wat een baggerspel zeg.
Hoop dat Far Cry 2 beter word geprogrammeerd.

Kaarten nog niet oc-ed, gewoon op stock speeds.
Rest van specs in sig.
Futuremark vantage:
Extreme: X13428 gpu 12944 cpu 46382
Performance: P27119 gpu 23796 cpu 46666
Verder trekt de gehele setup onder full load 700 watt, valt dus best mee en een 1000 watt voeding is dus nog ruim voldoende.
De disorted schaduwen waarvan ik op de 8800gtx last had bij o.a. Overlord en Tomb Raider zijn verleden tijd met de 200 serie

Ook het 'stotteren' van Test Drive Unlimited is verholpen, haha na 2 jaar eindelijk die game eens van de plank afhalen

Ga zo eens ff Crysis proberen, had deze na 5 minuten weggelegen met mijn 3x8800gtx setup, gewoonweg onspeelbaar op 2560x1600 very high, ben benieuwd.
edit:
Whaha 6-7 fps op het stukje waar je vanuit het bos het strand op loopt, en de eerste hutjes ziet staan

Wat een baggerspel zeg.
Hoop dat Far Cry 2 beter word geprogrammeerd.
[Voor 10% gewijzigd door justifire op 28-06-2008 16:35]
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
De R700 is nog niet uit.EdwardvGelder schreef op zaterdag 28 juni 2008 @ 17:02:
2x r700 had toch iets van x12***?
Life is what you others make it.
Maar daar had cj toch een plaatje van gepost?
http://tweakimg.net/g/for...titopicr700previewxg4.jpg
die bedoel ik dus. Als ze de drivers optimaliseren scoort 2x r700 dan misschien nog wel meer dan 3xgtx280
http://tweakimg.net/g/for...titopicr700previewxg4.jpg
die bedoel ik dus. Als ze de drivers optimaliseren scoort 2x r700 dan misschien nog wel meer dan 3xgtx280

Probeer het gewoon eens op high, dan ziet het spel er al super uit, van high naar very high kost altijd een enorme performance drop, terwijl het er amper beter uitziet, ik snap dat je met die hardware alles wilt maxxen, maar wel een beetje kort door de bocht om het gelijk een baggerspel te noemen en weer aan de kant te gooien.justifire schreef op zaterdag 28 juni 2008 @ 15:47:
Ga zo eens ff Crysis proberen, had deze na 5 minuten weggelegen met mijn 3x8800gtx setup, gewoonweg onspeelbaar op 2560x1600 very high, ben benieuwd.
edit:
Whaha 6-7 fps op het stukje waar je vanuit het bos het strand op loopt, en de eerste hutjes ziet staan![]()
Wat een baggerspel zeg.
Hoop dat Far Cry 2 beter word geprogrammeerd.
Geef het spel anders met een custom config eens een kans

Het zijn dan wel 4 GPUs vs 3 he?EdwardvGelder schreef op zaterdag 28 juni 2008 @ 17:58:
Maar daar had cj toch een plaatje van gepost?
http://tweakimg.net/g/for...titopicr700previewxg4.jpg
die bedoel ik dus. Als ze de drivers optimaliseren scoort 2x r700 dan misschien nog wel meer dan 3xgtx280

Maar dat wordt ruimschoots goedgemaakt in prijs.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verschil in score komt vooral door CPU subscore heb ik het idee. Subscore GPU scheelt 400 punten, terwijl de totaalscore 1000+ scheelt.EdwardvGelder schreef op zaterdag 28 juni 2008 @ 17:58:
Maar daar had cj toch een plaatje van gepost?
http://tweakimg.net/g/for...titopicr700previewxg4.jpg
die bedoel ik dus. Als ze de drivers optimaliseren scoort 2x r700 dan misschien nog wel meer dan 3xgtx280
Heb zelf alleen geen ervaring met Vantage, dus kan er natuurlijk naast zitten ^_^
Edit:
Kom net op de driverpage van nVidia, 175.19 is van de site gehaald! Heb gister nog geupdate naar 175.19, gedownload mbv de zoekfunctie naar XPdrivers voor Geforce 8 serie. Nu bij invullen van zelfde waardes bij de search kom je op de downloadpage van 175.16!
[Voor 17% gewijzigd door Snorro op 29-06-2008 09:13]
Wellicht zijn ze van mening dat de .19 het bedrijf meer schade dan goed doet. Ik kan me er iets bij voorstellen. Ben overigens wel nieuwsgierig hoe hard nVidia de GTX2xx-series gaat laten droppen in prijs om bij concurrent ATi in de buurt te komen.
Rustig maarmdcobra schreef op zaterdag 28 juni 2008 @ 21:41:
[...]
Probeer het gewoon eens op high, dan ziet het spel er al super uit, van high naar very high kost altijd een enorme performance drop, terwijl het er amper beter uitziet, ik snap dat je met die hardware alles wilt maxxen, maar wel een beetje kort door de bocht om het gelijk een baggerspel te noemen en weer aan de kant te gooien.
Geef het spel anders met een custom config eens een kans.

Ik gooi hem heus niet zomaar aan de kant.
Feit is voor mij wel dat het gewoon ontzettend slecht geprogrameerd is als ik zie hoe de andere games over het scherm heen vliegen.
Daar doelde ik meer op dan op de inhoud van het spel.
Zal vandaag ook nog ff een benchmark draaien want vind het wel vreemd dat Hilbert van guru3d met een tri-sli setup en minder snelle processor crysis wel speelbaar heeft.
http://www.guru3d.com/art...sli-triple-review-test/13
Nou ja, misschien word het verderop in het spel wel wat minder zwaar?
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Zover ik weet word het spel steeds zwaarder naarmate je vordert. Ik weet ook niet hoe dit kan.
Vooral het level met sneeuw waar Prophet weer terugkeerd haal ik maar 6 FPS terwijl ik in het level Island 25 FPS haal.
Vooral het level met sneeuw waar Prophet weer terugkeerd haal ik maar 6 FPS terwijl ik in het level Island 25 FPS haal.
AMD Ryzen 5800X - 32GB DDR4 Corsair RGB - XFX 6900XT - Panasonic HIT 990Wp - AE200L WPB met cv-ondersteuning
aiaiai nvidia
http://www.overclockersclub.com/reviews/powercolor_hd4870/
Dit ziet er zeker niet goed uit voor nvidia.
http://www.overclockersclub.com/reviews/powercolor_hd4870/
Dit ziet er zeker niet goed uit voor nvidia.
De performance ligt een stuk hoger dan ik had gedacht, en dat tegen een 500+ euro kostende kaart 

[Voor 66% gewijzigd door Jim423 op 30-06-2008 01:46]
AMD Ryzen 5800X - 32GB DDR4 Corsair RGB - XFX 6900XT - Panasonic HIT 990Wp - AE200L WPB met cv-ondersteuning
Anoniem: 215257
Pros:
Performance equal to or better than the GTX 280
Wat moet nVidia hier nu mee? Maar hopen dat de fanboys hun topkaart blijven kopen, en het uitzitten tot de 55nm, want de 4870 gaat al voor ~200 euro over de toonbank.
Performance equal to or better than the GTX 280
Wat moet nVidia hier nu mee? Maar hopen dat de fanboys hun topkaart blijven kopen, en het uitzitten tot de 55nm, want de 4870 gaat al voor ~200 euro over de toonbank.
Dit topic is gesloten.
Let op:
Dit is een NIEUWS & DISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond nVidia kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!
Dit is een NIEUWS & DISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond nVidia kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!