7800X3D - B650E Aorus Master - 32GB 6000Mhz - 4090 FE
Juist, Inquirer zeker ?Wildfire schreef op donderdag 19 juni 2008 @ 11:37:
[...]
Dan denk ik terug aan onderstaand bericht eerder uit dit topic:
[...]
Dat bericht zal als grondslag wel de introductie van de 9800GTX+ kaart hebben gehad, dat vervolgens is misvormd naar het idee van een nieuwe driver ipv een "refresh" 9800GTX.
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Haha dan zou dat voor het eerst zijn dat de rollen omgekeerd zijn. Jij hebt een veelste mooie machine staan.Vandread schreef op donderdag 19 juni 2008 @ 10:19:
Een GTX280 heeft pas echt nut qua prijs/prestatie als je een 1920x1200 monitor of hoger hebt.... dus weet je het zeker?naast het feit dat ik dan jaloers word en je huis moet bezoeken...
9800GTX+ zal vanwege het 55nm procede waarschijnlijk ook minder stroom trekken.Hekking schreef op donderdag 19 juni 2008 @ 11:53:
of DIT(voor 165 Euro
)
EDIT: / Trekt ook nog 20 watt minder stroom ook dan de GTX
4850 is ook interessant idd. Ik zit sterk te denken over een tweetal hiervan in CF... nadelen zijn temps en single slot cooling, dus vrm wel meer lawaai...
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
FF wachten dan zou ik zeggen. Komen binnen 1 á 2 maanden ongetwijfeld 4850's met dual-slot cooling.Cheetah schreef op donderdag 19 juni 2008 @ 13:12:
[...]
9800GTX+ zal vanwege het 55nm procede waarschijnlijk ook minder stroom trekken.
4850 is ook interessant idd. Ik zit sterk te denken over een tweetal hiervan in CF... nadelen zijn temps en single slot cooling, dus vrm wel meer lawaai...
Makkelijk, met mijn 9800GTX speel ik 1680x1050 met alles very high & max AA/AFAnoniem: 219166 schreef op donderdag 19 juni 2008 @ 11:20:
Valt GRID vrij vlot te spelen met 1 8800GTX of is het echt pokkezwaar?
30" bezitter hier, gaat nog redelijk met een 8800gts640.justifire schreef op woensdag 18 juni 2008 @ 18:15:
[...]
Dan heb je waarschijnlijk ook geen 30" ?
Gezellig met de familie dia's bekijken
Maar wat sneller is nooit weg

[ Voor 6% gewijzigd door Tripp op 19-06-2008 17:17 ]
Vind het geen overkill, vind het zelfs nog matig en kan dan ook niet wachten tot de 300 serie van nvidia gereleased word.Tripp schreef op donderdag 19 juni 2008 @ 17:17:
[...]
30" bezitter hier, gaat nog redelijk met een 8800gts640.
Maar wat sneller is nooit weg, hoewel een tripple 280 overkill is
.
Bedoel, triple setup haalt nog steeds geen steady 60fps in Crysis 2560x1600 4xaa 16xaf
En dan kan iedereen natuurlijk Crysis af gaan zeiken, maar het is wel een feit dat het een uberzwaar spel is en als die dus vloeiend draait kan je er van uitgaan dat de overige games ook wel lekker zullen lopen
Ben wel verdomd benieuwd hoe Far Cry 2 gaat lopen op deze serie.
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Anoniem: 231122
Beter dan Crysis..justifire schreef op donderdag 19 juni 2008 @ 22:20:
Ben wel verdomd benieuwd hoe Far Cry 2 gaat lopen op deze serie.
Bron: tweakers.net
Kan niet wachten op Far Cry 2 omfg
Ben ook wel benieuwd wat voor graphics ik er in Crysis weet uit te poepen met een HD4870 (die ik waarschijnlijk over ga clocken) op 1680x1050 met 4x AA en 16x AF. Benchmarks gaven rond de 30FPS aan op een reso van 1920x1080 (oid). Niet dat ik Crysis een leuk spel vind, want het verhaal vind ik belabberd, en de gameplay eigenlijk ook, maar het is leuk om je splinternieuwe hardware mooie beelden tevoorschijn zien toveren
edit: oh wacht, dit is het NVIDIA topic. Dacht het Crysis topic
[ Voor 4% gewijzigd door Avalaxy op 19-06-2008 23:12 ]
Als ik deze kabel zou kopen en die vanaf mn 8800GTS (320mb) naar mn 24 inch tft neerleg.. kan ik dan full HD (1080) draaien?
Anoniem: 215257
Maar dit is niet het juiste topic daarvoor.
Dat heeftie ofcAnoniem: 215257 schreef op vrijdag 20 juni 2008 @ 01:37:
Als je 24" een HDMI aansluiting heeft, ja.
Maar dit is niet het juiste topic daarvoor.
Vond het nog op het randje
Kijk eens naar de CPU score. Normaal doet mijn quad@3.6GHz 11700 punten.
nVidia heeft een mooie set drivers gemaakt in ieder geval.
http://www.futuremark.com...roval_Policy_v100.pdf?m=vBased on the specification and design of the CPU tests, GPU make, type or driver version may not have a significant effect on the results of either of the CPU tests as indicated in Section 7.3 of the 3DMark Vantage specification and whitepaper.
De GPU mag dus niet zo maar de score van de CPU significant beinvloeden. Het gaat daarmee recht in tegen het beleid van FM. Ben benieuwd wat hun statement hierover is.
Los daarvan is het natuurlijk mooi dat dit voor een performanceboost kan zorgen in games.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Dit is wel heel erg relaxed. Dit zijn dus "the magic drivers".


[ Voor 53% gewijzigd door Format-C op 20-06-2008 13:21 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Kon je toch kiezen in de CP niet?Wildfire schreef op vrijdag 20 juni 2008 @ 13:26:
Ik vraag me toch af wat er gebeurt als je al zo'n PhysX kaart in je PC hebt. Ik heb namelijk een Ageia PhysX kaart in m'n PC. Ik heb liever dat die wordt gebruikt dan de videokaart zelf.
[ Voor 100% gewijzigd door Apoca op 20-06-2008 13:31 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Ik ben wel benieuwd of een losse kaart die al vrij oud is sneller is dan de huidige kaarten. Kun je de Vantage CPU test doen?
[ Voor 62% gewijzigd door kiddyl op 20-06-2008 13:30 ]
Dit moet wel een MEGA score geven!
Nu weet ik pas waarom die GTX280 zoveel rauwe power heeft... Als ze dit gaan implementeren in TWIMTBP games, dan wordt dit revolutionair!!! En blaast de GTX280 álles eruit...
Wat kan nVidia hiervan gebruik maken zeg!!! Qua marketing en performance.
[ Voor 90% gewijzigd door Format-C op 20-06-2008 13:39 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Het schijnt dat de GX2 alleen voor 1 core/ kaart een performanceboost geeft iig..
Hoe dan ook; vanmiddag testen!
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Let wel op... het zijn speciale PhysX levels die geschreven zijn voor een PPU. In normale levels zal het verschil minder drastisch zijn.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
[ Voor 22% gewijzigd door Format-C op 20-06-2008 15:03 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX

De core meet 17*17mm wat een die oppervlak van 289mm^2 geeft. Hiermee zitten ze in ieder geval veel dichter bij de 256mm^2 van de Ati RV770. De prijsoorlog kan losbarsten en de nog uit te brengen 9900GTX kan wel eens clocks van 800+ richting 900MHz krijgen.
CheckCJ schreef op vrijdag 20 juni 2008 @ 13:41:
[...]
Let wel op... het zijn speciale PhysX levels die geschreven zijn voor een PPU. In normale levels zal het verschil minder drastisch zijn.
De eerste GTX+ zou gewoon nog een 65nm versie zijn lees ik overal, pas iets later zou de 55nm op de markt komen. En die is juist intressant omdat daar meer speelruimte op zou moeten zitten voor nog wat hogere clocks.kiddyl schreef op vrijdag 20 juni 2008 @ 13:55:
De core meet 17*17mm wat een die oppervlak van 289mm^2 geeft. Hiermee zitten ze in ieder geval veel dichter bij de 256mm^2 van de Ati RV770. De prijsoorlog kan losbarsten en de nog uit te brengen 9900GTX kan wel eens clocks van 800+ richting 900MHz krijgen.
[ Voor 46% gewijzigd door Apoca op 20-06-2008 13:58 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
New 9800GT by July 15
http://forums.vr-zone.com/showthread.php?t=291367
[ Voor 199% gewijzigd door Apoca op 20-06-2008 14:02 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Overigens op PCgameshardware.de nog eens de min fps bekeken en daarin scoort de GTX280 wel super hoor. Zelfs mensen die van een GX2 naar een GTX280 zijn gegaan zijn dolgelukkig en zien het als een aardige vooruitgang, dilemma...
[ Voor 10% gewijzigd door edward2 op 20-06-2008 14:07 ]
Niet op voorraad.
Ik ben wel benieuwd of die extra PhysX power ook in andere games performancewinst oplevert. Ik hoor hier en daar dat in-game, op drukke momenten de framerates "hoger" zijn met deze nieuwe drivers. (Ik kan het zelf niet testen, ik zit overal op hoge FPS dus ik merk het niet denk ik. Misschien kan iemand met een 9800GTX het testen?)
Dit zou betekenen dat de minimale FPS hoger is, en het gemiddelde dus ook...
Wat mij betreft kunnen mogen ze alle reviews van de GTX 280 opnieuw doen. Eens kijken hoe hij er nu uitkomt.
De ellende met benchmarks is dat het allemaal "fly by" mode is, en niet in-game met drukte e.d. En daar gaat het juist om. OMG, ik zie het helemaal zitten met die PhysX. En het zal wel niet lang duren voordat de eerste PhysX supporting games komen. Het zal me niet verbazen dat ze het in elke TWIMTBP game stoppen om de framerates een mega boost te geven op nV hardware.

[ Voor 14% gewijzigd door Format-C op 20-06-2008 14:16 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
ATi heeft nu een samenwerkingsverband met Havok, en PhysX zou toch een open platform worden meen ik gelezen te hebben. Natuurlijk zal dit nog even duren, ze willen der eerst zelf de vruchten van plukken. Maar voor suc6 op de lange termijn is dat wel nodig in mijn ogen. Maar volgens mij zit ATi der nog niet zo slecht bij op dit gebied. Ze hebben zich niet vast gelegd op 1 standaard en Havok is echt reeds bewezen in de gamedev wereld. Dus die keuze is niet slecht.kiddyl schreef op vrijdag 20 juni 2008 @ 14:14:
ATI heeft geen antwoordt op PhysX binnen korte tijd in ieder geval en er zijn nu al heel veel PhysX games in de omloop en dat zullen er alleen maar meer worden.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Als nV ze wat dollars in hun portemonnee drukt hoor je ze er nooit weer over.CJ schreef op vrijdag 20 juni 2008 @ 13:07:
De GPU mag dus niet zo maar de score van de CPU significant beinvloeden. Het gaat daarmee recht in tegen het beleid van FM. Ben benieuwd wat hun statement hierover is.
Dat was ook wel nodig.Apoca schreef op vrijdag 20 juni 2008 @ 14:12:
Zoals het nu uitziet werkt het (nog) niet in SLi, als ze dat ook nog aan de gang krijgen is het zeker een intressante extra weer. Het is wel mooi dat nu ineens als het witte konijn uit de hoed overal tweaks en kaartjes vandaan komen bij nV.
[ Voor 45% gewijzigd door Format-C op 20-06-2008 14:24 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
En moet je dan bijvoorbeeld 1 gpu voor de physx inzetten of kon je nou bijvoorbeeld 25% van de gpu daarvoor inzetten?
Ja en kunnen we 3D Mark gelijk afschrijven, scheeld weer een hoop benchmarks draaien voor de review teamsRappieRappie schreef op vrijdag 20 juni 2008 @ 14:21:
Als nV ze wat dollars in hun portemonnee drukt hoor je ze er nooit weer over.
nV is echt een f*ck bedrijf op dat gebied, ze zouden dergelijk tweaks liever bij een nieuwe gen. GPU's pas aan het publiek voorstellen zodat ze der geld voor kunnen vangen dan dat ze ze nu implementeren in hun drivers.RappieRappie schreef op vrijdag 20 juni 2008 @ 14:21:
Dat was ook wel nodig.
Das wel mijn mening, gezien de ontwikkeling van dingen de laatste jaren. Sinds dat ATi achterop is geraakt moet ik zeggen dat nV niet echt mega dingen aan hun afnemers heeft weten te geven.
[ Voor 51% gewijzigd door Apoca op 20-06-2008 14:28 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Maar het toont wel aan dat een CPU eigenlijk maar een traag en veel te duur ding is.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Rappie toch... misschien moet je je eens minder laten opnaaien door de GPU hypes.RappieRappie schreef op vrijdag 20 juni 2008 @ 14:10:
Wat mij betreft kunnen mogen ze alle reviews van de GTX 280 opnieuw doen. Eens kijken hoe hij er nu uitkomt.
De ellende met benchmarks is dat het allemaal "fly by" mode is, en niet in-game met drukte e.d. En daar gaat het juist om. OMG, ik zie het helemaal zitten met die PhysX. En het zal wel niet lang duren voordat de eerste PhysX supporting games komen. Het zal me niet verbazen dat ze het in elke TWIMTBP game stoppen om de framerates een mega boost te geven op nV hardware.
Over Physics berekeningen op de GPU: ik vind het een prima ontwikkeling, maar ben nog niet overtuigd. Vergeet niet dat die berekeningen GPU kracht kosten die niet meer ingezet kan worden voor gfx. Het lijkt me wel prettig als je hier je oude graka dedicated voor in kan zetten, maar dat is natuurlijk een utopie. Het levert de bedrijven geen extra omzet op.
GTX280 sux heb je me nooit horen zeggen.
Maar als dit een mooie FPS boost geeft, is dit hele PhysX gebeuren wel erg prettig. Als je hierdoor ook in games zonder PhysX een hogerer en stabielere framerate kan halen omdat dit een soort verkapte extra CPU is, is dit echt geweldig imho.
Zoals Edward2 al eens zei; GPU's zijn religie.
[ Voor 30% gewijzigd door Format-C op 20-06-2008 14:48 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Aha, dat is mooi. Ik ga morgen de kaart inbouwen en zal dan wat benches uitvoeren. Ik zal de CPU scores posten van gebruik met de Ageia PhysX en met de GTX 280. Ik hoop iig dat mijn PhysX kaartje gelijk of hoger scoort dan de GPU, zodat games tenminste altijd de volle 100% van de GPU-kracht tot hun beschikking zullen hebben.kiddyl schreef op vrijdag 20 juni 2008 @ 13:29:
Je kan volgens mij zelf aangeven welke kaart je gebruikt:
[afbeelding]
Ik ben wel benieuwd of een losse kaart die al vrij oud is sneller is dan de huidige kaarten. Kun je de Vantage CPU test doen?
Anoniem: 104819
Hoppa hier is de link voor de mensen die willen testen
Jammer dat er nog geen driver voor mijn videokaart is, ik wil crysis nog wel is spelen met deze driver >:D ( 8800GTS 320 (G80) )Anoniem: 104819 schreef op vrijdag 20 juni 2008 @ 16:06:
http://forums.vr-zone.com/showthread.php?t=291319
Hoppa hier is de link voor de mensen die willen testen
Trouwens, de GTX280 daalt nu al in prijs, bij azerty kost de gigabyte nog maar €490. http://azerty.nl/8-160-81320/geforce-gtx-280-.html
De Evga GTX260 kost nog naar €310, best aantrekkelijk
[ Voor 22% gewijzigd door rickyy op 20-06-2008 16:50 ]
Core i5 4670k, 8gb, MSI GTX460 HAWK TA
WoW draait er heel slecht op sinds WoW 2.4.2 en Driver 175.16.
30 fps op mijn pc vind ik echt niet acceptabel, ook zijn er glichtjes/artifacts.
Weet iemand of er misschien een fix of patch is?
Ik zou het heel erg op prijs stellen.
(Oude setup met 2900XT CF kwam nooit onder de 120)
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
nieuws: Eerste benchmarks Geforce 9800GTX+ verschenen
Voorlopig nog niet veel interessants
Anoniem: 104819
Je kan gewoon de modded .inf gebruiken van de 177.35 die werkt gewoon je moet wel ff de datum en de versie aanpassen in de inf.rickyy schreef op vrijdag 20 juni 2008 @ 16:21:
[...]
Jammer dat er nog geen driver voor mijn videokaart is, ik wil crysis nog wel is spelen met deze driver >:D ( 8800GTS 320 (G80) )
Ik mod mn eigen inf dat werkt goed, de drivers doen het goed btw
Lijkt er op dat het straks gewoon mogelijk is om een 2e kaart te gebruiken voor enkel PhysX
[ Voor 68% gewijzigd door kiddyl op 20-06-2008 18:24 ]
Was al bekend, heb ik ook altijd, dat iets al gepost iskiddyl schreef op vrijdag 20 juni 2008 @ 18:23:
Ik kwam dit net tegen op het forum van Xtreme:
[afbeelding]
Lijkt er op dat het straks gewoon mogelijk is om een 2e kaart te gebruiken voor enkel PhysX
(Laatste post P17. )
Edit, dat was ook jij

[ Voor 3% gewijzigd door rickyy op 20-06-2008 18:26 ]
Core i5 4670k, 8gb, MSI GTX460 HAWK TA
Met nieuwe drivers zou dan bijvoorbeeld een 8600 kaart gebruikt kunnen worden voor PhysX of nog beter misschien zelfs een onboard GPU als die krachtig genoeg is.
[ Voor 35% gewijzigd door kiddyl op 20-06-2008 18:29 ]
Ja, een 9800GX2 is al voor 330 euro verkrijgbaar.Best groot verschil imo, de prijs van GTX280 moet naar 350-400 maximaal of nog lager.rickyy schreef op vrijdag 20 juni 2008 @ 16:21:
[...]
Jammer dat er nog geen driver voor mijn videokaart is, ik wil crysis nog wel is spelen met deze driver >:D ( 8800GTS 320 (G80) )
Trouwens, de GTX280 daalt nu al in prijs, bij azerty kost de gigabyte nog maar €490. http://azerty.nl/8-160-81320/geforce-gtx-280-.html
De Evga GTX260 kost nog naar €310, best aantrekkelijk.
http://nekrosoft.net/NVIDIA_physX_8_06_12_driver.exe
(Nog niet zelf getest)
Bron: comments hardware.info
Anoniem: 104819
Ja die heb ik er op gezet, maar bij mij werkt het niet de Physx op de GPU, of nog niet de opties zijn nog grijs, kan niets aan of uitvinken.Asgaro schreef op vrijdag 20 juni 2008 @ 18:36:
Ik denk dat dit wel eens de drivers kunnen zijn dat PhysX enablen:
http://nekrosoft.net/NVIDIA_physX_8_06_12_driver.exe
(Nog niet zelf getest)
Bron: comments hardware.info
Dan maar wachten op een officiele driver
Klopt:Asgaro schreef op vrijdag 20 juni 2008 @ 18:36:
Ik denk dat dit wel eens de drivers kunnen zijn dat PhysX enablen:
http://nekrosoft.net/NVIDIA_physX_8_06_12_driver.exe
(Nog niet zelf getest)
Bron: comments hardware.info
Nvidia Forceware 177.39 + NVIDIA physX 8.06.12
Die heb ik ook gebruikt.
[ Voor 3% gewijzigd door Format-C op 20-06-2008 19:24 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Natuurlijk ziet het er allemaal mooi uit wanneer er alleen physics worden berekend zoals in die 100% physics/cpu test in 3dmark vantage. In games is het echter compleet anders, daar is de gpu hard aan het werk met frames berekenen.
Ageia kon het niet met een aparte kaart, ik zou niet weten waarom ze het nu wel zouden kunnen met een gpu oplossing. Meestal was het gewoon grafische pracht (die physics, bijvoorbeeld in ghost recon advanced warfighter).

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Als ze dit dus in andere games zouden gaan implementeren, TWIMTBP games bijvoorbeeld, dan vlíeg je qua framerates.
[ Voor 63% gewijzigd door Format-C op 20-06-2008 19:41 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat bedoel ik.RappieRappie schreef op vrijdag 20 juni 2008 @ 19:40:
In die map, want die support PhysX.
Als ze dit dus in andere games zouden gaan implementeren, TWIMTBP games bijvoorbeeld, dan vlíeg je qua framerates.
Ik weet ook wel dat het TWIMTBP programma veel meer met devs samen doet, en dus PhysX meer kans heeft deze keer dan de vorige keer. We zullen zien wat de tijd gaat brengen.
[ Voor 4% gewijzigd door Apoca op 20-06-2008 19:50 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Misschien kunnen ze nog wat games patchen om framerates te boosten.
[ Voor 71% gewijzigd door Format-C op 20-06-2008 19:58 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik denk ook wel dat Nvidia wel gaat proberen om developers ertoe te bewegen om oudere games via een patch waar mogelijk met PhysX ondersteuning uit te rusten, aangezien dat namelijk perfecte PR is om Geforce kaarten aan de man/vrouw te brengen.RappieRappie schreef op vrijdag 20 juni 2008 @ 19:53:
Misschien kunnen ze nog wat games patchen om framerates te boosten.
"The people who are crazy enough to think they could change the world, are the ones who do." -- Steve Jobs (1955-2011) , Aaron Swartz (1986-2013)
Iemand trouwens enig idee wanneer dit voor Linux komt?
[ Voor 9% gewijzigd door Blonde Tux op 20-06-2008 23:44 ]
Heet zand zand omdat het tussen zee en land ligt?
Als ik die screenshots moet geloven kun je per videokaart instellen of hij PhysX moet draaien, en niet per core. Dus ik denk niet dat het mogelijk is om SLI uit te schakelen en 1 GPU als physics kaart te gebruiken nee.Blonde Tux schreef op vrijdag 20 juni 2008 @ 23:41:
Over pyshics, ff wat vraagjes, gaat dit ook op voor de X2 series, dus dat je je ene GPU als physX gebruikt en de ander voor je beeld? Hoe zit het me sli/tri-sli/hybrid-sli? En kan je die 2de kaart ook nog gewoon gebruiken om je tweede/derde monitor aan te sluiten?
Iemand trouwens enig idee wanneer dit voor Linux komt?
Eerder moest je per-sé 2 dezelfde kaarten/ cores hebben, maar ik denk dat dit gaat veranderen.
Zie ook deze post:
kiddyl in "[Algemeen] nVidia Nieuws & Discussie Top..."
Hoe ze dit willen gaan doen weet ik niet.
[ Voor 6% gewijzigd door Format-C op 21-06-2008 00:13 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Klopt, net als waar ATi het een tijdje geleden over had, met een extra videokaart die ingezet kan worden voor physics.RappieRappie schreef op zaterdag 21 juni 2008 @ 00:12:
Ik denk dat je straks gewoon een videokaart met een ANDERE core op je mobo kan prikken en die kan selecteren voor PhysX.
Eerder moest je per-sé 2 dezelfde kaarten/ cores hebben, maar ik denk dat dit gaat veranderen.
Zie ook deze post:
kiddyl in "[Algemeen] nVidia Nieuws & Discussie Top..."
Hoe ze dit willen gaan doen weet ik niet.
Maar bedenk je wel dat het niet echt handig is ofzo om een 2 videokaart neer te zetten puur voor physics terwijl dit toch amper impact heeft op de performance van een high-end kaart.
Anoniem: 265113
Maar het resultaat is goed hoor. Snap ook niet waarom je er teleurgesteld mee bent, wat boeit 3Dmark nou

Anoniem: 265113
ja dat is ook wel weer zo.. maar vind het gewoon klote om te zien dat ik na een upgrade van 700 euro ofzo nog geen extreem verschil met oudere systemen zie.. heb nog geen tijd gehad om games te testen helaas, wordt iets voor morgenavond... enkel age of conan ff getest en de is iig verbeterd met ruim 40FPS op de vorige setup, dus dat is wel netjes :):)leonpwner1 schreef op zaterdag 21 juni 2008 @ 00:43:
Vergelijk het eens in de ORB zou ik zeggen?
Maar het resultaat is goed hoor. Snap ook niet waarom je er teleurgesteld mee bent, wat boeit 3Dmark nou
Anoniem: 115092
[ Voor 3% gewijzigd door Anoniem: 115092 op 21-06-2008 01:13 ]
http://www.phoronix.com/s...le&item=nvidia_8200&num=1
Edit:

http://www.pcper.com/arti...aid=580&type=expert&pid=7
This is kind of surprising - the 9800 GTX+ actually is using MORE power than the 9800 GTX original card. This tells me that NVIDIA basically "wiped out" any power advantages and savings they got with the 55nm product by pushing the clocks up to improve performance. Obviously I was expecting these results to be quite different, with the power savings and performance improvement for the new G92b over G92.
Performance, Pricing and Availability
In our first Radeon HD 4850 512MB preview we decided that it was a great performing card for the money - with an MSRP of $199, the then-$269-priced 9800 GTX wasn't nearly as attractive. Since then though NVIDIA has decided to cut the prices on the original 9800 GTX to $199 and offer up this new "+" model for just $30 more - $229 MSRP.
As we have come to learn from NVIDIA's launches though: we'll believe it when we see it. The 9800 GTX+ isn't even schedule to show up in the channel until the middle-end part of July giving AMD a larger window of opportunity than we initially thought.
Initial Thoughts
While I am really not a fan of doing these "rough cut" previews of products, the schedules from AMD and NVIDIA more or less dictated it for this instance. The joy of launch dates and changes is something I wish upon no one. We did get some interesting information from it all though - the AMD Radeon HD 4850 and the NVIDIA GeForce 9800 GTX+ appear to be nearly equally matched in price and performance. We will have our FULL reviews of the HD 4850, HD 4870 and GeForce 9800 GTX+ cards in the coming week with many more games, benchmarks and hopefully some updated information on pricing and availability of all of these parts.
To quote one particularly moronic football player: "Get your popcorn ready."
[ Voor 85% gewijzigd door Jejking op 21-06-2008 01:45 ]
3x de Asus GTX280
Plaatjes zijn klikbaar.
De verpakking:

De 2de verpakking, stylvol zwart

De 3de verpakking

De accesoires

De kabels

De GTX280 kaarten

De GTX280 kaarten naast de 8800GTX-jes die hun huur niet hadden betaald, helaas jongens...

Intake

Connectoren netjes stofvrij afgedekt

Setup draaiende, In The Army

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Ben wel benieuwd naar wat home-made benches
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Agree, maar ik zou zelf nooit 1500 euro aan videokaarten kopen.Moet zeggen dergelijke setups zijn altijd extreem leuk om naar te kijken kwijlen
Kom je nu niet in de knoop met je voeding m8 ?justifire schreef op zaterdag 21 juni 2008 @ 15:00:
Zo gisteren dan mijn groene speeltjes binnen gehad
3x de Asus GTX280
Plaatjes zijn klikbaar.
De verpakking:
[afbeelding]
De 2de verpakking, stylvol zwart![]()
[afbeelding]
De 3de verpakking
[afbeelding]
De accesoires
[afbeelding]
De kabels
[afbeelding]
De GTX280 kaarten
[afbeelding]
De GTX280 kaarten naast de 8800GTX-jes die hun huur niet hadden betaald, helaas jongens...
[afbeelding]
Intake
[afbeelding]
Connectoren netjes stofvrij afgedekt
[afbeelding]
Setup draaiende, In The Army
[afbeelding]
236x3 = 708
Een qx9650 @ leuke snelheid verstookt ook wel een 200Watt+ (weet ik uit betrouwbare bron)
En dan de rest nog
Wordt wel erg krap met 1000Watt
Turn it off and on again.
Ben ook benieuwd hoe die 3e 280 daadwerkelijk gaat schalen ten opzichte van de andere 2. Daarnaast vroeg ik me idd ook af of de voeding dit wel leuk vindt. Meen me te herinneren dat ze het bij anandtech niet aan de praat kregen met een 1000 Watt voeding.
Maar ieder zn ding, de benches zullen dr vast niet om liegen!
Een dikke setup heb je zeker! Ben benieuwd!
[ Voor 18% gewijzigd door wasted247 op 21-06-2008 15:14 ]
Heb nog ergens een watt-meter liggen, zal straks eens ff kijken hoeveel hij trekt under full load.SmokeyTheBandit schreef op zaterdag 21 juni 2008 @ 15:10:
[...]
Kom je nu niet in de knoop met je voeding m8 ?![]()
236x3 = 708
Een qx9650 @ leuke snelheid verstookt ook wel een 200Watt+ (weet ik uit betrouwbare bron)![]()
En dan de rest nog![]()
Wordt wel erg krap met 1000Watt
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Ben benieuwdjustifire schreef op zaterdag 21 juni 2008 @ 15:23:
[...]
Heb nog ergens een watt-meter liggen, zal straks eens ff kijken hoeveel hij trekt under full load.
Turn it off and on again.
Ik denk dat hij niet eens full load kan trekkenjustifire schreef op zaterdag 21 juni 2008 @ 15:23:
[...]
Heb nog ergens een watt-meter liggen, zal straks eens ff kijken hoeveel hij trekt under full load.
Ik denk dat nu een mooi moment om de rekening te plunderen
AMD Ryzen 5800X - 32GB DDR4 Corsair RGB - XFX 6900XT - Panasonic HIT 990Wp - AE200L WPB met cv-ondersteuning
Nee soms en vooral in de early days toen de drivers nog niet optimaal waren.keldererik schreef op vrijdag 20 juni 2008 @ 19:28:
Die Ageia Physics kaart ging altijd ten koste van de FPS.
De PPU kan door PPU supportende games op twee manieren toegepast worden. Samen gaat niet.
1 ) CPU ontlasten. Je krijgt dan FPS boost.
UT3 standaard maps is lichte CPU load geen verschil
en ook PhysX tornadomap. Lichte PhysX zwaar voor CPU licht voor PPU. meer FPS.
Dikke CPU nog meer FPS. omdat 'n low stressed CPU en PPU sneller kan zijn dan 'n stressed CPU.
2 )Veel meer Physics, je game rig krijgt dan 'n shitload aan PhysX flops die de PPU stressed en moet dus ook zijn tijd krijgen om zijn werk te doen. Dus CPU tijd + PPU tijd + GPU tijd bepalen je FPS. De CPU heeft minder te doen maar de PPU des te meer en de GPU krijgt ook nog eens meer te doen in minder tijd. De CPU PPU GPU triangle. Dit houd in wat FPS verlies. In geval dat de zware physX setting te veel vergt kwa tijd voor CPU PPU GPU lijn te voltrekken per frame.
Maar dit is dan 'n beetje FPS inleveren voor 'n veel interactievere Spelbeleving.
Dit houd in dat 'n quadcore als cPU de boel niet ophoud de PPU en GPU dan ook meer time slice krijgt per frame. Dus in 'n high-end bak is er vaker geen FPS verlies maar juist FPS winst.
Je kan dus 'n PPU niet als G-kaart benchen in een PhysX zwaar stressende game.
Want daar houd 'n PPU toch speelbare FPS tegen Slideshow zonder PPU. Daarnaast is vaak in zo'n game(mode) PhysX hardware geeist. Wat 'n PPU vol stressed kan 'n CPU zelfs dedicaten niet verhapstukken.
'n PPU stop je dus in 'n krachtige game rig. voor more PhysX.
Voor ontlasten voldoet 'n sneller CPU ook. De overhead en latency aleen al moet eerst overwonnen worden.
Voor nV PhysX geld het zelfde. Maar de PPU stress load is voor de meeste high-end GPU al 'n lichte load.'n budged kaart of deltje van de shaders zou voldoende zijn. Bij voldoende beschikbaar shader power kan het zelfs stuk sneller dan PPU.
Dacht dat Crytech2 engine al inhouse GPU een beetje gebruikt voor physics.Ik zie echt geen brood in physx acceleratie met behulp van de videokaart. Bijvoorbeeld crysis, draait de gpu al op 100%, en dan moet die een deel inleveren van zijn rekenkracht om physics te berekenen? Is dat niet nadelig voor de fps?
Crytech2 engine is geen PhysX game. Maar misschien kunnen Cuda enable drivers 'n boost geven.
Ja uiteraard je moet dan ook voldoende shader power hebben voor renderen én PhysX.Natuurlijk ziet het er allemaal mooi uit wanneer er alleen physics worden berekend zoals in die 100% physics/cpu test in 3dmark vantage. In games is het echter compleet anders, daar is de gpu hard aan het werk met frames berekenen.
Dus die PPU als addon is nog steeds daar maar dan prik je een extra kaart bij. Of 'n veel duurdere enkele kaart.
Dus kon je met 'n 9600GT leuk vooruit.
Met de native nV PhysX games gericht op GT200 mogelijk tot dedicated.
Heb je iets van 'n 9800GTX+ GT260 voor het deftig renderen.
En 'n 9800GTX+ voor PhysX maxed out naast render features maxed out.
Je steld je game altijd in dat je voldoende FPS hebt. Will je 'n PhysX verijkte game spelen dan heb je sowieso al een degelijke kaart nodig voor ruim voldoende FPS bij normale gangbare instellingen.
'n PPU pleur je ook niet in een budged bak.
Will je Physics door GPU houd in 'n sloot extra Flops nodig om dat soepel te kunnen doen.
'n ouwe dualcore en GT8400 kan je PhysX vergeten je hebt te weinig spect om PhysX rijke game te draaien. Je richt je dan op CPU Physics gerichte oude games.
PPU heeft juist laten zien dat het wel kan.Ageia kon het niet met een aparte kaart, ik zou niet weten waarom ze het nu wel zouden kunnen met een gpu oplossing. Meestal was het gewoon grafische pracht (die physics, bijvoorbeeld in ghost recon advanced warfighter).
Ghost recon Ageia island laat toch wat anders zien. Die spel beleving was intens. 'n foo in een houten planken hut doorzeven met 'n M249 is zo vet en nog nooit eerder gezien in een game. Je ziet in GRAW2 dat je van het hutje per plank de boel schred met je m249.
In de normale standaard game krijg je deze interactiviteit niet.
Kijk dat is hands-on ervaring van 'n PPU gamer. Door merk aanhankelijk heid is er heel erg veel antipathie vs ageia PPU. Door nV en aTI enthausiasten. Dus veel forum gelobby tegen PPU is er geweest. GPGPU was ondanks afwezigheid al heel lang favoriet.
In COD4MW zie je niks maar je kogel hebben wel over penetratie hit detektion.
Ook leuk zoals die sniper etage boven op ene houten vloer die je dan kan afknallen door het plafont.
Maar door statische beeld niet zo emersief. Wel de gameplay is geinig. Beter iets dan niets in COD4MW. Maar de beleving van GRAW2 Ageia island beleving is veel completer.
Crysis daarin tegen de hutten vallen als grote muur delen in mekaar. Dan heb ik liever ageia island.
Maar dat maakt Crysis wel veel Physics rijker dan COD4MW. En dat is de reden dat ik crysis ook geweldig vind. Maar Ageia island gaat daar overheen.
In de normale game werkt PPU natuurlijk veel beperkter. ALtijd PhysX op Extreem gezet.
Kijk als je daarmee van 60 naar 45fps gaat dan schroef ik de reso terug van 1280x 1024 naar 1024x768. En dan loopt het weer op 60fPs.
Maar speelde GRAW2 liever op 1800x1440 met PPU etc en zo'n tactische game heeft niet zo veel fps nodig 30 is ruim voldoende voor slow pace tactical. Gameplay style. En met de PPU natuurlijk meer Effectphysics. Soms ten koste van FPS.
Wat ik van nV PhysX verwacht.
Je had toen de PPU dat ding is ruim 2 jaar uit. 5-2006. De overnamen was vlak rond de produkcycle date van 2jaar.
Dus nV GPGPU PhysX vervang héél heel extreem belangrijk niet de PPU maar de PPU2.
Nou had er 'n PPU nextgen moeten zijn. 'n 500mil PPU op 65nm denk het niet maar dat kan er in zitten 4 tot 8 maal de performance. Aangezien PPU 'n 125mil chippie is op 130nm. Iets wat je verwacht als GPU in 2004.
Ik zie het nu dus als PPU2 vervanger. De PPU wordt afgelost. Mijn PPU hebben me 2 jaar gediend.
Maar PPU2 is dus elke SM4.0 kaart geworden.
PPU is een opzich zelf staande Produkt. PPU2 ==> GPGPU SM4.0 is dus 'n hele uitgebreide reeks geworden. G84 G86 G80 G92 G92B GT200.etc. Die puur of gedeeltelijk voor PhysX gebruikt kunnen worden. 1+ 0 ; 1+1 ; 2+1 ; 3+1 , etc.
Ik verwacht dat moderne PhysX game met GPGPU in gedachte rekening moeten houden met de gevarieerde mogelijkheden aan render en Physics power.
De Physics zou dus net zo'n uitgebreide settings menu moeten krijgen om PhysX in te kunnen stellen naar de hand van wat voor hardware je beschikbaar hebt.
Je kan dus 'n GT280 + GT280 voor PhysX
tot 7950GTX + 8400 voor PhysX hebben en nog meer meer mogelijke combinaties er tussen in.
Of 'n GT260 voor beide.
Dit is een heel groot probleem voor Gameplay PhysX, Deze is net als AI vaak Fixed. Tenzij PhysX van Enkele kaart PC soluties wat shaders kan reserveren voor PhysX. Je G-kaart moet dan wat reserve over hebben. Of de render settings maar wat lager. PhysX geeft dan FPS hit als je te weinig shader power beschikt en dat te weinig is voor renderen en Physx.
Maar voor aTI hardware moet de minimum laag zijn, 'n CPU puur PhysX mode.
Het aller grootste probleem is dus dat de game als minimum physX de CPU moet handhaven.
Dev's hebben nu wel de mogelijkheid om veel meer PhysX er in te proppen maar moeten wel 'n skelleton CPU only PhysX load path hebben die vooral Gameplay physX pakt. De meeste en vooral zware effects Physics wordt dan optioneel.
Dus als je snel games wilt zien die goed gebruik maken van PhysX.
Zit online gefocusde games in consesies met gameplay PhysX.
PhysX moet heel variable ingesteld kunnen worden.
Alle effect Physics zijn optioneel en in intentie aan te passen.
Gameplay Physics zal groten deels fixed zijn. voor online games.
Single player games mogelijk LAN Coop games kan dit beperkt variable ingesteld worden.
Je kiest dan host ook op basis van PhysX gameplay instellingen.
Allemaal kopzorgen voor dev's. Dit zijn allemaal factoren die zorgen dat physX adoptie bij dev's niet zo snel gaan.
Stel dan voor 'n zware PhysX load van 'n extra GTX280 die gesynchroniseerd moet worden over 16 spelers.
Het pushen van nV tWIMTBP zal enigzins Dev's wel meer aansporen.
nV krijgt diezelfde problemen als ageia. Waar blijft die killer game.
De nV markt is groot genoeg om 'n extra PhysX dedicated 8600GTS kaart te eisen in geval van 'n zwaar gesponsorde game. De minimum gameplay PhysX bepaald dan wat 'n 8600GTS stressed kan hebben. Warmonger/celfactor II en GRAW III
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
-- Edit: wacht eens, dat komt wellicht omdat ik nog 177.35 draai. Ik kan helaas 177.39 nergens vinden, tenminste, geen versie die uiteindelijk corrupte bestanden blijkt te bevatten. Heeft iemand 177.39 voor me, Vista 64-bits?
-- Edit #2: ondertussen een werkende 177.39 weten op te snorren, maar ook dan onthoudt dat ding niets. Springt elke keer weer terug naar GeForce PhysX. Maf.
[ Voor 33% gewijzigd door Wildfire op 21-06-2008 20:17 ]
ps: ik heb wel de inf gemod om het werkend te krijgen op mijn 8800GTS ( G80 core ), maar hij zou voor jou 280 zonder mod moeten werken.
7800X3D - B650E Aorus Master - 32GB 6000Mhz - 4090 FE
specs
Intel Q9450
Gigabyte X48T-DQ6
OCZ Gold Series 4GB Kit (2x2GB) 1333MHz DDR3
Gigabyte 8800gt
OCZ Vendetta2 Koeler
Enermax 535W voeding
Windows Vista
rivatuner 2.09Elkristo78 schreef op zaterdag 21 juni 2008 @ 18:39:
Welke tool moet ik downloaden zodat ik m'n frequentie's van m'n videokaart kan aanpassen en alsook de temperatuur en fan kan regelen van m'n kaart?
specs
Intel Q9450
Gigabyte X48T-DQ6
OCZ Gold Series 4GB Kit (2x2GB) 1333MHz DDR3
Gigabyte 8800gt
OCZ Vendetta2 Koeler
Enermax 535W voeding
Windows Vista
GRRRRR 1 van me kaarten is DOA
Kreeg tri-sli maar niet aan de praat, nogal logisch met een kapotte kaart

Nou ja volgend weekeind dan maar
[ Voor 15% gewijzigd door justifire op 21-06-2008 21:00 ]
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Ik ben er al achter dat 2 kaarten eigenlijk al veel te snel is voor de huidige games.
Niet dat ik dat erg vind, maar het is wel zo. Er is geen game die mijn huidige setup op zijn knieen krijgt. Zelfs niet op 1920x1200 met AA en AF aan. Misschien kan je die die 3e kaart nog annuleren. Ik zou eerst dit maar eens proberen.
Dit is echt niet normaal hoe snel dit is, is mijn conclusie na 4 dagen gamen.
Kan je 3DMark06 eens draaien op 1920x1200 8xAA 16xAF?Wildfire schreef op zaterdag 21 juni 2008 @ 16:48:
Ziezo, de GTX 280 is ingebouwd.
Dit haal ik:

Zelfs op deze settings worden de kaarten gebottleneckt door de CPU.

[ Voor 42% gewijzigd door Format-C op 22-06-2008 10:31 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat is wat je nog mist.
//edit als reactie op diegene die dit heeft in zijn spects: Monitoren Samsung Syncmaster 245B 24" inch TFT
Guess who?
[ Voor 48% gewijzigd door SG op 22-06-2008 14:11 ]
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Ik mis niks. Ik vind het wel best zo.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Heb je het nou tegen mij?SG schreef op zondag 22 juni 2008 @ 10:33:
Zo triSLI GTX280 en geen 30" 2560x1600.
Dat is wat je nog mist.
Dan moet je toch even een andere bril opzetten als je de specs leest
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Gisteren even Warmonger geprobeerd.RappieRappie schreef op zondag 22 juni 2008 @ 10:17:
Alsof 2 kaarten niet snel genoeg zijn.
Ik ben er al achter dat 2 kaarten eigenlijk al veel te snel is voor de huidige games.![]()
Niet dat ik dat erg vind, maar het is wel zo. Er is geen game die mijn huidige setup op zijn knieen krijgt. Zelfs niet op 1920x1200 met AA en AF aan. Misschien kan je die die 3e kaart nog annuleren. Ik zou eerst dit maar eens proberen.
Nieuwe physx driver en blablaprogie van nvidia.
2560x1600 0xaa 0xaf settings voluit.
15-20 fps
2 kaarten is dus duidelijk niet genoeg
Besef ook wel ff dat ik bijna 2 keer zoveel pixels heb als jij.
Zou dus eigenlijk 4 (of 5 met klote schaalbaarheid sli) kaarten moeten hebben voor jouw resultaten.
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Anoniem: 219166

Nog meer (in het Japans) http://pc.watch.impress.co.jp/docs/2008/0620/kaigai449.htm
[ Voor 32% gewijzigd door The Source op 22-06-2008 22:32 ]
KiLLaHeRTz schreef op zondag 22 juni 2008 @ 22:33:
Zozo een stuk ingewikkelder als de RV770

Zie ook http://www.techreport.com/articles.x/14934/2
[ Voor 17% gewijzigd door Da_DvD op 22-06-2008 23:35 ]
Dit topic is gesloten.