Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Nou niks, want ik zie geen verschil.RappieRappie schreef op vrijdag 05 januari 2007 @ 23:49:
Ik zal zo eens checken. Wat doet DIE setting dan precies? Apple?
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Even testen.. Zo weerRappieRappie schreef op zaterdag 06 januari 2007 @ 00:41:
Ik ook niet. LOL.
-> mat_dxlevel 95
Edit : Nope niks.
Inderdaad geef eens die standwaarde a.u.b
[ Voor 16% gewijzigd door Verwijderd op 06-01-2007 00:47 ]
(Om het weer terug te zetten zoals het stond
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Als je trouwens 81 intikt is de fog weg, maar dan speel je wel DX 8.1.
Verwijderd
DX8.1 liever nietVerwijderd schreef op zaterdag 06 januari 2007 @ 00:56:
90 ipv 95.(DX9.0)
Als je trouwens 81 intikt is de fog weg, maar dan speel je wel DX 8.1.
Ik speel nu ook in die res. Maar heb wel soms lichte schokjes. Dus tis bijna de hele tijd vloeiend en dan paar lichte schokjes is dat normaal met een fps van 52Occy74 schreef op vrijdag 05 januari 2007 @ 17:50:
[...]
Ik draai zelfs op 1680x1050 (widescreen dus) dankzij de NFS Carbon Custom Resolution Launcher
Ik ook niet. "Er is een fout opgetreden... bla bla bla".galien schreef op vrijdag 05 januari 2007 @ 22:04:
hoe krijgen jullie splinter cell double agent aan de praat? als ik het probeer krijg ik een foutmelding ik kom nog niet eens in de game
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Het is echt te kansloos dat Nvidia een kaart lanceert en dan geen knappe software vanaf dag 1 mee levert
Verwijderd
Vista is nog niet eens officieel uit mensen. Gewoon wachten tot de 31e

nee...het is kansloos dat iemand vista installeerd zonder eerst te kijken of er wel drivers voor zijnRutgerDB schreef op zaterdag 06 januari 2007 @ 17:12:
Het is echt te kansloos dat Nvidia een kaart lanceert en dan geen knappe software vanaf dag 1 mee levert
Verwijderd
Inderdaad.. iedereen die Vista al heeft heeft dat waarschijnlijk niet op een lega manier..Verwijderd schreef op zaterdag 06 januari 2007 @ 17:14:
Aah nog zo 1. In het Algemeen nVidia topic was er ook 1 die klaagde over Vista drivers voor de 8800's.
Vista is nog niet eens officieel uit mensen. Gewoon wachten tot de 31e
En inderdaad ja.. wie installeerd Vista als je weet dat er geen drivers zijn?
Research noemt dat..

XP doet het in mijn geval nog steeds beter dan die k*nkr Vista.
[ Voor 18% gewijzigd door Verwijderd op 06-01-2007 19:55 ]
Verwijderd
Ook bij mij werkt mat_dxlevel 95 niet .
Erwin
Verwijderd
Je schiet gewoon op iedereen? Waar schiet je van zo vere afstanden dan ?Verwijderd schreef op zaterdag 06 januari 2007 @ 20:16:
ik heb zelf ook het css probleem ...... ik hoor mensen hier zeggen dat je men beter ziet in het donker... ja dat klopt ... maar op afstand zie je nixik hoop dat dit snel opgelost word , want anders zal ik niet veel wars meer spelen... je ziet niet eens verschil tussen t en ct .
Ook bij mij werkt mat_dxlevel 95 niet .
Erwin
Ik heb er allesinds geen last van enkel in de_dust tunnel dus niet centraal.
Maar die map speel ik dus ook niet meer
*Hide and seek* I love it
laten we nu maar niet op team mates geen knallen dan kan je net zo goed geen wars spelen.Verwijderd schreef op zaterdag 06 januari 2007 @ 20:41:
[...]
Je schiet gewoon op iedereen? Waar schiet je van zo vere afstanden dan ?![]()
Ik heb er allesinds geen last van enkel in de_dust tunnel dus niet centraal.
Maar die map speel ik dus ook niet meerVoorderest is het wel nice dat je iedereen ziet.
*Hide and seek* I love it
ik speel gewoon op dx level 81 tot het probleem opgelost is.
je bent daardoor ook minder geflashed:D
RMA dan maar.
PoV rommel !
ik zou 'm eerst eens in een andere pc proberenaval0ne schreef op zaterdag 06 januari 2007 @ 22:10:
Mijn GTX is overleden, ik had em net een week. XP opgestart, ineens blue screen wegens nvdisp.dll, vervolgens boot scherm helemaal vern**kt en tijdens het opstarten soort schaakbord effect van artifacts. Misschien een geheugenchip kapot ofzo. En hij draaide zelfs niet overclocked.
RMA dan maar.
Denk niet dat het zal helpen, heb al een andere voeding geprobeerd en ook het andere PCI-E x16 slot.Mr. Detonator schreef op zaterdag 06 januari 2007 @ 22:12:
[...]
ik zou 'm eerst eens in een andere pc proberen
Verwijderd
Ik snap dan niet waarom Nvidia wél Vista drivers voor alle andere kaarten uitbrengt.Verwijderd schreef op zaterdag 06 januari 2007 @ 17:14:
Vista is nog niet eens officieel uit mensen. Gewoon wachten tot de 31e
Verwijderd
Aha. Zeg dan gewoon dat ze hun DX10 performance nog niet vrij willen geven maar houd op met dat gezever over "Vista is nog niet uit".
Verwijderd
Mensen mogen klagen als er na 31-1-2007 nog geen werkende 8800 driver gereleased is, eerder niet.
Juist, ben ik mee eens. Ze gaan nu toch ook geen drivers voor een 8900 gtx uitbrengen als hij nog niet uit is?Verwijderd schreef op zaterdag 06 januari 2007 @ 22:51:
Vista is toch ook officieel nog niet uit voor de consument?? Of zie ik dat verkeerd?
Mensen mogen klagen als er na 31-1-2007 nog geen werkende 8800 driver gereleased is, eerder niet.
nvidia is toch niet verplicht om drivers uit te brengen voor een nog niet officieel voor de consument uitgebacht besturingssysteem? Ik snap best wel dat ze eerst de prioriteiten leggen bij kaarten die veel meer users hebben, dan een kaart die mss 1% vertegenwoordigt van de PC-gebruikers.Verwijderd schreef op zaterdag 06 januari 2007 @ 22:36:
[...]
Aha. Zeg dan gewoon dat ze hun DX10 performance nog niet vrij willen geven maar houd op met dat gezever over "Vista is nog niet uit".
Vaak bu'j te bang!
Verwijderd
Verwijderd
Ik heb ook PoV en echt.. supercontent van , overclocked lekker enzoaval0ne schreef op zaterdag 06 januari 2007 @ 22:10:
Mijn GTX is overleden, ik had em net een week. XP opgestart, ineens blue screen wegens nvdisp.dll, vervolgens boot scherm helemaal vern**kt en tijdens het opstarten soort schaakbord effect van artifacts. Misschien een geheugenchip kapot ofzo. En hij draaide zelfs niet overclocked.
RMA dan maar.![]()
PoV rommel !
Heb em al sinds de launchdate , en heb em 3 weken 630/2000 lopen.
Zeker dat de kaart defect is ? En niet een geheugenmodule (ram?)
Verwijderd
http://forums.guru3d.com/showthread.php?t=209216
Edit: ok beetje dom, is laat enzo. Zijn kaart was niet OC. Gewoon RMA'en dan.
[ Voor 22% gewijzigd door Verwijderd op 07-01-2007 01:41 ]
Verwijderd
Kaart @ stock againVerwijderd schreef op zondag 07 januari 2007 @ 01:38:
Overklokken blijft natuurlijk ALTIJD een risico en kan spontaan tot defecten leiden![]()
http://forums.guru3d.com/showthread.php?t=209216
Edit: ok beetje dom, is laat enzo. Zijn kaart was niet OC. Gewoon RMA'en dan.
Verwijderd
De eerste paar weken zijn gewoon cruciaal bij een GPU. Als je die zonder problemen doorkomt, is het voor het merendeel wel in orde.
Ik vind het onzin, maar iedereen moet het zelf weten natuurlijk. Als het nou zo was dat een bepaalde game niet goed draait oid dan zou ik zeggen ja; ik pers er nog een paar mhz'jes uit. Maar ik vind dat op dit moment niet echt aan de orde... De kaart vlíegt in alle games die ik speel.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Voor de consument is hij inderdaad op die datum pas 'uit'. Voor de professional en bedrijven is ie al 'lang' en breed beschikbaar. En waarom zou ik als professional niet mogen 'klagen' over het feit dat ik een 8800 heb en er geen drivers voor zijn?Verwijderd schreef op zaterdag 06 januari 2007 @ 22:51:
Vista is toch ook officieel nog niet uit voor de consument?? Of zie ik dat verkeerd?
Mensen mogen klagen als er na 31-1-2007 nog geen werkende 8800 driver gereleased is, eerder niet.
Verwijderd
Omdat het nog niet officieel ondersteund word._Arthur schreef op zondag 07 januari 2007 @ 10:48:
[...]
Voor de consument is hij inderdaad op die datum pas 'uit'. Voor de professional en bedrijven is ie al 'lang' en breed beschikbaar. En waarom zou ik als professional niet mogen 'klagen' over het feit dat ik een 8800 heb en er geen drivers voor zijn?
Verwijderd
In Oblivion zie ik de kaart wel eens onder de 30fps gaan, @1600x1200/HDR/4xTrMSAA/16xAF. Ik kan zelfs plekken vinden waar de kaart écht op z'n knieëen gaat met 14/15fps. Dus om nou te zeggen dat een 8800GTX z'n volle potentie nergens kan lieten zien is ietwat overdreven.RappieRappie schreef op zondag 07 januari 2007 @ 10:24:
Zoals iemand daar ook al aangeeft; wat heeft het voor nut om een kaart te overklokken die in geen enkele game nog zijn volle potentie laat zien?
Tja, als je een 19"schermpje hebt zal je alles kunnen draaien, hier speel ik op 24" 1920x1200 en heeft de GTX toch moeite met een aantal games op max settings, dus OC'enRappieRappie schreef op zondag 07 januari 2007 @ 10:24:
Zoals iemand daar ook al aangeeft; wat heeft het voor nut om een kaart te overklokken die in geen enkele game nog zijn volle potentie laat zien?
Ik vind het onzin, maar iedereen moet het zelf weten natuurlijk. Als het nou zo was dat een bepaalde game niet goed draait oid dan zou ik zeggen ja; ik pers er nog een paar mhz'jes uit. Maar ik vind dat op dit moment niet echt aan de orde... De kaart vlíegt in alle games die ik speel.
Heej nu draai je het om he!Verwijderd schreef op zondag 07 januari 2007 @ 10:50:
Omdat het nog niet officieel ondersteund word.
Men zit hier te miepen dat je niet mag zeuren omdat men denkt dat Vista nog niet 'officieel' uit is. Wat dus wel zo is.
Ik speel op 1280x1024 @ veel AA+AF dus ik heb nergens last van.Verwijderd schreef op zondag 07 januari 2007 @ 11:53:
[...]
In Oblivion zie ik de kaart wel eens onder de 30fps gaan, @1600x1200/HDR/4xTrMSAA/16xAF. Ik kan zelfs plekken vinden waar de kaart écht op z'n knieëen gaat met 14/15fps. Dus om nou te zeggen dat een 8800GTX z'n volle potentie nergens kan lieten zien is ietwat overdreven.
Maar OK, wat ik zei geldt dus niet voor iedereen. Maar met 2xAA zal het toch wel gaan?
Dat is 1 van de redenen waarom ik lekker op een 19 inch game.Plurk. schreef op zondag 07 januari 2007 @ 12:30:
Tja, als je een 19"schermpje hebt zal je alles kunnen draaien, hier speel ik op 24" 1920x1200 en heeft de GTX toch moeite met een aantal games op max settings, dus OC'enWe zijn niet voor niks tweakers!
[ Voor 42% gewijzigd door Format-C op 07-01-2007 12:50 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
dat zou ik ook wel willen weten met de p5w dh deluxeVerwijderd schreef op zondag 07 januari 2007 @ 13:45:
Kun je eigenlijk een 8800(GTS) in SLI draaien op een ASUS P5B deluxe?
met oudere kaarten kan het wel omdat je daar hacked drivers voor had en die zijn er niet voor de 8800 serie
Daarbij komt ook nog dat de p5b maar 1 16x pci-e slot en een 4x (forced) slot heeft dus je performance is laag als je dat zou doen.
De p5w zou het iets beter kunnen maar voor die geld het zelfde voor de driver.....
Noord-Oost-Zuid-West 11640Wp Totaal Live, Netduino advanced pv logging
Verwijderd
Dan mag jij mij vertellen bij welke zaak ik morgen de Home Premium versie op kan gaan halen_Arthur schreef op zondag 07 januari 2007 @ 12:32:
[...]
Heej nu draai je het om he!
Men zit hier te miepen dat je niet mag zeuren omdat men denkt dat Vista nog niet 'officieel' uit is. Wat dus wel zo is.
Op 1 bepaald stuk in nfs carbon zie ik hem toch echt wel droppen tot 45 fps(ok, ik ben een mierrenneuker:p) en soms bij het starten van een race staat hij ook op 50 fps. Maar ik heb mijn kaart(en cpu die nu 2.9 ghz draait) overklokt to 630/2000 mhz voor flight simulator x. In die game heb je echt wel baat bij overclocken(en toch sucken de graphics naar mijn mening). Op het maximum ga ik vaak onder de 20 fps in dat spel en dat vind ik toch te weinig. Nu heb ik minimum 28 fps met die overclock en het is toch echt wel een stuk minder laggy geworden.RappieRappie schreef op zondag 07 januari 2007 @ 10:24:
Zoals iemand daar ook al aangeeft; wat heeft het voor nut om een kaart te overklokken die in geen enkele game nog zijn volle potentie laat zien?
Ik vind het onzin, maar iedereen moet het zelf weten natuurlijk. Als het nou zo was dat een bepaalde game niet goed draait oid dan zou ik zeggen ja; ik pers er nog een paar mhz'jes uit. Maar ik vind dat op dit moment niet echt aan de orde... De kaart vlíegt in alle games die ik speel.
@ hierboven: voor bedrijven is het natuurlijk wel al uit... Wie zegt dat het enkel consumenten zijn die games spelen? Bedrijven kunnen het ook gebruiken.(ff gamen in de pauze
[ Voor 7% gewijzigd door skelleniels op 07-01-2007 14:46 ]
Bij de zaak die Microsoft heet. Sluit een MSDN abbo af en je kan geheel legaal elke Vista versie downloaden die je maar wilt. Ja, ook de Home Premium versie.Verwijderd schreef op zondag 07 januari 2007 @ 14:39:
Dan mag jij mij vertellen bij welke zaak ik morgen de Home Premium versie op kan gaan halen
En hoeveel kost een MSDN abo? Juist ja ..._Arthur schreef op zondag 07 januari 2007 @ 15:25:
[...]
Bij de zaak die Microsoft heet. Sluit een MSDN abbo af en je kan geheel legaal elke Vista versie downloaden die je maar wilt. Ja, ook de Home Premium versie.
En wat zou in vista met je G80 willen doen? Patience spelen?
[ Voor 8% gewijzigd door aval0ne op 07-01-2007 15:52 ]
Verwijderd
1- Vista IS gereleased... Het is niet omdat het wat duurder is (MSDN) dat er geen release is. Een release = vanaf het moment dat het aan een (gedeelte) van de eindgebruikers ter beschikking is gesteld, wat hier duidelijk het geval is. Er zijn meer mensen dan enkel thuisgebruikers hoor...aval0ne schreef op zondag 07 januari 2007 @ 15:51:
[...]
En hoeveel kost een MSDN abo? Juist ja ...
En wat zou in vista met je G80 willen doen? Patience spelen?
2- Patience spelen is niet zo m'n ding, maar ik zou het op prijs stellen dat ik m'n breedbeeld resolutie zou kunnen gebruiken zonder hacks (gaat niet met de generic drivers). Als ik de nvidia drivers toch installeer kan ik m'n breedbeeld gebruiken, maar geen filmpjes afspelen en directx stuff, dan krijg ik een BSOD.
3- Op de doos staat "vista essential", dus op z'n minst misleidend. Ik verwachte toch op z'n minst werkende drivers met directx9 support. Direct X10 heb ik nog niet nodig, al kan ik me wel voorstellen dat sommige mensen hier al wat ontwikkelwerk willen doen.
Het is een beest van een kaart, maar momenteel krijg je echt met sommige juggernaut van games / sims deze kaart met gemak op de knieen.
That's life.
Of je moet SLI gaan voor echte boter framerates in spellen als Oblivion en Flight Sim 10.
Op de achterkant staat dat ook geadverteerd van mijn Sparkle doos: "Go SLI!"
Daaronder beginnen ze pas met de kopjes over hoe cool deze kaart is en wat deze kan.
Welke bus frequency en welke multiplier heb je hiervoor ingesteld?skelleniels schreef op zondag 07 januari 2007 @ 14:45:
Maar ik heb mijn kaart(en cpu die nu 2.9 ghz draait) overklokt to 630/2000 mhz voor flight simulator x. In die game heb je echt wel baat bij overclocken(en toch sucken de graphics naar mijn mening).
[ Voor 38% gewijzigd door Darkwolf_1982 op 07-01-2007 16:34 ]
9*323(OK, het is 2906 mhzDarkwolf_1982 schreef op zondag 07 januari 2007 @ 16:32:
Welke bus frequency en welke multiplier heb je hiervoor ingesteld?
Ik moet hem namelijk analoog aansluiten om dit voor elkaar te krijgen.
XP geeft aan dat ie op 1440x900 staat maar monitor zelf geeft dan aan dat ie 1280x1024 draait.
Wil graag deze resolutie draaien met DVI omdat het beeld een stuk minder scherp is dan via DVI alhoewel ik daar in games niet zoveel last van heb.
Heb als 2e monitor een 17" staan op 1280x1024 analoog en die is veel scherper.
Beetje vreemd dacht ik zo.
Als er mensen zijn met tips of dezelfde ervaringen hoor ik het graag.
@Jorn hieronder. Ja been there done that. Op forum van 3DGuru staan veel meer mensen met hetzelfde probleem zie ik.
Ff kijken of daar nog wat tips staan.
Zal de nieuwste drivers zo even proberen, al denk dat het probleem nog niet echt is verholpen.
Schijnt een al langer bestaand probleem te zijn.
[ Voor 20% gewijzigd door Fryskmantsje op 07-01-2007 19:45 ]
[ Voor 19% gewijzigd door Jorn1986 op 07-01-2007 18:31 ]
Verwijderd
Ik bewonder je loyaliteit jegens Nvidia. Ik dacht echter dat Nvidia altijd geroemdaval0ne schreef op zondag 07 januari 2007 @ 15:51:
[...]
En hoeveel kost een MSDN abo? Juist ja ...
En wat zou in vista met je G80 willen doen? Patience spelen?
werd om het veelvuldig uitbrengen van BETA drivers, dat was hét sterke punt ivm
Ati...
Schijnt niet meer belangrijk te zijn ineens.

[ Voor 5% gewijzigd door Verwijderd op 07-01-2007 23:27 ]
Lijkt op het probleem wat ik ben tegen gekomen met m'n 8800GTS, zie mijn topic: 8800 GTS Driver? probleemfryskmantsje schreef op zondag 07 januari 2007 @ 17:14:
Ook mensen hier die op een 19" Breedbeeld monitor draaien @1440x900 en da via DVI?
Ik moet hem namelijk analoog aansluiten om dit voor elkaar te krijgen.
XP geeft aan dat ie op 1440x900 staat maar monitor zelf geeft dan aan dat ie 1280x1024 draait.
Wil graag deze resolutie draaien met DVI omdat het beeld een stuk minder scherp is dan via DVI alhoewel ik daar in games niet zoveel last van heb.
Heb als 2e monitor een 17" staan op 1280x1024 analoog en die is veel scherper.
Beetje vreemd dacht ik zo.
Als er mensen zijn met tips of dezelfde ervaringen hoor ik het graag.
@Jorn hieronder. Ja been there done that. Op forum van 3DGuru staan veel meer mensen met hetzelfde probleem zie ik.
Ff kijken of daar nog wat tips staan.
Zal de nieuwste drivers zo even proberen, al denk dat het probleem nog niet echt is verholpen.
Schijnt een al langer bestaand probleem te zijn.
PS5 DE, PS4 Pro, PS3 SS, PS VIta Slim PSN: BSGathena
Heb zelfs nu geen beeld meer dus nu is ie echt wel fubar. Ik heb gemerkt dat er 2 soorten POV kaarten zijn, die met een zwarte pcb en met een groene pcb. De mijne is een zwarte en heeft een oudere bios dan de groene. De zwarte heeft acheraan bij de PCIE connector een handgeschreven serienummer. De groene heeft dit niet. Misschien was het nog een kaart met een foute weerstand.Verwijderd schreef op zondag 07 januari 2007 @ 00:31:
[...]
Ik heb ook PoV en echt.. supercontent van , overclocked lekker enzo
Heb em al sinds de launchdate , en heb em 3 weken 630/2000 lopen.
Zeker dat de kaart defect is ? En niet een geheugenmodule (ram?)
Ik ben niet blij met de weinige drivers die er zijn voor de G80 in XP, dat zijn we inderdaad niet gewoon van nvidia. Het lijkt alsof ze nu er geen concurrentie is het rustig aandoen. Daarom hoop ik dat de R600 er snel komt, dan pas zullen we de echte sterkte van nvidia drivers en de G80 zien.Verwijderd schreef op zondag 07 januari 2007 @ 23:26:
[...]
Ik bewonder je loyaliteit jegens Nvidia. Ik dacht echter dat Nvidia altijd geroemd
werd om het veelvuldig uitbrengen van BETA drivers, dat was hét sterke punt ivm
Ati...
Schijnt niet meer belangrijk te zijn ineens.
[ Voor 31% gewijzigd door aval0ne op 08-01-2007 00:48 ]
Waarom steeds discussieren over wel of niet Vista en de ondersteuning daarvan?
Jullie zijn toch allemaal gamers? Of niet soms?
Weet je wanneer ik pas overweeg (dus dan nog twijfel) om op Vista over te stappen?
Als Crysis uitkomt, en mensen er lekker mee gaan spelen en benchen.
Ik denk dat Crysis een perfect beeld gaat geven betreft DirectX 9 vs DirectX 10 en de performance daarvan.
Ook vraag ik mij trouwens af hoe Crysis gaat draaien op de R600.
nVidia was veel sneller met de G80 dus dat hebben de mensen van Crysis mooi kunnen meenemen tijdens het ontwikkelings process!
Ik ga lekker voor 10*330 denk ik.
Alleen... daar het niet echt lekker is voor mijn HDD's (lijkt mij) dat mijn bak steeds een keertje uit valt en dan weer opstart las ik in Deel 2 dat je dit had opgelost door het aanpassen van de geheugen voltage.
Dit ben ik helemaal vergeten te vragen in mijn vorige post! Argh!
(Jij had toch ook OCZ Titanium PC6400 memory?)
Jullie MSDNerdts hebben toegang tot ungereleasde software van ms (ja vista) om er software voor te onwikkelen. Bemerk de D in MSDN en geen G.Verwijderd schreef op zondag 07 januari 2007 @ 16:10:
[...]
1- Vista IS gereleased... Het is niet omdat het wat duurder is (MSDN) dat er geen release is. Een release = vanaf het moment dat het aan een (gedeelte) van de eindgebruikers ter beschikking is gesteld, wat hier duidelijk het geval is. Er zijn meer mensen dan enkel thuisgebruikers hoor...
2- Patience spelen is niet zo m'n ding, maar ik zou het op prijs stellen dat ik m'n breedbeeld resolutie zou kunnen gebruiken zonder hacks (gaat niet met de generic drivers). Als ik de nvidia drivers toch installeer kan ik m'n breedbeeld gebruiken, maar geen filmpjes afspelen en directx stuff, dan krijg ik een BSOD.
3- Op de doos staat "vista essential", dus op z'n minst misleidend. Ik verwachte toch op z'n minst werkende drivers met directx9 support. Direct X10 heb ik nog niet nodig, al kan ik me wel voorstellen dat sommige mensen hier al wat ontwikkelwerk willen doen.
Nvidia heeft ook een developpers programma, en die mensen hebben toegang tot ungereleasde drivers (ja vista dx10 drivers). Getuige hiervan zijn de talrijke G80 dx10 tech demos die al getoond zijn geweest.
Dus niet gierig zijn en meteen een developpers abo bij nvidia afsluiten als je dx10 drivers voor development software wil.
Denk aan je hart...aval0ne schreef op maandag 08 januari 2007 @ 14:40:
[...]
Jullie MSDNerdts hebben toegang tot ungereleasde software van ms (ja vista) om er software voor te onwikkelen. Bemerk de D in MSDN en geen G.
Nvidia heeft ook een developpers programma, en die mensen hebben toegang tot ungereleasde drivers (ja vista dx10 drivers). Getuige hiervan zijn de talrijke G80 dx10 tech demos die al getoond zijn geweest.
Dus niet gierig zijn en meteen een developpers abo bij nvidia afsluiten als je dx10 drivers voor development software wil.
Op het moment dat je dit postte, waren de officiele NVidia-drivers voor Vista Build 6000 (en hoger) al op de markt voor gewone stervelingen en niet voor de beta-testers. Daarbij begrijp ik niet helemaal waarom MSDNerdts (spelfout trouwens!) worden genoemd; dat iemand professioneel zeer goed is en daardoor MSDN/Microsoft Gold Partner is, heeft niets te maken met nerd zijn, imho.
Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof
Verwijderd
Ik zit alleen ernstig in dubio of ik nu voor de 32bits of 64bits versie moet gaan

32 bits tenzij je zeker weer dat voor je volledige systeem 64 bits signed WHQL-drivers zijn. Maar ja, het gaat iets off-topic op dit moment.Verwijderd schreef op maandag 08 januari 2007 @ 14:47:
Gereleased of niet gereleased, het is toch nog maar een paar weekjes geduld![]()
Ik zit alleen ernstig in dubio of ik nu voor de 32bits of 64bits versie moet gaan
Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof
Nee, ik heb pc5300 twinmos 2*1 GB geheugen. Ik heb het lopen op 2.1 volt. Waarom 330? 333 is de standaardspeed voor pc5300, dus zou ik dat aanraden. Zet het geheugenvoltage hoger als je pc uitvalt bij het opstarten. Soms gebeurt het nog dat als je in de bios iets opslaat, dat het nog steeds uitvalt, maar bij gewoon opstarten zal hij meteen opstarten(bij mij toch.)Darkwolf_1982 schreef op maandag 08 januari 2007 @ 08:09:
Ik ga lekker voor 10*330 denk ik.
Alleen... daar het niet echt lekker is voor mijn HDD's (lijkt mij) dat mijn bak steeds een keertje uit valt en dan weer opstart las ik in Deel 2 dat je dit had opgelost door het aanpassen van de geheugen voltage.
Dit ben ik helemaal vergeten te vragen in mijn vorige post! Argh!
(Jij had toch ook OCZ Titanium PC6400 memory?)
Precies hetzelfde heb ik dus ook. Belachelijk dat het in die 96 serie goed was als ik het goed gelezen heb en in de 97 serie is vrn**kt.V3g3ta schreef op maandag 08 januari 2007 @ 00:24:
[...]
Lijkt op het probleem wat ik ben tegen gekomen met m'n 8800GTS, zie mijn topic: 8800 GTS Driver? probleem
Nou ja hopelijk zijn de Vista drivers beter. Nog maar paar weken geduld doen,
Ik denk niet dat dit euvel binnen 3 weken word opgelost.
Heb je toevallig de nieuwste (97.92) drivers al geprobeerd?
Draait nu goed bij mij en heb niet zoveel trek om die te installen als het toch nix uithaalt.
Edit: Heb de oplossing gevonden!!
[ Voor 11% gewijzigd door Fryskmantsje op 08-01-2007 22:55 ]
Verwijderd
Ik heb ook een zwarteaval0ne schreef op maandag 08 januari 2007 @ 00:44:
[...]
Heb zelfs nu geen beeld meer dus nu is ie echt wel fubar. Ik heb gemerkt dat er 2 soorten POV kaarten zijn, die met een zwarte pcb en met een groene pcb. De mijne is een zwarte en heeft een oudere bios dan de groene. De zwarte heeft acheraan bij de PCIE connector een handgeschreven serienummer. De groene heeft dit niet. Misschien was het nog een kaart met een foute weerstand.
[...]
Ik ben niet blij met de weinige drivers die er zijn voor de G80 in XP, dat zijn we inderdaad niet gewoon van nvidia. Het lijkt alsof ze nu er geen concurrentie is het rustig aandoen. Daarom hoop ik dat de R600 er snel komt, dan pas zullen we de echte sterkte van nvidia drivers en de G80 zien.
En die is 100% zeker hersteld want moest terug naar de fabriek
Mjah ! Haal een nieuwe er zit dacht ik 3 jaar garantie op , No Worries
Verwijderd
Verwijderd
Verwijderd
Inderdaad daar ben ik ook zeker van.Verwijderd schreef op dinsdag 09 januari 2007 @ 19:41:
UT2007 zal zeker goed draaien op nvidia g80, ze zijn al van vorige generaties met nvidia an het werken voor optimalizaties... cryssis weet ik niet, maar ik veronderstel dat nvidia g80 beter op ut2007 zal scoren dan ati r600.
Splinter cell double agent draait op een (zwaar) gemodde versie van de unreal engine 2.Jorn1986 schreef op dinsdag 09 januari 2007 @ 19:55:
Hoe draait splinter cell double agent (die dus de UT2k7 engine bevat) op een 8800GTS of een GTX?
UT2007 draait op unreal engine 3 wat veel betere graphics moet kunnen weergeven
Verwijderd
ik betwijfel hetVerwijderd schreef op dinsdag 09 januari 2007 @ 19:41:
UT2007 zal zeker goed draaien op nvidia g80, ze zijn al van vorige generaties met nvidia an het werken voor optimalizaties... cryssis weet ik niet, maar ik veronderstel dat nvidia g80 beter op ut2007 zal scoren dan ati r600.
1680*1050 alles max en dan 60 FPS halen... dan overschat je de G80 wel...
Heb zon gevoel dat de g80 dan al te zwak isVerwijderd schreef op dinsdag 09 januari 2007 @ 22:03:
[...]
ik betwijfel het![]()
1680*1050 alles max en dan 60 FPS halen... dan overschat je de G80 wel...
[fanboymodus]Zal wel leuk zijn dat die game beter draait dan de ATI. Je ziet namelijk in het begin van ut2004 het icoontje van nvidia
[ Voor 19% gewijzigd door skelleniels op 09-01-2007 23:11 ]
Betreft Crysis en UT2007: ik heb ook hoge verwachtingen qua performance!
Volgens mij gaan deze next gen titels heel lekker draaien.
Ook gaat de DirectX 10 versie van Crysis bewijzen dat de kaart een DirectX 10 monster is!
Daar heb ik alle vertrouwen in!
[ Voor 74% gewijzigd door Ultraman op 10-01-2007 14:02 ]
over welke 8800 (ja daar gaat toch dit topic overMAX3400 schreef op maandag 08 januari 2007 @ 14:43:
[...]
Denk aan je hart...
Op het moment dat je dit postte, waren de officiele NVidia-drivers voor Vista Build 6000 (en hoger) al op de markt voor gewone stervelingen en niet voor de beta-testers. ...
Please nerf Rock, Paper is fine. Sincerely yours, Scissor.
GW2:Teunis.6427
skelleniels schreef op dinsdag 09 januari 2007 @ 23:10:
[fanboymodus]Zal wel leuk zijn dat die game beter draait dan de ATI. Je ziet namelijk in het begin van ut2004 het icoontje van nvidia[/fanboymodus]
Daarom knalt de vermomde ATI fanboy hem ook meteen stuk in die scene
Specs: http://specs.tweak.to/14936= Nieuwe Spekjes mensen !
Hoezo 'veronderstel', waar baseer je je in vredesnaam op? Zijn er al concrete bewijzen? Er zijn zelfs nog geen téchdemo's verschenen van DirectX10, dus niemand maar dan ook niemand kan hier iets zinnigs over zeggen.Verwijderd schreef op dinsdag 09 januari 2007 @ 19:41:
UT2007 zal zeker goed draaien op nvidia g80, ze zijn al van vorige generaties met nvidia an het werken voor optimalizaties... cryssis weet ik niet, maar ik veronderstel dat nvidia g80 beter op ut2007 zal scoren dan ati r600.
Wel een fanboy-sfeertje hangt hier vind ik maar dat kan aan mij liggen, ik zie ook een héle hoop vragen die niks te maken hebben met de GF8, dus gaan we terug ontopic jongens?
[ Voor 8% gewijzigd door Jejking op 10-01-2007 13:27 ]
Met rond hem de tekst: the way it's meant to be playedPassieWassie schreef op woensdag 10 januari 2007 @ 12:53:
[...]
offtopic:
Daarom knalt de vermomde ATI fanboy hem ook meteen stuk in die scene

Verwijderd
Nee , daarover weten we nog niks inderdaad.Jejking schreef op woensdag 10 januari 2007 @ 13:26:
[...]
Hoezo 'veronderstel', waar baseer je je in vredesnaam op? Zijn er al concrete bewijzen? Er zijn zelfs nog geen téchdemo's verschenen van DirectX10, dus niemand maar dan ook niemand kan hier iets zinnigs over zeggen.
Wel een fanboy-sfeertje hangt hier vind ik maar dat kan aan mij liggen, ik zie ook een héle hoop vragen die niks te maken hebben met de GF8, dus gaan we terug ontopic jongens?
Het is wel allesinds zo , dat het zeer goed moet te draaien zijn DX9 met nvidia kaarten aangezien ze al sinds 2005 bezig zijn met het testen van de kaarten o.a 6800GT/Ultra en 7800GT/GTX en SLI !
Het word dus zeker een nvidia titel. En ik zou me geen zorgen maken volgens mij zijn ze nu ook voor de G80 aan het optimaliseren
Edit : Nog iets zeer intressant.. de R600 & G80
Iedereen juicht juj juj ! De R600 komt eraan en gaat alle kaarten ownen?
Kan zijn met enkele 10-tallen% Maar je moet ook rekening houden , is een G80 niet in staat een spel goed te spelen dan zal een R600 dat ook niet doen ,zelf als is die zoveel sneller.
En dat is hetgeen waarop ik me basseer.. Waarom een R600 kopen 4 maand later? Terwijl ik nu al bijna 3 maanden van mijn kaartje geniet ! Waarom een R600 kopen en weer 200 euro opleggen , is dat nu echt nodig om met 4xAA ipv 6xAA te spelen ? Voor mij in ieder geval niet.
Ik koop een kaart om een tijdje voort te kunnen en wat games te kunnen spelen.
Tegen de tijd dat 1152*867 16xAF niet meer gaat gaat de kaart weg
[ Voor 29% gewijzigd door Verwijderd op 10-01-2007 13:38 ]
Vorig jaar las ik ergens dat een 7900GTX in SLi UT2007 tegen de 50FPS draaide op max quality, probleem is alleen dat er geen details bekend warenVerwijderd schreef op woensdag 10 januari 2007 @ 13:31:
Nee , daarover weten we nog niks inderdaad.
Het is wel allesinds zo , dat het zeer goed moet te draaien zijn DX9 met nvidia kaarten aangezien ze al sinds 2005 bezig zijn met het testen van de kaarten o.a 6800GT/Ultra en 7800GT/GTX en SLI !
Het word dus zeker een nvidia titel. En ik zou me geen zorgen maken volgens mij zijn ze nu ook voor de G80 aan het optimaliseren
Ook dat weet je niet (I WISH we knewEdit : Nog iets zeer intressant.. de R600 & G80
Iedereen juicht juj juj ! De R600 komt eraan en gaat alle kaarten ownen?
Kan zijn met enkele 10-tallen% Maar je moet ook rekening houden , is een G80 niet in staat een spel goed te spelen dan zal een R600 dat ook niet doen ,zelf als is die zoveel sneller.

Ik ben totaal geen fanboy ergens van (ik wissel steeds tussen Nvidia en ATI), maar op dit moment vond ik Nvidia gewoon de beste keus.
Alleen die vista drivers he
The demo of the game we played showed a great potential. The game was running in DirectX 10 mode on 32-bit Vista. The code may still have some infant illnesses but it looks great on a G80, Geforce 8800 GTX, Core 2 duo and it provides 60 FPS+, at almost all times
[ Voor 4% gewijzigd door Ultraman op 10-01-2007 14:14 ]
Als je stil blijft staan, komt de hoek wel naar jou toe.
Verwijderd
1600*1200 mag ik nu nog hopen
[ Voor 7% gewijzigd door Verwijderd op 10-01-2007 14:34 ]
Verwijderd
Het is niet zozeer de vergelijking met die 10% die ik wil maken.Jejking schreef op woensdag 10 januari 2007 @ 13:47:
[...]
Vorig jaar las ik ergens dat een 7900GTX in SLi UT2007 tegen de 50FPS draaide op max quality, probleem is alleen dat er geen details bekend waren![]()
[...]
Ook dat weet je niet (I WISH we knew), die 'tientallen procenten' waren ook maar uit de lucht gegrepen door Level505 (die gasten vertrouw ik niet meer, zero updates
), en dan hebben we het alleen nog maar over DX9, want DX10 is nog niet bekend. Ik ben zeer benieuwd naar het dingetje maar wil nu nog een DX9-tussenkaartje want die X800XL is héél zuur in Call of Juarez
De kaart mag zelf nog 20% sneller zijn.
Hetgeen ik bedoel is dat als de G80 architectuur het niet zal aankunnen (binnen een paar jaar) dan zal volgens mij een R600 dat ook niet kunnen kwa architectuur. Ik spreek hier dus niet over wanneer de kaart uitkomt , maar over bv. volgend jaar. Als je dan een GTX op zijn knieën krijgt zal je dat met een R600 ook doen.
Zelfde met een 7900GTX <-> X1950XTX , laatste is beduidend sneller , maar in nieuwe games liggen ze echt dicht bij elkaar. Dit is wat ik wil zeggen
In dit filmpje zie je crysis op de ces 2007 waar theinq de demo heeft gespeeld.cybersteef schreef op woensdag 10 januari 2007 @ 14:14:
Alleen vermelden ze de resolutie er lekker niet bij om het spannend te houden en de boel lekker te stoken
Op het einde van het filmpje zie je ook de monitor waar het op gespeeld wordt
Verwijderd
Nano2009 schreef op woensdag 10 januari 2007 @ 15:30:
[...]
In dit filmpje zie je crysis op de ces 2007 waar theinq de demo heeft gespeeld.
Op het einde van het filmpje zie je ook de monitor waar het op gespeeld wordt

Zo een scherm man
Zalig !
Edit : Same Uploaderke26.
[ Voor 3% gewijzigd door Verwijderd op 10-01-2007 15:59 ]
Verwijderd
M'n 8800GTX is anders ook nog steeds zuur in CoJ hoor. Niet qua fps offcourse, wel qua artifactsJejking schreef op woensdag 10 januari 2007 @ 13:47:
[...]
[...]
X800XL is héél zuur in Call of Juarez
Maar dat Crysis artikel op The Inq maakt ons dus wel duidelijk dat het goed schijnt te zitten met de G80 drivers voor Vista, en dát maakt me erg blij
Ja ik denk daar anders over, kijk 10% sneller op 20FPS is niéts, dan is het te verwaarlozen en is het onspeelbaar op beide generaties. Maar AMD's aanpak is héél anders dan die van nVidia dus wie weetVerwijderd schreef op woensdag 10 januari 2007 @ 14:37:
Het is niet zozeer de vergelijking met die 10% die ik wil maken.
De kaart mag zelf nog 20% sneller zijn.
Hetgeen ik bedoel is dat als de G80 architectuur het niet zal aankunnen (binnen een paar jaar) dan zal volgens mij een R600 dat ook niet kunnen kwa architectuur. Ik spreek hier dus niet over wanneer de kaart uitkomt , maar over bv. volgend jaar. Als je dan een GTX op zijn knieën krijgt zal je dat met een R600 ook doen.![]()
Zelfde met een 7900GTX <-> X1950XTX , laatste is beduidend sneller , maar in nieuwe games liggen ze echt dicht bij elkaar. Dit is wat ik wil zeggen.
Overigens, de reviews van de laatste tijd die ik lees geven in de nieuwe generatie-games (X3: Reunion, Splinter Cell Double Agent, en nog een paar) dúidelijk aan dat de X19x0 véél beter is dan de 79x0, meestal is het dan X1950XTX512>X1900XTX512>7900GTX>X1900XT256, vooral op hogere reso's
Verwijderd
Verwijderd
X1950XTX512>X1900XTX512>7900GTX>X1900XT256Jejking schreef op woensdag 10 januari 2007 @ 16:12:
[...]
Ja ik denk daar anders over, kijk 10% sneller op 20FPS is niéts, dan is het te verwaarlozen en is het onspeelbaar op beide generaties. Maar AMD's aanpak is héél anders dan die van nVidia dus wie weet
Overigens, de reviews van de laatste tijd die ik lees geven in de nieuwe generatie-games (X3: Reunion, Splinter Cell Double Agent, en nog een paar) dúidelijk aan dat de X19x0 véél beter is dan de 79x0, meestal is het dan X1950XTX512>X1900XTX512>7900GTX>X1900XT256, vooral op hogere reso's
Dat is een feit. Maar 7900GTX daarintegen is gewoon -> goede average meestal beter dan X1950XTX maar in sommige levels minder, veel minder. Zoals SC:DA maar daar komt wel fix voor net als ze voor de 6800GT gedaan hebben dacht ik

Dit is dus wat ik bedoel. Naarmate het zwaarder word.. komen ze praktisch allemaal naast elkaar te liggen. Als je zegt ik koop en verkoop om de 2-3 maanden dan heb je hier niks aan idd
Maar als je op termijn kijkt zie je dat het niet veel uitmaakt als je een G80/R600 koopt
Dat kan ook natuurlijkVerwijderd schreef op woensdag 10 januari 2007 @ 16:17:
7900gtx en 8 serie zijn wel totaal verschillende architecturen eh.mss is de iq van de g80 wel niet beter dan r600 of is de architectuur gewoon beter dan ati's r600. zijn de rollen eens omgekeerd nu.
[ Voor 15% gewijzigd door Verwijderd op 10-01-2007 16:24 ]
Verwijderd
Uiteraard zijn er dx10 drivers beschikbaar, forum mods op het nzone forum hebben duidelijk gezegd dat ze dx10 vista drivers gebruiken nl forceware 100.xx.Verwijderd schreef op woensdag 10 januari 2007 @ 15:57:
[...]
M'n 8800GTX is anders ook nog steeds zuur in CoJ hoor. Niet qua fps offcourse, wel qua artifacts![]()
Maar dat Crysis artikel op The Inq maakt ons dus wel duidelijk dat het goed schijnt te zitten met de G80 drivers voor Vista, en dát maakt me erg blij
En geen tech demo's van dx10? Naast Crysis iedereen al de demo van Alan Wake vergeten die Intel onlangs liet zien?
Hmmm ja Alan Wake heb ik nog niet aan gedacht idd, in de PU laatst rolden de koppen op de grond van verbazing. Weet iemand op wat voor hardware dat draaide? Als het nVidia was, weet je iig dat DX10 bij ze werkt, maar dan nog... heb je geen vergelijkingsmateriaal, en dát zou ik wel graag willen zienaval0ne schreef op woensdag 10 januari 2007 @ 17:29:
[...]
Uiteraard zijn er dx10 drivers beschikbaar, forum mods op het nzone forum hebben duidelijk gezegd dat ze dx10 vista drivers gebruiken nl forceware 100.xx.
En geen tech demo's van dx10? Naast Crysis iedereen al de demo van Alan Wake vergeten die Intel onlangs liet zien?
Verwijderd
Zijn er mensen met ervaringen met een minimum-PSU?
[ Voor 14% gewijzigd door Jorn1986 op 10-01-2007 19:31 ]
Persoonlijk heb ik een Tagan 580Watter, maar dat is enkel en alleen omdat de voeding van mijn keuze (CM iGreen 500W) een onbekende levertijd had en ik mijn pc wel eens binnen wou hebben.
[ Voor 11% gewijzigd door PauseBreak op 10-01-2007 20:03 ]
Nee, merp!
[ Voor 38% gewijzigd door Jorn1986 op 10-01-2007 20:07 ]
Wellicht dat iemand anders je iets meer kan vertellen.
Nee, merp!
profiel van Apple : een 400 watt voeding die maar 18A op de +12 kan leveren?
Werkt (mag ook wel..) prima.
thuis, DAAR waar mijn pc staat..
Had nu net zo'n zin om nog eens halo te spelen
Overigens kost een Cooler Master iGreen Power 430W of 500W nog geen €90,-.Jorn1986 schreef op woensdag 10 januari 2007 @ 20:07:
maar stel nou dat het een voeding is met maar een enkele +12 volt lijn van 28A; hoe zit het dan? Zit je dan een voeding op te blazen met een 8800GTX (omdat de voeding het niet aankan) of houdt zo'n voeding dat wel vol?
Op een kaart van ongeveer €600,- is dat natuurlijk geen al te grote investering
Nee, merp!
Dit topic is gesloten.