Fijn dat je er ons over informeert dat het gewoon speculatie is, dan hebben we in ieder geval weer een 'bevestiging van speculatie'. Food for thought, we horen er later vast meer van
Anoniem: 126513
Alleen DX10 SLI support voor G80 is nog niet daar zie ik.
Wat in niet snap waarom is iemand zo gefrustreerd als het nog niet allemaal werkt of compleet is. nVidia had kunne wachten met de G80 om eerst drivers etc te optimaliseren. Volgnes mij ligt de meeste vertaging aan de kant van microsoft en niet nVidia.
Je kunt je natuurlijk afvragen waar nVidia haar geld in stopt. Daar is wel kritiek op te verzinnen, namelijk wel met veel reclame een kaart op de markt brengen met DX10 support blablabla, etc en vervolgens erg laat zijn met goede driver support. Dus de een heeft een beetje gelijk en de ander ook.
Betreft G81
Waarom zou dit niet een veel snellere kaart kunnen worden dan de G80. De G80 is de eertse GPU van nVidia met een nieuwe architectuur. Dit ontwerp kan dus nog behoorlijk geoptimaliseerd worden. De meeste hebben het over Mhz'en en verhoging daarvan. Kijk eens naar GF6 naar GF7 dat was toch een behoorlijk verbetering van bestaande ontwerp. Zelfs G70 naar G71 was zeker de moeite waard, of niet dan G71 bezitters?
Kleiner procedee, verhoging van core/mem, andere optimalisaties, meer shaders, snellere shaders proccesoren --> wordt niet zomaar 10-20 % beter hoor, wie durft te wedden.
Wat ik interessant vind, de algemene core snelheid bij nVida is verlaagt tov G71gtx. Dit geeft uiteraard weer meer ruimte om te clocken mits toegestaan door ander factoren. Ati gaat meestal steeds hoger in coresnelheid, Ik zie het liever andersom gebeuren, van mij er zoveel mogelijk gedaan worden per clocktik.
Wat in niet snap waarom is iemand zo gefrustreerd als het nog niet allemaal werkt of compleet is. nVidia had kunne wachten met de G80 om eerst drivers etc te optimaliseren. Volgnes mij ligt de meeste vertaging aan de kant van microsoft en niet nVidia.
Je kunt je natuurlijk afvragen waar nVidia haar geld in stopt. Daar is wel kritiek op te verzinnen, namelijk wel met veel reclame een kaart op de markt brengen met DX10 support blablabla, etc en vervolgens erg laat zijn met goede driver support. Dus de een heeft een beetje gelijk en de ander ook.
Betreft G81
Waarom zou dit niet een veel snellere kaart kunnen worden dan de G80. De G80 is de eertse GPU van nVidia met een nieuwe architectuur. Dit ontwerp kan dus nog behoorlijk geoptimaliseerd worden. De meeste hebben het over Mhz'en en verhoging daarvan. Kijk eens naar GF6 naar GF7 dat was toch een behoorlijk verbetering van bestaande ontwerp. Zelfs G70 naar G71 was zeker de moeite waard, of niet dan G71 bezitters?
Kleiner procedee, verhoging van core/mem, andere optimalisaties, meer shaders, snellere shaders proccesoren --> wordt niet zomaar 10-20 % beter hoor, wie durft te wedden.
Wat ik interessant vind, de algemene core snelheid bij nVida is verlaagt tov G71gtx. Dit geeft uiteraard weer meer ruimte om te clocken mits toegestaan door ander factoren. Ati gaat meestal steeds hoger in coresnelheid, Ik zie het liever andersom gebeuren, van mij er zoveel mogelijk gedaan worden per clocktik.
Als nVidia had gewacht, was ATi nóg verder gegaan met het overspoelen van de markt met ATi Radeon X19xx-kaarten. Gewoon een concurrentiekwestie, drivers waren kennelijk wat problematisch maar ik vertrouw erop dat dit de komende maanden rechtgetrokken wordtAnoniem: 126513 schreef op donderdag 01 februari 2007 @ 19:12:
Wat in niet snap waarom is iemand zo gefrustreerd als het nog niet allemaal werkt of compleet is. nVidia had kunne wachten met de G80 om eerst drivers etc te optimaliseren. Volgnes mij ligt de meeste vertaging aan de kant van microsoft en niet nVidia.
Je kunt je natuurlijk afvragen waar nVidia haar geld in stopt. Daar is wel kritiek op te verzinnen, namelijk wel met veel reclame een kaart op de markt brengen met DX10 support blablabla, etc en vervolgens erg laat zijn met goede driver support. Dus de een heeft een beetje gelijk en de ander ook.
De meesten denken inderdaad een speedbump. Ze kunnen óók gewoon wat extra shaders erbij plakken, omdat het verhogen van de shadersnelheid de grootste invloed bleek te hebben op de prestaties... Maar omdat nVidia zelf had gezegd in die slide dat de G80 scalable was tot 1500MHz voor de shaders, denk ik dat G81 meer shaders gaat krijgenBetreft G81
Waarom zou dit niet een veel snellere kaart kunnen worden dan de G80. De G80 is de eertse GPU van nVidia met een nieuwe architectuur. Dit ontwerp kan dus nog behoorlijk geoptimaliseerd worden. De meeste hebben het over Mhz'en en verhoging daarvan.
Wat dacht je van dat die snelheid omlaag is gebracht vanwege het GIGANTISCHE aantal extra transistoren? Dat is bijna 2.5x zoveel, van 278 naar 681 miljoen. Denk je dan écht dat je dezelfde clockspeeds kan aanhouden op hetzelfde (90nm)-productieproces? Denk het niet heWat ik interessant vind, de algemene core snelheid bij nVida is verlaagt tov G71gtx. Dit geeft uiteraard weer meer ruimte om te clocken mits toegestaan door ander factoren. Ati gaat meestal steeds hoger in coresnelheid, Ik zie het liever andersom gebeuren, van mij er zoveel mogelijk gedaan worden per clocktik.
Anoniem: 126513
Nou als kijkt naar de concurrent en de speculatieve 750Mhz of mss wel 814Mhz en zelfs hoger voor de R600 en ook nog eens meer transistoren. Dan zou je toch iets anders kunnen concluderen of niet?
De snelle release is idd een goede stap geweest om de X19x0 produkten te counteren. De X19x0 kaarten zijn ook zeer goed. In het midden gebied en daaronder wat toch wel de grootste afzetmarkt is, is de X1 serie wel erg aantrekkelijk of niet dan? Daar is nog geen G8x voor uitgebracht.
Naar mij idee is het grotendeels campagne/reclame door leider te moeten zijn met 1) de snelste kaart, 2) de eerste dx10 kaart.
Het midden en ook begin high end gebied is in prestatie toch in de handen van ATi, ik zou mijn keus daar naar laten gaan. De G80 is gewoonweg high end en te duur.
Ook zijn slides natuurlijk niet erg toekomstgericht, ze gaan echt niet hun beperkingen weggeven.
De snelle release is idd een goede stap geweest om de X19x0 produkten te counteren. De X19x0 kaarten zijn ook zeer goed. In het midden gebied en daaronder wat toch wel de grootste afzetmarkt is, is de X1 serie wel erg aantrekkelijk of niet dan? Daar is nog geen G8x voor uitgebracht.
Naar mij idee is het grotendeels campagne/reclame door leider te moeten zijn met 1) de snelste kaart, 2) de eerste dx10 kaart.
Het midden en ook begin high end gebied is in prestatie toch in de handen van ATi, ik zou mijn keus daar naar laten gaan. De G80 is gewoonweg high end en te duur.
Ook zijn slides natuurlijk niet erg toekomstgericht, ze gaan echt niet hun beperkingen weggeven.
Ikke niet, als je ook in ogenschouw neemt dat het twee compléét andere architecturen zijn. ATi is niet nVidia en andersom (gelukkig maar, concurrentie rocktAnoniem: 126513 schreef op donderdag 01 februari 2007 @ 20:44:
Nou als kijkt naar de concurrent en de speculatieve 750Mhz of mss wel 814Mhz en zelfs hoger voor de R600 en ook nog eens meer transistoren. Dan zou je toch iets anders kunnen concluderen of niet?
Ja, maar het begin is natuurlijk de performancekroon overnemen, en het liefst ook de IQ-kroon. Als dat eenmaal gelukt is, tettert iedereen zó hard over je dat je nog tijd genoeg hebt om een midrangekaart op de lopende band te krijgen. Het effect van de ''kijk ons eens de beste kaart hebben''-strategie begint nu wat minder te worden, ook vanwege de introductie van ATi met verbeterde midrange én pricedrops waardoor ze aantrekkelijker worden als je kijkt naar Bang For The Buck, en dáár spitst ATi zich nu op. nVidia zet straks gewoon keihard een mooie midrange neer, en legt het initiatief dan weer bij ATi neer om te counteren. Marketing en strategie, moooooooooie dingenDe snelle release is idd een goede stap geweest om de X19x0 produkten te counteren. De X19x0 kaarten zijn ook zeer goed. In het midden gebied en daaronder wat toch wel de grootste afzetmarkt is, is de X1 serie wel erg aantrekkelijk of niet dan? Daar is nog geen G8x voor uitgebracht.
Naar mij idee is het grotendeels campagne/reclame door leider te moeten zijn met 1) de snelste kaart, 2) de eerste dx10 kaart.
Het midden en ook begin high end gebied is in prestatie toch in de handen van ATi, ik zou mijn keus daar naar laten gaan. De G80 is gewoonweg high end en te duur.
Ook zijn slides natuurlijk niet erg toekomstgericht, ze gaan echt niet hun beperkingen weggeven.
Anoniem: 162692
Dit komt ook omdat de R600 geen 90nm is maar waarschijnlijk 65nm zal worden.Anoniem: 126513 schreef op donderdag 01 februari 2007 @ 20:44:
Nou als kijkt naar de concurrent en de speculatieve 750Mhz of mss wel 814Mhz en zelfs hoger voor de R600 en ook nog eens meer transistoren. Dan zou je toch iets anders kunnen concluderen of niet?
De snelle release is idd een goede stap geweest om de X19x0 produkten te counteren. De X19x0 kaarten zijn ook zeer goed. In het midden gebied en daaronder wat toch wel de grootste afzetmarkt is, is de X1 serie wel erg aantrekkelijk of niet dan? Daar is nog geen G8x voor uitgebracht.
Naar mij idee is het grotendeels campagne/reclame door leider te moeten zijn met 1) de snelste kaart, 2) de eerste dx10 kaart.
Het midden en ook begin high end gebied is in prestatie toch in de handen van ATi, ik zou mijn keus daar naar laten gaan. De G80 is gewoonweg high end en te duur.
Ook zijn slides natuurlijk niet erg toekomstgericht, ze gaan echt niet hun beperkingen weggeven.
Vandaar dat we ook een iets moeizamere release hebben met de R600. De clockspeeds zijn lager t.o.v de G71 inderdaad maar de nadruk licht op de shaders die 2x zo snel draaien dan de G71 en dat is een hele prestatie op zich al. En een goede architectuur heeft geen hoger clockspeeds nodig.
Clockspeeds verhogen t.o.v de standaard is een soort rek in de kaart voor een eventuele opvolger van die kaart sneller te maken met de zelfde architectuur , zie G70 -> G70 512 -> G71
De G80 is opzich niet erg duur.. het is gewoon veel geld 550 euro dat is een feit.
Maar een keer die in je bakkie zit heb je er toch geen spijt van. Hetzelfde geld voor een R600 als die uitkomt. Die zal ook een 'startprijs' van 599 kennen dus dat zal respectievelijk rond 650 euro komen te staan als de dollar niet hoog staat t.o.v de euro anders kan het nog wat hoger zijn.
En als de G80 duur is voor zijn geld dan is een R600 dat ook. Want ze hebben beiden een unieke architectuur 'atm'
Edit : IQ speelt inderdaad ook een grote rol zo kan iets met een Goede IQ laat ik bv de 8800GTX t.o.v een 6800GT vergelijken mocht een 6800GT de IQ van een 8800GTX hebben en een 8800GTX die van een 6800GT dan zou een 6800GT zonder AA en AF even mooi zijn als een 8800GTX met 2xAA en 16AF
[ Voor 6% gewijzigd door Anoniem: 162692 op 01-02-2007 22:27 ]
Ik dacht dat R600 80nm is?
/edit
/edit
The latest rumor today revealed R600 R600 : R600 confirmed that the performance of 80nm process about large-scale production, there is no more advanced manufacturing process plans.
[ Voor 79% gewijzigd door XWB op 01-02-2007 22:37 ]
Fabrikanten investeren niet in een productieprocess om vervolgens direct over te gaan op een kleinere. Ati is net begonnen met 80 nm, ik verwacht niet dat de R600 al op 65 nm geproduceerd zal worden.Anoniem: 162692 schreef op donderdag 01 februari 2007 @ 22:26:
Dit komt ook omdat de R600 geen 90nm is maar waarschijnlijk 65nm zal worden.
Hetzelfde geldt voor nVidia, de midrage van de G80 staat geplanned op 80 nm. Ik denk niet nVidia de kans om op 80 nm een verbetering in prestatie t.o.v de G80 met relatief weinig investering te laten zien laat lopen.
Productieprocessen zeggen ook lang niet alles meer als je de toevoegsels niet gebruikt.
Het 80nm proces bestaat uit drie varianten:
1) de normale die-shrink (GT) die zorgt voor zo'n 17% kleinere core
2) de low-power (LP) variant voornamelijk aantrekkelijk voor mobile cores
3) de high speed variant (HS) die zorgt voor een 17% kleinere core en toch hoger klokt dan het origineel
Het 90nm proces waar de G80 en R580 van zijn gemaakt zijn gemaakt op het generieke 90nm + lowk proces. RV560 en RV570 zijn gemaakt op 80nm GT (voor zover ik weet) en R600 zou zijn gemaakt op 80nm HS.
Een G81 in de eerste helft van 2007 op 65nm lijkt mij onwaarschijnlijk gezien het grote aantal transistoren op een nog niet echt geoptimaliseerd proces bij TSMC. Vandaar dat zowel nVidia als AMD met andere (goedkopere, low-risk) chips experimenteren op deze processen. TSMC heeft zelf aangegeven dat pas in de tweede helft van 2007 verwacht ook high end cores te produceren op 65nm Dus een G81 op 65nm in de eerste helft van 2007 lijkt me niet snel gebeuren als je het logisch bekijkt. Een G80 op 80nm HS lijkt me waarschijnlijker.
Verder verwacht ik dat G81 niet meer is dan een snellere geklokte versie van de G80. Extra shaders er in? Misschien wel, maar.... Waar wil je die in stoppen zonder dat de chip groter wordt ondanks het kleiner proces?
Afgaande op de gelekte die-shots van de R600, die naar alle waarschijnlijkheid echt zijn.... Bekijk je die die-shots dan zie je dat een R600 op 80nm kleiner is dan een G80 op 90nm. En wel met 15% (R600 = 720M transistoren op 428mm2 en G80 = 681M transistoren op 496mm2). Een dieshrink naar 80nm zorgt dus voor ongeveer een 17% kleinere GPU. Een G81 op 80nm zou dan 411mm2 groot worden. En dit is een pure dieshrink. Stop je er extra shaders in, dan groeit dat beestje weer. Het voordeel dat nVidia had met kleinere die-sizes is gaat dus verloren aangezien beide dan ongeveer even groot zijn. R600 is dan nog maar zo'n 3 a 4% groter dan G81 en niet 83% zoals G71 dat was tov R580.
Maar goed, nVidia heeft in het verleden al eerder bewezen zeer grillig te zijn:
- NV40 was zeer groot tov R420/R480 (130nm IBM vs 130nm + Lowk TSMC)
- G70 was groter dan R520 (110nm vs 90nm + lowk)
- G71 was veel kleiner dan R580 (90nm + lowk vs 90nm + lowk)
Als ze op de efficiente toer blijven gaan zoals met G71, dan lijkt me dat G81 niets meer is dan een G80 op een kleiner proces die iets hoger geklokt is. Ik denk dat G90 juist de G80 is op 65nm met meer shaders die uit komt eind 2007 en daarmee tegenover R650/R680 staat die ook op 65nm is gemaakt (uit Dave Ortons mond gekomen dat AMD de eerste zou zijn met een high end 65nm product).
Maar goed, die-size zal de meeste mensen een worst wezen. Performance & Features voor de meest aantrekkelijke prijs, daar gaat het ze grotendeels om.
Het 80nm proces bestaat uit drie varianten:
1) de normale die-shrink (GT) die zorgt voor zo'n 17% kleinere core
2) de low-power (LP) variant voornamelijk aantrekkelijk voor mobile cores
3) de high speed variant (HS) die zorgt voor een 17% kleinere core en toch hoger klokt dan het origineel
Het 90nm proces waar de G80 en R580 van zijn gemaakt zijn gemaakt op het generieke 90nm + lowk proces. RV560 en RV570 zijn gemaakt op 80nm GT (voor zover ik weet) en R600 zou zijn gemaakt op 80nm HS.
Een G81 in de eerste helft van 2007 op 65nm lijkt mij onwaarschijnlijk gezien het grote aantal transistoren op een nog niet echt geoptimaliseerd proces bij TSMC. Vandaar dat zowel nVidia als AMD met andere (goedkopere, low-risk) chips experimenteren op deze processen. TSMC heeft zelf aangegeven dat pas in de tweede helft van 2007 verwacht ook high end cores te produceren op 65nm Dus een G81 op 65nm in de eerste helft van 2007 lijkt me niet snel gebeuren als je het logisch bekijkt. Een G80 op 80nm HS lijkt me waarschijnlijker.
Verder verwacht ik dat G81 niet meer is dan een snellere geklokte versie van de G80. Extra shaders er in? Misschien wel, maar.... Waar wil je die in stoppen zonder dat de chip groter wordt ondanks het kleiner proces?
Afgaande op de gelekte die-shots van de R600, die naar alle waarschijnlijkheid echt zijn.... Bekijk je die die-shots dan zie je dat een R600 op 80nm kleiner is dan een G80 op 90nm. En wel met 15% (R600 = 720M transistoren op 428mm2 en G80 = 681M transistoren op 496mm2). Een dieshrink naar 80nm zorgt dus voor ongeveer een 17% kleinere GPU. Een G81 op 80nm zou dan 411mm2 groot worden. En dit is een pure dieshrink. Stop je er extra shaders in, dan groeit dat beestje weer. Het voordeel dat nVidia had met kleinere die-sizes is gaat dus verloren aangezien beide dan ongeveer even groot zijn. R600 is dan nog maar zo'n 3 a 4% groter dan G81 en niet 83% zoals G71 dat was tov R580.
Maar goed, nVidia heeft in het verleden al eerder bewezen zeer grillig te zijn:
- NV40 was zeer groot tov R420/R480 (130nm IBM vs 130nm + Lowk TSMC)
- G70 was groter dan R520 (110nm vs 90nm + lowk)
- G71 was veel kleiner dan R580 (90nm + lowk vs 90nm + lowk)
Als ze op de efficiente toer blijven gaan zoals met G71, dan lijkt me dat G81 niets meer is dan een G80 op een kleiner proces die iets hoger geklokt is. Ik denk dat G90 juist de G80 is op 65nm met meer shaders die uit komt eind 2007 en daarmee tegenover R650/R680 staat die ook op 65nm is gemaakt (uit Dave Ortons mond gekomen dat AMD de eerste zou zijn met een high end 65nm product).
Maar goed, die-size zal de meeste mensen een worst wezen. Performance & Features voor de meest aantrekkelijke prijs, daar gaat het ze grotendeels om.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Gebrekkige drivers zorgen mogelijk voor aanklacht nVidia
Ongelofeloos!Een groep gebruikers van grafische kaarten van nVidia is van plan de fabrikant aan te klagen wegens het ontbreken van goede drivers voor Windows Vista. De kaarten werden destijds verkocht als Vista Ready, maar betrouwbare drivers zijn er nog altijd niet.
Op 31 januari heeft nVidia versie 100.59 van de ForceWare drivers uitgebracht, die dx10 onder Vista zou moeten ondersteunen, maar betrouwbaar werken doen ze niet. Bij sommigen werkt alles prima, maar bij minder gelukkige gebruikers werken bepaalde functies niet of crasht het systeem simpelweg. Nvidia verdedigt zich door te verklaren dat het nog maar bètadrivers zijn, maar veel klanten nemen hier geen genoegen mee. Er was nu eenmaal toegezegd dat de grafische kaarten zouden werken onder Vista en dat doen ze niet. Een enorme thread op het forum van nVidia, waarin massaal geklaagd werd over de slechte drivers, werd door een moderator gesloten met als argument dat er teveel geflamed zou worden.
Volgens een ontevreden gebruiker was dit maar gedeeltelijk waar, en was nVidia de kritiek simpelweg beu. Zelfs mensen die niets fout deden, maar alleen duidelijk vroegen wanneer er bruikbare drivers kwamen, werden geband. Hij heeft inmiddels een eigen site opgericht, waar ontevreden kopers van 'Vista Ready'-videokaarten hun klachten kwijt kunnen. Zijn uiteindelijke doel is om een groepsproces tegen nVidia aan te spannen om schadevergoeding te krijgen wegens de niet-nagekomen toezeggingen. Hij hoopt overigens dat nVidia het niet zover zal laten komen en een datum zal noemen wanneer de uiteindelijke, stabiele versie van de drivers zal worden uitgebracht. Nvidia wilde nog geen commentaar op de zaak geven.
Anoniem: 107573
Mja ik val dus onder de categorie waar alles probleemloos werkt blijkbaar
Het is wel schandalig van nVidia dat zij de échte enthousiastelingen ( 8800 SLI ) zo nadrukkelijk in de kou laat staan.
Dan zou ik ook pissig worden ja.
Edit: en wie zegt dat alles aan de GPU drivers ligt? Het kan best zo zijn dat Vista lastig doet door toedoen van drivers van derden of zo.
Ik zou niet weten wat voor problemen er zouden moeten zijn met mensen die een Nforce 4 systeem draaien icm met 8800. En dat zijn er denk ik tóche wel aardig wat.
Het is wel schandalig van nVidia dat zij de échte enthousiastelingen ( 8800 SLI ) zo nadrukkelijk in de kou laat staan.
Dan zou ik ook pissig worden ja.
Edit: en wie zegt dat alles aan de GPU drivers ligt? Het kan best zo zijn dat Vista lastig doet door toedoen van drivers van derden of zo.
Ik zou niet weten wat voor problemen er zouden moeten zijn met mensen die een Nforce 4 systeem draaien icm met 8800. En dat zijn er denk ik tóche wel aardig wat.
[ Voor 39% gewijzigd door Anoniem: 107573 op 04-02-2007 21:36 ]
Zoals ik in het 8800GTX/GTS topic ook al zei vind ik het toch wel een typisch Amerikaanse manier van reageren.
Heb gewoon wat meer geduld, het is een compleet nieuwe architectuur én een compleet nieuw OS met een nieuw drivermodel. Dat kan wel even duren en dat het dan niet fijn is dat het niet 100% werkt snap ik, maar blijf dan gewoon wat langer bij XP. Doe ik ook, ook al kan ik wel begrijpen waarom mensen graag Vista zouden willen gebruiken (nieuwste van het nieuwste etc).
Als ik trouwens naar die site ga wordt aangeraden om een foto op te sturen van de doos waarop staat "Vista Certified". Op mijn XFX doos staat nérgens ook maar een melding van Vista. Echter is er wel een "Designed for Windows XP" afbeelding te vinden.
Zal zeker wel iets zijn dat enkel in de VS zo is gemarket?
Heb gewoon wat meer geduld, het is een compleet nieuwe architectuur én een compleet nieuw OS met een nieuw drivermodel. Dat kan wel even duren en dat het dan niet fijn is dat het niet 100% werkt snap ik, maar blijf dan gewoon wat langer bij XP. Doe ik ook, ook al kan ik wel begrijpen waarom mensen graag Vista zouden willen gebruiken (nieuwste van het nieuwste etc).
Als ik trouwens naar die site ga wordt aangeraden om een foto op te sturen van de doos waarop staat "Vista Certified". Op mijn XFX doos staat nérgens ook maar een melding van Vista. Echter is er wel een "Designed for Windows XP" afbeelding te vinden.
Zal zeker wel iets zijn dat enkel in de VS zo is gemarket?
[ Voor 7% gewijzigd door PauseBreak op 04-02-2007 21:45 ]
Nee, merp!
Anoniem: 107573
http://www.firingsquad.co...ia_forceware_performance/
Eindelijk die langverwachte Forceware performance tests onder Vista.
En het ziet er niet best uit eerlijk gezegd.
Als ik naar mezelf kijk, ik speel alleen BF2 en 2142 en nog wat andere games die niet in die tests zijn opgenomen, dan vindt ik het nog wel meevallen. Ik bedoel of je nou 120fps of 80fps haalt. Games als Titan Quest en Flatout 2 bijv. spelen met bijne dezelfde fps als onder XP.
Maar als ik daar zie dat COD2 niet eens opstart en HL2: Lost Coast gewoon een halvering in het aantal fps laat zien, dan zet mij dat toch wel aan het denken.
Ben ik dan tóch weer te gretig geweest en te snel op Vista overgestapt?
Eindelijk die langverwachte Forceware performance tests onder Vista.
En het ziet er niet best uit eerlijk gezegd.
Als ik naar mezelf kijk, ik speel alleen BF2 en 2142 en nog wat andere games die niet in die tests zijn opgenomen, dan vindt ik het nog wel meevallen. Ik bedoel of je nou 120fps of 80fps haalt. Games als Titan Quest en Flatout 2 bijv. spelen met bijne dezelfde fps als onder XP.
Maar als ik daar zie dat COD2 niet eens opstart en HL2: Lost Coast gewoon een halvering in het aantal fps laat zien, dan zet mij dat toch wel aan het denken.
Ben ik dan tóch weer te gretig geweest en te snel op Vista overgestapt?
Anoniem: 135195
Interessant. En niet leuk, want vanavond ga ik eindelijk Vista op m'n nieuwe computer installeren.
Maar zoals je al zegt: het blijven cijfers die ver boven het speelbare minimum liggen wat mij betreft. CoD2 is wel vreemd en jammer want die wilde ik kopen, maar... ze zeggen niet duidelijk erbij dat het door de drivers komt. Ja, dat lijkt er wel op maar ze zeggen het niet zo duidelijk. En ach, ik weet zeker dat over een tijdje alweer betere drivers uit zullen komen.
Ik ben eerlijk gezegd eigenlijk veel meer benieuwd naar DX10 tests en games...!
Ik ben eerlijk gezegd eigenlijk veel meer benieuwd naar DX10 tests en games...!
Wat belet je om te dual booten xp-vista en COD2 in xp te spelen?
Anoniem: 107573
Yep, ik overweeg toch serieus weer om XP ernaast te gaan zetten ja, voor het geval dat.
[ Voor 21% gewijzigd door Anoniem: 107573 op 07-02-2007 13:26 ]
Anoniem: 135195
Ik heb geen legale XP hier liggen.aval0ne schreef op woensdag 07 februari 2007 @ 13:06:
Wat belet je om te dual booten xp-vista en COD2 in xp te spelen?
Goed nieuws voor nVidia gebruikers!
nVidia gaat het goede voorbeeld van ATI/AMD volgen en elke maand officiele nieuwe WHQL Forceware drivers releasen. Daarnaast zullen ze, net als ATI/AMD, ook eventueel hotfixes releasen wanneer dit nodig is bij een populaire game die niet goed werkt.
nVidia gaat het goede voorbeeld van ATI/AMD volgen en elke maand officiele nieuwe WHQL Forceware drivers releasen. Daarnaast zullen ze, net als ATI/AMD, ook eventueel hotfixes releasen wanneer dit nodig is bij een populaire game die niet goed werkt.
Bron: http://www.pcper.com/article.php?aid=357NVIDIA told me that they planning to start releasing a new version of their Forceware driver for Vista at least once every month. I say at least because Diercks said that if they find several game fixes or bugs that are substantial they may have intermittent releases as well to help appease the gaming masses. This move is very similar to the driver development cycle that ATI’s Catalyst drivers have been in for a couple of years now, with updates about once a month. Having this type of regular schedule should help NVIDIA users feel more at ease about their purchases knowing that a fixed time length is ahead of them to await another software release that could address whatever issue that ails them.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 107573
Natuurlijk is dit een goede zaak.
En dan maar hopen dat ze ook daadwerkelijk regelmatig met hofixes komen.
Want de laatste keer dat ik een Ati kaart had ( X800XT PE, ja ja, is lang geleden ) was mijn Battlefield 2 probleem na 3 maandelijke drivers nog steeds niet verholpen.
Dan heb ik liever een paar keer per maand een niewe beta. Maar ok, als ze hun woord nakomen is het prima
En dan maar hopen dat ze ook daadwerkelijk regelmatig met hofixes komen.
Want de laatste keer dat ik een Ati kaart had ( X800XT PE, ja ja, is lang geleden ) was mijn Battlefield 2 probleem na 3 maandelijke drivers nog steeds niet verholpen.
Dan heb ik liever een paar keer per maand een niewe beta. Maar ok, als ze hun woord nakomen is het prima
goeie zaak, maar doe mij maar eerst fatsoenlijke drivers voor vista
Ik weet niet of de mensen de pricewatch hebben gevolgd trouwens; maar ik zag net ineens deze kaart voorbij komen: Club 3D GeForce 8800 GTS 320MB DDR3. Wie gaat de eerste zijn? 
Denk dat nVidia weer een prijsknallertje heeft met deze kaart, tijd zal het leren!
Denk dat nVidia weer een prijsknallertje heeft met deze kaart, tijd zal het leren!
CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600
Die hotfixes zijn meer workarounds neem ik dan aan? An sich zou de gameontwikkelaar de fouten er moeten uithalen ipv alles doorschuiven naar de videokaart fabrikant. CS:S werkte ook niet goed onder een 8800 terwijl dat echt bij Valve lag (maar nVidia kreeg wel de schuld).CJ schreef op donderdag 08 februari 2007 @ 14:41:
Goed nieuws voor nVidia gebruikers!
nVidia gaat het goede voorbeeld van ATI/AMD volgen en elke maand officiele nieuwe WHQL Forceware drivers releasen. Daarnaast zullen ze, net als ATI/AMD, ook eventueel hotfixes releasen wanneer dit nodig is bij een populaire game die niet goed werkt.
[...]
Bron: http://www.pcper.com/article.php?aid=357
Enkel voor Vista ?of their Forceware driver for Vista at least once every month.

We hebben al zo'n kaart getestSgtStrider schreef op vrijdag 09 februari 2007 @ 12:38:
Ik weet niet of de mensen de pricewatch hebben gevolgd trouwens; maar ik zag net ineens deze kaart voorbij komen: Club 3D GeForce 8800 GTS 320MB DDR3. Wie gaat de eerste zijn?
Denk dat nVidia weer een prijsknallertje heeft met deze kaart, tijd zal het leren!
[ Voor 32% gewijzigd door XWB op 09-02-2007 12:54 ]
Maandag pas? Hij is nu al af te halen... wat een vage NDAHacku schreef op vrijdag 09 februari 2007 @ 12:46:
[...]
We hebben al zo'n kaart getestMaandag om 15h vervalt het NDA en dan zullen overal reviews opduiken
CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600
12/02 is de officiële launch, dat shops hem al eerder verkopen zou normaal niet mogen maar goed. Performance is iig erg goed
Op een paar games na doet hij amper onder voor de 640MB versie.
[ Voor 20% gewijzigd door XWB op 09-02-2007 13:05 ]
Daar denk ik echt anders over. Imo is het in eerste instantie een gezamenlijke verantwoording beiden hebben daar belang bij.Hacku schreef op vrijdag 09 februari 2007 @ 12:46:
[...]
Die hotfixes zijn meer workarounds neem ik dan aan? An sich zou de gameontwikkelaar de fouten er moeten uithalen ipv alles doorschuiven naar de videokaart fabrikant. CS:S werkte ook niet goed onder een 8800 terwijl dat echt bij Valve lag (maar nVidia kreeg wel de schuld).
Op het moment dat er een fout in een zeer veel gespeeld spel als HL2 zit, dan vindt ik het niet kunnen dat NVIDIA, die dat ongetwijfeld weet, een (zeer dure) kaart lanceert zonder dit te melden....

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
nVidia kan het melden (kan me niet inbeelden dat ze dat niet doen), wat als ze daar bij Valve niks met doen? Of pas achteraf willen fixen?
Dan kun je er voor kiezen de kaart niet te kopen. Nu zijn er een hoop mensen (die nog steeds veel CS spelen) geweest die hun vorige kaart verkocht hebben waarmee ze perfect CS speelden en opeens een zeer dure highend kaart hebben waarmee ze dat niet meer kunnen.Hacku schreef op vrijdag 09 februari 2007 @ 17:32:
nVidia kan het melden (kan me niet inbeelden dat ze dat niet doen), wat als ze daar bij Valve niks met doen? Of pas achteraf willen fixen?
Het zal misschien in de driverreleasenotes gestaan hebben, die NVIDIA sowieso behoorlijk wegmoffeld op de downloadpage, maar ik vind dat de manier waarop nvidia deze kaart gelanceerd heeft niet kunnen want dit was niet het enige probleem.
Je mag toch echt verwachten dat een paar jaar oude zeer veel gespeelde game goed loopt op een nieuwe highend kaart.
Het gaat me er hier niet om om nvidia aan de schandpaal te nagelen, maar wel om duidelijk te stellen dat een videokaartfabrikant imo ook verantwoordelijkheden heeft die nvidia bij de G80 serie duidelijk niet nagekomen is.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Kan ik dat nieuwe control panel uitzetten en gewoon de klassieke gebruiken? Met die nieuwe kan ik niet eens m'n TV-out fatsoenlijk instellen
. En onder Vista zijn geen drivers met de oude control panel
.
Edit: Na een beetje rondlezen lees ik dat TV-out bij bijna niemand goed werkt onder Vista. Wat een stumperds bij nVidia
.
Edit: Na een beetje rondlezen lees ik dat TV-out bij bijna niemand goed werkt onder Vista. Wat een stumperds bij nVidia
[ Voor 23% gewijzigd door MarcoC op 09-02-2007 22:00 ]
effe een vraagje
Zijn er mensen hier die ervaring hebben met Vista icm. een 7800GS AGP?
Standaard ondersteund/redelijke prestaties?
Of dikke bagger?
Zijn er mensen hier die ervaring hebben met Vista icm. een 7800GS AGP?
Standaard ondersteund/redelijke prestaties?
Of dikke bagger?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Die hem eerder verkopen of info openbaar maken worden ook heus wel gestraft. Geen allocatie meer van kaarten bij de volgende launch, etc.Hacku schreef op vrijdag 09 februari 2007 @ 13:04:
12/02 is de officiële launch, dat shops hem al eerder verkopen zou normaal niet mogen maar goed. Performance is iig erg goedOp een paar games na doet hij amper onder voor de 640MB versie.
Wat jammer is, is dat we niet goed weten wat de invloed van DX10 op het geheugengebruik van videokaarten zal zijn. Misschien hebben DX10 games wel heel veel videomem nodig.
Straks presteert die GTS 320 in XP/ DX9 als een beest, en heeft ie in DX10 games te weinig geheugen...
Dat zou balen zijn...
Straks presteert die GTS 320 in XP/ DX9 als een beest, en heeft ie in DX10 games te weinig geheugen...

Dat zou balen zijn...
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik heb vorige week voor het eerst sinds jaren weer een nVidia kaart (7600GS AGP). Ik draai Vista en heb de laatste drivers gedownload, maar dat control panel vind ik wel extreem karig. Zelfs met alle geavanceerde opties aan kan ik nog maar weinig instellen
Toen ik een Ti4200 had onder XP zat daar best een uitgebreid control panel bij, maar nu lijkt het net of er van alles mist. IEmand een idee of je dat oude control panel ook onder Vista kunt krijgen? Of een alternatief tooltje?
klopt ben het met je eens, heb hier een 8800gts met de nieuwste drivers, ook bij mij zijn die controlpanel functies gaar. welk tooltje is er op terug te switchen naar het oude menu ? Ik kan bijvoorbeeld niet eens zien hoeveel mem me kaart heeft en wat de temps zijn, ook werkt coolbits 2.0 niet in vista.
Anoniem: 126513
Tja vista is nog erg nieuw, dus daar zal qwa compatibilteits functies nog wel het een en ander aan mankeren. Je hebt geen optie om het klassieke nVidia menu terug te krijgen onder vista?
Idd heeft nVidia nog wel wat nagelaten bij de release van G80. Toch is het ook wel gedeeltelijk te verwachten. Omdat de kaart zowel voor DX9 als DX10 moet werken en onder het nieuwe vista. Ook is de architectuur dus erg nieuw. Zo zullen ze bij ATi ook wel hun problemen krijgen. Ook in het verleden zijn er genoeg problemen van ergernis geweest en zal ook wel zo blijven.
Kan niet anders doen als wachten op iets beters en achter hun kont aan gaan en klagen.
Idd heeft nVidia nog wel wat nagelaten bij de release van G80. Toch is het ook wel gedeeltelijk te verwachten. Omdat de kaart zowel voor DX9 als DX10 moet werken en onder het nieuwe vista. Ook is de architectuur dus erg nieuw. Zo zullen ze bij ATi ook wel hun problemen krijgen. Ook in het verleden zijn er genoeg problemen van ergernis geweest en zal ook wel zo blijven.
Kan niet anders doen als wachten op iets beters en achter hun kont aan gaan en klagen.
haha klopt ben ik met je eens. Ik ga ze alleen niet lopen spammen
straks worden ze nog zenuwachtig daar. We zien vanzelf wel weer goede drivers komen voor vista en goede tooltjes voor het clocken. Momenteel is het allemaal nog in de ''baby'' fase van het bestaan
Klopt!MarcoC schreef op vrijdag 09 februari 2007 @ 21:54:
Kan ik dat nieuwe control panel uitzetten en gewoon de klassieke gebruiken? Met die nieuwe kan ik niet eens m'n TV-out fatsoenlijk instellen. En onder Vista zijn geen drivers met de oude control panel
.
Edit: Na een beetje rondlezen lees ik dat TV-out bij bijna niemand goed werkt onder Vista. Wat een stumperds bij nVidia.
Ik zit hier ook me te kloten. Ik heb tv-out nu draaiend, maar het zijn zwart wit beelden... De standaard MS driver geeft wel gekleurd beeld, maar daarbij kan ik natuurlijk weer niks anders instellen..

nV Tray Tools.Palomar schreef op zondag 11 februari 2007 @ 11:34:
IEmand een idee of je dat oude control panel ook onder Vista kunt krijgen? Of een alternatief tooltje?
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik kan nergens vinden dat dat onder vista werkt...Ik ben nu niet thuis, maar ik heb er niet veel vertrouwen in..
* endness gaat weer terug naar XP
Vista is zowieso overbodig totdat er DX10 games of patches voor games zijn imho. Tenminste voor mij.
En als ik zie hoeveel games en wat voor games er de laatste tijd uitgekomen zijn dan kom ik snel tot de conclusie dat je geen G80 of R600 nodig hebt op dit moment, of misschien zelfs wel de komende 6 maanden.
Ik speel alleen maar CSS omdat er verder niks is wat me nog boeit. Er komen helemaal geen mooie games uit de laatste maanden!!!
En als ik zie hoeveel games en wat voor games er de laatste tijd uitgekomen zijn dan kom ik snel tot de conclusie dat je geen G80 of R600 nodig hebt op dit moment, of misschien zelfs wel de komende 6 maanden.
Ik speel alleen maar CSS omdat er verder niks is wat me nog boeit. Er komen helemaal geen mooie games uit de laatste maanden!!!

[ Voor 116% gewijzigd door Format-C op 12-02-2007 16:45 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
ik gebruik mijn pc ook voor andere dingen dan games.RappieRappie schreef op maandag 12 februari 2007 @ 16:41:
Vista is zowieso overbodig totdat er DX10 games of patches voor games zijn imho. Tenminste voor mij.
Tja, en daar heb je Vista voor NODIG?
Wat heb je nodig in Vista dat niet in XP zit dan?
Wat heb je nodig in Vista dat niet in XP zit dan?
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 45135
Werkt perfect hoor, 7800GS is geen kattepis..XanderDrake schreef op zaterdag 10 februari 2007 @ 18:29:
effe een vraagje
Zijn er mensen hier die ervaring hebben met Vista icm. een 7800GS AGP?
Standaard ondersteund/redelijke prestaties?
Of dikke bagger?
Anoniem: 162692
6 maartRappieRappie schreef op maandag 12 februari 2007 @ 16:41:
Vista is zowieso overbodig totdat er DX10 games of patches voor games zijn imho. Tenminste voor mij.
En als ik zie hoeveel games en wat voor games er de laatste tijd uitgekomen zijn dan kom ik snel tot de conclusie dat je geen G80 of R600 nodig hebt op dit moment, of misschien zelfs wel de komende 6 maanden.
Ik speel alleen maar CSS omdat er verder niks is wat me nog boeit. Er komen helemaal geen mooie games uit de laatste maanden!!!
De dag waarop iedereen wacht , STALKER
Mooiere graphics dan Half life 2 , X-RAY engine? Prachtige natuurverschijnselen
Atm.. is er niks uit.. nog paar weekjes geduld
I GoT Retired
Ik ga de eerstkomende tijd stoppen met GoT. Degene die de wil en de tijd vrij kan maken om dit topic over te nemen, kan zich aanmelden bij één van de mods hier. Verwijs naar deze post, dan zien ze dat ik officieel toestemming geef en dit topic overdraag aan degene die wilt. Maak er wat moois van!
Ik ga de eerstkomende tijd stoppen met GoT. Degene die de wil en de tijd vrij kan maken om dit topic over te nemen, kan zich aanmelden bij één van de mods hier. Verwijs naar deze post, dan zien ze dat ik officieel toestemming geef en dit topic overdraag aan degene die wilt. Maak er wat moois van!
[ Voor 5% gewijzigd door Jejking op 13-02-2007 15:04 ]
Is stalker directx 10 dan?Anoniem: 162692 schreef op dinsdag 13 februari 2007 @ 12:10:
[...]
6 maart![]()
De dag waarop iedereen wacht , STALKER![]()
Mooiere graphics dan Half life 2 , X-RAY engine? Prachtige natuurverschijnselen![]()
Atm.. is er niks uit.. nog paar weekjes geduld
Dat dacht ik ook ja. Dus voorlopig nog steeds geen dx10 game.Hacku schreef op dinsdag 13 februari 2007 @ 15:29:
Nee, x-ray is gewoon DX9.
[offtopic] Die air kunnen ze niet aannemen, vista only... zou wat zijn, de ontwikkelingen begonnen toen 98se hot was...
[/offtopic]

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Anoniem: 162692
Jap DX9 maar wel zalig hoorHacku schreef op dinsdag 13 februari 2007 @ 15:29:
Nee, x-ray is gewoon DX9.
Zojuist begonnen met het proberen van Windows Vista. Nu ben is gedwongen de nieuwe user interface te gebruiken van de Nvidia drivers
. Vind deze nieuwe interface erg onduidelijk en het lijkt wel alsof er tig functies uit zijn gehaald of die zijn heel erg goed verstopt.
Weet iemand bijvoorbeeld of je ergens nog de over/underscan van je tv-out kan aanpassen? En of hotkeys (sneltoetsen) nog steeds kunnen worden ingesteld. Dit waren voor mij namelijk onmisbare functies in de "oude" XP drivers.
Weet iemand bijvoorbeeld of je ergens nog de over/underscan van je tv-out kan aanpassen? En of hotkeys (sneltoetsen) nog steeds kunnen worden ingesteld. Dit waren voor mij namelijk onmisbare functies in de "oude" XP drivers.
Anoniem: 107573
Dit wist je van te voren. Ik kan begrijpen dat je de oude interface prettiger vondt werken, ik ook, maar ik vrees dat je er toch aan zult moeten wennen indien je Vista wilt blijven gebruiken.
idd...op zowat ieder forum hebben ze het wel over de (in)compabiliteit van vista....Anoniem: 107573 schreef op woensdag 14 februari 2007 @ 14:36:
Dit wist je van te voren.
snap niet dat er nog mensen zijn die hem installeren, om vervolgens te gaan klagen....(driver)problemen zijn nagenoeg allemaal bekend
dat de nieuwe interface onder vista ook ruk is, is ook allang bekend....had je allemaal al kunnen weten vóórdat je vista installeerde
[ Voor 15% gewijzigd door Mr. Detonator op 14-02-2007 14:43 ]
Anoniem: 107573
De niewe 100.64 drivers hebben weer een klein aantal verbeteringetjes. Stapje voor stapje komt het wel denk ik.
Maar de oude interface zullen we niet meer terug gaan zien.
Maar de oude interface zullen we niet meer terug gaan zien.
Het gaat mij er niet om dat hij ruk is (dat wist ik ook wel toen de nieuwe interface in XP drivers kwam, maar deze hoefte ik niet te gebruiken), het ging me meer om een aantal functies die ik niet kan vinden.
Functies die ik zoek zijn hotkeys (sneltoetsen) en overscan/underscan correctie.
Iemand deze al gevonden?
Functies die ik zoek zijn hotkeys (sneltoetsen) en overscan/underscan correctie.
Iemand deze al gevonden?
TV out werkt niet dus doe geen moeite.Erik070 schreef op woensdag 14 februari 2007 @ 14:49:
Het gaat mij er niet om dat hij ruk is (dat wist ik ook wel toen de nieuwe interface in XP drivers kwam, maar deze hoefte ik niet te gebruiken), het ging me meer om een aantal functies die ik niet kan vinden.
Functies die ik zoek zijn hotkeys (sneltoetsen) en overscan/underscan correctie.
Iemand deze al gevonden?
Bedoel je bepaalde functies van TV-out? Want ik kan het beeld naar me TV klonen, of alleen me TV als beeldscherm instellen (wat in mijn woordenboek TV-out is).
Maar ik begrijp eigenlijk uit deze reacties dat de drivers nog lang niet klaar zijn voor Vista, (ondanks dat er al een WHQL versie uit is).
Maar ik begrijp eigenlijk uit deze reacties dat de drivers nog lang niet klaar zijn voor Vista, (ondanks dat er al een WHQL versie uit is).
[ Voor 31% gewijzigd door Erik070 op 14-02-2007 15:01 . Reden: toevoeging ]
Om even dit topic nieuw leven in te blazen (jaja, concurreren met dat andere topic is lastig
):
Het is hoogstwaarschijnlijk dat nVidia zijn 8600-series gaat uitstellen, en zelfs praktisch zeker dat ze niet voor april/mei in de winkels liggen, waar dan ook. The Source had gezegd dat hij nog nergens devkits van de GeForce 8600 had geroken, en dat geeft al aan hoe het zit...
ATi/AMD stelt de R600 uit (zogezegd om een 'hele' lineup neer te kunnen zetten met launch), maar ook nVidia volgt hierin dus. Aftasten en doorprikken zeggen ze dan!
Het is hoogstwaarschijnlijk dat nVidia zijn 8600-series gaat uitstellen, en zelfs praktisch zeker dat ze niet voor april/mei in de winkels liggen, waar dan ook. The Source had gezegd dat hij nog nergens devkits van de GeForce 8600 had geroken, en dat geeft al aan hoe het zit...
ATi/AMD stelt de R600 uit (zogezegd om een 'hele' lineup neer te kunnen zetten met launch), maar ook nVidia volgt hierin dus. Aftasten en doorprikken zeggen ze dan!
Hoogstwaarschijnlijk willen ze er zeker van zijn dat ze de kroon in het middensegment winnen. Omdat daar veel geld zit.
Als ze NU de mid-end kaarten releasen, geeft dat ATi de gelegenheid om te counteren en een betere mid-end kaart te brengen zodat ze daar veel marktaandeel (af)pakken.
Ik neem aan dat nV dat niet wil.
Ze willen vast een kaart a la 6600GT hebben om te concurreren.
Nu hebben ze meer tijd om te optimaliseren en/of uit te proberen.
Was er trouwens al gemeld dat nV waarschijnlijk ook met DX10 kaarten op AGP komen?
http://www.theinquirer.net/default.aspx?article=37790
(Hier nog wat G86 info:
http://www.theinquirer.net/default.aspx?article=37203 )
Als ze NU de mid-end kaarten releasen, geeft dat ATi de gelegenheid om te counteren en een betere mid-end kaart te brengen zodat ze daar veel marktaandeel (af)pakken.
Ik neem aan dat nV dat niet wil.
Nu hebben ze meer tijd om te optimaliseren en/of uit te proberen.
Was er trouwens al gemeld dat nV waarschijnlijk ook met DX10 kaarten op AGP komen?
http://www.theinquirer.net/default.aspx?article=37790
The AGP version is possible due to the fact that G84 chips are pin-to-pin compatible with Geforce 6600 and 7600, so there were no modifications required in order that AGP market gets its DirectX 10 card.
(Hier nog wat G86 info:
http://www.theinquirer.net/default.aspx?article=37203 )
[ Voor 50% gewijzigd door Format-C op 22-02-2007 18:34 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Het is al een keertje eerder voorbijgekomen (helaas in het verkeerde topic :+v), maar The Inq maakt ook nu melding van het feit dat er waarschijnlijk geen G81 komt en dat nV meteen doorgaat naar G90 in de tweede helft van het jaar. G90 zou een 65nm versie zijn van de G80 en eventueel ruimte kunnen bieden aan een volledige 512-bit memory interface:
http://uk.theinquirer.net/?article=37791
Zou het dan toch waar zijn? Of leest The Inq ook mee op GoT?
http://uk.theinquirer.net/?article=37791
Zou het dan toch waar zijn? Of leest The Inq ook mee op GoT?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik ben blij dat er geen G81 komt.
Als nV wel een G81 zou releasen zouden de kaarten elkaar veel te snel opvolgen en dat zou dat op zich redelijk consumentonvriendelijk zijn. Naar mijn mening.
Misschien kunnen ze zich nu beter focussen op het verbeteren van bepaalde dingen van bestaande produkten, en op het mid-end segment.
De G80 is snel zat, en ik neem aan dat met goeie drivers de G80 alle(DX10) games wel zou kunnen draaien op hoge reso's en settings totdat de G90 later dit jaar klaar is.
Als nV wel een G81 zou releasen zouden de kaarten elkaar veel te snel opvolgen en dat zou dat op zich redelijk consumentonvriendelijk zijn. Naar mijn mening.
Misschien kunnen ze zich nu beter focussen op het verbeteren van bepaalde dingen van bestaande produkten, en op het mid-end segment.
De G80 is snel zat, en ik neem aan dat met goeie drivers de G80 alle(DX10) games wel zou kunnen draaien op hoge reso's en settings totdat de G90 later dit jaar klaar is.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
G80 is toch al bijna weer een half jaar uit. Zou juist goed zijn alst ze meer druk uit gaan voeren op de concurrent.RappieRappie schreef op donderdag 22 februari 2007 @ 19:58:
Ik ben blij dat er geen G81 komt.
Als nV wel een G81 zou releasen zouden de kaarten elkaar veel te snel opvolgen en dat zou dat op zich redelijk consumentonvriendelijk zijn. Naar mijn mening.
Misschien kunnen ze zich nu beter focussen op het verbeteren van bepaalde dingen van bestaande produkten, en op het mid-end segment.
De G80 is snel zat, en ik neem aan dat met goeie drivers de G80 alle(DX10) games wel zou kunnen draaien op hoge reso's en settings totdat de G90 later dit jaar klaar is.
Na de 6800GT en Ultra ging het ook niet zo snel dacht ik. Die hebben ook een jaar lang samen met de X800/X850 serie de high end markt gedomineerd zonder refresh of whatsoever.
Edit; en aan een snellere kaart dan een 8800 is nog helemaal geen behoefte imho.
Edit; en aan een snellere kaart dan een 8800 is nog helemaal geen behoefte imho.
[ Voor 20% gewijzigd door Format-C op 22-02-2007 20:36 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Denk dat hier zeker wel een behoefte aan is! Misschien nu wat minder, maar genoeg mensen zoals ik zouden graag wat meer FPS zien in 2560x1600RappieRappie schreef op donderdag 22 februari 2007 @ 20:19:
Edit; en aan een snellere kaart dan een 8800 is nog helemaal geen behoefte imho.
CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600
Met kijk naar de toekomst? Crysis zal de 8800 al niet meer (vloeiend) op alle eyecandy meer kunnen draaien, zelfs niet op menselijke resoluties, bovendien zou ik met een 8800 nog wel over 2 jaar Call of Duty 5 e.d.(Battlefield 4 of whatever) op 1024×768 willen kunnen draaien met graphic options op med/high en dan minstens 60 fps, maar dat gaat al niet meer lukken..RappieRappie schreef op donderdag 22 februari 2007 @ 20:19:
Na de 6800GT en Ultra ging het ook niet zo snel dacht ik. Die hebben ook een jaar lang samen met de X800/X850 serie de high end markt gedomineerd zonder refresh of whatsoever.
Edit; en aan een snellere kaart dan een 8800 is nog helemaal geen behoefte imho.
i7 8700K + Mugen 5 @ 4,6GHz // 16GB @ DDR4-3730 CL17 // AsRock Z370 Extreme 4 // GTX1060
http://downloads.guru3d.com/download.php?det=1591
ForceWare Vista 101.41 (64-bit)
http://downloads.guru3d.com/download.php?det=1590
ForceWare Vista 101.41 (32-bit)
Key Bug Fixes:
Brief corruption (flickering, boxes) on screen at Windows Vista login, CTR-ALT-DEL (Task Manager), or other function that requires Vista User Account Control
Playback issues when playing TV/DVD/video in Media Center with Aero enabled
Outputting via TV-Out shows only a black and white display
HDTV output does not keep HDTV resolution after restart
Adjusting Video Color settings from the NVIDIA Control Panel are not getting applied.
Change Flat Panel Scaling page does not correctly work in the NVIDIA Control Panel.
Brightness, Contrast and Gamma values remain the same in Adjust Desktop Color settings once closing and opening the NVIDIA Control Panel.
Corruption on DVI monitor while going to hibernation from standby
Call of Duty 2 has no performance gain when SLI is enabled
Madden NFL 07 while playing the screen will freeze, but the game will continue to run and you hear the in-game sounds.
ForceWare Vista 101.41 (64-bit)
http://downloads.guru3d.com/download.php?det=1590
ForceWare Vista 101.41 (32-bit)
Key Bug Fixes:
Brief corruption (flickering, boxes) on screen at Windows Vista login, CTR-ALT-DEL (Task Manager), or other function that requires Vista User Account Control
Playback issues when playing TV/DVD/video in Media Center with Aero enabled
Outputting via TV-Out shows only a black and white display
HDTV output does not keep HDTV resolution after restart
Adjusting Video Color settings from the NVIDIA Control Panel are not getting applied.
Change Flat Panel Scaling page does not correctly work in the NVIDIA Control Panel.
Brightness, Contrast and Gamma values remain the same in Adjust Desktop Color settings once closing and opening the NVIDIA Control Panel.
Corruption on DVI monitor while going to hibernation from standby
Call of Duty 2 has no performance gain when SLI is enabled
Madden NFL 07 while playing the screen will freeze, but the game will continue to run and you hear the in-game sounds.
[ Voor 73% gewijzigd door The Source op 03-03-2007 11:20 ]
Ben benieuwd of COJ en El Matador gefixed zijn (shadows).
Niet op voorraad.
Anoniem: 41563
hopenlijk kan iemand hier mijn leed verlichten,
xfx 7600 gs extreme 256mb
vista prem.
acer lcd
samsung lcd-tv le32s71
kabel dvi-a > vga
ik heb een acer lcd enn een samsung lcd-tv verbonden met een dvi naar vga kabel (tv)
Helaas werkt hdmi niet in combinatie met tv = blauw beeld zegt samsung.
Ik krijg nu alleen de voortgangsbalk te zien op de tv daarna is het beeld zwart.
Weet iemand of dit te maken heeft met overschakelen van analoog naar digataal?
ik heb alles al gebrobeerd, en ga nu de 101.45 drivers maar proberen.
xfx 7600 gs extreme 256mb
vista prem.
acer lcd
samsung lcd-tv le32s71
kabel dvi-a > vga
ik heb een acer lcd enn een samsung lcd-tv verbonden met een dvi naar vga kabel (tv)
Helaas werkt hdmi niet in combinatie met tv = blauw beeld zegt samsung.
Ik krijg nu alleen de voortgangsbalk te zien op de tv daarna is het beeld zwart.
Weet iemand of dit te maken heeft met overschakelen van analoog naar digataal?
ik heb alles al gebrobeerd, en ga nu de 101.45 drivers maar proberen.
Je hebt een xfx 9600 extreme? Een ATi kaart? Verkeerde topic
XFX maakt geen ATi kaarten. Als ik z'n post-history bekijk, dan heeft hij volgens mij een XFX 7600 GS Extreme. Zie bv dit topic.aval0ne schreef op maandag 05 maart 2007 @ 11:09:
Je hebt een xfx 9600 extreme? Een ATi kaart? Verkeerde topic
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 41563
kom op mensen help me alstublieft,
de pc herkent de samsung feilloos op zijn nativ resolutie op 60 hz, tijdens het opstarten zie ik dus alleen de vista voortgangsbalk, vervolgens zie je de tv overschakelen van zeg maar grijs naar zwart=geen beeld.
nieuw drivers helpen niet.
wat kan ik nog proberen andere kabel ? lijkt me dat deze goed is aangezien de voortgangsbalk wel getoond wordt. Het is een dvi-a kabel , moet ik een dvi-d kabel proberen ?
Of simpelweg een vga kabel met een dvi adapter ?
de pc herkent de samsung feilloos op zijn nativ resolutie op 60 hz, tijdens het opstarten zie ik dus alleen de vista voortgangsbalk, vervolgens zie je de tv overschakelen van zeg maar grijs naar zwart=geen beeld.
nieuw drivers helpen niet.
wat kan ik nog proberen andere kabel ? lijkt me dat deze goed is aangezien de voortgangsbalk wel getoond wordt. Het is een dvi-a kabel , moet ik een dvi-d kabel proberen ?
Of simpelweg een vga kabel met een dvi adapter ?
Windows XP al geprobeerd? Zoals je misschien weet (of blijkbaar niet) zijn de nVidia drivers voor Vista nog niet helemaal optimaal.
Jongens,
Hoe is Foxconn met videokaarten?
- Foxconn 640Mb 8800GTS PCI-E
Zit te dubben om die te halen, maar nog nooit van foxconn gehoord?
pricewatch: Foxconn GeForce 8800 GTS 640MB DDR3 (PCI-e, DVI) FV-N88SMBD2-OD
Hoe is Foxconn met videokaarten?
- Foxconn 640Mb 8800GTS PCI-E
Zit te dubben om die te halen, maar nog nooit van foxconn gehoord?
pricewatch: Foxconn GeForce 8800 GTS 640MB DDR3 (PCI-e, DVI) FV-N88SMBD2-OD
| 2240Wp (ZW) | MHI SRC/SRK35ZS-W2 & ME MXZ-2F42+MSZ-AP20+MSZ-AP25 |
Waarom zou je dat merk willen als ie behoorlijk duurder is dan andere merken en je het merk zelf niet kent?R-B schreef op woensdag 07 maart 2007 @ 17:34:
Jongens,
Hoe is Foxconn met videokaarten?
- Foxconn 640Mb 8800GTS PCI-E
Zit te dubben om die te halen, maar nog nooit van foxconn gehoord?
pricewatch: Foxconn GeForce 8800 GTS 640MB DDR3 (PCI-e, DVI) FV-N88SMBD2-OD
Hijs hoger geclocktBrakkie schreef op woensdag 07 maart 2007 @ 17:39:
[...]
Waarom zou je dat merk willen als ie behoorlijk duurder is dan andere merken en je het merk zelf niet kent?
Ga wel voor de Club 3D, geen risíco's nemen
[ Voor 8% gewijzigd door R-B op 07-03-2007 18:28 ]
| 2240Wp (ZW) | MHI SRC/SRK35ZS-W2 & ME MXZ-2F42+MSZ-AP20+MSZ-AP25 |
Nieuws van OC Workbench over de G84 en G86:
http://forums.ocworkbench...00218&p=407568#post407568We received news that the 8600GTS will be available on sale on 17 apr.
The 8600GT and 8500GT will be announced on the same day but will be on sale from 1st may 2007.
Pricing of 8600GTS is around $200-250
8600GT is around $150-180
8500GT is around $90
Stay tuned to OCWorkbench.com for more updates.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Even geknipt en geplakt uit het ATI topic om te voorkomen dat daar onnodig over nV kaarten wordt gediscussieerd.The Source schreef op vrijdag 09 maart 2007 @ 18:55:
G84 GTS en GS worden op 17 april gelanceerd, deze gaat ~55w verbruiken. G81 of de Ultra editie wordt wellicht een 1Gig versie.
De Ultra Editie van de GF8800 is gebaseerd op de G80. Als nVidia een 1Gig versie wil uitbrengen, dan wil dat volgens mij zeggen dat ze hun kaarten hebben opgewaardeerd naar een 512-bit memory interface. Anders is 1GB aan geheugen toch niet mogelijk op een G80?
G80GTX heeft 12 memorychips voor een totaal aan 768MB geheugen. Dit is gekoppeld aan een 384-bit memory interface die te verdelen is in 6 clusters van 64-bits. Elke cluster stuurt dus 128MB aan (in het geval van 12 memorychips van 64MB). Om 1GB aan geheugen te ondersteunen moeten er dus 2 clusters meer komen van 64-bits, wat dus zou duiden op een 512-bit memory interface.
Op een andere manier kom je namelijk niet aan 1GB geheugen op een G80 (zie ook de Quadro FX 5600 die 1536MB geheugen heeft). Toch?
nVidia zou ipv 64MB geheugenchips ook 32MB geheugenchips kunnen gebruiken, maar daarmee halveer je de capaciteit naar 384MB. Dit is gebeurt bij de GF8800GTS320, die 10 memorychips heeft voor een totaal van 320MB aan geheugen gekoppeld aan 5 clusters van 64-bits (=320-bits memory interface), daar waar de normale versie 10 mem chips heeft van 64MB. Overigens zou het me niet verbazen als er ook een GF8800GTX384 uitkomt.
Dus als er een 1GB kaart van nVidia aan komt, dan is dit ofwel een echte G81 met native 512-bit memory interface ofwel G80 heeft 2 verborgen clusters en heeft om dit te activeren een compleet nieuw PCB nodig met ruimte voor nog 4 extra memorychips om aan 1GB te komen (of 8 chips van 128MB aan 1 kant van het PCB - bestaan die?)
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
mmhh je was me voor met mijn NDA nieuws. Ik zit heel de dag product managers uit te horen terwijl het al op internet staatCJ schreef op vrijdag 09 maart 2007 @ 15:17:
Nieuws van OC Workbench over de G84 en G86:
[...]
http://forums.ocworkbench...00218&p=407568#post407568
The Source schreef op vrijdag 09 maart 2007 @ 20:55:
[...]
mmhh je was me voor met mijn NDA nieuws. Ik zit heel de dag product managers uit te horen terwijl het al op internet staat

http://www.ocworkbench.com/2007/nvidia/8600gts/g1.htm
Da is die dan: 8600gts
Ik ga nu na jaren van ati overstappen naar nVidia voornamelijk omdat nVidia toch het beste aanbod heeft kwa agp kaarten. Ik heb nu drie kaarten die ik aan het overwegen ben namelijk de 7600gt 7800 gs en de 7800 gs 512mb. Nu ben ik aan het twijfelen welke te kiezen de 7600 gt is het goedkoopst met 140 € en de andere twee zijn rond de 250€. Stock is er niet zoveel verschil tussen de 7600 gt en de 7800gs maar wat ik gelezen heb kan de 7800gs veel beter overclocken dus mischien valt daar toch wat meer bang voor buck te halen maar aan de andere kant de 7800 gs is standaard al 100€ duurder. Tussen de normale 7800gs en de 512mb versie weet ik niet wat daar het verschil tussen is kwa prestatie en in hoevere je van de 256mb extra wat van merkt in fps. Dan is er nog het puntje als mijn systeem het wel aankan en dat dan niet mijn proc of geheugen de bottlenek gaat vormen daar heb ik persoonelijk geen kijk op. Mijn proc en geheugen zijn: amd barton 3000+ 1,5 gig geheugen. Ik denk zelf dat zelfs de 7800gs 512mb geen probleem moet vormen en dat het rest van de systeem het wel aankan. Nu is mijn vraag een beetje wat is de best keuze kwa kaart om mijn agp systeem nog een poosje mee te laten draaien voordat hij helemaal vervangen wordt.
Moet zeggen dat ik de 8600GTS een mooie kaart vind die goed binnen het budget valt
en volgens mij heeft ie dan ook iets van 20% meer shaders....toch?CJ schreef op vrijdag 09 maart 2007 @ 20:26:
[...]
De Ultra Editie van de GF8800 is gebaseerd op de G80. Als nVidia een 1Gig versie wil uitbrengen, dan wil dat volgens mij zeggen dat ze hun kaarten hebben opgewaardeerd naar een 512-bit memory interface.
Nee, dat hoeft niet per se. Het aantal shaders is niet gebonden aan de grootte van de memorycontroller. Zie bv de GF8600GTS die waarschijnlijk 64 Streamprocessors en een 128-bit memorycontroller, terwijl je daar dan eigenlijk een 256-bit memorycontroller zou verwachten.Mr. Detonator schreef op maandag 12 maart 2007 @ 18:12:
[...]
en volgens mij heeft ie dan ook iets van 20% meer shaders....toch?
Wat (geloof ik) wel vast staat is het aantal ROPs. Om een 512-bit memory controller te hebben, zou de G80 in totaal 8 clusters van 64MB moeten hebben. Dit komt ook neer op 8 ROP partities van elk 4, in totaal dus 32 ROPs (G80GTX heeft 6 ROP partities van 4, dus 24 ROPs). Maar dit lijkt me niet de meest logische stap, omdat de huidige 24 ROPs bij lange na niet gevuld worden. 16 ROPs worden vaak nog niet eens compleet gevuld in de hedendaagse applicaties.
Als het streamprocessor aantal gelijk blijft, dan zal deze vooral performancewinst moeten boeken via de kloksnelheden en zal deze winst zich voornamelijk uiten op HD resoluties. Als het aantal wel omhoog gaat, dan mag je een leuke performancewinst verwachten op gelijke kloksnelheden.
Overigens voeg je niet zo maar even extra streamprocessors, ROPs en 128-bit extra mem-controller aan je GPU toe. Een G80 heeft al zo'n 680M transistoren en men heeft het I/O gedeelte al buiten de chip moeten plaatsen omdat de G80 anders te moeilijk te produceren was op 90nm. Een G80 zou zeker op de 800M komen en daar heb je 80nm of 65nm voor nodig.
Maar misschien zat dit allemaal al wel in de G80 ingebakken en was het tot nu toe uitgeschakeld vanwege yields. Het is niet vreemd voor bedrijven om dit te doen. Zo heeft Microsoft's Xbox360 GPU eigenlijk 64 shaderunits, maar zijn er 16 uitgeschakeld vanwege yields. En zo heeft AMD's R580 eigenlijk 4 shaderunits per pipeline, waarvan er 1 gebruikt wordt in het geval van een defecte unit in een pipeline. Dus wie weet wat voor extra's G80 wel niet heeft ingebakken.
Als je in ieder geval op de drivers af gaat, dan komt er alleen een G80Ultra. En daarvan uit gaande is het dus niets meer dan een opgevoerde GF8800GTX. En er stond ook nog een G80GT op stapel als ik het goed heb.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
VR-Zone heeft weer een nieuwtje.
De GF8600GTS (675/1000/$200-$249/71W TDP) scoort zo'n 5700 punten in 3DM06.
De GF8600GT (540/700/$170-$200/43W TDP) scoort zo'n 4700 punten in 3DM06.
De GTS scoort dus iets meer dan een GF7950GT en de GF8600GT scoort iets meer dan een GF7900GS. De 128-bit memory interface lijkt ze niet te deren, maar dat komt natuurlijk ook gedeeltelijk door het veel hoger geklokte geheugen wat de bandbreedte weer wat aanvult.
http://www.vr-zone.com/?i=4775
De GF8600GTS (675/1000/$200-$249/71W TDP) scoort zo'n 5700 punten in 3DM06.
De GF8600GT (540/700/$170-$200/43W TDP) scoort zo'n 4700 punten in 3DM06.
De GTS scoort dus iets meer dan een GF7950GT en de GF8600GT scoort iets meer dan een GF7900GS. De 128-bit memory interface lijkt ze niet te deren, maar dat komt natuurlijk ook gedeeltelijk door het veel hoger geklokte geheugen wat de bandbreedte weer wat aanvult.
http://www.vr-zone.com/?i=4775
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Bij deze weer wat nieuws. Er zijn pics opgedoken van MSI midrange kaarten, namelijk van de GF8600GTS, GF8600GT n GF8500GT:




Meer op http://www.k-hardware.de/news.php?s=c&news_id=6389
Maar blijkbaar is niemand geinteresseerd in nVidia kaarten behalve ik... je zou toch zeggen dat het interessant nieuws is dat de nieuwe midrange van nVidia bijna net zoveel scoort als een GF7900GTX, maar met veel minder stroomverbruik en ook nog eens met een 128-bit memory interface?




Meer op http://www.k-hardware.de/news.php?s=c&news_id=6389
Maar blijkbaar is niemand geinteresseerd in nVidia kaarten behalve ik... je zou toch zeggen dat het interessant nieuws is dat de nieuwe midrange van nVidia bijna net zoveel scoort als een GF7900GTX, maar met veel minder stroomverbruik en ook nog eens met een 128-bit memory interface?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Leuk nieuws hoor, loopt de 8600GTS dan op 1GHz x 2 = 2GHz? Ik neem aan van wel!CJ schreef op donderdag 15 maart 2007 @ 11:42:
Maar blijkbaar is niemand geinteresseerd in nVidia kaarten behalve ik... je zou toch zeggen dat het interessant nieuws is dat de nieuwe midrange van nVidia bijna net zoveel scoort als een GF7900GTX, maar met veel minder stroomverbruik en ook nog eens met een 128-bit memory interface?
Maarre... wat dacht je van dat jij degene was die iedereen die vervelend deed in het ATi topic doorstuurde naar [Discussie] nVidia 8xxx series - Deel 5?

Too bad to say maar daardoor komt niemand hier meer, en dat met ZO'N startpost

[ Voor 9% gewijzigd door Jejking op 15-03-2007 19:06 ]
Urhm, ik snap het probleem niet van het doorsturen van mensen? Er werd gepraat over de G80 en de techniek achter de G80 in het ATI topic. Dan is het logisch dat ik mensen naar het GF8 topic stuur, waar ook gepraat wordt over allerlei problemen met drivers etc.Jejking schreef op donderdag 15 maart 2007 @ 19:04:
[...]
Leuk nieuws, maarre... wat dacht je van dat jij degene was die iedereen die vervelend deed in het ATi topic doorstuurde naar [Discussie] nVidia 8xxx series - Deel 5?![]()
Too bad to say maar daardoor komt niemand hier meer, en dat met ZO'N startpost
Dat doet niets af aan de waarde van dit topic. Dit topic was toch bedoelt voor algemeen nVidia nieuws? Nou dat post ik dus bij deze hier en dat heb ik altijd gedaan.
Dus ben benieuwd wat je van de G84 en G86 vindt.
Edit: En voor de AGP liefhebbers komt er waarschijnlijk een AGP GF7950GT. Er is er al eentje gespot geloof ik in Amerika. Maar dit zal tevens de laatste AGP kaart zijn. Van de GF8 serie komt er geen AGP variant aldus deze bron (nVidia): http://www.pcgameshardware.de/?article_id=571640
[ Voor 12% gewijzigd door CJ op 15-03-2007 23:48 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
leuke kaartjes, maar ik kijk op t moment toch meer uit naar de r600CJ schreef op donderdag 15 maart 2007 @ 19:08:
[...]
Dus ben benieuwd wat je van de G84 en G86 vindt.
Waarschijnlijk countered nVidia de R600 met een GF8950GX2. Het bedrijf Alphacool heeft al een watercooling klaar staan voor de GF8950GX2. Dit doet verschillende mensen er op wijzen dat de GF8800Ultra niet snel genoeg is om de R600 bij te houden en dat men zich weer moet beroepen op een dual kaart.

Bron: http://www.hardware.fr/ne...ing-geforce-8950-gx2.html
Edit: Het moet 8950GX2 zijn en niet 8850GX2.

Bron: http://www.hardware.fr/ne...ing-geforce-8950-gx2.html
Edit: Het moet 8950GX2 zijn en niet 8850GX2.
[ Voor 6% gewijzigd door CJ op 17-03-2007 16:09 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Zou goed kunnen. Ik hoorde ook geruchten van een dual G80. Zou mooi zijn als de performance van de R600 (flink) boven de 8800 uitkomt. Het komende jaar hebben we die perf. hard nodigCJ schreef op zaterdag 17 maart 2007 @ 15:56:
Waarschijnlijk countered nVidia de R600 met een GF8850GX2. Het bedrijf Alphacool heeft al een watercooling klaar staan voor de GF8850GX2. Dit doet verschillende mensen er op wijzen dat de GF8800Ultra niet snel genoeg is om de R600 bij te houden en dat men zich weer moet beroepen op een dual kaart.
[afbeelding]
Bron: http://www.hardware.fr/ne...ing-geforce-8950-gx2.html
Niet op voorraad.
Anoniem: 107573
Hmm voor mij iig geen dual kaartje meer. Was toch niet echt heel erg te spreken over m'n 7950GX2.
Als nVidia zich idd moet beroepen op een dual kaart om de R600 bij te benen, sla ik lekker een ronde over of ik koop de 1 gig variant van de R600 ( als ie flink sneller is als m'n GTX natuurlijk, anders niet ). Zal voor mij persoonlijk ook erg afhangen hoe het met de drivers gesteld zal zijn van beide kampen.
Als nVidia zich idd moet beroepen op een dual kaart om de R600 bij te benen, sla ik lekker een ronde over of ik koop de 1 gig variant van de R600 ( als ie flink sneller is als m'n GTX natuurlijk, anders niet ). Zal voor mij persoonlijk ook erg afhangen hoe het met de drivers gesteld zal zijn van beide kampen.
Voor mij waarschijnlijk ook niet. SLI of CF werkt nooit 100% en je bent altijd afhankelijk van support voordat het echt goed werk.Anoniem: 107573 schreef op zaterdag 17 maart 2007 @ 16:07:
Hmm voor mij iig geen dual kaartje meer. Was toch niet echt heel erg te spreken over m'n 7950GX2.
Als nVidia zich idd moet beroepen op een dual kaart om de R600 bij te benen, sla ik lekker een ronde over of ik koop de 1 gig variant van de R600 ( als ie flink sneller is als m'n GTX natuurlijk, anders niet ). Zal voor mij persoonlijk ook erg afhangen hoe het met de drivers gesteld zal zijn van beide kampen.
Toch heeft CF veel indruk op mij gemaakt, er zitten in Oblivion en COJ nog hele stukken waarin een X1900CF config sneller dan m'n 8800GTX was.
Niet op voorraad.
Ik moet er niet aan denken zeg; weer zo'n GX2 ding.
Ik vond de 7950GX2 een waardeloze kaart.

Ik vond de 7950GX2 een waardeloze kaart.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Mij lijken het mooie kaartjes, 8600GT = 7900GTX, nou kom maar op! De 7600GT is nog steeds een monsterproduct en alles wat x600GT heet en door nVidia is gemaakt schopt kont in dat gedeelte van de markt (even de laatste positionering van de X1950GT tov de 7600GT daargelaten), dus ik verwacht een hoop.
Ik hoop alleen dat dat ding niet gaat verzuipen door de 128-bits bus in de nieuwere games, maar nVidia kennende gaat dat nog leuk worden
En dezelfde site heeft ook de scores van de 8600GT:
http://itbbs.pconline.com....jsp?tid=6867769&pageNo=1
De andere scores die ik hier woensdag had gepost waren dus blijkbaar correct. Die zitten in dezelfde hoek alleen werd er een andere CPU gebruikt.
Het zijn mooie kaartjes. En nu nog een mooie prijs er bij. De 8600GTS doet het bijna net zo goed als de 7900GTX, maar dan met een 128-bit memory interface. Nu maar hopen dat de performance op hoge resoluties met hoge AA en AF instellingen er niet onder leidt.
http://itbbs.pconline.com....jsp?tid=6867769&pageNo=1
De andere scores die ik hier woensdag had gepost waren dus blijkbaar correct. Die zitten in dezelfde hoek alleen werd er een andere CPU gebruikt.
Het zijn mooie kaartjes. En nu nog een mooie prijs er bij. De 8600GTS doet het bijna net zo goed als de 7900GTX, maar dan met een 128-bit memory interface. Nu maar hopen dat de performance op hoge resoluties met hoge AA en AF instellingen er niet onder leidt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Hmm, begrijp ik goed dat een 8600gts ongeveer hetzelfde scoort als een 1950XT, met dus als plus voor de 8600gts dat er DX10 ondersteuning bij zit. Vraag is of de kaart met DX10 nog wat waard is qua snelheid, maar goed
Een X1950XT scoort wel ietsje hoger dan een 8600GTS in 3DM06. De mijne scoort iets meer dan 6200. nVidia vergelijkt het zelf met de GF7950GT die ook ongeveer 5500 punten scoort. Als voordeel zit er natuurlijk aan deze kaart dat het een DX10 kaart is, alhoewel nog afwachten is hoe de prestaties zijn onder DX10 applicaties. En het moet nog uitwijzen hoe een 128-bit memory interface het gaat doen onder 'zware' omstandigheden (dus op hoge res met veel AA/AF). Maar ongetwijfeld zal de boel wel flink geoptimaliseerd zijn om daar niet gigantisch in te kakken.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
The Inq komt met een bericht dat ze de 8600GT en GTS getest hebben. De scores zijn bijna gelijk aan wat we al gehoord hebben, dus rond de 5500 voor de 8600GTS en 4700 voor de 8600GT. Maar ze bevestigen gelijk ook het vermoeden dat de performance inkakt wanneer er hoge res textures en andere high quality dingen aan worden gezet:
http://uk.theinquirer.net/?article=38346The raw scores are 5500 3DMark06 for the GTS and 4800 for the GT, blurred slightly to protect the guilty. That is the good part. The bad part is when you start using heavy textures, performance drops off notably, and I mean notably. Think cliff.
This is most likely because of two things, drivers or bus width. NV drivers are still pretty badly broken, and upcoming cards are probably less of a priority than getting the ones they released almost 6 months ago functional.
The other thing it could be is the narrow memory bus simply choking on all the data. If this is the case, don't look for improvements, this card will always be a benchmark special.
There could be a host of other things, from pre-production boards (doubtful in this case), to sunspots, but the performance drop is quite real.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit topic is gesloten.
Let op:
Lees de topic regels !
Lees de topic regels !