![]() | |||||||||||||||||||||||
![]() | |||||||||||||||||||||||
![]() | |||||||||||||||||||||||
In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
| |||||||||||||||||||||||
![]() | |||||||||||||||||||||||
Op basis van de in 2005 geintroduceerde G70 core heeft NVIDIA diverse varianten uitgebracht op verschillende kloksnelheden en met verschillende aantallen pixel pipelines en vertex shaders. De belangrijkste features van de G70 zijn:
Hieronder volgen de belangrijkste modellen uitgerust met een G7x core:
| |||||||||||||||||||||||
![]() | |||||||||||||||||||||||
In november 2006 introduceerde NVIDIA de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. NVIDIA heeft vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur. Op het moment van schrijven is de 8800GTX de snelste GPU die er is. In bepaalde gevallen zelfs sneller dan high-end kaarten in SLI of Crossfire configuratie. De belangrijkste features van de G80 zijn:
| |||||||||||||||||||||||
![]() | |||||||||||||||||||||||
GeForce 7900 Goes Kamikaze? Een tijdje geleden werd op het forum bekend dat verscheidene GeForce 7900-GPU's problemen gaven, waarbij het voornamelijk ging om problemen met de 7900GT en de 7900GTX. Deze problemen bestonden uit artifacts op het scherm, terwijl in vele gevallen de kaart niet eens overgeklokt was. Op de rest van het Internet zijn echter legio fora te vinden die het tegendeel beweren, namelijk dat de problemen het meeste optreden bij 7900GT(X)-en die pre-overclocked zijn door de fabrikant (zoals XFX, Asus, e.d.) Men vermoedt dat de problemen veroorzaakt worden door onderdelen op de achterkant van de kaart zoals condensatoren en geheugenchips van slechtere kwaliteit. Bij veel warmte kunnen deze defecten gaan vertonen, goede en/of betere koeling is dan ook ten zeerste aan te raden. Waarheidsfactor: 100% SLi Physics Waar ATi de wereld voorstelde aan de ''ATi Physics'', heeft nVidia ''SLi Physics'' in het leven geroepen. Voorlopig lijkt het echter dat ATi's oplossing de beste performance geeft, getuige deze grafiek. Het is echter zeer onzeker of dit beeld op waarheid berust en komt door de vermeende zwakke implementatie van Dynamic Branching in de GeForce 7-series*. Inmiddels is duidelijk dat de G80 core GPU Physics ondersteunt. NVIDIA heeft een chipset (nForce 680i) op de markt gebracht met 3 snelle PCIe slots waarvan er eentje voor Physics bedoeld kan zijn. Waarheidsfactor: 100% Slechte implementatie hoofdfeature Shadermodel 3.0 zichtbaar? Volgens de makers van de allereerste échte next-generation-mother-of-all-shoot-em-ups zal er in deze game naast het vele geweld ook een volledig arsenaal aan nieuwe grafische snufjes te bewonderen zijn... Op 3 Januari 2006 verscheen een rapport ten tonele die meldde dat nVidia's QuadSLi (4 x een 7800GTX) de onstage demo van de Unreal Engine 3.0 op maximale details nét aan vloeibaar op het beeldscherm kon toveren. Zal dit de eerste game zijn die nVidia's vermeende* zwakke plek blootlegt? * : Concurrent ATi bestempelt nVidia's implementatie van de hoofdfeature Dynamic Branching in Shadermodel 3.0 als inferieur, en eigen X1x00-series als 'Shadermodel 3.0 Done Right'. Waarheidsfactor: 80% | |||||||||||||||||||||||
![]() | |||||||||||||||||||||||
![]() Wat is PureVideo?
Dit document geeft een aardig overzicht : PureVideo Technology Overview (pdf) Wat heb ik nodig? • Een GeForce 6, 7 of 8 GPU • Microsoft Windows XP mét Service Pack 2 (voor VMR9 support) • NVidia's ForceWare driver • NVidia's PureVideo Decoder • Windows Media Player 10 build 3923 of nieuwer (met DRM update & DXVA hotfix) Hoe kom ik aan PureVideo? Je kunt op de site van NVidia een 30-dagen trial downloaden, die met deze key 60 dagen werkt Na deze proefperiode kan je de PureVideo Decoder hier kopen. Hoe configureer ik PureVideo? Naast de NVIDIA PureVideo Decoder User's Guide is er ook een Reviewers Guide met tips (enigszins gedateerd). Voor beste kwaliteit en prestaties is het noodzakelijk Video Mixing Renderer (VMR) te activeren in Windows Media Player : Als "use high quality mode" is aangevinkt onder "File Playback", dan is het mogelijk dat MPEG-4 ASP videobestanden (XviD, DivX5 etc.) in zwart/wit met een groenige waas worden afgespeeld. Selecteer dan "Use overlays" onder "File Playback". Als FFDShow op je systeem staat of stond, dan werkt PureVideo waarschijnlijk niet. Wees terughoudend met het installeren van codecpacks. Controleer met Windows XP Video Decoder Checkup Utility of PureVideo als MPEG-2 preferred codec actief is. Meer informatie : • ATI VideoShaders - NVIDIA PureVideo • ATI's Avivo vs. NVIDIA's PureVideo: De-Interlacing Quality Compared • NVIDIA GeForce 7800 GTX Preview (de eerste 6 slides) • NVIDIA PureVideo Presentation • Principled Technologies PureVideo test report (PDF-bestand) • Scott Vouri Interview #1 • Scott Vouri Interview #2 • En natuurlijk NVIDIA.com zelf. Met dank aan FFWD | |||||||||||||||||||||||
![]() | |||||||||||||||||||||||
Officiële nVidia drivers voor GeForce 7 serie 162.18 32-bit Officiële nVidia drivers voor GeForce 8 serie 162.18 32-bit Officiële nVidia drivers voor Mobile GPU's 84.63 32-bit Drivers voor alternatieve operating systems (Linux, Windows x64 etc.) zijn hier te vinden. | |||||||||||||||||||||||
![]() | |||||||||||||||||||||||
Reviews GeForce 7300 GS 128MB: AusFX Hardware Zone HotHardware PCStats Reviews GeForce 7300 GT 256MB: AnandTech Beareyes NGoHQ Reviews GeForce 7600 GS 256MB: Hardware Zone Reviews GeForce 7600 GT 128MB: Bjorn3D Hardware Zone IT-Review NeoSeeker Reviews GeForce 7800 GS 256MB: AnandTech FiringSquad HardOCP Toms Hardware Reviews GeForce 7800 GT 256MB: ExtremeTech Hardware.info nV News T-Break Tweakers.net Reviews GeForce 7800 GTX 256MB: AnandTech Digit Life DriverHeaven Firing Squad Guru3D HardOCP Hardware.info Hexus.net T-break Toms Hardware Tweakers.net Reviews GeForce 7800 GTX 512MB: AnandTech Digit-Life Guru3D HardOCP Hardware.info Toms Hardware T-Break Tweakers.net Reviews GeForce 7900 GT 256MB: 3D Avenue AnandTech Digit-Life ExtremeTech Gargouri 2001 GD Hardware T-Break TechReport Reviews GeForce 7900 GTX 512MB: DigitLife ExtremeTech Guru3D HardOCP HotHardware NeoSeeker T-Break TechReport TweakTown Reviews GeForce 7950 GX2 512MB: Bit-Tech GamePC Hardware.fr Hardware Zone Legit Reviews Viper_4111 [GoT-member] Reviews GeForce 8800 GTX en GTS: HardOCP Anandtech Firingsquad (GTX & GTS OC-ed) Firingsquad (preview) Tweakers.net Tom's Hardware Vorige Topics: [Algemeen] nVidia Nieuws & Discussie Topic - Deel 18 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 19 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 20 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 21 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 22 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 23 [Algemeen] nVidia Nieuws & Discussie Topic - Deel 24 Andere Interessante Topics: [OC] nVidia GeForce 7 Series - Deel 1 [OC] nVidia GeForce 7 Series - Deel 2 Pricewatch Alle GeForce 7300-kaarten in de Pricewatch Alle GeForce 7600-kaarten in de Pricewatch Alle GeForce 7800-kaarten in de Pricewatch Alle GeForce 7900-kaarten in de Pricewatch Alle GeForce 7950-kaarten in de Pricewatch GeForce 8 serie in de Pricewatch | |||||||||||||||||||||||
Startpost: Jejking & biobak | |||||||||||||||||||||||
![]() |
Anoniem: 126513
Ziet weer mooi uit Hacku.
Zou de G92 high end kaart, niet ook 24 ROPS krijgen zoals de ultra en GTX?. 128 shaders is logisch, ze zullen wel cores aan het sparen zijn. En ze wachten tot de R680 die toch uit 2 cores bestaat.
De marge voor nVidia wordt dan best groot, aangezien zij met één core al heel ver kunnen komen. Ik bedoel geef die G92 wat ze nodig heeft en het is feest! Meer ROP's, meer shaders, meer geheugen bandbreedte, meer geheugen, en hogere clocks. Dat zit nu allemaal op redelijk minimale specs. Ik durf al niet te kijken
Zou de G92 high end kaart, niet ook 24 ROPS krijgen zoals de ultra en GTX?. 128 shaders is logisch, ze zullen wel cores aan het sparen zijn. En ze wachten tot de R680 die toch uit 2 cores bestaat.
De marge voor nVidia wordt dan best groot, aangezien zij met één core al heel ver kunnen komen. Ik bedoel geef die G92 wat ze nodig heeft en het is feest! Meer ROP's, meer shaders, meer geheugen bandbreedte, meer geheugen, en hogere clocks. Dat zit nu allemaal op redelijk minimale specs. Ik durf al niet te kijken
[ Voor 5% gewijzigd door Anoniem: 126513 op 18-11-2007 16:44 ]
Er staat ook een GX2 van de G92 op de planning.Anoniem: 126513 schreef op zondag 18 november 2007 @ 16:42:
Ziet weer mooi uit Hacku.![]()
Zou de G92 high end kaart, niet ook 24 ROPS krijgen zoals de ultra en GTX?. 128 shaders is logisch, ze zullen wel cores aan het sparen zijn. En ze wachten tot de R680 die toch uit 2 cores bestaat.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


http://www.rwlabs.com/newsitem.php?id=11
Edit, hmm, blijkt een soort user list te zijn, dus voorlopig nog geen 9800
[ Voor 15% gewijzigd door edward2 op 18-11-2007 17:10 ]
Niet op voorraad.
Omdat de andere topic al weer snel gesloten was, hier nog even mijn vraag:
]
(KLIK)
Hmmm vreemd ik heb die optie er niet bij staan. Heb jij speciale drivers geinstaleerd? Ik heb het volgende:RappieRappie schreef op zondag 18 november 2007 @ 13:32:
[...]
Je kan als het goed is ook "custom" resoluties aanmaken. Ik was ook ineens 1680x1050 kwijt. Maar dat zou bij mij ook door SLI kunnen komen. Ik weet het niet. Maar goed.![]()
Hier kan je een custom reso aanmaken:
[afbeelding] (KLIK)
Gewoon op create drukken en een resolutie maken zoals je hem wilt. Dan kun je het ook weer in games selecteren.

(KLIK)
PSN: http://psnprofiles.com/TheKillingBean | Xbox Live: https://www.xboxgamertag.com/search/TheKillingBean
Met powerstrip kun je ook custom reso's makenTheKillingBean schreef op zondag 18 november 2007 @ 18:04:
Omdat de andere topic al weer snel gesloten was, hier nog even mijn vraag:
[...]
Hmmm vreemd ik heb die optie er niet bij staan. Heb jij speciale drivers geinstaleerd? Ik heb het volgende:
[afbeelding]]
(KLIK)
er staat een foutje in de Topicstart. Er staat bij de 8800GT dat ie gebruik maakt van 384 bits interface...dit moet zijn 256Bits...
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Ik heb de 169.02 WHQL erop staan. En Monitor drivers en verder niets.TheKillingBean schreef op zondag 18 november 2007 @ 18:04:
Omdat de andere topic al weer snel gesloten was, hier nog even mijn vraag:
[...]
Hmmm vreemd ik heb die optie er niet bij staan. Heb jij speciale drivers geinstaleerd? Ik heb het volgende:
[afbeelding]]
(KLIK)
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Benchmarks 8800GT 256MB
http://www.expreview.com/...1-19/1195454030d6980.html
Systeem Specs:
Windows Vista Ultimate 32bit SP1 RC Preview v.658 with Aero
Core 2 Quad Q6700 OC 333MHzX9
Asustek P5E3 Deluxe/Wifi-AP with DDR3-1066 6-6-6-18-1T
NVIDIA GeForce 8800 GT 256MB/512MB: 169.02 WHQL
NVIDIA GeForce 8600 GTS 256MB: 163.75 WHQL
ATi Radeon 3850 256MB: 7.11 hotfix
8600GTS 256MB vs. 8800GT 256MB

HD3850 256MB vs. 8800GT 256MB

8800GT 512MB vs. 8800GT 256MB

Benieuwd naar de prijs van deze topper
http://www.expreview.com/...1-19/1195454030d6980.html
Systeem Specs:
Windows Vista Ultimate 32bit SP1 RC Preview v.658 with Aero
Core 2 Quad Q6700 OC 333MHzX9
Asustek P5E3 Deluxe/Wifi-AP with DDR3-1066 6-6-6-18-1T
NVIDIA GeForce 8800 GT 256MB/512MB: 169.02 WHQL
NVIDIA GeForce 8600 GTS 256MB: 163.75 WHQL
ATi Radeon 3850 256MB: 7.11 hotfix
8600GTS 256MB vs. 8800GT 256MB

HD3850 256MB vs. 8800GT 256MB

8800GT 512MB vs. 8800GT 256MB

Benieuwd naar de prijs van deze topper
[ Voor 24% gewijzigd door Gurneyhck op 19-11-2007 11:55 ]
Anoniem: 51473
Ik snap er niets meer van. Op internet lees je ZOVEEL verschillende dingen over de G92 en de G98 core dat ik niet weet wat nu wel of niet klopt. Ook de benamingen snap ik niet meer. Ik volg het wel al een tijdje, maar zie door de bomen het bos niet meer.
Geruchten waren eerst dat de 9800GTX ( G92 Core ) in november uit zou komen. Nu begrijp ik dat de G92 Core de mid-range kaarten word gebouwd op de basis van de G90 Core.
De 9800GTX word gebouwd op de G98 Core die in februari uit zal komen? Ik dacht eerder nog dit jaar namelijk. Wanneer komen de high-end kaarten nou gebouwd op de "nieuwe" Core?
Geruchten waren eerst dat de 9800GTX ( G92 Core ) in november uit zou komen. Nu begrijp ik dat de G92 Core de mid-range kaarten word gebouwd op de basis van de G90 Core.
De 9800GTX word gebouwd op de G98 Core die in februari uit zal komen? Ik dacht eerder nog dit jaar namelijk. Wanneer komen de high-end kaarten nou gebouwd op de "nieuwe" Core?
Anoniem: 226494
Mischien wacht nV wel tot amd met een sterkere kaart komt en dan pas een high-end kaart willen uitbrengen ?? Zolang ze geen goede concurrentie hebben zullen ze denk ik geen dure high-end kaart uitbrengen. Het is maar een idee
de 9800gtx word waarschijnlijk de g100 core.
Ik hoop dat ze een andere naam kiezen want 9800 doet me alleen denken aan ati.
Ik hoop dat ze een andere naam kiezen want 9800 doet me alleen denken aan ati.
Wow, dat maakt maar weinig verschil tot aan de 1600 resolutie. Zal dat aan de gekozen benchmarks liggen of zal dit verschil bij elke game miniem zijn. Als er zeg 50 Euro verschil zit tussen de 512 en 256, en je speelt op max 1440*900 is de 256 versie geweldig.Gurneyhck schreef op maandag 19 november 2007 @ 11:54:
Benchmarks 8800GT 256MB
Benieuwd naar de prijs van deze topper
Flickr PSN ID= cheironnl
Nogmaals: Gurneyhck in "[Algemeen] nVidia Nieuws & Discussie Top..."
Eerst een nieuwe 8800GTS, die waarschijnlijk de 8800GTX voorbij gaat. Vervolgens een 8800GX2, 2xG92. En daarna pas de 9800GTX.
Althans dat is de meest logische volgorde op dit moment gebaseerd op de iets meer betrouwbare bronnen. Moet zeggen dat in dit topic wel tot in de treure één geruchtje over een 9800GTX in november (nu dus) herhaalt wordt.
Eerst een nieuwe 8800GTS, die waarschijnlijk de 8800GTX voorbij gaat. Vervolgens een 8800GX2, 2xG92. En daarna pas de 9800GTX.
Althans dat is de meest logische volgorde op dit moment gebaseerd op de iets meer betrouwbare bronnen. Moet zeggen dat in dit topic wel tot in de treure één geruchtje over een 9800GTX in november (nu dus) herhaalt wordt.
[ Voor 33% gewijzigd door Gurneyhck op 19-11-2007 13:50 ]
Ik heb een dilemma!
Eerst mijn setup.
Q6600 @ 3600mhz
Asus p5k Deluxe
2gb pc8500 Ballistix
asus 8800GTX
Ik wil meer peformance voor Crysis. Baal er goed van dat ik de game niet op volledige settings kan spelen en al helemaal dat dat wel mogelijk zou zijn met een 8800GTX. De reden waarom je zo,n duur apparaat uiteindelijk aanschaft.
Nu twijfel ik of ik nog een 8800GTX bij zou kopen.(2dehands) probeer mijn moederbord te verkopen en daarvoor in de plaats een 680i bord te kopen.
minpunten zijn dat:
- Mijn 600w voeding moet ook vervangen worden.
-680i geeft nog wel is problemen met Qaudcores. Ik neem natuurlijk geen genoegen met een lagere clock als ik nu heb.
780i?
2de optie is om mijn 8800GTX te verkopen en daarvoor in de plaats 2x 8800GT te kopen.
Dus dan zou ik ook moet asus p5k moeten verkopen/ruilen.
pluspunt is dan wel dat ik mijn 600w zalman voeding kan behouden.
nadeel is dan ook weer dat ik bang of mijn Qaudcore wel lekker wilt clocken op een 680i bord.
-Probeer maar is van je 8800GTX af te komen in deze tijden.
-waarschijnlijk een stuk goedkoper uit.
Ik heb echt geen idee wat ik nou het beste kan doen. Wellicht toch wachten?
Ik klink wellicht wat verwend dat ik zeur over de prestaties van de 8800GTX. Ik ben gewoon gek op hardware en die 8800GTX hangt nu al een tijdje in me pc. Wil weer is wat nieuws proberen
Eerst mijn setup.
Q6600 @ 3600mhz
Asus p5k Deluxe
2gb pc8500 Ballistix
asus 8800GTX
Ik wil meer peformance voor Crysis. Baal er goed van dat ik de game niet op volledige settings kan spelen en al helemaal dat dat wel mogelijk zou zijn met een 8800GTX. De reden waarom je zo,n duur apparaat uiteindelijk aanschaft.
Nu twijfel ik of ik nog een 8800GTX bij zou kopen.(2dehands) probeer mijn moederbord te verkopen en daarvoor in de plaats een 680i bord te kopen.
minpunten zijn dat:
- Mijn 600w voeding moet ook vervangen worden.
-680i geeft nog wel is problemen met Qaudcores. Ik neem natuurlijk geen genoegen met een lagere clock als ik nu heb.
780i?
2de optie is om mijn 8800GTX te verkopen en daarvoor in de plaats 2x 8800GT te kopen.
Dus dan zou ik ook moet asus p5k moeten verkopen/ruilen.
pluspunt is dan wel dat ik mijn 600w zalman voeding kan behouden.
nadeel is dan ook weer dat ik bang of mijn Qaudcore wel lekker wilt clocken op een 680i bord.
-Probeer maar is van je 8800GTX af te komen in deze tijden.
-waarschijnlijk een stuk goedkoper uit.
Ik heb echt geen idee wat ik nou het beste kan doen. Wellicht toch wachten?
Ik klink wellicht wat verwend dat ik zeur over de prestaties van de 8800GTX. Ik ben gewoon gek op hardware en die 8800GTX hangt nu al een tijdje in me pc. Wil weer is wat nieuws proberen
[ Voor 12% gewijzigd door ikbengoofy op 19-11-2007 14:10 ]
Uiteindelijk zit onze manager er alleen voor spek en bonus.. - Loesje
mja wat jij ook ga doen , het is geldverspilling .
beste hou je gewoon alles wat je heb tot er een kaart uitkomt die echt sneller is .
beste hou je gewoon alles wat je heb tot er een kaart uitkomt die echt sneller is .
klopt maar ik zat aan het zelfde te denken maar het is best geldverspilling. en was net in de sneeuwlevel van crysis en daar is helemaal in het begin me fps 3-4 frames op 1920x1200 very high terwijl alle levels daarvoor heel goed speelbaar was.Timba- schreef op maandag 19 november 2007 @ 14:31:
mja wat jij ook ga doen , het is geldverspilling .
beste hou je gewoon alles wat je heb tot er een kaart uitkomt die echt sneller is .
Maar stel dat je 50% prestatie winst krijgt dan heb je 6-8 fps in sneeuwlevel

ken het gevoel van altijd het snelste willen maar moet leuk blijven.
Intel E6850@3,6Ghz ,GEIL 4 Gig pc800, MSI 8800GTX OC,Tagan 700W,raptor x 150gig,seagate 500gig,asus p5n32-e SLI plus, X-fi extremegamer, logitech z5450 speakerset, Coolermaster Stacker silver
Kan het niet beter verwoorden. Ik wil ook altijd het snelste hebben. Maar met de opties die ik net opnoem maak ik het denk idd te gek.darkphoenix schreef op maandag 19 november 2007 @ 16:32:
[...]
ken het gevoel van altijd het snelste willen maar moet leuk blijven.
spoiler:
Ik had trouwens helemaal geen framedrops in het sneeuwlevel? wat wat lager maar goed speelbaar.. Vreemd!
Uiteindelijk zit onze manager er alleen voor spek en bonus.. - Loesje
Anoniem: 218213
tja 2x 8800gts sli, x3210 3gb, sneeuw level, en een heele mooie diashow, dat terwijl het toch allemaal heel veel geld kost, het is jammer, maar het is nou eenmaal zo, advies, houden wat je nu hebt, en wachten tot feb, en dan mar verder zien
Heb een vergelijkbaar dillemma alhoewel jouw CPU veel sneller is. Echter Crysis is niet echt CPU depended.ikbengoofy schreef op maandag 19 november 2007 @ 14:08:
Ik heb een dilemma!
Eerst mijn setup.
Q6600 @ 3600mhz
Asus p5k Deluxe
2gb pc8500 Ballistix
asus 8800GTX
Ik wil meer peformance voor Crysis. Baal er goed van dat ik de game niet op volledige settings kan spelen en al helemaal dat dat wel mogelijk zou zijn met een 8800GTX. De reden waarom je zo,n duur apparaat uiteindelijk aanschaft.
Nu twijfel ik of ik nog een 8800GTX bij zou kopen.(2dehands) probeer mijn moederbord te verkopen en daarvoor in de plaats een 680i bord te kopen.
minpunten zijn dat:
- Mijn 600w voeding moet ook vervangen worden.
-680i geeft nog wel is problemen met Qaudcores. Ik neem natuurlijk geen genoegen met een lagere clock als ik nu heb.
780i?
2de optie is om mijn 8800GTX te verkopen en daarvoor in de plaats 2x 8800GT te kopen.
Dus dan zou ik ook moet asus p5k moeten verkopen/ruilen.
pluspunt is dan wel dat ik mijn 600w zalman voeding kan behouden.
nadeel is dan ook weer dat ik bang of mijn Qaudcore wel lekker wilt clocken op een 680i bord.
-Probeer maar is van je 8800GTX af te komen in deze tijden.
-waarschijnlijk een stuk goedkoper uit.
Ik heb echt geen idee wat ik nou het beste kan doen. Wellicht toch wachten?
Ik klink wellicht wat verwend dat ik zeur over de prestaties van de 8800GTX. Ik ben gewoon gek op hardware en die 8800GTX hangt nu al een tijdje in me pc. Wil weer is wat nieuws proberen
Imo is vrijwel elke optie op dit moment geldverspilling, tenzij je zoveel hebt dat het niet uitmaakt of je wilt perse een paar frames extra.
Je kunt natuurlijk je GTX verkopen en voor SLI of XF gaan maar ook dat zal niet echt veel zoden aan de dijk zetten.
De enige echte verlichting komt pas met de G100 en of de R700. Tot die tijd is het imo sappelen....
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
De week op volgende week komt er een patch uit voor SLI. dan zal je wellicht wel wat beter draaien als dat je nu doet.Anoniem: 218213 schreef op maandag 19 november 2007 @ 17:23:
tja 2x 8800gts sli, x3210 3gb, sneeuw level, en een heele mooie diashow, dat terwijl het toch allemaal heel veel geld kost, het is jammer, maar het is nou eenmaal zo, advies, houden wat je nu hebt, en wachten tot feb, en dan mar verder zien
Ik wacht in iedergeval toch maar even. ken dat.geef ik nu een hoop geld uit. Komt in januarie een veel betere oplossing voor nog minder geld ook.
Uiteindelijk zit onze manager er alleen voor spek en bonus.. - Loesje
Ach upgraden voor Crysis is echt nutteloos... Net wat HELP zegt; dat is een game voor de R700 en G100. Dat je nu die game toevallig niet kan spelen is jammer, maar je kan met die setup wel CoD4 op 1920x1200 met AA en AF spelen lijkt mij. Of HL2 + Episodes... Zat games die wel goed draaien dacht ik.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Yup, draai hier alles op 1600x1200 HQ AF16x 4xAA met voldoende fps op de Ultra, behalve dus Crysis in DX10. Die ga ik maar in DX9 spelen met extra IQ tweaks.RappieRappie schreef op maandag 19 november 2007 @ 18:08:
Ach upgraden voor Crysis is echt nutteloos... Net wat HELP zegt; dat is een game voor de R700 en G100. Dat je nu die game toevallig niet kan spelen is jammer, maar je kan met die setup wel CoD4 op 1920x1200 met AA en AF spelen lijkt mij. Of HL2 + Episodes... Zat games die wel goed draaien dacht ik.
Om Crysis in de huidige status in DX10 met deze instellingen te spelen is op z'n minst 3x meer GPU-power nodig.
[ Voor 9% gewijzigd door edward2 op 19-11-2007 18:58 ]
Niet op voorraad.
Anoniem: 212478
Klassieke weergave control panel.
Wellicht het vermelden waard in de OP?
Ga naar regedit.exe te vinden in de map Windows.
Daarna HKEY_LOCAL_MACHINE/SOFTWARE/NVIDIA Corporation/Global/NvCplApi/Policies.
Maak vervolgens een nieuwe DWORD-waarde aan en noem deze: sedonadisable.
Vervolgens dubbelklik je erop en vul je bij waardegegevens: 2 in.
In je control panel klassieke weergave kiezen. Sluiten en weer openen. Hoppa, klassieke weergave.
Wellicht het vermelden waard in de OP?
Ga naar regedit.exe te vinden in de map Windows.
Daarna HKEY_LOCAL_MACHINE/SOFTWARE/NVIDIA Corporation/Global/NvCplApi/Policies.
Maak vervolgens een nieuwe DWORD-waarde aan en noem deze: sedonadisable.
Vervolgens dubbelklik je erop en vul je bij waardegegevens: 2 in.
In je control panel klassieke weergave kiezen. Sluiten en weer openen. Hoppa, klassieke weergave.
[ Voor 12% gewijzigd door Anoniem: 212478 op 19-11-2007 20:19 ]
Uitvoeren > regeditAnoniem: 212478 schreef op maandag 19 november 2007 @ 20:19:
Ga naar regedit.exe te vinden in de map Windows.
Ziet er goed uit... spec is dus identiek aan 8800GT 512, op de geheugenhoeveelheid na.
Er was eerder sprake van een 8800GT 256 met 'slechts' 96 shaderprocessors... waarschijnlijk wordt dit dus de 8800GS, en als ik 't zo zie zal de ATi HD3850 zelfs daar nog wel een kluifje aan hebben.
Niet normaal meer, zulke performance in het 160-180 Euro segment
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Klopt nadat ik me pc opnieuw had opgestart had ik ineens veel meer frames, alleen maar beter,zal wel een bug geweest zijn.ikbengoofy schreef op maandag 19 november 2007 @ 17:19:
[...]
Kan het niet beter verwoorden. Ik wil ook altijd het snelste hebben. Maar met de opties die ik net opnoem maak ik het denk idd te gek.
spoiler:Ik had trouwens helemaal geen framedrops in het sneeuwlevel? wat wat lager maar goed speelbaar.. Vreemd!
Intel E6850@3,6Ghz ,GEIL 4 Gig pc800, MSI 8800GTX OC,Tagan 700W,raptor x 150gig,seagate 500gig,asus p5n32-e SLI plus, X-fi extremegamer, logitech z5450 speakerset, Coolermaster Stacker silver
Ja tegen die prijs doen ze je graag het verkopen echter ligt het in praktijk anders. 256MB memory scheelt iets van 20$, dus zeg maar hoog in de 180 euro tot 200 euro.Cheetah schreef op maandag 19 november 2007 @ 20:50:
Niet normaal meer, zulke performance in het 160-180 Euro segment
In dat geval wordt ie maar twee tientjes goedkoper dan de 8800GT. Dan concurreert ie op prijs niet met de HD3850, maar met de HD3870.The Source schreef op maandag 19 november 2007 @ 22:57:
Ja tegen die prijs doen ze je graag het verkopen echter ligt het in praktijk anders. 256MB memory scheelt iets van 20$, dus zeg maar hoog in de 180 euro tot 200 euro.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
dat ligt ook een beetje aan de code van crysis denk ik..edward2 schreef op maandag 19 november 2007 @ 18:34:
[...]
Om Crysis in de huidige status in DX10 met deze instellingen te spelen is op z'n minst 3x meer GPU-power nodig.
kijk cod4 maar eens...ziet er zeker zo mooi uit (misschien wel mooier), en draait hier op een gtx met alles op high 4xaa/16xaf 60-70fps
HANDIG! Misschien kan ik dan weer het 226CW kleurprofiel inladen voor mijn 2232BWAnoniem: 212478 schreef op maandag 19 november 2007 @ 20:19:
Klassieke weergave control panel.
Wellicht het vermelden waard in de OP?
Ga naar regedit.exe te vinden in de map Windows.
Daarna HKEY_LOCAL_MACHINE/SOFTWARE/NVIDIA Corporation/Global/NvCplApi/Policies.
Maak vervolgens een nieuwe DWORD-waarde aan en noem deze: sedonadisable.
Vervolgens dubbelklik je erop en vul je bij waardegegevens: 2 in.
In je control panel klassieke weergave kiezen. Sluiten en weer openen. Hoppa, klassieke weergave.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Je hebt helemaal gelijk, met de beta en de demo werd toen ookal verteld dat a) het spel nog beta aanvoelde b) de drivers nog beta waren c) er al vrij snel een patch voor het spel zou uitkomen.Mr. Detonator schreef op dinsdag 20 november 2007 @ 00:03:
[...]
dat ligt ook een beetje aan de code van crysis denk ik..
kijk cod4 maar eens...ziet er zeker zo mooi uit (misschien wel mooier), en draait hier op een gtx met alles op high 4xaa/16xaf 60-70fps
Dus het is zeer waarschijnlijk dat Crysis nog een performanceboost gaat krijgen.
Wel toevallig dat er nu net flink wat nieuwe videokaarten op de markt komen, want er zijn natuurlijk een hoop mensen die gaan upgraden voor de nieuwe games.
Hoe kan het dat jij op die resolutie @ very high het vloeiend kan spelen? Ik kan het enkel vloeiend spelen op 1280x1024 @ very high zonder AA. En dit terwijl ik een iets beter systeem heb dan jij. Dus verklaar je naderdarkphoenix schreef op maandag 19 november 2007 @ 16:32:
[...]
klopt maar ik zat aan het zelfde te denken maar het is best geldverspilling. en was net in de sneeuwlevel van crysis en daar is helemaal in het begin me fps 3-4 frames op 1920x1200 very high terwijl alle levels daarvoor heel goed speelbaar was.
Maar stel dat je 50% prestatie winst krijgt dan heb je 6-8 fps in sneeuwlevel![]()
ken het gevoel van altijd het snelste willen maar moet leuk blijven.
Tweaks?
Ik draai het overigens op vista x64 met de 32-bit .exe (geeft betere perf. dan 64bit.exe) en de 169.09 drivers.
@ mensen die lopen te zeuren over crysis performance. Er moet nog een hele zwik optimalisaties volgen. Zo moet allereerst DX10 geoptimaliseerd worden, zowel met patches als met drivers. Dit is ook wel logisch aangezien dit de eerste echte native DX10 game is en dit dus nieuw is voor zowel de developers als nvidia/ati. Daarnaast moet de 64-bit.exe file worden geoptimaliseerd, hier moet meer performance uit kunnen worden gehaald. En als laatste moet SLI nog verder worden geoptimaliseerd. Zie ook enkele fragmenten uit een interview met Cevat Yerli van Crytek en Roy Taylor @ incrysis.com:
http://www.incrysis.com/i..._content&task=view&id=559
AyeAye: I have a question for Roy, can we expect to see more performance gains in Crysis with releases of new drivers?
NVIDIA_Roy: Yes, we definitely can. Performance will improve, almost with every single driver drop and patch of the game. Literally every day and week we keep working on the drivers we can see improvements. There are many reasons for this, but it's important to remember that Crysis contains a million lines of code and 1GB of texture data and 85000 shaders. Even though it's a game it's a complex product and worthy of respect as a sophisticated software product.
M_A_X: Why have many been experiencing better performance with Crysis under XP than in Vista?
NVIDIA_Roy: Simply put - DX10 can do two tasks: 1, is reproduce existing effects more simply, 2 produce more sophisticated effects. DX10 is complex, new and we are at the beginning of our learning curve with it. Please remember that it took 2 years from the introduction of DX9 to the first game, Far Cry by the way. It's been just 1 year since DX10 was introduced. So, as we get more familiar with it we will see both performance increases and better and deeper use of features. Right now we are pleased that people are noticing the DX10 improvements.
Stinger35: How easy is the Crysis engine to work with when working to improve the new drivers?
NVIDIA_Roy: CryEngine 2 is fantastic, it represents the apex right now of PC gaming engines and it's VERY scaleable. Cevat has promised me that he will keep stretching our GPU's for some time to come.
But to answer the question directly... our engineers have found the engine to be well designed and structured and so working with the Crytek team on the engineers has been a relatively straight forward task. As straight forward as an engine of this complexity can be, that is.
Jonoman39: I would really like Cevat to answer the question regarding if Crysis supports SSE4 instructions, as that is the primary feature in Intel's new Penryn CPUs. And will there be a performance increase? Thanks!
Cevat: The game doesn't currently support SSE4 but it will do so in a future patch.
Ap0C: Is Crytek's priority to get full SLI support, or are they working on getting support for ALL multi-GPU setups?
Cevat: Right now the priority is SLI but we will support other solutions too in the future.
MadBoris: Where does the specific GPU bottleneck reside? When it's obviously not fillrate due to high resolutions, where is the next bottleneck? Is it shaders? Or is it mainly geometry and fillrate?
Cevat & NVIDIA_Roy: The game is designed to be balanced between the CPU and the GPU almost equally. If one or the other are out of kilter then it will create a bottleneck. The game really uses all you have!
Johnson: Why was quad not used in the final build of the game, and when can we expect to see it utilized in the game?
Cevat: The game does use quad-core but you won't see the benefit without a good GPU.
Jonathan: Why are some users getting slower performance in Crysis 64-bit mode than in 32-bit mode? Could any of that come from their drivers?
NVIDIA_Roy: 64-bit Windows has some memory advantages so we would expect better performance, generally with this version. We support 32-bit and 64-bit for all of our Vista drivers and have from the get go. But not all vendors are equally aggressive for both and this may effect some users.
Eerst zien en dan geloven. De G80 is al een jaar op de markt, nVidia heeft miljoenen in Crysis gestopt en fulltime meegewerkt aan de ontwikkeling en er is nog niks van te zien. Ik hou het op brak programmeerwerk. DX9 zou op z'n minst vlot moeten draaien. Kijk naar Epic en Valve, die hebben hun engines op orde.
Probeer WinXP met de Very High tweaks... verschil met DX10 Very High is verwaarloosbaarGurneyhck schreef op dinsdag 20 november 2007 @ 10:46:
Hoe kan het dat jij op die resolutie @ very high het vloeiend kan spelen? Ik kan het enkel vloeiend spelen op 1280x1024 @ very high zonder AA. En dit terwijl ik een iets beter systeem heb dan jij. Dus verklaar je nader
Tweaks?
Ik draai het overigens op vista x64 met de 32-bit .exe (geeft betere perf. dan 64bit.exe) en de 169.09 drivers.
Naar mijn ervaring is 1680x1050 @WinXP Very High bijna vloeiend (zelfs met m'n Ultra teruggeklokt naar 612/2200). Met wat tweaks (1 a 2 zaken @High ipv Very High) moet zelfs 1920x1200 te doen zijn. Performance onder XP is veel beter dan onder Vista.
Die XP Very High tweaks waren ook meteen het voorlopig einde van mijn XP -> Vista upgradeplannen
Hoezo niet?Hacku schreef op dinsdag 20 november 2007 @ 11:02:
Eerst zien en dan geloven. De G80 is al een jaar op de markt, nVidia heeft miljoenen in Crysis gestopt en fulltime meegewerkt aan de ontwikkeling en er is nog niks van te zien.
Crysis draait het best op nV hardware. Dat je niet alles maxed zou kunnen draaien was al from get-go bekend. Was met FarCry net zo, die wordt zelfs tot nu toe nog als DX9 benchmark gebruikt. Kwam ten tijde van de Radeon 9800 en Geforce FX5950 uit en kon kaarten van 2 generaties na z'n release nog op hun knieen brengen. Hoe realistisch is het dan om nu te verwachten dat je Crysis voluit zou kunnen draaien met kaarten van 1 jaar geleden?
Situatie is nu feitelijk zelfs aanmerkelijk beter dan toen. Met m'n 9800 Pro kon ik destijds toch echt glad vergeten dat ik alle details aan ging zetten @1280x1024. High was toen al een probleem
Draait anders vlot hier hoor... zelfs DX9 Very High is te doen, zij het netaan met moeiteDX9 zou op z'n minst vlot moeten draaien.
Epic en Valve's engines laten mij niet de grafische pracht zien van Crysis @high/very high...Kijk naar Epic en Valve, die hebben hun engines op orde.
[ Voor 41% gewijzigd door Cheetah op 20-11-2007 11:24 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Unreal3 en de Source engines zijn volgens mij gebaseerd op aanzienlijk oudere engines die veel volwassener zijn en waar alle prestaties zijn uitgeperst.Hacku schreef op dinsdag 20 november 2007 @ 11:02:
Eerst zien en dan geloven. De G80 is al een jaar op de markt, nVidia heeft miljoenen in Crysis gestopt en fulltime meegewerkt aan de ontwikkeling en er is nog niks van te zien. Ik hou het op brak programmeerwerk. DX9 zou op z'n minst vlot moeten draaien. Kijk naar Epic en Valve, die hebben hun engines op orde.
Maar ja, zoals het nu is ga ik ook geen 8800GT kopen. Ik heb een TFT met native 1600*1200 en ik ben gestelt op AA. Die combinatie in Crysis is eigenlijk altijd huilen met de pet op, tenzij je SLI/Crossfire gaat
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Crysis past op Very High (en meen ook op High) standaard al Edge AA toe op o.m. foiliage.XanderDrake schreef op dinsdag 20 november 2007 @ 11:22:
Ik heb een TFT met native 1600*1200 en ik ben gestelt op AA. Die combinatie in Crysis is eigenlijk altijd huilen met de pet op, tenzij je SLI/Crossfire gaat
Dit is ook te zien. Vergelijk high maar eens met medium.
Apart extra AA aanzetten is dus niet perse nodig, veel kartelrandjes worden al afgevlakt
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Tja... dat zou ik kunnen overwegen. Alleen ik ben al zo'nCheetah schreef op dinsdag 20 november 2007 @ 11:14:
[...]
Probeer WinXP met de Very High tweaks... verschil met DX10 Very High is verwaarloosbaar
Naar mijn ervaring is 1680x1050 @WinXP Very High bijna vloeiend (zelfs met m'n Ultra teruggeklokt naar 612/2200). Met wat tweaks (1 a 2 zaken @High ipv Very High) moet zelfs 1920x1200 te doen zijn. Performance onder XP is veel beter dan onder Vista.
Die XP Very High tweaks waren ook meteen het voorlopig einde van mijn XP -> Vista upgradeplannen
[...]
Maar ik ga het eerst nog ff aankijken. Overigens zou ik dan wel terug moeten stappen naar Win XP 64-bit, dit ivm 4GB RAM. Maar wat ik van WinXP 64-bit heb gehoord was niet zo positief. Kan iemand bevestigen dat Win XP 64-bit nu wel fatsoenlijk werkt alle drivers, progs en heel de toestand
Sorry voor de halve offtopic trouwens.
Gurneyhck schreef op dinsdag 20 november 2007 @ 11:34:
Overigens zou ik dan wel terug moeten stappen naar Win XP 64-bit, dit ivm 4GB RAM. Maar wat ik van WinXP 64-bit heb gehoord was niet zo positief.
offtopic:
Dat zou ik dus zeker niet doen. XP32 kan 3,5GB alloceren, die halve GB maakt zeker onder XP echt geen drol uit... 2GB is onder XP feitelijk al zat... ook voor Crysis. Ik zou voor die halve GB extra (t.o.v. 3.5GB, wat al meer dan zat is) echt geen compatibiliteitsissues met XP64 riskeren
Dat zou ik dus zeker niet doen. XP32 kan 3,5GB alloceren, die halve GB maakt zeker onder XP echt geen drol uit... 2GB is onder XP feitelijk al zat... ook voor Crysis. Ik zou voor die halve GB extra (t.o.v. 3.5GB, wat al meer dan zat is) echt geen compatibiliteitsissues met XP64 riskeren
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Patser, met je Ultra zal dat vast welDraait anders vlot hier hoor... zelfs DX9 Very High is te doen, zij het netaan met moeite
Hoezo niet?
Uiteraard draait Crysis het best op nV hardware. Zeg ik dan anders? En dat very high pas over twee jaar speelbaar zal zijn slik ik ook. Maar 25 fps @ 1280x1024 is tochHoe realistisch is het dan om nu te verwachten dat je Crysis voluit zou kunnen draaien met kaarten van 1 jaar geleden?

Nog geen 25 fps op zo'n lage resolutie, hebben ze daarom al die miljoenen in Crysis gepompt? Akkoord, DX10 is nieuw, maar onder DX9 is het niet veel beter.
Afgelopen weekend Episode 2 uitgespeeld. 1680x1050 op mijn 22", 4x AA, alles op high e.d. Draaide als een trein, en het game is gewoonweg prachtig. Systeem is een X2 3800+, 2GB, X1950Pro 256MB. UT3 op max mag ik vergeten, maar op 1440x900 draait het ook perfect. UT engines zijn altijd ernorm schaalbaar geweest, zelf op de domste videokaart werkt dit spel (bij manier van sprekenUnreal3 en de Source engines zijn volgens mij gebaseerd op aanzienlijk oudere engines die veel volwassener zijn en waar alle prestaties zijn uitgeperst.
Maar goed, Valve heeft zes jaar aan de Source engine gewerkt, waarschijnlijk is die ook maximaal geoptimaliseerd. Ook Epic heeft heel veel ervaring op dat gebied.
Ik had het over schaalbaarheid, niet over de grafische prachtEpic en Valve's engines laten mij niet de grafische pracht zien van Crysis @high/very high.
[ Voor 39% gewijzigd door XWB op 20-11-2007 12:25 ]
Waar haal je het dat nvidia miljoenen in crytek zou gestopt hebben?Hacku schreef op dinsdag 20 november 2007 @ 11:02:
Eerst zien en dan geloven. De G80 is al een jaar op de markt, nVidia heeft miljoenen in Crysis gestopt en fulltime meegewerkt aan de ontwikkeling en er is nog niks van te zien. Ik hou het op brak programmeerwerk. DX9 zou op z'n minst vlot moeten draaien. Kijk naar Epic en Valve, die hebben hun engines op orde.
Nou het is speelbaar. niet super vloeiend natuurlijk maar ik heb gewoon motionblur uitgezet en dat scheelt niet alleen fps maar het loopt/lijkt ook vloeiender. ik heb via de gpu test 19 gemiddeld en al is dat niet hoog voor mij toch speelbaar en eyecandy is toppie.Gurneyhck schreef op dinsdag 20 november 2007 @ 10:46:
[...]
Hoe kan het dat jij op die resolutie @ very high het vloeiend kan spelen? Ik kan het enkel vloeiend spelen op 1280x1024 @ very high zonder AA. En dit terwijl ik een iets beter systeem heb dan jij. Dus verklaar je nader
Tweaks?
Ik draai het overigens op vista x64 met de 32-bit .exe (geeft betere perf. dan 64bit.exe) en de 169.09 drivers.
[...]
[ Voor 21% gewijzigd door darkphoenix op 20-11-2007 17:45 ]
Intel E6850@3,6Ghz ,GEIL 4 Gig pc800, MSI 8800GTX OC,Tagan 700W,raptor x 150gig,seagate 500gig,asus p5n32-e SLI plus, X-fi extremegamer, logitech z5450 speakerset, Coolermaster Stacker silver
ow nice, de reg-truuc voor het classic menu heeft gewerkt. Ik zit nu weer op het 226CW profiel!
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Goedenavond Tweakers,
Ik heb sinds een maand last gehad van mijn Nvidia kaart.
Nu heb ik mijn Nvidia kaart (8600GT) weggebracht voor reparatie/vervanging en heb ik een Nvidia 6600 gekregen om te lenen zodat ik nog wel verder kan computeren.
Omdat ik nu wel een 100% werkende kaart heb wou ik gebruik maken van de Nvidia Purevideo decoders.
Nu heb ik hier een probleem mee.
Een maand geleden toen alles nog prima werkte had ik ook Nvidia Purevideo decoder draaien voor mijn DVDs en X264/H264 filmpjes (naast Nvidia Purevideo decoder draaide ik ook CoreAVC 1.3 dacht ik..Op dit moment heb ik CoreAVC 1.5 draaien)
Nu blijkt echter dat mijn Media player of videokaart niet mee wil werken.
Als ik een DVD in m'n pc stop dan werkt de Purevideo video decoder én audio decoder gewoon perfect.
Probeer ik een x264 bestand af te spelen wil alleen mijn Purevideo audio decoder mee werken.
Mijn media speler is "media player classic" (up-to-date versie).
Nu vroeg ik me af:
Werkt de Purevideo video decoder bij X264 niet vanwege mij kaart die ik nu in mijn systeem hebt zitten of ligt het aan mijn instellingen?
De instellingen die ik voor Purevideo heb gewijzigd zijn:
Playback => Output => DirectShow Video => VMR9 (renderless)
Playback => Output => "VMR 7/9 (renderless" & EVR Custom Pres. settings => -
Surface: 3D surfaces
-Resizer: Bilinear
Internal Filter => MPEG-1 Video en MPEG-2 Video uitgeschakeld
External Filter =>
-Nvidia Audio decoder op prefer gezet
-Nvidia Video decoder op prefer gezet
-Nvidia TS Info parser op prefer gezet
Ik zou het erg fijn vinden als jullie mij zouden kunnen helpen
bvd
Ik heb sinds een maand last gehad van mijn Nvidia kaart.
Nu heb ik mijn Nvidia kaart (8600GT) weggebracht voor reparatie/vervanging en heb ik een Nvidia 6600 gekregen om te lenen zodat ik nog wel verder kan computeren.
Omdat ik nu wel een 100% werkende kaart heb wou ik gebruik maken van de Nvidia Purevideo decoders.
Nu heb ik hier een probleem mee.
Een maand geleden toen alles nog prima werkte had ik ook Nvidia Purevideo decoder draaien voor mijn DVDs en X264/H264 filmpjes (naast Nvidia Purevideo decoder draaide ik ook CoreAVC 1.3 dacht ik..Op dit moment heb ik CoreAVC 1.5 draaien)
Nu blijkt echter dat mijn Media player of videokaart niet mee wil werken.
Als ik een DVD in m'n pc stop dan werkt de Purevideo video decoder én audio decoder gewoon perfect.
Probeer ik een x264 bestand af te spelen wil alleen mijn Purevideo audio decoder mee werken.
Mijn media speler is "media player classic" (up-to-date versie).
Nu vroeg ik me af:
Werkt de Purevideo video decoder bij X264 niet vanwege mij kaart die ik nu in mijn systeem hebt zitten of ligt het aan mijn instellingen?
De instellingen die ik voor Purevideo heb gewijzigd zijn:
Playback => Output => DirectShow Video => VMR9 (renderless)
Playback => Output => "VMR 7/9 (renderless" & EVR Custom Pres. settings => -
Surface: 3D surfaces
-Resizer: Bilinear
Internal Filter => MPEG-1 Video en MPEG-2 Video uitgeschakeld
External Filter =>
-Nvidia Audio decoder op prefer gezet
-Nvidia Video decoder op prefer gezet
-Nvidia TS Info parser op prefer gezet
Ik zou het erg fijn vinden als jullie mij zouden kunnen helpen
bvd
[ Voor 3% gewijzigd door Devrim op 20-11-2007 22:26 ]
Ik dacht dat PureVideo geen X264 ondersteunde, of het was iets anders.
Die geruchtenmolen in de TS mag denk ik wel weggekieperd. Het is vooral outdated spul, met nog eens een onderhand foute link erin ook...
Dacht ook enkel H264 en geen X264Gorion3 schreef op dinsdag 20 november 2007 @ 23:17:
Ik dacht dat PureVideo geen X264 ondersteunde, of het was iets anders.
Gorion3 schreef op dinsdag 20 november 2007 @ 23:17:
Ik dacht dat PureVideo geen X264 ondersteunde, of het was iets anders.
X264 valt toch ook onder H264?H.264, WMV, and MPEG-2 Hardware Acceleration
NVIDIA PureVideo provides ultra-smooth playback of H.264, WMV and MPEG-2 HD and SD videos with minimal CPU usage.
-edit-
Overigens staat er ook SD videos en dat zou moeten betekenen dat het ook met xvidjes werkt wat die hier dus ook niet doet
x264 is een opensource encoder voor H.264. Dat een videokaart H.264 kan wil dus niet meteen zeggen dat het ook x264 kan. En eigenlijk wil je dat wel, want elk (echt) avi bestandje dat je downloadt is eigenlijk x264
Anoniem: 159816
Ja, nou hoef ik het niet meer uit te leggenTheZeroorez schreef op woensdag 21 november 2007 @ 10:29:
x264 is een opensource encoder voor H.264. Dat een videokaart H.264 kan wil dus niet meteen zeggen dat het ook x264 kan. En eigenlijk wil je dat wel, want elk (echt) avi bestandje dat je downloadt is eigenlijk x264
Volgens mij kan mijn kaart helemaal geen HD aanTheZeroorez schreef op woensdag 21 november 2007 @ 10:29:
x264 is een opensource encoder voor H.264. Dat een videokaart H.264 kan wil dus niet meteen zeggen dat het ook x264 kan. En eigenlijk wil je dat wel, want elk (echt) avi bestandje dat je downloadt is eigenlijk x264
Ik wacht dus wel eventjes op m'n 8600GT die wel Purevide HD aankan
Anoniem: 88208
Ik heb een 8600gt, ik heb powerdvd en de purevideo installatie gedaan. Ik heb een 45GB hd film afgespeeld met media player classic, dat ging aardig goed. Het geluid wil ik via de optische uitgang op het moederbord naar mijn z-5500 laten gaan(nog niet getest). Doe ik alles nu goed? Of behoor ik nog 1 of andere codec/driver ofzo te installeren? ThxDevrim schreef op woensdag 21 november 2007 @ 16:18:
[...]
Volgens mij kan mijn kaart helemaal geen HD aan
Ik wacht dus wel eventjes op m'n 8600GT die wel Purevide HD aankan
Anoniem: 159816
Nieuwe Vista drivers:
http://www.nvidia.com/object/winvista_x86_169.12.html
http://www.nvidia.com/object/winvista_x64_169.12.html
http://www.nvidia.com/object/winvista_x86_169.12.html
http://www.nvidia.com/object/winvista_x64_169.12.html
Recommended driver for Crysis (no Crysis changes from Release 169.09).
Wat is er dan wel aan veranderd, heel fijn hé die changelog's.
* Acer Aspire V15 Nitro - Intel Core i5-5200U 2,7Ghz - 8GB - GTX 850M 4GB- 500GB 5400RPM - 128GB SSD * MX518 * Xbox 360 + XBOX One * Philips LED 55" * Samsung Galaxy S9
Het is mss wat off-topic, maar ik vind het de moeite niet een nieuwtopic ervoor te openen, maar ik zou graag willen weten welk soort gpu dit is.
nVidia GeForce M76M
Ik vind er blijkbaar geen echte specifieke info over, want ik ben van plan een media center van acer te kopen en daar zit die kaart in.
Iemand enig idee?
nVidia GeForce M76M
Ik vind er blijkbaar geen echte specifieke info over, want ik ben van plan een media center van acer te kopen en daar zit die kaart in.
Iemand enig idee?
[ Voor 11% gewijzigd door AxelF op 22-11-2007 11:54 ]
http://specs.tweak.to/15628 Area-51 ALX (evga 680i, qx6700 @3.2, 4 gb 1066 Mhz Patriot, geforce 8800 Ultra SLI, 2*1Tb Hitachi, 30" dell, 7.1 gigaworks s750, g15 logitech, mx revolution, X-fi Xtreme Gamer)
Werkt prima, draai er al sinds de introductie mee. Crysis draait ook fantastisch, stuk beter dan mijn 32bit XP machine (alleen wel met een ATi kaartGurneyhck schreef op dinsdag 20 november 2007 @ 11:34:
[...]
Kan iemand bevestigen dat Win XP 64-bit nu wel fatsoenlijk werkt alle drivers, progs en heel de toestand
CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600
@ AxelF, een GeForce 7600-series alleen dan de Mobile-versie denk ik zo
Ik denk het niet aangezien er directx 10 achter staat bij de beperkte specificaties van die gpu. Ook heeft ie 512 mb geheugen, maar dat is dan ook alles wat erbij staat.Jejking schreef op donderdag 22 november 2007 @ 12:40:
@ AxelF, een GeForce 7600-series alleen dan de Mobile-versie denk ik zo
http://specs.tweak.to/15628 Area-51 ALX (evga 680i, qx6700 @3.2, 4 gb 1066 Mhz Patriot, geforce 8800 Ultra SLI, 2*1Tb Hitachi, 30" dell, 7.1 gigaworks s750, g15 logitech, mx revolution, X-fi Xtreme Gamer)
Wat zeiden ze ook alweer?
We will see improvements in Crysis with every new driver and patch that will be released from now on....
...yeah right

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Anoniem: 226494
Het is ook een BETA driver die problemen met slaapstand enzo moet oplossen. en als je goed leest stond er dit: no Crysis changes from Release 169.09. en dit Fixes a resume from Sleep/Hibernate issue with GeForce 8800 GTjustifire schreef op donderdag 22 november 2007 @ 17:54:
[...]
Wat zeiden ze ook alweer?
We will see improvements in Crysis with every new driver and patch that will be released from now on....
...yeah right
Crisis is heus niet het belangrijste en eenigste probleem

[ Voor 6% gewijzigd door Anoniem: 226494 op 22-11-2007 18:03 ]
Neemt niet weg dat dit een nieuwe driver release is, het ging toen immers ook over een beta, de 169.09Anoniem: 226494 schreef op donderdag 22 november 2007 @ 17:59:
[...]
Het is ook een BETA driver die problemen met slaapstand enzo moet oplossen. en als je goed leest stond er dit: no Crysis changes from Release 169.09. en dit Fixes a resume from Sleep/Hibernate issue with GeForce 8800 GT
Crisis is heus niet het belangrijste en eenigste probleem
Als je iets niet waar kan maken, beloof het dan ook niet.
Crysis ligt hier nog netjes op de plank te wachten op de patch en juiste drivers voor goede SLI performance.
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Ik weet niet of deze al is voorbij gekomen:
http://www.dollarshops.eu/product_info.php/products_id/1117

Sparkle 8500GT PCI Passief gekoelt
Over legacy support gesproken! Geniaal voor oudere (Via) Mini ITX bordjes om nog voor de lol HD op te kijken. En misschien een beetje Crysis ernaast?
http://www.dollarshops.eu/product_info.php/products_id/1117

Sparkle 8500GT PCI Passief gekoelt
Over legacy support gesproken! Geniaal voor oudere (Via) Mini ITX bordjes om nog voor de lol HD op te kijken. En misschien een beetje Crysis ernaast?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Daar is ie ook niet voor >_>
ziet er wel mooi uit vind ik. Niets voor gamers maar ja dat zijn ook niet zoveel mensen.
ziet er wel mooi uit vind ik. Niets voor gamers maar ja dat zijn ook niet zoveel mensen.
Verbazend dat de markt voor PCI kaarten nog zo groot is, dat het de ontwikkeling van een current-gen PCI videokaart waard is. Iemand enig idee voor een mogelijke toepassing?
Pas kwamen er een 7300GT en een X1300XT uit, vandaar. De toepassing ligt denk ik vooral in industriële systemen, HTPC's waar nog een AGP bord in ligt, of tweakers die gaan BIOSflashen en geen oude PCI kaart in huis meer hebbenEdmin schreef op zaterdag 24 november 2007 @ 23:05:
Verbazend dat de markt voor PCI kaarten nog zo groot is, dat het de ontwikkeling van een current-gen PCI videokaart waard is. Iemand enig idee voor een mogelijke toepassing?
Genoeg mensen die meerdere monitoren hebben en geen twee PCIe-16x sloten hoorEdmin schreef op zaterdag 24 november 2007 @ 23:05:
Verbazend dat de markt voor PCI kaarten nog zo groot is, dat het de ontwikkeling van een current-gen PCI videokaart waard is. Iemand enig idee voor een mogelijke toepassing?
Zelf heb ik voor een wat ouder bordje ook een PCI videokaart gekocht, kon ik tenminste m'n 2 TFT's en m'n beamer aansluiten zonder te hoeven omschakelen
Anoniem: 135673
lol dat was het dus. Ik vond het al vreemd dat mijn computer ineens een identiteitscrisis had en dacht dat ie een laptop was waardoor hij naar 20 minuten steeds ging slapenAnoniem: 226494 schreef op donderdag 22 november 2007 @ 17:59:
[...]
Het is ook een BETA driver die problemen met slaapstand enzo moet oplossen. en als je goed leest stond er dit: no Crysis changes from Release 169.09. en dit Fixes a resume from Sleep/Hibernate issue with GeForce 8800 GT
Crisis is heus niet het belangrijste en eenigste probleem
Ik maar denken dat iemand in het huis steeds dat ding voor de lol uitzette
Anoniem: 226494
SerieusAnoniem: 135673 schreef op zaterdag 24 november 2007 @ 23:25:
[...]
lol dat was het dus. Ik vond het al vreemd dat mijn computer ineens een identiteitscrisis had en dacht dat ie een laptop was waardoor hij naar 20 minuten steeds ging slapen![]()
Ik maar denken dat iemand in het huis steeds dat ding voor de lol uitzette
Anoniem: 226494
nVidia's high end dual GPU videokaart met codenaam D8E kwam al eerder voorbij op HWI. Fudzilla beweert bevestiging te hebben gekregen dat de D8E opgebouwd zal zijn uit twee Printed Circuit Boards (PCB), net als zijn dual GPU voorganger GeForce 7950GX2. Dit betekent dat het lastig of niet mogelijk zal worden om de kaart te voorzien van after market koeling. In het meest gunstige geval kan een fabrikant de kaart voorzien van twee blokken voor waterkoeling.
De D8E zal gebruik maken van twee G92 GPU's. Het verwachte stroomverbruik zal boven 200 Watt liggen en de kaart zal daarom voorzien zijn van één 6 pins PEG connector en één 8 pins connector. De D8E zal naar alle waarschijnlijkheid nVidia's snelste videokaart tot nu toe worden, naar verwachting ook sneller dan ATI's dual GPU R680.
De dual G92 videokaart wordt mogelijk in het eerste kwartaal van 2008 gelanceerd.
Oud maar goed nieuws
Bron 1 http://www.fudzilla.com/i...ask=view&id=4290&Itemid=1
Bron 2 http://www.nordichardware.com/news,7064.html
De D8E zal gebruik maken van twee G92 GPU's. Het verwachte stroomverbruik zal boven 200 Watt liggen en de kaart zal daarom voorzien zijn van één 6 pins PEG connector en één 8 pins connector. De D8E zal naar alle waarschijnlijkheid nVidia's snelste videokaart tot nu toe worden, naar verwachting ook sneller dan ATI's dual GPU R680.
De dual G92 videokaart wordt mogelijk in het eerste kwartaal van 2008 gelanceerd.
Oud maar goed nieuws
Bron 1 http://www.fudzilla.com/i...ask=view&id=4290&Itemid=1
Bron 2 http://www.nordichardware.com/news,7064.html
[ Voor 7% gewijzigd door Anoniem: 226494 op 25-11-2007 14:30 ]
Uit wiens glazen bol komt deze niet-onderbouwde stelling?Anoniem: 226494 schreef op zondag 25 november 2007 @ 13:42:
De D8E zal naar alle waarschijnlijkheid nVidia's snelste videokaart tot nu toe worden, naar verwachting ook sneller dan ATI's dual GPU R680.
Anoniem: 226494
Sorry ik zal ff de bron erbij zeten. Nogmaals sorryEdmin schreef op zondag 25 november 2007 @ 14:22:
[...]
Uit wiens glazen bol komt deze niet-onderbouwde stelling?
Dat klinkt iderdaad logisch, maar is het niet. De G92 is iets sneller, maar de uitkomst van 2x1 chip is nooit 2. De manier waarop NV en ATI dit ontwikkelen zal de winnaar bepalen.looks like it will be faster than R680. The logic behind it is quite simply, as we suspected: if a single G92 leaves RV670 in the dust, then two of Nvidia’s chip should be faster than two of ATI’s.
Dat zegt een hoop.and according to Fudzilla (beware the source)
[ Voor 10% gewijzigd door Edmin op 25-11-2007 14:53 ]
Kortom, [quote] tags gebruiken.Anoniem: 226494 schreef op zondag 25 november 2007 @ 14:27:
[...]
Sorry ik zal ff de bron erbij zeten. Nogmaals sorry
Ik weet niet of deze al voorbij is gekomen:
http://www.xtremesystems....php?p=2579010#post2579010
Waaruit blijkt dat de strijd voorlopig nog niet gestreden is.
http://www.xtremesystems....php?p=2579010#post2579010
Waaruit blijkt dat de strijd voorlopig nog niet gestreden is.
Zijn er al benchmarks van de 8800 GTS gebaseerd op de G92?
Misschien een hele basis vraag, maar kan het serieus niet echt vinden op google of wat dan ook.
Waar staat GT, GTS, GTX in hemelsnaam voor ?
X = Xtreme
Heeft het dezelfde betekenis bij videokaarten als bij auto's & motoren ?
Waar staat GT, GTS, GTX in hemelsnaam voor ?
X = Xtreme
Heeft het dezelfde betekenis bij videokaarten als bij auto's & motoren ?
[ Voor 3% gewijzigd door NeoMe op 27-11-2007 10:31 ]
* Acer Aspire V15 Nitro - Intel Core i5-5200U 2,7Ghz - 8GB - GTX 850M 4GB- 500GB 5400RPM - 128GB SSD * MX518 * Xbox 360 + XBOX One * Philips LED 55" * Samsung Galaxy S9
Echt een betekenis heeft het niet meegekregen, of: niet met marketing-doel. Het zal vast wel 'ergens' voor staan, maar misschien ook niet
Ja, het wordt ook bij auto's en motoren gebruikt.
Ik begrijp de aanduiding wel, GT, dan GTS, dan GTX, en dan de Ultra.
Maar ... waarom ?!?!
Kan online niet echt iets vinden, behalve dat de GTX voor Xtreme staat.
Maar of die bron daadwerkelijk betrouwbaar is weet ik niet...
Ik begrijp de aanduiding wel, GT, dan GTS, dan GTX, en dan de Ultra.
Maar ... waarom ?!?!
Kan online niet echt iets vinden, behalve dat de GTX voor Xtreme staat.
Maar of die bron daadwerkelijk betrouwbaar is weet ik niet...
* Acer Aspire V15 Nitro - Intel Core i5-5200U 2,7Ghz - 8GB - GTX 850M 4GB- 500GB 5400RPM - 128GB SSD * MX518 * Xbox 360 + XBOX One * Philips LED 55" * Samsung Galaxy S9
Toch vindt ik het wel een vreemde koers waar nvidia is ingeslagen, waarom hebben zij de nieuwe GT en GTS niet de 8900 serie genoemd? Dit voorkomt nogal wat verwarring zoals bijvoorbeeld dan een 640MB GTS "beter" is dan een 512MB GTS.
En over die aanduiding GT, ik dacht altijd dat dat iets in de richting van Gamers Edition is of Grand Touring
van auto races is genomen.
En over die aanduiding GT, ik dacht altijd dat dat iets in de richting van Gamers Edition is of Grand Touring

Als iemand het antwoord weet, graag...had het er met een maat over, en we kwamen er niet uit 
Best frustrerend
G staat voor Gaming...zou in principe best kunnen...
X staat voor Xtreme...zou ook kunnen
nu de rest nog
Best frustrerend
G staat voor Gaming...zou in principe best kunnen...
X staat voor Xtreme...zou ook kunnen
[ Voor 32% gewijzigd door NeoMe op 27-11-2007 12:48 ]
* Acer Aspire V15 Nitro - Intel Core i5-5200U 2,7Ghz - 8GB - GTX 850M 4GB- 500GB 5400RPM - 128GB SSD * MX518 * Xbox 360 + XBOX One * Philips LED 55" * Samsung Galaxy S9
Vergeet niet dat GT bij auto's voor Grand Touring staat he.NeoMe schreef op dinsdag 27 november 2007 @ 11:38:
Ja, het wordt ook bij auto's en motoren gebruikt.
Ik begrijp de aanduiding wel, GT, dan GTS, dan GTX, en dan de Ultra.
Maar ... waarom ?!?!
Kan online niet echt iets vinden, behalve dat de GTX voor Xtreme staat.
Maar of die bron daadwerkelijk betrouwbaar is weet ik niet...
Maar neemt niet weg dat het misschien daar wel vanaf is geleid. GT(s/i) auto's zijn meestal snellere varianten dus dat zou wel iets kunnen verklaren.
Misschien hebben ze dat wel express gedaan zodat domme mensen (die nog puur in MB's denken.) die oudere G80's nog gaan kopen.SniperFox schreef op dinsdag 27 november 2007 @ 12:15:
Toch vindt ik het wel een vreemde koers waar nvidia is ingeslagen, waarom hebben zij de nieuwe GT en GTS niet de 8900 serie genoemd? Dit voorkomt nogal wat verwarring zoals bijvoorbeeld dan een 640MB GTS "beter" is dan een 512MB GTS.
En over die aanduiding GT, ik dacht altijd dat dat iets in de richting van Gamers Edition is of Grand Touringvan auto races is genomen.
Misschien speelt dat ook nog voor 2% mee, maar het is voornamelijk omdat de 8800 serie zo populair is. nVidia en 8800 = supergraphics voor de meeste mensen.HugoBoss1985 schreef op dinsdag 27 november 2007 @ 13:12:
[...]
Misschien hebben ze dat wel express gedaan zodat domme mensen (die nog puur in MB's denken.) die oudere G80's nog gaan kopen.
nVidia behoudt dus het liefst zijn 8800 merknaam zolang mogelijk. Vandaar de keuze..
Dat zou ik ook wel willen weten, ergens las ik dat wij in Europe een introductie prijs van 305 Euro te zien krijgen voor de nieuwe 8800GTS.Mitt3nz schreef op zondag 25 november 2007 @ 16:50:
Zijn er al benchmarks van de 8800 GTS gebaseerd op de G92?
Als deze kaart echt in de buurt komt van de Ultra dan neem ik deze voor in mijn nieuwe systeem. En anders gewoon 2x 8800GT
Of als ik echt geld te veel heb 2x 8800GTS G92
Wat is de releasesatum van de nieuwe 8800GTS?
Omdat ik toch een geheel nieuw systeem ga bouwen, vind ik het zonde om een 8800GT te bestellen en er vervolgens een maand op wachten. Ik ben zeer benieuwd naar benchmarks van de nieuwe 8800GTS. En natuurlijk naar de verkrijgbaarheid bij de launch.
Omdat ik toch een geheel nieuw systeem ga bouwen, vind ik het zonde om een 8800GT te bestellen en er vervolgens een maand op wachten. Ik ben zeer benieuwd naar benchmarks van de nieuwe 8800GTS. En natuurlijk naar de verkrijgbaarheid bij de launch.
Ik wacht ook op die kaart!Gabliboeba schreef op dinsdag 27 november 2007 @ 17:00:
Wat is de releasesatum van de nieuwe 8800GTS?
Omdat ik toch een geheel nieuw systeem ga bouwen, vind ik het zonde om een 8800GT te bestellen en er vervolgens een maand op wachten. Ik ben zeer benieuwd naar benchmarks van de nieuwe 8800GTS. En natuurlijk naar de verkrijgbaarheid bij de launch.
14 December om precies te zijn, maar ik ben bang dat ze pas midden januari goed verkrijgbaar zijn.Gabliboeba schreef op dinsdag 27 november 2007 @ 17:00:
Wat is de releasesatum van de nieuwe 8800GTS?
Omdat ik toch een geheel nieuw systeem ga bouwen, vind ik het zonde om een 8800GT te bestellen en er vervolgens een maand op wachten. Ik ben zeer benieuwd naar benchmarks van de nieuwe 8800GTS. En natuurlijk naar de verkrijgbaarheid bij de launch.
Anoniem: 226494
Volgens mij kun je net zo goed een gt nemen want de gts zal 50 eu meer kosten en niet veel sneller zijn
heb je al benchmarks gezien van de gts dan ?Anoniem: 226494 schreef op dinsdag 27 november 2007 @ 18:26:
Volgens mij kun je net zo goed een gt nemen want de gts zal 50 eu meer kosten en niet veel sneller zijn
en daar staat dan ook in dat ze 50euro duurder zijn ??
[ Voor 12% gewijzigd door Mr. Detonator op 27-11-2007 18:28 ]
Anoniem: 226494
hij gaat ongeveer rond de 300eu kosten (is al vaker gezegt maar heb geen bron)Mr. Detonator schreef op dinsdag 27 november 2007 @ 18:27:
[...]
heb je al benchmarks gezien van de gts dan ?
en daar staat dan ook in dat ze 50euro duurder zijn ??
En als je de specs vergelijkt met de gt kom ik tot de conclusie dat hij niet veel sneller zal zijn als je de specs gaat vergelijken. Omdat de nieuwe 8800gts 128 shader units heeft zla hij wel verder oc-baar zijn dan de 8800gt (die heeft 112 shader units. Dit is ook het eenigste verschil tussen de gt en gts) Als ik het verkeerd heb hoor ik het graag. En wat verkeerd is gezegt, en hoe het wel zit
[ Voor 25% gewijzigd door Anoniem: 226494 op 27-11-2007 18:41 ]
Dan heb je de specs niet helemaal goed gelezen, het is zeker niet het enige verschil...Anoniem: 226494 schreef op dinsdag 27 november 2007 @ 18:31:
[...]
hij gaat ongeveer rond de 300eu kosten (is al vaker gezegt maar heb geen bron)
En als je de specs vergelijkt met de gt kom ik tot de conclusie dat hij niet veel sneller zal zijn als je de specs gaat vergelijken. Omdat de nieuwe 8800gts 128 shader units heeft zla hij wel verder oc-baar zijn dan de 8800gt (die heeft 112 shader units. Dit is ook het eenigste verschil tussen de gt en gts)
Waarom zou hij dan verder over te clocken zijn?Anoniem: 226494 schreef op dinsdag 27 november 2007 @ 18:31:
[...]
hij gaat ongeveer rond de 300eu kosten (is al vaker gezegt maar heb geen bron)
En als je de specs vergelijkt met de gt kom ik tot de conclusie dat hij niet veel sneller zal zijn als je de specs gaat vergelijken. Omdat de nieuwe 8800gts 128 shader units heeft zla hij wel verder oc-baar zijn dan de 8800gt (die heeft 112 shader units. Dit is ook het eenigste verschil tussen de gt en gts) Als ik het verkeerd heb hoor ik het graag. En wat verkeerd is gezegt, en hoe het wel zit
Juist niet de 8800GTS met 96 shaders kwam gemiddeld op hogere snelheden dan de 8800GTX/Ultra met 128 shaders, dat is logisch natuurlijk want hoe meer onderdelen hoe meer er mis kan gaan.
Tesla Model 3 Performance - Tesla Model 3 Long Range - 6320Wp Oost-West
ASUS EN8800GTS/HTDP, 512M TV-out,2xDVI-I,PCIe,VGA,HDTV €230.36
Je moet er wel nog BTW en winstmarge bijrekenen.
Je moet er wel nog BTW en winstmarge bijrekenen.
[ Voor 26% gewijzigd door XWB op 27-11-2007 21:57 ]
Dus 275 euro inc. BTW, ik heb geen idee hoeveel winst er door retailers opgemaakt wordt, maar verwacht zo'n 35 Euro of zit ik er helemaal naast?Hacku schreef op dinsdag 27 november 2007 @ 21:57:
ASUS EN8800GTS/HTDP, 512M TV-out,2xDVI-I,PCIe,VGA,HDTV €230.36
Je moet er wel nog BTW en winstmarge bijrekenen.
Dit topic is gesloten.