Zo te zien zit die knik erin om bij SLI de kaart meer ruimte om te "ademen" te geven.Phyxion schreef op zondag 25 november 2007 @ 15:30:
NVIDIA engineers are drunk?
[afbeelding]
[afbeelding]
8800GTS 512MB.
http://forums.vr-zone.com/showthread.php?t=207437
5 tot 10 procent.Outlandos schreef op dinsdag 27 november 2007 @ 22:07:
[...]
Dus 275 euro inc. BTW, ik heb geen idee hoeveel winst er door retailers opgemaakt wordt, maar verwacht zo'n 35 Euro of zit ik er helemaal naast?
De laagste prijzen op de pricewatch zit vaak maar een euro of 3 marge tussen. Vaak maken ze dan wel de verzendkosten wat hoger. Normale marge zit op twee~drie tientjes oid idd.Outlandos schreef op dinsdag 27 november 2007 @ 22:07:
[...]
Dus 275 euro inc. BTW, ik heb geen idee hoeveel winst er door retailers opgemaakt wordt, maar verwacht zo'n 35 Euro of zit ik er helemaal naast?
De goedkoopste GTS640 is in de PW 285eu, gemiddelde prijs ligt op ongeveer 310. Waarom zou de GTS512 dan ineens maar 275 moeten kosten? Er zijn GT's die 270 doen (OC'ed, dat wel), dus ik verwacht niet dat je de nieuwe GTS voorlopig onder de 300eu zal zien.
Toch is het zo
En je moet niet gaan vergelijken met een overklokte GT, want er zullen ook overklokte GTS'en komen.
de amerikaanse prijs verwachte prijs is 299 dollars. Als je na gaat dat de gt 250 dollar ongeveer is dan kun je er uit van gaan dat het hier rond de 250-275 euro zou worden. Wat niet weg neemt dat we eigenlijk veelste veel betalen in vergelijking met de amerikanen.
Werkelijk? Kwam twee weken geleden een site voor resellers tegen via google (heb helaas de link niet meer) voor ZOTAC AMP (700/2000) kaarten, die kon je inkopen voor € 199,- per stuk.whiteguy schreef op dinsdag 27 november 2007 @ 22:43:
[...]
De laagste prijzen op de pricewatch zit vaak maar een euro of 3 marge tussen. Vaak maken ze dan wel de verzendkosten wat hoger. Normale marge zit op twee~drie tientjes oid idd.
Moet je eens kijken voor hoeveel die ZOTAC AMP kaarten nu verkocht worden, die prijs begint pas bij de € 270,-
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
welke specs ?...want nog lang niet alles is bekend...of weet jij al hoeveel rops erin zitten, en op welke snelheid de gpu/mem gaat draaien ?Anoniem: 226494 schreef op dinsdag 27 november 2007 @ 18:31:
[...]
En als je de specs vergelijkt met de gt kom ik tot de conclusie dat hij niet veel sneller zal zijn als je de specs gaat vergelijken.
wat hebben het aantal shaders nou met de oc-baarheid te maken ?Omdat de nieuwe 8800gts 128 shader units heeft zla hij wel verder oc-baar zijn dan de 8800gt (die heeft 112 shader units.
dan moet de 3870 wel héél ver te klokken zijn met z'n 320 shaders
[ Voor 9% gewijzigd door Mr. Detonator op 28-11-2007 12:50 ]
Ik snap dat er mensen zijn die perse nu crysis goed willen spelen of altijd het dikste van het dikste willen....maar even rationeel nadenkend: je koopt 2x een kaart en je krijgt niet eens 1,5 keer de performance. Waarom zou je dit dan doen? Kost je 2x zoveel geld voor nog niet eens 1,5 keer de performance....m.a.w. geld wegooien! Toch?Outlandos schreef op dinsdag 27 november 2007 @ 16:34:
[...]
Als deze kaart echt in de buurt komt van de Ultra dan neem ik deze voor in mijn nieuwe systeem. En anders gewoon 2x 8800GT
Of als ik echt geld te veel heb 2x 8800GTS G92
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Anoniem: 226494
Nog wat nieuws over de 8800gts (g92)
http://arstechnica.com/jo...delay-new-geforce-8800gts
http://arstechnica.com/jo...delay-new-geforce-8800gts
Anoniem: 226494
Nog wat nieuws over de 8800gts (g92)
Wat ik dus al een paar posts trug zij. De 8800gts (g92) word niet veel sneller dan de 8800 gtNVIDIA may delay new GeForce 8800GTS
By Joel Hruska | Published: November 27, 2007 - 03:21PM CT
NVIDIA's 8800GT based on its new G92 GPU received very positive reviews when it debuted just under a month ago; the new upper-midrange card is significantly faster than the 8800GTS 320MB it replaces. It's also competitive with both the 8800GTS 640MB and the 8800GTX, depending on what benchmarks and settings are tested. Although the 512MB version of the 8800GT is priced too far above the 8600GTS to technically be considered a competitor, the upcoming 256MB 8800GT will target the mid-range market and should annihilate the current 8600GTS.
All of this, however, is contingent upon actually being able to buy an 8800GT, and current channel inventory seems intermittent. If a recent DigiTimes article is correct, NVIDIA may be pushing the introduction of its new 8800GTS 512MB part back to December 11 in order to ensure GPU availability. There's little point to releasing a product just before Christmas if you can't actually ship it in time for the holiday, and manufacturers wouldn't be particularly happy about missing the lucrative buying seasons due to a lack of G92 parts.
Rumored card specifications are as follows:
Support for PCI Express 2.0
512MB of DDR3 RAM (at 970MHz)
128 stream processors (650MHz core clock)
140W TDP
Based on these numbers, the 8800GT appears to be an 8800GTS with a single cluster of stream processors turned off. The 8800GT has 112 stream processors, which works out to seven clusters of 16 SPs each. The upcoming 8800GTS, on the other had, has 128 SPs, or eight clusters of 16 SPs each.
When the new 8800GTS does eventually hit the market, it may face some serious competition from the 8800GT. Although NVIDIA specifies a stock speed of 600MHz for the 8800GT 512MB series, manufacturers are already offering cards that run at least 70MHz above stock. The 8800GTS's additional stream processor cluster should pull it ahead of the 8800GT even when compared to cards running 20-30MHz faster, but the performance gap between the two cards may not be particularly large. That's good news for anyone wanting an 8800GT, but not so great for manufacturers hoping to squeeze higher margins out of the new 8800GTS.
Niet om het een of ander, maar dit is pure speculatie. Totdat er real-life benches zijn, zijn het allemaal aannames.
Er staat ook duidelijk: Rumored card specifications are as follows:
...
Based on these numbers, the 8800GT appears to be an 8800GTS with a single cluster of stream processors turned off.
Er staat ook duidelijk: Rumored card specifications are as follows:
...
Based on these numbers, the 8800GT appears to be an 8800GTS with a single cluster of stream processors turned off.
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
idd.... over rops word niet gepraatDemon_Eyez schreef op woensdag 28 november 2007 @ 14:24:
Niet om het een of ander, maar dit is pure speculatie. Totdat er real-life benches zijn, zijn het allemaal aannames.
Er staat ook duidelijk: Rumored card specifications are as follows:
...
Based on these numbers, the 8800GT appears to be an 8800GTS with a single cluster of stream processors turned off.
het zijn niet alleen het aantal shaders, en de snelheid van de gpu/mem wat de snelheid bepalen... hier spelen nog meerdere factoren mee
we zullen zien...maar het zou mij niks verbazen als ie zelfs sneller is dan de ultra á 350-400 euro

[ Voor 8% gewijzigd door Mr. Detonator op 28-11-2007 14:36 ]
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Anoniem: 114170
Hallo,
Ik weet niet of dit het goede topic is, maar omdat het om een nVidia kaart gaat zal het wel denk ik.
Ik wil binnenkort (over een maandje of 2) een nieuwe pc samenstellen, en zat te denken aan de 8800GT. Maar ik lees in het 8800GT topic dat ze erg slecht verkrijgbaar zijn.
Zou dit over 1 a 2 maanden beter zijn, of moet ik op zoek naar een andere?
Budget is rond de 200 euro voor de kaart. Wil er vooral lang mee vooruit kunnen, en games als crysis spelen (hoeft niet per se op hoogste details enz.)
Ik had zelf de 8600GT in gedachten, die is wat goedkoper, maar ik weet niet zoveel af van alle technische details enzovoorts. Hoe verhoudt de 8600GT zich t.o.v. de 8800GT?
Ik weet niet of dit het goede topic is, maar omdat het om een nVidia kaart gaat zal het wel denk ik.
Ik wil binnenkort (over een maandje of 2) een nieuwe pc samenstellen, en zat te denken aan de 8800GT. Maar ik lees in het 8800GT topic dat ze erg slecht verkrijgbaar zijn.
Zou dit over 1 a 2 maanden beter zijn, of moet ik op zoek naar een andere?
Budget is rond de 200 euro voor de kaart. Wil er vooral lang mee vooruit kunnen, en games als crysis spelen (hoeft niet per se op hoogste details enz.)
Ik had zelf de 8600GT in gedachten, die is wat goedkoper, maar ik weet niet zoveel af van alle technische details enzovoorts. Hoe verhoudt de 8600GT zich t.o.v. de 8800GT?
Zei?Anoniem: 226494 schreef op woensdag 28 november 2007 @ 14:07:
Nog wat nieuws over de 8800gts (g92)
[...]
Wat ik dus al een paar posts trug zij. De 8800gts (g92) word niet veel sneller dan de 8800 gt

Bovendien is het logisch dat de kaart niet veel beter is, aangezien het prijsverschil maar 50 Euro is...
Heb je 2 PCI-e stroomstekkers nodig voor die nieuwe GTS of 1?
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
de jetway is nu verkrijgbaar bij dollarshops
hoe ze presteren weet ik niet, maar ik heb gehoord dat jetway geen kwaliteits koelers en capicatitors erop heeft zitten(fan weet ik niet , want het is gewoon reference)
ik denk dat alleen de overclockbaarheid een beetje belemmerd word door de mischien wat slechtere onderdelen
hoe ze presteren weet ik niet, maar ik heb gehoord dat jetway geen kwaliteits koelers en capicatitors erop heeft zitten(fan weet ik niet , want het is gewoon reference)
ik denk dat alleen de overclockbaarheid een beetje belemmerd word door de mischien wat slechtere onderdelen
Kun je dit onderbouwen? Wat doet jou denken dat dit niet exact reference is? Moedrborden van Jetway schijnen klote te zijn maar heb niet gehoor dat ook maar een fabrikant (toch wel eentje Gainward met GHL hebben andere voeding regeling) iets anders gebruikt dan standaar door nVidia is afgeleverd. Ik geloof trouwens ook dat er één of twee fabrikanten zijn die zelf PCB's maken en deze doorverkopen aan andere merken.YoghurtO_o schreef op woensdag 28 november 2007 @ 18:06:
de jetway is nu verkrijgbaar bij dollarshops
hoe ze presteren weet ik niet, maar ik heb gehoord dat jetway geen kwaliteits koelers en capicatitors erop heeft zitten(fan weet ik niet , want het is gewoon reference)
ik denk dat alleen de overclockbaarheid een beetje belemmerd word door de mischien wat slechtere onderdelen
Tesla Model 3 Performance - Tesla Model 3 Long Range - 6320Wp Oost-West
Ik heb dit gehoord van iemand uit amerika die rma's doet, dus of het echt een betrouwbare bron is weet ik niet, maar ik heb nog nooit van jetway gehoord dus dacht dat het best mogelijk zou kunnen zijn
Mobo's met Nvidia 790i chipset, ondersteunen die ook nog DDR2 geheugen of moet je dan per sé DDR3 reepjes gebruiken? Want die zijn me te duur, dus dan ga ik voor de 780i chipset, of gewoon een oude degelijke X38 intel chipset, aangezien ik toch geen SLI gebruik.
@outlandos
antwoord quote uit de TS:
antwoord quote uit de TS:
Dat word dus op zoek naar jou specifieke mobo topicin dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
* Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
[ Voor 48% gewijzigd door KappeNou op 28-11-2007 19:35 ]
En de 1 gig versie van de gts dan? Komt die echt niet?
nee(denk ik niet), maar waarvoor heb jij 1gb nodig dan? 32" monitor?
[ Voor 11% gewijzigd door YoghurtO_o op 28-11-2007 20:07 ]
tja dat is altijd koffie dik kijken maar op mijn samsung 244T 24" en crysis 1920x1200 veryhigh en een hele boel AA en AF erbij gaat toch wel een beetje in de buurt komen. van de limiten van mijn 8800gtx 768 mb. al denk ik dat reken kracht nog veruit het meeste limiteerd.YoghurtO_o schreef op woensdag 28 november 2007 @ 19:58:
nee(denk ik niet), maar waarvoor heb jij 1gb nodig dan? 32" monitor?
Intel E6850@3,6Ghz ,GEIL 4 Gig pc800, MSI 8800GTX OC,Tagan 700W,raptor x 150gig,seagate 500gig,asus p5n32-e SLI plus, X-fi extremegamer, logitech z5450 speakerset, Coolermaster Stacker silver
790i ondersteund alleen ddr3Outlandos schreef op woensdag 28 november 2007 @ 18:51:
Mobo's met Nvidia 790i chipset, ondersteunen die ook nog DDR2 geheugen of moet je dan per sé DDR3 reepjes gebruiken? Want die zijn me te duur, dus dan ga ik voor de 780i chipset, of gewoon een oude degelijke X38 intel chipset, aangezien ik toch geen SLI gebruik.
780i en 680i ondersteunen ddr2
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Hoi, misschien hoort dit hier niet, maar als ik nu alvast een nieuwe voeding koop, bijvoorbeeld de Zalman ZM750-HP 750w
Zou ik hier dan een 8800GT SLI opstelling op kunnen draaien? Weet iemand dat? Ik word van het internet namelijk niet veel wijzer
Zou ik hier dan een 8800GT SLI opstelling op kunnen draaien? Weet iemand dat? Ik word van het internet namelijk niet veel wijzer
met gemak, het zou ook op een 500w voeding kunnen
Heb overlaatst nog een review gezien van de 8800GT en in sli opstelling zou het gehele systeem maar 50 watt meer verbruiken?
In idle jaalikebap schreef op woensdag 28 november 2007 @ 22:41:
Heb overlaatst nog een review gezien van de 8800GT en in sli opstelling zou het gehele systeem maar 50 watt meer verbruiken?
http://www.legionhardware.com/document.php?id=702&p=11
Die review die ik had gezien kon ik ni meer vinden maar hier verbruikt sli evenveel als een 8800gtx??
Die review die ik had gezien kon ik ni meer vinden maar hier verbruikt sli evenveel als een 8800gtx??
Ook dan niet hoor, 50W ga je misschien halen met een VIA C3, of met zo'n Athlon mobile en onboard graphics, maar echt niet in een volledige setup + 8800GT (tenzij je een überzuinige voeding hebt, en een systeem gebruikt dat de 8800GT bottlenecked, met daarbij een underclocked/volted 8800GT...
Blijkbaar. Als je hier kijkt; http://www.expreview.com/img/review/3870cfvs88gtsli/pw.pngalikebap schreef op woensdag 28 november 2007 @ 23:01:
http://www.legionhardware.com/document.php?id=702&p=11
Die review die ik had gezien kon ik ni meer vinden maar hier verbruikt sli evenveel als een 8800gtx??
Zie je dat de 8800GT ook meer slurpt dan de HD 3870. Verder verschilt het nogal van de ene chipset/systeem tot de andere.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Die nForce 680i slurpt veel stroom, meer dan een X38 systeem. Op een 790FX zou dit plaatje anders zijn
Iemand nog nieuws wanneer de MSI 8800GT OC weer bij de shops binnen komen?
# Dit topic is vooral niét bedoeld om te posten dat:
* de 79XX/8800 niet leverbaar is bij een shop.
* jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
* je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
* je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
* je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
* je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
Ik heb de laatste 2-3 weken zowel dit topic als dat van ATi in de gaten gehouden om te zien welke kaart mij nu biedt wat ik zoek. Ik leg dan, ter info, de 3870 naast de 8800GT qua vergelijk.
Voor mij is belangrijk een kaart die goed presteert in 1920x1200resolutie met, indien mogelijk cq handig, een hoge AA en AF. Ik las wel dat sommige mensen geen AA gebruiken op een hoge resolutie omdat dat niet zichtbaar schijnt te zijn, maar wat daarvan waar is weet ik niet.
Qua perf.drop lijkt, op deze hoge resolutie met AA en AF aan, de 8800GT te winnen. Zonder AA en AF wint de 8800GT ook.
Heb ik het dan correct (als ik de reviews enzo goed heb geïnterpreteerd) dat de 8800 mij als enige van de 2 kaarten biedt wat ik wil? Waarom heb ik dan toch het gevoel dat ik iets over het hoofd zie of een addertje onder het gras?
Of mis ik iets? Ja, de 3870 is wat goedkoper, ja de NV is minder leverbaar momenteel, maar daar wacht ik wel even op. 't gaat mij dus puur om die hoge resolutie met AA en AF.
Mijn mobo kan CF aan, maar dat is voor mij geen reden om 1x een goede kaart te kopen dan 2x een goedkopere in CF die uiteindelijk minder biedt.
Voor mij is belangrijk een kaart die goed presteert in 1920x1200resolutie met, indien mogelijk cq handig, een hoge AA en AF. Ik las wel dat sommige mensen geen AA gebruiken op een hoge resolutie omdat dat niet zichtbaar schijnt te zijn, maar wat daarvan waar is weet ik niet.
Qua perf.drop lijkt, op deze hoge resolutie met AA en AF aan, de 8800GT te winnen. Zonder AA en AF wint de 8800GT ook.
Heb ik het dan correct (als ik de reviews enzo goed heb geïnterpreteerd) dat de 8800 mij als enige van de 2 kaarten biedt wat ik wil? Waarom heb ik dan toch het gevoel dat ik iets over het hoofd zie of een addertje onder het gras?
Of mis ik iets? Ja, de 3870 is wat goedkoper, ja de NV is minder leverbaar momenteel, maar daar wacht ik wel even op. 't gaat mij dus puur om die hoge resolutie met AA en AF.
Mijn mobo kan CF aan, maar dat is voor mij geen reden om 1x een goede kaart te kopen dan 2x een goedkopere in CF die uiteindelijk minder biedt.
[ Voor 6% gewijzigd door Tallguy op 29-11-2007 08:29 . Reden: aanvulling ]
de 8800gt is niet zo goed in hoge resoluties met AA , daarin word hij dik verslagen door een 8800GTX. Je zou 2x 8800GT in SLI kunnen zetten voor dezelfde prijs, maar dat werkt bij sommige spellen(crysis bijv.) niet.
er komt ook een nieuwe 8800gts uit, die zal iets meer prestaties leveren.
er komt ook een nieuwe 8800gts uit, die zal iets meer prestaties leveren.
Maar de 8800GT is in hoge res met AA wel beter dan de 3870 toch?YoghurtO_o schreef op donderdag 29 november 2007 @ 09:02:
de 8800gt is niet zo goed in hoge resoluties met AA , daarin word hij dik verslagen door een 8800GTX. Je zou 2x 8800GT in SLI kunnen zetten voor dezelfde prijs, maar dat werkt bij sommige spellen(crysis bijv.) niet.
er komt ook een nieuwe 8800gts uit, die zal iets meer prestaties leveren.
Anoniem: 226494
Sli werkt wel in crysis heb ik zelf ondervondenYoghurtO_o schreef op donderdag 29 november 2007 @ 09:02:
de 8800gt is niet zo goed in hoge resoluties met AA , daarin word hij dik verslagen door een 8800GTX. Je zou 2x 8800GT in SLI kunnen zetten voor dezelfde prijs, maar dat werkt bij sommige spellen(crysis bijv.) niet.
er komt ook een nieuwe 8800gts uit, die zal iets meer prestaties leveren.
Oke, thanx voor de reacties. Zou ik SLI kunnen draaien op mijn Asus A8N-E?
Tot nu toe heb ik altijd mijn videokaart op het grote blauwe slot aangesloten (PCIx16?), maar daaronder staan dus nog 3 PCI sloten. Er zit echter maar 1 PCI x16 slot op..beschikt over een PCI-Express x16-slot, een PCI-Express x4-slot en twee PCI-Express x1-slots.
Zoals je zelf al zegt hij heeft 1 PCI-e slot, dus nee gaat niet lukken.
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850
Oke dus je moet 2 van die grote blauwe jongens hebben voor SLI, weer wat geleerd... Daarnaast zag ik dat mijn huidige mobo slechts 1.0a ondersteund.rikadoo schreef op donderdag 29 november 2007 @ 10:18:
Zoals je zelf al zegt hij heeft 1 PCI-e slot, dus nee gaat niet lukken.
edit: Is dit wat? Ik heb immers nu een X2 4200.
Asus M2N-SLI nForce 560 SLI MCP, SATA2 RAID
Volgens de tabel PCIe 1.1 en 2x PCIe x16 sloten
[ Voor 23% gewijzigd door xces op 29-11-2007 11:01 ]
Anoniem: 226494
Eerste tests met de 8800gts (G92)
Gaat wel de 8800 gt voorbij. In mijn ogen ziet het er goed uit voor de 8800gts. Hij is ook nog eens koeler
http://www.tweaktown.com/...1_introduction/index.html
Gaat wel de 8800 gt voorbij. In mijn ogen ziet het er goed uit voor de 8800gts. Hij is ook nog eens koeler
http://www.tweaktown.com/...1_introduction/index.html
[ Voor 40% gewijzigd door Anoniem: 226494 op 29-11-2007 10:55 ]
Kan de 8800GT gewoon in een PCI-e slot? Had ergens gelezen dat je een speciaal slot voor nodig heb, klopt dit?
| Canon EOS R | Canon 24-70mm F2.8L | Canon 85mm f1.2 | Laowa 100mm f2.8 |
Wat ik al verwachte. Minder groot verschil dan tussen de 8800GT en 8800GTS G80 en de GTS G92 een stuk duurder dan de 8800GT inplaats van dat de 8800GT goedkoper was toen die uitkwam dan dat de 8800GTS G80 was.Anoniem: 226494 schreef op donderdag 29 november 2007 @ 10:45:
Eerste tests met de 8800gts (G92)
Gaat wel de 8800 gt voorbij. In mijn ogen ziet het er goed uit voor de 8800gts. Hij is ook nog eens koeler
http://www.tweaktown.com/...1_introduction/index.html
Ook is waarschijnlijk het OC percentage lager dan bij de 8800GT. Ben benieuwd hoe ver die G92 GTS clockt, maar ik denk niet veel hoger dan wat ze in die review hebben gedaan.
Je ziet wel dat hoe hoger de resolutie's worden de GTS G92 steeds sneller word. Dus misschien is die 50 tot 100 euro wel waard als je 1920x1200 kan draaien
[ Voor 11% gewijzigd door KappeNou op 29-11-2007 11:14 ]
Zucht... voor je 8800gt heb je een 3 megawatt voeding nodig met een 340volt krachtstroomlijn. En natuurlijk het nieuwe pci-d slot dat diagonaal over je moederbord loopt.Mother_Goozz schreef op donderdag 29 november 2007 @ 11:05:
Kan de 8800GT gewoon in een PCI-e slot? Had ergens gelezen dat je een speciaal slot voor nodig heb, klopt dit?
Het lezen van wat simpele beschrijvingen van een 8800gt volstaat om aan dit soort info te komen, en verdiep je eens wat meer in pc's in het algemeen.
Niet slecht bedoelt, maar kom op zeg dit is tweakers, Enige zelfwerkzaamheid mogen we toch wel verwachten nietwaar ?
De GTS is zoals verwacht sneller dan een 8800GT, maar ik ben heel benieuwd hoeveel die nieuwe G92 GTS nu gaat kosten.
8800GT is 200 euro, als de GTS 50 euro meer zou kosten dan zou hij dat wel waard zijn denk ik (vooral hoge resolutie, en veel AA/Aniso, + stiller. Verbruik is wel aardig toegenomen vind ik, maargoed dat is voor mij niet zo'n issue)
Gaat hij echter 300 euro kosten, dan is hij het niet waard want dan koop je gewoon een 8800GT en pleur je er een bigass koeler op en dan heb je ook bijna GTS performance
Ik verwacht echter dat Nvidia de prijs redelijk omhoog schroeft omdat hij net zo snel is als een GTX, en er redelijk wat vraag naar is. De 8800GT is al bijna niet te krijgen, en ik ben bang dat ze hierdoor de GTS gewoon een hoger prijskaartje meegeven (hij wordt toch wel gekocht als de GT niet te koop is). Maargoed we zullen zien
8800GT is 200 euro, als de GTS 50 euro meer zou kosten dan zou hij dat wel waard zijn denk ik (vooral hoge resolutie, en veel AA/Aniso, + stiller. Verbruik is wel aardig toegenomen vind ik, maargoed dat is voor mij niet zo'n issue)
Gaat hij echter 300 euro kosten, dan is hij het niet waard want dan koop je gewoon een 8800GT en pleur je er een bigass koeler op en dan heb je ook bijna GTS performance
Ik verwacht echter dat Nvidia de prijs redelijk omhoog schroeft omdat hij net zo snel is als een GTX, en er redelijk wat vraag naar is. De 8800GT is al bijna niet te krijgen, en ik ben bang dat ze hierdoor de GTS gewoon een hoger prijskaartje meegeven (hij wordt toch wel gekocht als de GT niet te koop is). Maargoed we zullen zien
[ Voor 24% gewijzigd door InfinityG35 op 29-11-2007 11:27 ]
5800X3D - X570 Elite - 32Gb 3600C16 - 6700XT - 990PRO 2TB - RM750X
Heeft iemand een dual 8800GT op AMD en kan mij vertellen welk mobo hij heeft? Is mijn "keuze" goed of zijn er betere alternatieven. Ik overclock niet, en doe vooral Photoshop en programming.
Ik bedoelde ook niet over voedingen of wat dan ook, alleen overal op I-net zie je erbij staan PCI-e16x slot bijstaan. En GEEN pci-D.... En sorry dat er mensen zijn (zoals ik) die nog niet ALLES snappen.
| Canon EOS R | Canon 24-70mm F2.8L | Canon 85mm f1.2 | Laowa 100mm f2.8 |
Nee gewoon de 1gb versie gaat langer mee dan de 512 mb versie. Ik doe zelf het liefst zo lang mogelijk op die kaarten.YoghurtO_o schreef op woensdag 28 november 2007 @ 19:58:
nee(denk ik niet), maar waarvoor heb jij 1gb nodig dan? 32" monitor?
Ten eerste is dit een Nieuws topic en jouw vraag heeft echt nul komma nul nieuwswaarde. Voor de rest kan je zelf best wat op onderzoek uit, gebruik de search, lees de faqs en gebruik google, dan kom je echt een heel eind. Daarbij komt dat deze vraag al zooo vaak gesteld is op GoT, het antwoord had je allang kunnen vinden.Mother_Goozz schreef op donderdag 29 november 2007 @ 11:42:
Ik bedoelde ook niet over voedingen of wat dan ook, alleen overal op I-net zie je erbij staan PCI-e16x slot bijstaan. En GEEN pci-D.... En sorry dat er mensen zijn (zoals ik) die nog niet ALLES snappen.
Niet alles hoeft voorgekauwt te worden, het is hier geen beginnersweb, in elk geval niet in dit topic.
[ Voor 7% gewijzigd door Demon_Eyez op 29-11-2007 12:17 ]
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
Dat is niet waar.tomcatha schreef op donderdag 29 november 2007 @ 11:52:
[...]
Nee gewoon de 1gb versie gaat langer mee dan de 512 mb versie. Ik doe zelf het liefst zo lang mogelijk op die kaarten.
Als spellen eindelijk de 1GB zullen gebruiken is deze kaart stok oud en zal hij de hoeveelheid aan data nooit meer aan kunnen. Bespaar je centen en koop de 512MB versie, het geld dat je overhoudt kan je aan een toekomstige upgrade uitbesteden!
Dit is ook niet waarSniperFox schreef op donderdag 29 november 2007 @ 12:28:
[...]
Dat is niet waar.
Als spellen eindelijk de 1GB zullen gebruiken is deze kaart stok oud en zal hij de hoeveelheid aan data nooit meer aan kunnen. Bespaar je centen en koop de 512MB versie, het geld dat je overhoudt kan je aan een toekomstige upgrade uitbesteden!
Waarom denk je dat de Ultra/GTX op hoge resolutie nog wint van de GT
De 768MB doet dus wel wat meer als de 512 MB
Turn it off and on again.
Dat heeft meer met de GPU te maken. Ga je daar maar is in verdiepen aubSmokeyTheBandit schreef op donderdag 29 november 2007 @ 12:32:
[...]
Dit is ook niet waar
Waarom denk je dat de Ultra/GTX op hoge resolutie nog winnen van de GT![]()
De 768MB doet dus wel wat meer als de 512 MB

Zie nu het verschil op hoge reso's tussen de G92 8800GT en G92 8800GTS, beide 512MB.. Heeft dus weinig te maken met 512 of 768MB >test<
Dat MB verhaal is in veel gevallen ook een marketing stunt. Was ook zo in de serie's zoals de 6800 en de 7600 met 512MB versies. Voor de fabriekant kost het niet veel om er 256MB extra op te prikken.
[ Voor 42% gewijzigd door KappeNou op 29-11-2007 13:03 ]
Dit ziet er erg rooskleurig uit voor nVidia! Deze GTS fietst alle kaarten eruit, en is ook nog eens een stuk koeler dan de GT. Waar ik helemaal van sta te kijken zijn de DX9 benchmarks van Company of Heroes, wat een beest! Als deze uiteindelijk goed beschikbaar is en betaalbaar (ook belangrijk) zal deze aan populariteit winnen...Anoniem: 226494 schreef op donderdag 29 november 2007 @ 10:45:
Eerste tests met de 8800gts (G92)
Gaat wel de 8800 gt voorbij. In mijn ogen ziet het er goed uit voor de 8800gts. Hij is ook nog eens koeler
http://www.tweaktown.com/...1_introduction/index.html
CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600
Hij is koeler omdat er een 2 slot koeler word gebruikt. Als je ziet wat een vermogen dat ding gebruikt kan je bijna beter nog een 8800GT gebruiken. Die paar FPS extra lijken mij niet het performance/watt waard.
Wel jammer dat er geen vergelijking met de Ulta of GTX word gemaakt.
Wel jammer dat er geen vergelijking met de Ulta of GTX word gemaakt.
En in mijn ogen valt het dan weer zwaar tegen, het verschil is in de belangrijkste spellen niet groter dan 10/15%.. Nou dat clock ik er wel bij, op een 8800GT en spaar me mooi €100,- uit.Anoniem: 226494 schreef op donderdag 29 november 2007 @ 10:45:
Eerste tests met de 8800gts (G92)
Gaat wel de 8800 gt voorbij. In mijn ogen ziet het er goed uit voor de 8800gts. Hij is ook nog eens koeler
http://www.tweaktown.com/...1_introduction/index.html
Tesla Model 3 Performance - Tesla Model 3 Long Range - 6320Wp Oost-West
nou kijk op dit soort reviews zit ik te wachten. 10-15% performance winst....dat klok ik inderdaad met de GT wel weer bij! Ik ga toch voor de gainward GLH
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
de gts zal ook wel over te klokken zijn.... dan komt ie misschien wel voorbij de ultrabokkow schreef op donderdag 29 november 2007 @ 13:33:
[...]
En in mijn ogen valt het dan weer zwaar tegen, het verschil is in de belangrijkste spellen niet groter dan 10/15%.. Nou dat clock ik er wel bij, op een 8800GT en spaar me mooi €100,- uit.
Die is er wel hoor, zie de laatste Crysis benchmark (pagina 18)Taenadar schreef op donderdag 29 november 2007 @ 13:14:
Hij is koeler omdat er een 2 slot koeler word gebruikt. Als je ziet wat een vermogen dat ding gebruikt kan je bijna beter nog een 8800GT gebruiken. Die paar FPS extra lijken mij niet het performance/watt waard.
Wel jammer dat er geen vergelijking met de Ulta of GTX word gemaakt.
CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600
Dat verschil zit hem voor een deel in de snelheid van de GPU's en het feit dat de GTS alle shaders geactiveerd heeft die er in de G92 zitten.KappeNou schreef op donderdag 29 november 2007 @ 12:52:
[...]
Dat heeft meer met de GPU te maken. Ga je daar maar is in verdiepen aubNu staan er allemaal van die ik weet het smiley's in je post voor niks
![]()
Zie nu het verschil op hoge reso's tussen de G92 8800GT en G92 8800GTS, beide 512MB.. Heeft dus weinig te maken met 512 of 768MB >test<
Dat MB verhaal is in veel gevallen ook een marketing stunt. Was ook zo in de serie's zoals de 6800 en de 7600 met 512MB versies. Voor de fabriekant kost het niet veel om er 256MB extra op te prikken.
8800GT heeft er 112 en de 8800GTS 128 !
Jammer dat ze in die review niet een GTX of Ultra mee hebben genomen dat zo verhoudingsgewijs wel iets zeggen
Turn it off and on again.
Anoniem: 226494
Ik denk dat op hoge resolutie's met AA de gtx/ultra nog steeds een stukje sneller zijn
Veel verder dan een GT zal ie niet te klokken zijn denk ik, dus zo heel veel sneller zal de GTS niet zijn.Mr. Detonator schreef op donderdag 29 november 2007 @ 13:49:
[...]
de gts zal ook wel over te klokken zijn.... dan komt ie misschien wel voorbij de ultra
De GT is en blijft het beste bang for buck kaartje.
Ook gebruikt die nieuwe GTS aardig wat stroom zeg! Bijna net zoveel als een HD2900XT!!! Zie die review waarnaar hier eerder een link gegeven werd.
Dat de GTX zo snel is heeft meer met de 384 bits geheugenbus te maken dan met de hoeveelheid geheugen die erop zit.De GTX (86.4GB/s) heeft door die brede bus gewoon meer bandbreedte dan een GT (57.6 GB/s) met een 256 bits bus. Daar zal dus hoofdzakelijk het verschil vandaan komen op hoger reso's met veel AA en AF. Ik denk dan ook dat de GTX en Ultra op hoge resoluties nog steeds sneller zullen zijn dat de nieuwe GTS.Mr. Detonator schreef op donderdag 29 november 2007 @ 13:49:
Zie nu het verschil op hoge reso's tussen de G92 8800GT en G92 8800GTS, beide 512MB.. Heeft dus weinig te maken met 512 of 768MB >test<
1 ding is zeker; 2 8800GT's in SLi zijn echt veel sneller dan een enkele GTX... Ook op 1920x1200 met AA en AF.
[ Voor 45% gewijzigd door Format-C op 29-11-2007 14:27 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Fijn dat je me advies opvolgt en een beetje verdiept. niet meer zomaar blaten hehSmokeyTheBandit schreef op donderdag 29 november 2007 @ 13:51:
[...]
Dat verschil zit hem voor een deel in de snelheid van de GPU's en het feit dat de GTS alle shaders geactiveerd heeft die er in de G92 zitten.
8800GT heeft er 112 en de 8800GTS 128 !
Jammer dat ze in die review niet een GTX of Ultra mee hebben genomen dat zo verhoudingsgewijs wel iets zeggen
Wat RappieRappie verteld heeft overigens meer te maken met het geheugen hoeveelheid verhaal te maken
Je quote is beetje verkeerdRappieRappie schreef op donderdag 29 november 2007 @ 14:17:
Dat de GTX zo snel is heeft meer met de 384 bits geheugenbus te maken dan met de hoeveelheid geheugen die erop zit.De GTX (86.4GB/s) heeft door die brede bus gewoon meer bandbreedte dan een GT (57.6 GB/s) met een 256 bits bus. Daar zal dus hoofdzakelijk het verschil vandaan komen op hoger reso's met veel AA en AF. Ik denk dan ook dat de GTX en Ultra op hoge resoluties nog steeds sneller zullen zijn dat de nieuwe GTS.
1 ding is zeker; 2 8800GT's in SLi zijn echt veel sneller dan een enkele GTX... Ook op 1920x1200 met AA en AF.
Klopt idd wat je vertelt.
Alhoewel ik denk dat de GTX wel afgeschreven is als de GTS uit komt. De Ultra zal de troon zeker blijven behouden
Waarschijnlijk vlak nadat de GTSen in de wikels liggen zal er wel een G92 8900 GTX bekend gemaakt worden oid
[ Voor 51% gewijzigd door KappeNou op 29-11-2007 14:44 ]
Nee, een GTX aankoop is niet meer te verantwoorden.
Edit; ik denk dat er geen 8900 komt, maar "gewoon" een 8800GX2 of 8850GX2.
Edit; ik denk dat er geen 8900 komt, maar "gewoon" een 8800GX2 of 8850GX2.
[ Voor 43% gewijzigd door Format-C op 29-11-2007 15:18 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Zou ook kunnen.. Maar was de 7950GX2 ding dan zo succesvol? (hoe die ook heet)
Als je terug in de tijd kijkt. 7800GTX naar 7900GTX zou het best logisch zijn als er een 8800GTX met G92 core komt, maar dan 8900GTX gaat heten. Zou imo ook de beste keuze zijn. Of bedoel jij twee G92 core's? want twee G80 core's gaat denk ik te veel verbruiken en te heet worden met de hedendaagse el gore films
Als je terug in de tijd kijkt. 7800GTX naar 7900GTX zou het best logisch zijn als er een 8800GTX met G92 core komt, maar dan 8900GTX gaat heten. Zou imo ook de beste keuze zijn. Of bedoel jij twee G92 core's? want twee G80 core's gaat denk ik te veel verbruiken en te heet worden met de hedendaagse el gore films
[ Voor 32% gewijzigd door KappeNou op 29-11-2007 15:32 ]
7900GX2 totaal niet, maar de 7950GX2 wel. Echter, een losse 7900GT (want dat was het, maal twee) is ongeveer de helft zuiniger dan de 8800GT, en tóch hadden die krengen last van oververhitting. Ik denkt het dus niet... (En inderdaad, de 8800GT is zuinig, maar de 7900GT is héél zuinigKappeNou schreef op donderdag 29 november 2007 @ 15:28:
Zou ook kunnen.. Maar was de 7900GX2 ding dan zo succesvol? (hoe die ook heet)
Nee, want de 7800GTX was eerst, toen de 7800GT, gevolgd door 7900GTX en GT. Hier was er eerst 8800GTS, GTX, en nu GT. Bovendien wordt dit de G92 core ipv de stap van G70 naar G71 destijds.Als je terug in de tijd kijkt. 7800GTX naar 7900GTX zou het best logisch zijn als er een 8800GTX met G92 core komt maar dan 8900GTX gaat heten.
Verder is er véél meer onderbouwing voor de geruchten over een 8900GTX (of 9800GTX) dan een GX2 tot nu toe, al blijft het allemaal speculaasie
Ik denk zelf dat ik voor een golden sample 8800gt ga. Mooie koeling en ook nog eens snel. Teminste als ie niet duurder is dan een low end gts.
Het gaat niet om de precieze volgorde.. Het is namelijk nooit precies het zelfde gegaan bij nvidia. Het zou gewoon het meest logische zijn imo, aangezien nvidia altijd veel varianten van een bepaalde core maakt. Het zou dus logisch zijn als er nog een snellere singel core variant van de G92 uit komt of die nou GTX of BTX of CTX gaat heten. Lijkt me namelijk sterk dat ze bij 2 bijna even snelle varianten van de G92 core blijven, aangezien de G92 toch weer een stukje beter clockt, minder verbruikt en ook koeler is dan de G80.TheZeroorez schreef op donderdag 29 november 2007 @ 15:34:
Nee, want de 7800GTX was eerst, toen de 7800GT, gevolgd door 7900GTX en GT. Hier was er eerst 8800GTS, GTX, en nu GT. Bovendien wordt dit de G92 core ipv de stap van G70 naar G71 destijds.
Verder is er véél meer onderbouwing voor de geruchten over een 8900GTX (of 9800GTX) dan een GX2 tot nu toe, al blijft het allemaal speculaasie
[ Voor 10% gewijzigd door KappeNou op 29-11-2007 15:43 ]
Anoniem: 239964
Ik meende ergens gelezen te hebben van wel, maar dat weet ik niet zeker meerBull schreef op donderdag 29 november 2007 @ 16:39:
Krijgt de nieuwe GTS dezelfde pcb als de GT?

* Tallguy vermoed dat er misschien al iemand aan het uitpluizen is hoe je eventueel die extra shaders op de 8800GT toch weer terug krijgt.
Zoiets was vroeger toch ook het geval met een kaart..welke was dat nou? Met een aanpassing in de firmware kreeg je toch opeens alle opties die de dure variant ook had.
Zoiets was vroeger toch ook het geval met een kaart..welke was dat nou? Met een aanpassing in de firmware kreeg je toch opeens alle opties die de dure variant ook had.
Nee dat kan niet. De shaders zullen waarschijnlijk defect zijn, en in ieder geval lasercut. Shaders zijn al erg lang gelasercut, unlocken gaat al niet meer sinds de GeForce 6 series.Kensei schreef op donderdag 29 november 2007 @ 17:15:
* Avalaxy vermoed dat er misschien al iemand aan het uitpluizen is hoe je eventueel die extra shaders op de 8800GT toch weer terug krijgt.
Zoiets was vroeger toch ook het geval met een kaart..welke was dat nou? Met een aanpassing in de firmware kreeg je toch opeens alle opties die de dure variant ook had.
idd laatste leuke kaartjes waar je dat mee kon doen waren de 6800LE agp en de asus 6800GE agp.
Ik ga voor een 8800 GTS in mijn nieuwe systeem ipv. 2x 8800GT, dit is misschien wel sneller maar (uitgaande dat de GTS 50 Euro duurder wordt per kaart) ook een stuk duurder. Bovendien kan ik dan een mobo met X38 chipset nemen en ben ik niet verplicht voor een Nvidia chipset te gaan.
Nu nog even wachten op de Q9450 en we kunnen gaan bestellen!
Nu nog even wachten op de Q9450 en we kunnen gaan bestellen!
[ Voor 10% gewijzigd door outlandos op 29-11-2007 19:18 ]
Ehhm; over dat stroomverbruik van de nieuwe 8800GTS, die verbruikt 43 watt meer hoor ik. Dat klok ik wel bij, hoor ik. Ehhm, hoeveel stroom verbruikt die opgeklokte GT dan
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Waarom interreseerd mensen dat tegenwoordig zoveel? ook al verbruikt die 1kw.. I dont care..Madrox schreef op donderdag 29 november 2007 @ 20:09:
Ehhm; over dat stroomverbruik van de nieuwe 8800GTS, die verbruikt 43 watt meer hoor ik. Dat klok ik wel bij, hoor ik. Ehhm, hoeveel stroom verbruikt die opgeklokte GT dan

Niet negatief, maar ik snap echt niet dat mensen af en toe problemen en keuzes maken om 20watt verschil.
[ Voor 50% gewijzigd door dion_b op 30-11-2007 11:53 ]
Het gaat de meeste niet om het stroomverbruik maar om de warmte ontwikkeling wat ook met de Watt's te maken heeft natuurlijk.KappeNou schreef op donderdag 29 november 2007 @ 20:36:
[...]
Waarom interreseerd mensen dat tegenwoordig zoveel? ook al verbruikt die 1kw.. I dont care..te veel ell gore gekeken ofzo
Niet negatief, maar ik snap echt niet dat mensen af en toe problemen en keuzes maken om 20watt verschil.
Dat is een groot pluspunt van de nieuwere generaties meer prestaties minder geluid en gigantische koelers.
En daardoor meer ruimte voor overclocken
[ Voor 7% gewijzigd door SmokeyTheBandit op 29-11-2007 20:55 ]
Turn it off and on again.
Shaderkracht kun je alleen niet bijclocken...Madrox schreef op donderdag 29 november 2007 @ 20:09:
Ehhm; over dat stroomverbruik van de nieuwe 8800GTS, die verbruikt 43 watt meer hoor ik. Dat klok ik wel bij, hoor ik. Ehhm, hoeveel stroom verbruikt die opgeklokte GT dan
Jazeker gewoon ouderwets bios moddenleonpwner1 schreef op donderdag 29 november 2007 @ 20:57:
[...]
Shaderkracht kun je alleen niet bijclocken...
Turn it off and on again.
Ja je kunt shaders wel overclocken (ook met Riva), maar wat ik bedoel ik dat je door overclocken niet ineens meer shaders krijgt ofzo. De nieuwe GTS krijgt namelijk toch ook meer shaders als de GT?SmokeyTheBandit schreef op donderdag 29 november 2007 @ 21:00:
[...]
Jazeker gewoon ouderwets bios modden
Anoniem: 174427
Heb hier toch wel wat raars ondervonden. Mijn point of view kaart 8800GT is bij deze definitief defect verklaard. Krijg ingame artifacts bij crysis en cod4.
Als ik echter met atitool ga testen draait ie foutloos 1,5 uur lang! Terwijl ingame de problemen zich binnen 10 minuten voordoen.
Ik heb getest met een identieke videokaart van mijn broertje, en deze geeft de problemen niet!
Het is dus wel degelijk de kaart die defect is, terwijl atitool niets aangeeft?
Als ik echter met atitool ga testen draait ie foutloos 1,5 uur lang! Terwijl ingame de problemen zich binnen 10 minuten voordoen.
Ik heb getest met een identieke videokaart van mijn broertje, en deze geeft de problemen niet!
Het is dus wel degelijk de kaart die defect is, terwijl atitool niets aangeeft?
ATiTool detecteert artifacts wanneer er typische grafische fouten optreden bij overclocken. Jouw defect zal hoogst waarschijnlijk een heel ander pad volgen (DX10 mogelijkheden ?).
Bij ATITool heb je ook vaak, tenminste dat had ik, dat 'ie de artifacts niet detecteerde. Er kwamen wel keurig gele stipjes op het schermpje, maar hij bleef vrolijk doortellen. Qua artifact scannen zou ik maar niet teveel op ATITool letten.
Anoniem: 174427
Geen dx10 ofzoiets. Gewoon dx9
En nee, ik zag gewoon helemaal geen streepjes bij atitool, heb niet 1,5 uur zitten kijken, maar op een gegeven moment heb ik het toch echt in de gaten gehouden.
Lijkt wel of ati het niet detecteert. Maar ja, shit happens
En nee, ik zag gewoon helemaal geen streepjes bij atitool, heb niet 1,5 uur zitten kijken, maar op een gegeven moment heb ik het toch echt in de gaten gehouden.
Lijkt wel of ati het niet detecteert. Maar ja, shit happens
Anoniem: 159816
Rivatuner report 680mb vram gebruik op een 20" monitor tijdens Crysis. Dus het is niet alsof je 512mb niet vol krijgtKappeNou schreef op donderdag 29 november 2007 @ 12:52:
[...]
Dat heeft meer met de GPU te maken. Ga je daar maar is in verdiepen aubNu staan er allemaal van die ik weet het smiley's in je post voor niks
![]()
Zie nu het verschil op hoge reso's tussen de G92 8800GT en G92 8800GTS, beide 512MB.. Heeft dus weinig te maken met 512 of 768MB >test<
Dat MB verhaal is in veel gevallen ook een marketing stunt. Was ook zo in de serie's zoals de 6800 en de 7600 met 512MB versies. Voor de fabriekant kost het niet veel om er 256MB extra op te prikken.
[ Voor 12% gewijzigd door Anoniem: 159816 op 30-11-2007 00:16 ]
Het is mijn ogen nochtans toch echt een , op z'n minst, 'vervelende' evolutie dat graka's steeds meer verbruiken. Als ik alleen nog maar kijk naar de mid-end van de 8xxx serie van nVidia: de 8600GTS, (die de opvolger is van de lichtverbruikende 7600GT van de 7xxx reeks) vereist een pci-e stroomconnector (terwijl zowel de 6600GT als de 7600GT dit niet nodig hadden). Ik dacht toch echt altijd dat die pci-e stroomconnectors alleen bedoeld waren voor de 'OMGWTF-high-end', in ieder geval zo werd het toch gepresenteerd toen er voor het eerst sprake was van die 6pins-connectors. Niet dat ik er wakker van lig ofzo, maar ik vind het gewoon géén goede evolutie. Het gaat hem dus niet noodzakelijk over de 20watt verschil, maar wel over de evolutie naar 'meer watt'.KappeNou schreef op donderdag 29 november 2007 @ 20:36:
[...]
Waarom interreseerd mensen dat tegenwoordig zoveel? ook al verbruikt die 1kw.. I dont care..te veel ell gore gekeken ofzo
Niet negatief, maar ik snap echt niet dat mensen af en toe problemen en keuzes maken om 20watt verschil.
Ik snap wel dat bij een "die-hard tweaker" zijn prioriteit ingeval van computers eerder bij de geleverde performance ligt dan bij het stroomverbruik, maar toch moet je volgens mij, toch objectief, kunnen zien dat nVidia en AMD er toch maar weinig moeite voor doen de laatste tijd om het stroomverbruik een beetje binnen de perken te houden.
Dus als je 1680x1050 wilt draaien met Crysis (op high veronderstel ik), dan ben je zowiezo aangewezen op een 8800GTX of Ultra voor niet-stotterend beeld ?Anoniem: 159816 schreef op vrijdag 30 november 2007 @ 00:15:
[...]
Rivatuner report 680mb vram gebruik op een 20" monitor tijdens Crysis. Dus het is niet alsof je 512mb niet vol krijgt. Texture swapping vanaf harde schijf is niet erg goed voor je framerates en zorgen voor een schokkende ervaring als er weer wat geladen moet worden.
Er werd wel over het algemeen gepraatAnoniem: 159816 schreef op vrijdag 30 november 2007 @ 00:15:
[...]
Rivatuner report 680mb vram gebruik op een 20" monitor tijdens Crysis. Dus het is niet alsof je 512mb niet vol krijgt. Texture swapping vanaf harde schijf is niet erg goed voor je framerates en zorgen voor een schokkende ervaring als er weer wat geladen moet worden.
Crysis is zo'n spel voor de next gen systemen, of de engine is gewoon niet helemaal lekker. Crysis is btw echt nog een beta spel imo. Je ziet nog steeds al die stenen en dingen te voorschijn komen, ziet er echt niet uit. Ben benieuwd of Far Cry 2 wat beter is..
Geef mij maar CoD4, ziet er over het gehele plaatje een stuk beter uit en goed speelbaar met alles op high met een 8800GT.
@Docho; ik snap wel wat je bedoelt.
Op een gegeven moment komen ze er wel achter. Waarschijnlijk hebben ze heus wel een team lopen die opzoek is naar hele nieuwe technieken.
Verhaal was ook bij intel met hun CPU's. alleen maar Mhz op schroeven etc.. Uiteindelijk met een nieuwe techniek aankomen.
[ Voor 13% gewijzigd door KappeNou op 30-11-2007 08:15 ]
Anoniem: 174427
Hij werd of wordt ongeveer 75 graden @ load. Met uitschieters naar 80 graden. Ook met de fan op 90% o.i.d. geeft de kaart problemen.
Geruild met mijn broertje zijn systeem, identieke kaart, zelfde problemen. Dus ik weet zeker dat de kaart defect is.
Anoniem: 226494
Nee hoor. Op 1680x1050 alls op high zonder AA draait hij wel lekker onder dx9 en 10Phuncz schreef op vrijdag 30 november 2007 @ 00:58:
[...]
Dus als je 1680x1050 wilt draaien met Crysis (op high veronderstel ik), dan ben je zowiezo aangewezen op een 8800GTX of Ultra voor niet-stotterend beeld ?
Met welke kaart bedoel je dan ? Want 8800GT OC in SLI zie ik niet als optie
Anoniem: 226494
Dan kom je ff lekker naast mij zitten en zet ik ff het fps metertje er bij aan en dan kun je het zelf ff zien.Phuncz schreef op vrijdag 30 november 2007 @ 10:05:
Met welke kaart bedoel je dan ? Want 8800GT OC in SLI zie ik niet als optie
30-60fps in het drukke bos vol mannetjes die jou willen killen
Ik wil ook wel een screen posten zo
Edit net nog ff getest in een gebouw. Daar haal ik al snel 100+ fps
[ Voor 12% gewijzigd door Anoniem: 226494 op 30-11-2007 10:38 ]
de textures worden vanaf je RAM geswapped, nietje harde schijf, maar goed, RAM<->GPU is alsnog velen malen trager da het mem op de GPUAnoniem: 159816 schreef op vrijdag 30 november 2007 @ 00:15:
[...]
Rivatuner report 680mb vram gebruik op een 20" monitor tijdens Crysis. Dus het is niet alsof je 512mb niet vol krijgt. Texture swapping vanaf harde schijf is niet erg goed voor je framerates en zorgen voor een schokkende ervaring als er weer wat geladen moet worden.
Nvidia is not done with series 8 cards as it still has to release the G92-powered GeForce 8800 GTS 512 and the G98 GeForce 8400s but it is closing in on bringing to market its ninth GeForce generation. The GeForce 9 series is rumored to make its debut as soon as February when the D9E (E for enthusiast) cards will re released. These will be high-end parts with PCI-Express 2.0 and DirectX 10.1 support equipped with the 65nm-built D9E chip.
Following the D9E Nvidia will have the D9P (Performance) cards in plan and these are 55nm (upper) mid-range products which will be released around June. Low-end D9M cards are also expected to be released in the summer of 2008. As for this year, we still need a good supply of GeForce 8800 GTs.
Dit is de eerste vermelding die ik lees met betrekking tot de Geforce 9 serie. Februari al?
What about the 8850GX2, gebaseerd op 2x G92?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Dit topic is gesloten.