Zonnepanelen: 800Wp op oost 80 graden aan balkon met schaduw
Daarnaast hoorde ik dat nV flink aan het schuifelen is in de roadmaps en met namen aan het goochelen is om mensen te verwarren. De opvolger van G80 zou de G94 zijn, die nu de naam D9P (desktop 9 series performance) draagt. Leuk om te weten dat G92 de naam D8P draagt (desktop 8 series performance), dus lijkt G94 de logische opvolger in de highend. G94/D9P zou gepland staan voor "late Q1", wat dus tussen de lancering van de concurrerende R(V)680 en R700 in zit.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nou ja, als nV niet snel met iets snels komt en ATi wél, dan weet je wel wat ík doe...
[ Voor 13% gewijzigd door Format-C op 27-09-2007 17:12 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
maargoed van een 6800 GS naar een 8800 GTS lijkt me wel een stevige verbetering, ik denk dat ik daar wel weer 1 a 2 jaar mee zoet ben
Ik had ook geen zin om te gaan w8en op de 2900 Pro, met hun slechte leverbaarheid en Nvidia weet je gewoon altijd dat je kwaliteit krijgt, aTi is toch altijd net ietsje meer stroomverbruik+lawaai, + het is een "slechte" 2900xt dus ik denk dat ik wel goed eraan gedaan heb
De snapt natuurlijk wel dat een GF8800GTS een "slechte" GF8800GTX is he? Afdankertjes van de G80 core waar niet alle streamprocessoren het goed deden en/of de core en shaders niet naar GTX/Ultra snelheden te klokken waren... Dus wat dat betreft is dat "slechte 2900XT" verhaal een beetje verwaarloosbaar, want daar is alleen op de kloksnelheden bezuinigd en niet ook op de streamprocessors.Thrills33ka schreef op donderdag 27 september 2007 @ 18:15:
Ik had ook geen zin om te gaan w8en op de 2900 Pro, met hun slechte leverbaarheid en Nvidia weet je gewoon altijd dat je kwaliteit krijgt, aTi is toch altijd net ietsje meer stroomverbruik+lawaai, + het is een "slechte" 2900xt dus ik denk dat ik wel goed eraan gedaan heb
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
maar een GTX is nog altijd kwalitatief wat beter dan een XT heCJ schreef op donderdag 27 september 2007 @ 18:22:
[...]
De snapt natuurlijk wel dat een GF8800GTS een "slechte" GF8800GTX is he? Afdankertjes van de G80 core waar niet alle streamprocessoren het goed deden en/of de core en shaders niet naar GTX/Ultra snelheden te klokken waren... Dus wat dat betreft is dat "slechte 2900XT" verhaal een beetje verwaarloosbaar, want daar is alleen op de kloksnelheden bezuinigd en niet ook op de streamprocessors.
dus dan liever een afgedankte GTX dan een afgedankte XT
ik had nu geld dus ik wilde nu ook graag een videokaart kopen, als AMD gewoon niet hun zaken voor elkaar heeft en zorgt dat men een goede keuze heeft na 1,5 jaar dat de 8800 uit is, dan kies ik toch maar voor Nvidia
[ Voor 14% gewijzigd door SuX DeLuXe op 27-09-2007 18:26 ]
Verwijderd
Indien je een echte opvolger wilt voor de 8800GTX dan zul je denk ik toch echt moeten wachten op de D9E (waarschijnlijk 9800GTX)
Bron: Fudzilla (die zijn de enige met echt nieuws)
[ Voor 12% gewijzigd door Verwijderd op 27-09-2007 20:16 ]
Echt nieuws zou ik het niet willen noemen...Verwijderd schreef op donderdag 27 september 2007 @ 20:13:
Bron: Fudzilla (die zijn de enige met echt nieuws)
Mijn bronnen zijn het dit keer echter redelijk met Fudzilla eens alleen gaan ze wat dieper en hoor ik naast overeenkomsten ook wat verschillende dingen.
1)
D8E = 2x D8P (dus in GX2 opstelling)
D8P = G92
D9P = G94 (launch late Q1 08)
2)
G94 is geschrapt en in de plaats gekomen is G96
G98 is een die-shrink op 65nm van G86
G96 is een die-shrink op 65nm van G84, deze staat echter gepland voor Maart/April 2008.
G92 heeft een die-size van 17x17 wat vrij groot is voor het $199 segment. Ter vergelijking G80 is 21.5x22.5 in het $499 segment, terwijl G84 op 13x13 zit in het $199 segment. Deze bron gaat er van uit dat G92 misschien wel eens een andere chip kan zijn dan de GF8800GT (voorheen GF8700GTS) en gebaseerd op de nummers zou het wel eens een 65nm versie van de G80 kunnen zijn. Een chip van 17x17 past namelijk absoluut niet in het marge model van nVidia, tenzij ze bereid zijn om dit keer met lagere marges genoegen te nemen.... wat ik me zelf niet kan voorstellen.
Om even een vergelijking te geven met de concurrentie. ATI heeft destijds de R520 chip die 16x18 was moeten verkopen voor rond de $199 als X1800GTO. Ze verdienden er bijna niks aan. De marges waren uiterst laag.
Ik ga er van uit dat bron 2 dichter bij de waarheid zit dan 1. Dat een G94 sneller is dan een G92 lijkt me onwaarschijnlijk tenzij nV met opzet de codenamen door elkaar gehusseld heeft.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd

De eerste videokaarten die hier voor in aamerking komen, zijn de geForce 8800 GTX en 8800 Ultra. Drie 8800 GTX kaarten kosten samen ongeveer 1500 euro, waarmee toch voorzichtig gezegd kan worden dat trio-SLI geen gemeengoed zal worden.
Bron.
http://www.hardware.info/...Ywpma/nVidia_met_trioSLI/
Mijn mening.
Leuk voor menen met veel geld en tweakers die er alles voor over hebben om een dikke benchmark score neer te zetten
[ Voor 7% gewijzigd door Verwijderd op 28-09-2007 15:08 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik vraag me ook af of dit wel zoveel presatie winst geeft ten aanzichte van het hoge prijskaartje.
Maar desondanks ziet het er erg belovend uit.
- je kan geen pci/pcie kaarten meer bijplaatsen
Verwijderd
moet je trouwens 3 pcie 16x sloten hebben. gelukkig heb ik dat (als goed is)
Gelukkig, dan kan je ook 1500 euro uitgevenVerwijderd schreef op vrijdag 28 september 2007 @ 17:25:
over die koelling daar is wel wat op te vinden.
moet je trouwens 3 pcie 16x sloten hebben. gelukkig heb ik dat (als goed is)
Alleen houdt NV waarschijnlijk ook dit keer SLI weer beperkt tot haar eigen chipset.Verwijderd schreef op vrijdag 28 september 2007 @ 17:25:
over die koelling daar is wel wat op te vinden.
moet je trouwens 3 pcie 16x sloten hebben. gelukkig heb ik dat (als goed is)
Niet op voorraad.
Verwijderd
Ik heb een probleem met mijn Nvidia GeForce FX 5900, en wel met het kijken van filmpjes van mijn pc op mijn tv. Voorheen werkte alles prima onder windows 2000, maar nu ik windows vista home premium draai niet meer. Ik heb een scart kabel aangesloten op mijn videokaart, die loopt naar mijn tv. Met de nieuwste drivers van nvidia voor windows vista krijg ik het niet voor elkaar goed beeld op mijn tv te krijgen.
Als ik naar het nvidia control panel ga en daar de 'kloon'-optie aanzet (wat ik voorheen ook met windows2000 deed, alleen dan in een ander menu), krijg ik op mijn tv zwart beeld. De enige aanwijzing dat het wel enigzins werkt is dat ik helemaal bovenin het tv-scherm 1 pixel van mijn muiscursor kan bewegen. Ik gebruik gewoon de nieuwste versie drivers van nvidia en ik heb nvidia al gemaild (via zo'n formulier op hun site) maar ze kunnen me ook niet echt helpen.
Weet 1 van jullie tweakers wat te doen? Is het met een bepaalde setting in te stellen? Ligt het aan vista? is er misschien een ander hulp programma'tje wat ik kan/moet gebruiken? andere oplossing?
Ik wil gewoon lekker mijn avi-bestanden op m'n tv kunnen kijken! Alvast bedankt!
Verwijderd
Verwijderd
Even iets niet onbelangrijks, welke voeding heeft voldoende power of aansluitingen?Verwijderd schreef op vrijdag 28 september 2007 @ 15:06:
Fudzilla meldt dat nVidia bezig is met de ontwikkeling van trio-SIL: drie videokaarten werkend in SLI modus in plaats van twee. Naar verwachting zullen de komende GeForce 780i en 780a chipsets ondersteuning bieden voor deze vorm van SLI. Ook zal nVidia trio-SLI compatible maken met de bestaande 680i chipset. Om de kaarten onderling te verbinden, zal nVidia een nieuwe SLI-bridge connector uitbrengen.
[afbeelding]
De eerste videokaarten die hier voor in aamerking komen, zijn de geForce 8800 GTX en 8800 Ultra. Drie 8800 GTX kaarten kosten samen ongeveer 1500 euro, waarmee toch voorzichtig gezegd kan worden dat trio-SLI geen gemeengoed zal worden.
Bron.
http://www.hardware.info/...Ywpma/nVidia_met_trioSLI/
Mijn mening.
Leuk voor menen met veel geld en tweakers die er alles voor over hebben om een dikke benchmark score neer te zetten
6x PCI-E
Meerdere PSU's gebruiken gewoonVerwijderd schreef op vrijdag 28 september 2007 @ 18:33:
[...]
Even iets niet onbelangrijks, welke voeding heeft voldoende power of aansluitingen?
6x PCI-E
Ja dan hadden ze nóg een 8800 Ultra aan oa mij verdiendVerwijderd schreef op vrijdag 28 september 2007 @ 18:09:
Stel je eens voor dat sli beter op een intel chipset draait dan op een nvdia;P
Maar het was meer richting Ludwig83 bedoeld die daarom geen triple SLI kan draaien.
Niet op voorraad.
Verwijderd
Ik beb een 680i chipset, 3 16x pcie sloten
Alleen nog geen 1100 watt voeding
[ Voor 56% gewijzigd door Verwijderd op 29-09-2007 10:08 ]
Verwijderd
Na geruchten dat de G92 de nieuwe midrange videokaarten gaat vormen voor nVidia, weet TechConnect nu te melden dat de naam van de G92 kennelijk de 8800GT gaat worden. De naam doet vermoeden dat het hier inderdaad om een midrange kaart gaat met een performance vergelijkbaar of iets onder die van de 8800GTS.
De GeForce 8800GT zal in twee versies beschikbaar komen, een met 256 MB geheugen voor $199 en een met 512MB geheugen voor $249. Beide zullen een 256-bit geheugen interface hebben en zullen draaien op de inmiddels 'beruchte' op 65 nm gebakken G92 chip.
Verwacht wordt dat de beide kaarten ondersteuning bieden voor DirectX 10.1 en de strijd zullen aangaan met de aankomende RV670 kaarten van AMD. De release van de nieuwe 8800GT staat nog steeds gepland voor de eerste helft van november.
Oh ik dacht dat de p5n een intelchipset wasVerwijderd schreef op zaterdag 29 september 2007 @ 10:06:
Waarom zou ik dat niet kunnen ?
Ik beb een 680i chipset, 3 16x pcie sloten
Alleen nog geen 1100 watt voeding
Niet op voorraad.
Verwijderd
e6600 3700mhz
8800gts 648.00-1080.00mhz shaderdomain 1728.00mhz
2 gig geil 800mhz kit 4-4-4-12

scheeld tog wel een stuk
Ik denk dat de winst die je krijgt bij het overclocken van je shaders in 3dmark2006 minder is dan als je een shader-intensieve game pakt als Oblivion. Heb je nog andere testen gedraait/games geprobeerd?Verwijderd schreef op maandag 01 oktober 2007 @ 12:48:
Belangrijk !! Dankzij de nieuwe rivatuner v2.05 kunnen we onze vi-kaarten verder oc-en dankzij dat je de shader domain apart kunt oc-en. En de scores mogen er zijn zonder shaderdomain oc had ik een score van 11220 en nu met shaderdomain oc 11620 gemiddeld zo'n 400 punten extra.
e6600 3700mhz
8800gts 648.00-1080.00mhz shaderdomain 1728.00mhz
2 gig geil 800mhz kit 4-4-4-12
[afbeelding]
scheeld tog wel een stuk
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verwijderd
nope geen tijd voor gehad maar ga straks ff oblivion proberen. Wan dat spel liep nooit goed bij mij met alles vol uit happerig als je begrijpt wat ik bedoel. Terwel mijn systeem dat spel normaal moet draaien ok al was hij 2 keer zo zwaar.XanderDrake schreef op maandag 01 oktober 2007 @ 17:15:
[...]
Ik denk dat de winst die je krijgt bij het overclocken van je shaders in 3dmark2006 minder is dan als je een shader-intensieve game pakt als Oblivion. Heb je nog andere testen gedraait/games geprobeerd?
Dit werkt niet op GeForce 7 kaarten neem ik aan, daar die geen shaderdomain hebben?Verwijderd schreef op maandag 01 oktober 2007 @ 12:48:
Belangrijk !! Dankzij de nieuwe rivatuner v2.05 kunnen we onze vi-kaarten verder oc-en dankzij dat je de shader domain apart kunt oc-en. En de scores mogen er zijn zonder shaderdomain oc had ik een score van 11220 en nu met shaderdomain oc 11620 gemiddeld zo'n 400 punten extra.
e6600 3700mhz
8800gts 648.00-1080.00mhz shaderdomain 1728.00mhz
2 gig geil 800mhz kit 4-4-4-12
[afbeelding]
scheeld tog wel een stuk
Verwijderd
Ik weet niet hoe dat zit bij gf7 kaarten. Uitproberen zou ik zeggenleonpwner1 schreef op maandag 01 oktober 2007 @ 18:18:
[...]
Dit werkt niet op GeForce 7 kaarten neem ik aan, daar die geen shaderdomain hebben?
Die hebben wel aparte shaderdomains, maar niet zo extreem als bij de GF8 serie.leonpwner1 schreef op maandag 01 oktober 2007 @ 18:18:
[...]
Dit werkt niet op GeForce 7 kaarten neem ik aan, daar die geen shaderdomain hebben?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik denk dat we het gebrek aan concurrentie in het hoogste segment al beginnen te merken..RappieRappie schreef op donderdag 27 september 2007 @ 17:11:
We zijn toch gewend dat een high end GPU ongeveer een jaar meegaat en dat er dan een refresh of opvolger is. Als hij pas einde Q1 komt zitten we bijna anderhalf!!! jaar met de G80 opgescheept. In het begin was dat natuurlijk geen straf deze G80, maar ik kan nu wel wat extra power gebruiken zo langzamerhand.
Verwijderd
Dat zou ik eerlijk gezegd nog liever hebben.
Maar dan spreken we niet meer van een high-end kaart maar dan is alles low en mid omdat het toch alles aan kan. Wil je prestaties dan betaal je maar
Game-industrie is beter dan Film-industrie.
* Acer Aspire V15 Nitro - Intel Core i5-5200U 2,7Ghz - 8GB - GTX 850M 4GB- 500GB 5400RPM - 128GB SSD * MX518 * Xbox 360 + XBOX One * Philips LED 55" * Samsung Galaxy S9
Het zou mij niets verbazen als de huidige games met wat optimalisatie nog prima zouden voldoen op het mid-segment, mits de programmeurs het zouden willen Maar omdat de hardware zo snel evolueert hoeven ze hun best niet te doen en houden hardware en software elkaar in stand.NeoMe schreef op maandag 01 oktober 2007 @ 20:31:
Als de kaartjes wat harder evolueren kunnen ze makkelijk alle games aan.
Maar dan spreken we niet meer van een high-end kaart maar dan is alles low en mid omdat het toch alles aan kan. Wil je prestaties dan betaal je maar... moet ook geld aan worden verdiend he.
Game-industrie is beter dan Film-industrie.
Misschien is het wel eens goed als er 2 jaar geen nieuw snelheidsmonster komt...
Maar ben geen programmeur...
Verwijderd
Verwijderd
Hoe overclock je het shaderdomein?Verwijderd schreef op maandag 01 oktober 2007 @ 12:48:
Belangrijk !! Dankzij de nieuwe rivatuner v2.05 kunnen we onze vi-kaarten verder oc-en dankzij dat je de shader domain apart kunt oc-en. En de scores mogen er zijn zonder shaderdomain oc had ik een score van 11220 en nu met shaderdomain oc 11620 gemiddeld zo'n 400 punten extra.
e6600 3700mhz
8800gts 648.00-1080.00mhz shaderdomain 1728.00mhz
2 gig geil 800mhz kit 4-4-4-12
[afbeelding]
scheeld tog wel een stuk
Als je tever zit , hoe weet je dit ? Artifacts?
Thnx.. Dan ga ik zo beginnen met oc'en & testen als ik dit weet..
Zou ik ook graag willen weten, dan kan ik testen of het werkt op de GeForce 7 serieVerwijderd schreef op maandag 01 oktober 2007 @ 23:03:
[...]
Als je tever zit , hoe weet je dit ? Artifacts?
Thnx.. Dan ga ik zo beginnen met oc'en & testen als ik dit weet..
Verwijderd
Ik ga zelf ff testen.. kan niet wachtnleonpwner1 schreef op maandag 01 oktober 2007 @ 23:04:
[...]
Zou ik ook graag willen weten, dan kan ik testen of het werkt op de GeForce 7 serie
Added new user interface for independent G8x GPU family shader clock control interfaces of the ForceWare 163.67 and newer drivers
[ Voor 20% gewijzigd door Verwijderd op 01-10-2007 23:08 ]
Verwijderd
Ik vraag me af of het ook kan met een laptop versie
Als je een 8 serie videokaart het in je laptop dan kan het sowieso.Verwijderd schreef op maandag 01 oktober 2007 @ 23:17:
interesant dat je nu de schaders kan overklokken
Ik vraag me af of het ook kan met een laptop versie
Ik heb het geprobeerd met mn 7800GS AGP kaart, helaas geen succes
Opzich ook logisch, zoals CJ zegt, in de 8 serie zijn de shaders écht los op de chip, bij de 7 serie begon dat net te komen.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Draai inmiddels 163.71, heb de .inf op het forum gevonden.
www.laptopvideo2go.com
Viel me op dat AA nu weg is, alleen AF is overgebleven. Waarom dit dan ?
van 165.01 ( Deze was wel goed maar nr klopt niet denk ik ) > naar 163.71.
[ Voor 49% gewijzigd door NeoMe op 02-10-2007 17:29 ]
* Acer Aspire V15 Nitro - Intel Core i5-5200U 2,7Ghz - 8GB - GTX 850M 4GB- 500GB 5400RPM - 128GB SSD * MX518 * Xbox 360 + XBOX One * Philips LED 55" * Samsung Galaxy S9
Verwijderd
Hoe bepaal je waar je stopt.. ?Verwijderd schreef op maandag 01 oktober 2007 @ 12:48:
Belangrijk !! Dankzij de nieuwe rivatuner v2.05 kunnen we onze vi-kaarten verder oc-en dankzij dat je de shader domain apart kunt oc-en. En de scores mogen er zijn zonder shaderdomain oc had ik een score van 11220 en nu met shaderdomain oc 11620 gemiddeld zo'n 400 punten extra.
e6600 3700mhz
8800gts 648.00-1080.00mhz shaderdomain 1728.00mhz
2 gig geil 800mhz kit 4-4-4-12
[afbeelding]
scheeld tog wel een stuk
Verwijderd
LOL
Artefacts of Artifacts. Art effects is iets totaal anders
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca

Komt twee weken vroeger, release datum is nu 29 oktober.
[ Voor 10% gewijzigd door biobak op 03-10-2007 10:17 ]
Verwijderd
Dat zie ik niet gebeuren, eigenlijk. De top-end kaarten zijn al een tijdje dual-slot only. Laat dat maar zo imo, die single slot dingen maken altijd flink herrie.biobak schreef op woensdag 03 oktober 2007 @ 10:17:
Blits ding. Hopelijk gaat de high-end versie van de G90 serie ook terug naar single slot.
5800X3D - X570 Elite - 32Gb 3600C16 - 6700XT - 990PRO 2TB - RM750X
Hij ziet er echt vet uit met die platte lange singleslot cooler, en de scores zijn zwaar flex als ze kloppen.
Ik had begrepen dat de 8800GT lager scoorde dan de 8800GTS, maar dat dus niet het geval?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verwijderd
betekent dus dat hij beter word dan de 8800gts 640mbInfinityG35 schreef op woensdag 03 oktober 2007 @ 11:39:
De 8800GT gaat volgens Vr-Zone 10.800 punten scoren in 3DMark06 @ 600/1800. Overklokken schijnt niet zo'n probleem te zijn aangezien hij ook op 700 kan draaien.
GTX niveau is meer rond de 12K volgens mij. Maar sowieso maakt het erg veel verschil of je op een overgeclockte Core 2 Quad bencht of op een Core 2 Duo @ Default.Verwijderd schreef op woensdag 03 oktober 2007 @ 14:33:
10800? Dat is GTX niveau? Ik neem het maar met een korrel zout.
Verwijderd
Ik zit op 11800 met een GTX @ stock. Rest van de specs in sig. Zonder OC op mn E6600 zat ik op 9800. Denk dat ze inderdaad een dikke Quad in hun testsysteem hebben danleonpwner1 schreef op woensdag 03 oktober 2007 @ 14:36:
[...]
GTX niveau is meer rond de 12K volgens mij. Maar sowieso maakt het erg veel verschil of je op een overgeclockte Core 2 Quad bencht of op een Core 2 Duo @ Default.
[ Voor 8% gewijzigd door Verwijderd op 03-10-2007 14:38 ]
Verwijderd
Vind ik ook,.. lekker strak die koeler,.. een beetje design tuned,.. very nice,... benieuwd wat ie gaat kosten
dat de 8800GT niet veel ging moeten onderdoen t.o.v. de 8800GTS'en was al eerder bekend gemaakt.
Ben alleen eens vreselijk benieuwd om een vergelijkende test te zien.
En of je op Vista benched of op XP. Scheelt ook zo'n 700 tot 1000 punten.leonpwner1 schreef op woensdag 03 oktober 2007 @ 14:36:
[...]
GTX niveau is meer rond de 12K volgens mij. Maar sowieso maakt het erg veel verschil of je op een overgeclockte Core 2 Quad bencht of op een Core 2 Duo @ Default.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Nu heb ik voor mijn broertje een nieuwe PC in elkaar gestoken en zou ik willen weten hoever ik veilig kan overclocken met volgende hardware:
Gainward 8800 GTS 320 Mb
Intel E6850
Gigabyte P35-DS3R
Zijn de GTX settings op alle kaarten haalbaar? Of zijn deze afhankelijk van kaart tot kaart?
Alles zit in een antec ninehundred kast (met Scythe mugen op Processor) en is dus lekker koel, oververhitting zal dus niet snel een probleem vormen...
Heb een snel een bench gedraaid (alles standaard) met 3D mark 06 en kwam uit op 8700 punten rond, normale score neem ik aan?
*Don_holio
Verwijderd
[ Voor 22% gewijzigd door Verwijderd op 03-10-2007 14:56 ]
Verwijderd
Effe gegoogeld;
2 versies :
256mB voor 199$
512mB voor 249$
Lekker met onze sterke €,.. gaat ie hier dan wel nog wat minder kosten,.. leuk
http://www.techzine.nl/ni...omgedoopt-tot-8800GT.html
http://www.hardware.info/...idia_G92_wordt_de_8800GT/
[ Voor 9% gewijzigd door Verwijderd op 03-10-2007 14:59 ]
volgens deze linkVerwijderd schreef op woensdag 03 oktober 2007 @ 14:56:
GTX settings op een GTS zal je nooit halen, te weinig stream processors. Die score is voor de rest gewoon normaal.
kan de leadtek vlot 600 MHz core bij 1000 MHz memory clock aan...
In de Topic start staan bij de GTX: 575MHz core en 900 Memory.
Deze settings zijn haalbaar dan toch?
Dat de prestaties niet gelijk gaan zijn weet ik ook wel maar ik doelde enkel op de frequenties, srry voor de onduidelijkheid hieromtrend...
*Don_holio
Ten eerste is het offtopic hier maar goed. Als je niets van overclocken weet ga je dan eerst inlezen. Er bestaat niet zoiets als veilig overclocken. Sommige kaarten kunnen 10 MHz harder draaien en andere kaarten kunnen 300 MHz harder draaien. Daar komt ook nog eens een koeling verhaal bij kijken, wat ook iets uitgebreider is dan een processorkoeler en welk type kast (denk aan casefans en omgevingstemperatuur in de kamer waar de pc staat). Daarnaast moet je een goede stabiele voeding hebben.yago schreef op woensdag 03 oktober 2007 @ 15:03:
[...]
volgens deze link
kan de leadtek vlot 600 MHz core bij 1000 MHz memory clock aan...
In de Topic start staan bij de GTX: 575MHz core en 900 Memory.
Deze settings zijn haalbaar dan toch?
Dat de prestaties niet gelijk gaan zijn weet ik ook wel maar ik doelde enkel op de frequenties, srry voor de onduidelijkheid hieromtrend...
Vervolgens kun je voorzichtig gaan overclocken en tussendoor veel testen. Zie je artefacts tijdens het testen clock je videokaart dan weer wat naar beneden.
Maar ga je allereerst eens goed inlezen aub, voordat
[ Voor 23% gewijzigd door alikebap op 03-10-2007 18:53 ]
Nvidia lanceert tegenwoordig de meeste kaarten "hard" oftewel samen met de reviews komen de kaarten in de winkel. 29 oktober zou kunnen, ik schat eerder november.alikebap schreef op woensdag 03 oktober 2007 @ 18:35:
Ligt die 8800gt op 29 oktober ook bij ons in de winkels of zijn er dan alleen test exemplaren voor reviews?En verbruikt die 8800gt in sli minder dan een HD 2900 xt?Zou hij beter presteren dan een 8800gts want met die 256 bit zou hij toch minder moeten presteren?
Niemand weet hoeveel zon 8800GT gebruikt, dus dat kunnen niet schatten.
Ook de scores zijn op dit moment niet volledig betrouwbaar. Het is allemaal een kwestie van wachten.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
De 8800GTS krijgt meer streamprocessors dan dat ze nu hebben om zich te distantieren van de 8800GT. De hoeveelheid stream processors is nu 96, en het wordt dus 112. Vrij intressant, ik wist niet dat je zomaar een rits stream processors aan of uit kon zetten.
De prijs blijft waarschijnlijk hetzelfde, en op deze manier blijft de 8800GTS 640mb boeiend, omdat ie nog beter concurreert met de 2900XT en de opkomende 8800GT.
Dat betekent dus ook dat de 8800GT er in de buurt of zelfs beter scoort dan de oude 8800GTS. Anders zou nVidia niet de moeite doen om de 8800GTS core aan te passen.
Beide sites schatten dat de 8800GT rond de 11k 3dmark2006 zal scoren en zwaar overclockbaar is.
In ander nieuws, de 8800GTS 320mb gaat verdwijnen, zijn positie wordt overgenomen door de 8800GT 512mb. Ook zal er in 2007 geen nieuwe high-end meer komen.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Always happy
Kijk dan even wat voor drivers er nu geinstalleerd zijn, dan weet je meer...jbvanvliet schreef op donderdag 04 oktober 2007 @ 11:54:
Krijg net een melding in Windows Vista dat er nieuwe drivers beschikbaar zijn voor de 8800GTS. Echter als ik op de site van NviDia kijk zie ik hier niets over? Is Vista nu zo slim geweest om mijn (beta) drivers te overschrijven door oude drivers? of zou er toch een update zijn?
Die melding krijg je idd als je de 163.71 drivers geinstalleerd hebt. Gewoon negeren.jbvanvliet schreef op donderdag 04 oktober 2007 @ 11:54:
Krijg net een melding in Windows Vista dat er nieuwe drivers beschikbaar zijn voor de 8800GTS. Echter als ik op de site van NviDia kijk zie ik hier niets over? Is Vista nu zo slim geweest om mijn (beta) drivers te overschrijven door oude drivers? of zou er toch een update zijn?
Ik loop een beetje achter
(heb niet het hele topic gelezen.)
Core i5 4670k, 8gb, MSI GTX460 HAWK TA
Nee..rickyy schreef op donderdag 04 oktober 2007 @ 16:09:
Nu bekend is dat de 8800GT uit komt... Komt de 9800GTS/GTX Nou ook nog in november?
Ik loop een beetje achter![]()
(heb niet het hele topic gelezen.)
Mensen, vergeet die hoax nou eens, ik word zooo moe van al die mensen die het continu over de 9800 hebben terwijl nVidia er zelfs nog niet eens een woord over heeft gezegd
Ik zij toch onder voorbehoud dat ik achter liep.leonpwner1 schreef op donderdag 04 oktober 2007 @ 16:16:
[...]
Nee..![]()
Mensen, vergeet die hoax nou eens, ik word zooo moe van al die mensen die het continu over de 9800 hebben terwijl nVidia er zelfs nog niet eens een woord over heeft gezegd
Core i5 4670k, 8gb, MSI GTX460 HAWK TA
Verwijderd
Ontopic, ik ben toch benieuwd welke kaart beter gaat performen, de nieuwe 8800 GTS, of de RV670 kaartjes van ATi.
[ Voor 46% gewijzigd door Verwijderd op 04-10-2007 16:20 ]
Verwijderd
kreeg ik ook en heb hem ff bekeken het is forceware 162.30 Nooit op de nv site zelf gezien ??jbvanvliet schreef op donderdag 04 oktober 2007 @ 11:54:
Krijg net een melding in Windows Vista dat er nieuwe drivers beschikbaar zijn voor de 8800GTS. Echter als ik op de site van NviDia kijk zie ik hier niets over? Is Vista nu zo slim geweest om mijn (beta) drivers te overschrijven door oude drivers? of zou er toch een update zijn?
Nee? Waarom zou dat moeten?alikebap schreef op donderdag 04 oktober 2007 @ 18:48:
die 8800gts met 120 stream processors OC moet toch evensnel zijn als een 8800gtx niet?
Nou kan ik alleen kiezen tussen 4 resoluties:
800x600
1024x768
1152x864
1440x900
Is er een mogelijkheid om uit meerdere resoluties te kiezen?
Mijn vorige kaart (Ati Radeon 9600) ondersteunde veel meer resoluties terwijl dat een veel mindere kaart is.
Maar voor het geval dat ik het niet trek is er dan geen mogelijkheid om andere resoluties in te stellen?
Eerst kon ik er veel meer uitkiezen maar nu precies dezelfde als jij. Ik heb alleen een XFX 7950GT. Bij sommige spellen zoals Crysis heb ik liever geen 1440x900 maar bv. 1280x800 ofzo.
Verwijderd
PowerstripMirageH1992 schreef op donderdag 04 oktober 2007 @ 22:50:
Dat probleem heb ik ook met de resolutie's.
Eerst kon ik er veel meer uitkiezen maar nu precies dezelfde als jij. Ik heb alleen een XFX 7950GT. Bij sommige spellen zoals Crysis heb ik liever geen 1440x900 maar bv. 1280x800 ofzo.
Dus de 8800GT wordt gewoon een 8800GTS, en de GTS krijgt 112 shaders? Dat lijkt me erg verwarrend allemaal. Benieuwd hoe de gpu markt eruitziet binnen een maand
Verwijderd
Ter vergelijking, mijn systeem is bijna identiek aan het jouwe en ik haal 10.800 3dmarks met de volgende instellingen:yago schreef op woensdag 03 oktober 2007 @ 15:03:
[...]
volgens deze link
kan de leadtek vlot 600 MHz core bij 1000 MHz memory clock aan...
In de Topic start staan bij de GTX: 575MHz core en 900 Memory.
Deze settings zijn haalbaar dan toch?
Dat de prestaties niet gelijk gaan zijn weet ik ook wel maar ik doelde enkel op de frequenties, srry voor de onduidelijkheid hieromtrend...
Evga 8800gts 320 @ 615 / 950
E6850 @ 3.8ghz
Gigabyte p35-ds4
Ze zeggen dat nVidia die nieuwe 8800GTS's "stil" gaan introduceren. Wel bijzonder om een verbetert product op de markt te brengen en het dan gaan verzwijgenVerwijderd schreef op donderdag 04 oktober 2007 @ 23:10:
Dus de 8800GT wordt gewoon een 8800GTS, en de GTS krijgt 112 shaders? Dat lijkt me erg verwarrend allemaal. Benieuwd hoe de gpu markt eruitziet binnen een maand
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verwijderd
bron: Gamez.nlNvidia roept videokaarten die uitgerust zijn met de nieuwe G92-chips terug. Deze zouden te heet kunnen worden.
Nvidia is druk bezig om nog snellere videokaarten te bouwen. Het nieuwste wapen in de strijd is de G92 chip; het kloppende hart van de GeForce 8800GT. Volgens The Register heeft Nvidia alle chips terug laten roepen voor Thermal Analysis. Dat klinkt als koelingsproblemen, op zich vreemd aangezien de G92 chip juist minder stroom gebruikt dan zijn voorgangers.
Inmiddels heeft Nvidia laten weten dit jaar geen nieuwe High End videokaarten uit te brengen. Oorspronkelijk zou in november de nieuwe GeForce 8800GT uitkomen, maar die is nu uitgesteld.
Verwijderd
Deze kaart is dan ook niet gericht naar mensen die al een 8800 zitten hebben. Lijkt me erg logischVerwijderd schreef op vrijdag 05 oktober 2007 @ 10:25:
zolang ze niet sneller en beter zij dan mij huidige 8800gts 640mb. zou ik niet weten waarom ik een gt zou moeten kopen. Ikkoop er dan liever een 2e 8800gts bij
nVidia brengt geen nieuwe kaarten meer uit dit jaar? Kan me moeilijk voorstellen dat ze helemaal geen antwoord hebben op de RV670. Dat de 8800GT koelingsproblemen heeft lijkt me logisch als je de koeler ervan bekijkt, beetje ongelukkige beslissing om er een single slot koeler op te zetten imo. Nu ja, ze kunnen - mocht de RV670 echt potten gaan breken - altijd de GTX wat in prijs verlagen, en ze hebben de laatste tijd toch enorm veel geld gepuurd uit de G80
Hebben ze wel, de 8800GT. Die RV670 wordt heus niet sneller dan een GTX, anders hadden ze wel wat snellers klaarstaanKan me moeilijk voorstellen dat ze helemaal geen antwoord hebben op de RV670.
Verwijderd
Ahh, geen high-end kaarten. Nvm, had er over gelezen. Nee, dat de RV670 sneller wordt dan de GTX denk ik idd ook niet. Kan eigenlijk ook niet voor 250$.Hacku schreef op vrijdag 05 oktober 2007 @ 15:46:
[...]
Hebben ze wel, de 8800GT. Die RV670 wordt heus niet sneller dan een GTX, anders hadden ze wel wat snellers klaarstaan
Maar de 8800GT is dus ook uitgesteld? Ik kan me niet voorstellen dat de fabrikanten het koelingsprobleem nog tijdig opgelost krijgen.
Verwijderd
Er is een nieuwe driver uit, 163.74 beta
Ik weet dat het met pc's altijd zo is dat het zou kunnen dat je na een maandje erachter komt dat je beter had kunnen wachten, maar wat is het advies van de insiders?
Dat is zwak als je op die snelheden werkt. Ik haal 8724 en dan alles op standaard met:Verwijderd schreef op donderdag 04 oktober 2007 @ 23:21:
[...]
Ter vergelijking, mijn systeem is bijna identiek aan het jouwe en ik haal 10.800 3dmarks met de volgende instellingen:
Evga 8800gts 320 @ 615 / 950
E6850 @ 3.8ghz
Gigabyte p35-ds4
AMD Athlon 64 X2 6000+
XFX 7950GT 512MB GDDR3 570M Extreme
Asrock AliveNF6G-VSTA
2GB DDR2 667 Kingston
[ Voor 16% gewijzigd door MirageH1992 op 06-10-2007 16:55 ]
No way dat jij @stock in 3D mark06 met een single 7950GT die score neerzet!MirageH1992 schreef op zaterdag 06 oktober 2007 @ 16:53:
[...]
Dat is zwak als je op die snelheden werkt. Ik haal 8724 en dan alles op standaard met:
AMD Athlon 64 X2 6000+
XFX 7950GT 512MB GDDR3 570M Extreme
Asrock AliveNF6G-VSTA
2GB DDR2 667 Kingston
Met een C2D aan 3.6 en de GT aan 720/1700 haal je mss net 7000.
God does not play dice
Idd, met een opteron 165 @ 2.5 GHz en een 7950gt haal ik zo'n 5.3K in 3Dmark06...-AzErTy- schreef op zaterdag 06 oktober 2007 @ 17:27:
[...]
No way dat jij @stock in 3D mark06 met een single 7950GT die score neerzet!
Met een C2D aan 3.6 en de GT aan 720/1700 haal je mss net 7000.
Verwijderd
Dat is dan weer onwaarschijnlijk, want een 3700+ @ 2.8 GHz met een 7900gt doet al 9k daarin.Verwijderd schreef op zaterdag 06 oktober 2007 @ 20:33:
met een 4800+ oc en 8800gtx haal ik maar 9600 ofzo. ik denk dat hij met zijn 7950gt wel 3dmark05 bedoeld.:d
Dat zou dus net kunnen liggen aan het aantal MB's vrije RAM, de achtergrondprocessen, en de drivers. Ook geloof ik bijna niet dat je een 3700+ op 2,8 hebt met een niet geklokte 7900GT
Dit topic is gesloten.
![]()
Dit is een _Discussie_ topic, geen "stel-hier-je-kleine-vraagjes" topic.
Ook patsen met de overclock op je GeForce7/8 kaart hoort hier niet thuis.
Pats maar met nieuwtjes op het gebied van nVidia!