Niet op voorraad.
Precies!edward2 schreef op woensdag 29 augustus 2007 @ 23:49:
Waar is "mijn" terraflop gpu gebleven? Zal die dan toch in de gedaante van die GX2 GTS 65mu formatie komen?
Ik had toch wel gehoopt op iets substantieel snellers dan de 8800GTX/Ultra zodat Crysis e.d. straks een beetje soepel speelt met alles maximaal....
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Wat ik een beetje maf vindt is dat de naam/prestatie verhouding anders is dan in het verleden.The Source schreef op woensdag 29 augustus 2007 @ 22:22:
http://www.google.com/tra...air=zh%7Cen&hl=en&ie=UTF8
Chinees is brak
Komt eropneer dat;
G92 - launch 12 Nov.
- 65nm TSMC
- replacement van 8800GTS (tegen RV670)
- PCI-E 2.0
- Purevideo 3.0
- HDMI / Displayport
G98
- 65nm TSMC
- replacement van 8400 / 8500 (tegen RV630 / RV620)
- PCI-E 2.0
- Purevideo 3.0
- HDMI / Displayport
Dan nog iets over DX10.1 (alsof G80 / G84 dit al support?????) dat ik niet snap en over de shortage waar ik al maanden over roep.
Volgens mij is het al een tijdje zo dat bijvoorbeeld een 7800 sneller is dan 7600 of 7400 en nu zie je opeens dat de G92 de snellere van de twee is.
Je haalt de codenaam met de uiteindelijke retailnaam door elkaar. Wat betreft de uiteindelijke naam binnen een generatie (dus bij de GF8 generatie: GF8800 of GF8600 of GF8400) heb je gelijk en is hoger ook sneller. Maar wat betreft codenaam is er weinig structuur. Zie bv:Zarkov schreef op donderdag 30 augustus 2007 @ 09:55:
[...]
Wat ik een beetje maf vindt is dat de naam/prestatie verhouding anders is dan in het verleden.
Volgens mij is het al een tijdje zo dat bijvoorbeeld een 7800 sneller is dan 7600 of 7400 en nu zie je opeens dat de G92 de snellere van de twee is.
G70 = 7800
G71 = 7900
G72 = 7300 (GS/LE)
G73 = 7600 (GT) / 7300 (GT)
G80 = 8800 (GTX/GTS)
G84 = 8600 (GTS/GT)
G86 = 8400 (GS) / 8500 (GT)
Nu komt dus de G92 serie uit en als je puur naar de codenaam kijkt, dan zou dit dus niet de nieuwe highend moeten zijn, omdat het gewoon geen G90 of G91 heet. Ik heb gehoord dat de G92 de vervanger is van de G82 die nooit uit is gebracht. G82 zou een GPU zijn op 90nm die zich tussen de 8800GTS en 8600GTS positioneert. De G92 zou de 65nm versie zijn met DX10.1 ondersteuning en rond de 9000 punten in 3DM scoren. Er ligt dus waarschijnlijk nog een G90 op stapel.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
En een 8700Er ligt dus waarschijnlijk nog een G90 op stapel.
[ Voor 29% gewijzigd door XWB op 30-08-2007 12:04 ]
Aangezien ik van plan was de 8800gts 640 mb te kopen kan ik dus best nog even wachten?
Anoniem: 222644
Doet het al met een 8800GTS op Ultra High volgens Crytek.Help!!!! schreef op donderdag 30 augustus 2007 @ 08:46:
[...]
Precies!
Ik had toch wel gehoopt op iets substantieel snellers dan de 8800GTX/Ultra zodat Crysis e.d. straks een beetje soepel speelt met alles maximaal....
Iedereen loopt hier nog met het Battlefield/Oblivion syndroom rond lijkt wel.
(oftewel dat was een game die zo slecht geoptimaliseerd dat de kaarten uit die tijd er ernstig moeite mee hadden)
Anoniem: 222644
Heel vreemd, maar ik zou even Tom's Hardware VGA charts bekijken.sparda schreef op donderdag 30 augustus 2007 @ 12:15:
Vervangt de G92 nu de 8800GTS of wordt het een 8700??
Aangezien ik van plan was de 8800gts 640 mb te kopen kan ik dus best nog even wachten?
Om de een of andere reden verslaat de 8800GTS met 320MB de 8800GTS met 640MB daar in alle benchmarks op hoge resoluties met veel AA
De 8800GTS is een hele goede kaart voor zijn prijs, welke alleen door de nieuwe High-End 9 serie zal worden verslagen zoals het er nu naar uit ziet (G90) en dat duurt nog wel eventjes wat langer.
Daarnaast gaat zoals al eerder gezegd de CPU een bottlneck vormen (aangezien de CPU fabrikanten het tempo van de GPU fbrikanten blijkbaar moeilijk bijhouden, al helemaal als we spreken over voor goed-verdienende middenklasse nog te betalen prijzen)
[ Voor 32% gewijzigd door Anoniem: 222644 op 30-08-2007 12:56 ]
volgens mij zit er een bug in de Nvidia driver noodzakelijk om bioshock te kunnen spelen (163.44_forceware_winxp_32bit_international_beta ). Het spel loopt lekker, maar ik kan geen avi's of dvd's meer afspelen. Het beeld is te donker om te kijken. Als ik de oude driver installeer is het probleem opgelost, maar kan ik Bioshock niet spelen. Heeft iemand enig idee hoe ik dit probleem kan oplossen zodat ik zowel Bioshock kan spelen als film kan kijken?
dank alvast
P4 3ghz
2.5gb ddrsdram
XFX 7600GT 256mg
win XP sp2
http://www.theinquirer.net/default.aspx?article=42015
Ik weet het niet meer...G92 is a high-end chip, sports 384-bit controller
RUMOUR HAS IT that upcoming G92 is a mainstream chip, not the high-end refresh that the net has been wibbling about.
Well, we can tell you that this rumour is nothing else but a bit of good old FUD, since either G92 is a high-end refresh or the company decided that a replacement for 8800GTS will be significantly faster than GeForce 8800 Ultra, leaving its high-end offering in shambles.
This baby sports some serious shading power, but more important is the fact that the memory installed on board is now GDDR4. 768MB of GDDR4, to be more precise. The amount of memory discards rumours of 256-bit bus, since it is obvious that Nvidia will keep 384-bit memory controller for the high-end series of products. We would welcome this memory controller in mainstream arena, though.
The bandwidth has now jumped over the 105 GB/s barrier, and it remains to be seen what will be the final clock of the memory – our estimate is between 1.0 and 1.2 GHz, or 2.0-2.4 GHz, but final clocks are far, far from being decided. The company needs to get the revised chip first, in order to have DisplayPort working nice and cleanly. Display Port is required for this company to get the Dell XPS contract – a new machine will be launched for Winter 2007/08, probably during CES 2008 in Las Vegas.
The company has already had some revisions of the board sent to their favourite game developers and other partners, and we can now tell you that the board is almost identical to old 8800 GTX/Ultra ones.
We would like to see 1.5GB of memory on consumer boards as well - the Quadro FX already spots 1.5GB of GDDR3 memory- but it is all a matter of price. Qimonda’s high-capacity GDDR3 sounds very tasty for Nvidia plans, but for now. The reference boards sport Samsung GDDR4 chips.
We hope the situation about this upcoming silicon gem is now as clear as mud, not FUD. µ
Of nV komt met een kaart die gaat concurreren met de R670, dus goedkoop en vergelijkbaar met de 8800GTS.
Of nV gaat zn high-end uitbreiden, omdat de 8800GTX nu toch al bijna een jaar oud is...
Allebei logisch en mogelijk als je het mij vraagt.
Volgens mij is het goed voor nVidia als zowel mid-end als high-end een refresh krijgt.
Is het niet een G92 serie die uit moet komen?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 23009
En dat ze van twee 8950 GTS GPU's een 8950 GX2 bouwen voor de Quad Sli freaks hehe
Dat zou toch weer een nette refresh line kunnen voorstellen.
[ Voor 95% gewijzigd door Anoniem: 23009 op 30-08-2007 23:10 ]
Je kan in het nVidia control panel de video overlay instellingen aanpassen. Video en televisie -> Videokleurinstellingen aanpassen (weet niet wat het in het Engels is, heb NL drivers). Pas daar even de helderheid aanBleijenberg schreef op donderdag 30 augustus 2007 @ 14:46:
Probleempje met force ware 163.44:
volgens mij zit er een bug in de Nvidia driver noodzakelijk om bioshock te kunnen spelen (163.44_forceware_winxp_32bit_international_beta ). Het spel loopt lekker, maar ik kan geen avi's of dvd's meer afspelen. Het beeld is te donker om te kijken. Als ik de oude driver installeer is het probleem opgelost, maar kan ik Bioshock niet spelen. Heeft iemand enig idee hoe ik dit probleem kan oplossen zodat ik zowel Bioshock kan spelen als film kan kijken?
dank alvast
P4 3ghz
2.5gb ddrsdram
XFX 7600GT 256mg
win XP sp2
Ja duidelijk, als ik jouw was zou ik meteen 6 ati kaarten kopen aan elkaar tapen en in je computer steken.hully schreef op vrijdag 31 augustus 2007 @ 08:42:
Ati wel sneller in Crysis...?
http://www.bilgiustam.com/?p=125
Je zou bijvoorbeeld ook je bronnen een keertje kritisch kunnen bekijken en tot de volgende conclusie komen
1. Er is nog geen Crysis demo.
2. Vage Turkse site waar nog nooit iemand van heeft gehoord.
3. Geen fatsoenlijke driver informatie 100.65 is echt een eeuwigheid geleden
4. 3D mark scores kloppen niet
5. Nergens anders op het net is deze informatie te vinden
6. site krijgt reclame inkomsten uit bezoekers, welke vraag houdt high end bezitters al een tijdje bezig?
Goh, zou het misschien niet helemaal de waarheid zijn?
Als het waar is dan eet ik mijn schoenveters op.
Oh en trouwens is deze site al een aantal keer eerder vermeld in deze thread
Die is al heel oud. btw, het zijn wel Turkse devs, dus wie weet dat die sneller aan gelekte info komenhully schreef op vrijdag 31 augustus 2007 @ 08:42:
Ati wel sneller in Crysis...?
http://www.bilgiustam.com/?p=125
Maar er is inmiddels zoveel veranderd aan drivers mbt de dx10 perf. dat zo'n oude benchmark weinig waarde heeft IMHO
[ Voor 27% gewijzigd door edward2 op 31-08-2007 11:35 ]
Niet op voorraad.
Anoniem: 219166
Nah wat een agressief antwoord. Was benieuwd of ati sneller was. Heb overigens zelf een 8800GTS. En uuhh als je mij zo kritisch benadert; leer ff goed Nederlands spellen: als ik JOU was... enz..Zarkov schreef op vrijdag 31 augustus 2007 @ 10:53:
[...]
Ja duidelijk, als ik jouw was zou ik meteen 6 ati kaarten kopen aan elkaar tapen en in je computer steken.
Je zou bijvoorbeeld ook je bronnen een keertje kritisch kunnen bekijken en tot de volgende conclusie komen
1. Er is nog geen Crysis demo.
2. Vage Turkse site waar nog nooit iemand van heeft gehoord.
3. Geen fatsoenlijke driver informatie 100.65 is echt een eeuwigheid geleden
4. 3D mark scores kloppen niet
5. Nergens anders op het net is deze informatie te vinden
6. site krijgt reclame inkomsten uit bezoekers, welke vraag houdt high end bezitters al een tijdje bezig?
Goh, zou het misschien niet helemaal de waarheid zijn?
Als het waar is dan eet ik mijn schoenveters op.
Oh en trouwens is deze site al een aantal keer eerder vermeld in deze thread
gekke vent
Ik ben niet voor ATI of nVidia, maar wel blij met concurrentie. Als ATI wel sneller blijkt straks dan is dat toch alleen maar een goede motivatie voor nVidia om met iets beters te komen.
Met een instelling als: "nVidia/ATI is altijd beter, omdat het nVidia/ATI is." komen we niet zover natuurlijk.
Advocatus ineptias | Free Speech Online
Nu hoorde ik alleen over bottleneck van de processor, nu heb ik op het moment een AMD 3500+, met een dfi ultra-D moederbord en maar 2x512DDR geheugen. Ik weet niet of dit voldoende info is maar krijg je hiermee een bottleneck of moet ik mijn pc helemaal upgrade naar een Q6800 ofzo
Excuses voor de agressieve benadering, daar was inderdaad niet netjes. Ik ben geloof ik een beetje met het verkeerde been uit bed gestapt vanochtend.hully schreef op vrijdag 31 augustus 2007 @ 12:34:
[...]
Nah wat een agressief antwoord. Was benieuwd of ati sneller was. Heb overigens zelf een 8800GTS. En uuhh als je mij zo kritisch benadert; leer ff goed Nederlands spellen: als ik JOU was... enz..
gekke vent
Maar die link is al een aantal keren eerder besproken. Het gebruik van jouw in plaats van jou is inderdaad een suffe fout maar om nu mensen op spelling te gaan beoordelen terwijl je eigen hoofdlettergebruik en interpunctie de algemeen geaccepteerde regels maar zelden raakt is ook een beetje een zwakte bod.
Niet om het een of ander, ik ben ook geïnteresseerd in de prestaties van top of the line kaarten in Crysis. Ik hoop dat de2900XT het goed doet in dat spel. Dat lijkt me prettig voor AMD en goed voor de markt. Maar om nu meerdere keren dezelfde niet betrouwbare bronnen aan te halen is gewoon zonde van de tijd. Dat is een beetje verglijkbaar met de minimum specs vraag die om de 15 posts langskomt in de Crysis thread in het games forum.
Discussies over het onderwerp zijn ook prima maar steek er dan wat meer werk in. Niet gewoon een losse one-liner met daaronder een link. Gooi dan iets neer van deze informatie heb ik deze informatie @ X gevonden en ik denk dat het wel/niet betrouwbaar is omdat.
Dat zal denk ik zeker een bottleneck gaan vormen. Upgrade naar een mainstream Dual Core CPU met 2GB RAM zal denk ik geen overbodige luxe zijnJ_star schreef op vrijdag 31 augustus 2007 @ 13:20:
Ik wil nu straks ook gaan upgrade naar een G92 of wat tegen die tijd rond 300 euro uit komt en sneller is als een 8800GTS.
Nu hoorde ik alleen over bottleneck van de processor, nu heb ik op het moment een AMD 3500+, met een dfi ultra-D moederbord en maar 2x512DDR geheugen. Ik weet niet of dit voldoende info is maar krijg je hiermee een bottleneck of moet ik mijn pc helemaal upgrade naar een Q6800 ofzo
of gewoon met de 8800GTS 640 gaan (640 omwille van reso!)
Dat ze nu maar eens snel met die benchmarks komen tbh -_-
Anoniem: 226494
Naar verluidt zal nVidia haar GeForce 8800 GTS gaan vervangen voor een grafische kaart met de nieuwe G92 chip aan boord, de instapmodellen van de GeForce 8 serie moeten ruim baan maken voor VGA's die beschikken over een G98 chip.
De op 65 nanometer gebakken G92 zal ondersteuning bieden aan onder andere PCI Express 2.0, HDMI, PureVideo Gen 3 en Display Port technologie. TSMC zal verantwoordelijk zijn voor de productie van de chips.
Ondanks de nieuwe chip ontwerpen van de G92 en G98 beweren bronnen dat beiden slechts een update zijn van de huidige GeForce 8 reeks, aangezien er geen grote veranderingen aanwezig zouden zijn.
nVidia heeft geen commentaar gegeven op deze geruchten.
Anoniem: 219166
Anoniem: 220775
Manier van marketing en hype? Zo ja, wel slim natuurlijk. Maar voor ons wel erg onduidelijk.
Geen GF9 of HD3xxx, marketing of is er meer aan de hand?
Het kan ook nog zijn dat dit iets te tactisch is.
De Crysis launch van 16 November + nieuwe GF9 = zou zuur zijn voor Ati.
Ze brachten ook de GF8 uit toen het bij Ati niet helemaal lekker met de R6x0 liep
[ Voor 34% gewijzigd door zzzzz op 02-09-2007 00:04 ]
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Neuh.. wel voor een Intel Celeron 2,0ghzLudwig83 schreef:
Zal de G92 kaarten ook een bottlneck gaan vormen voor de E6600 stock ?
je moet je niet gek laten maken door de bottleneck-verhalen.
het bestaat wel maar niet bij die huidige dual-core's...
A world without gadgets is no world ;)
Ik denk eerder dat die E6600 een bottleneck gaat vormen voor die G92 dan de G92 voor die E6600MauSS schreef op zondag 02 september 2007 @ 19:38:
[...]
Neuh.. wel voor een Intel Celeron 2,0ghz![]()
je moet je niet gek laten maken door de bottleneck-verhalen.
het bestaat wel maar niet bij die huidige dual-core's...
Anoniem: 220775
Zelfs gespecialiseerde sites weten het dus niet meer.9800 GTX coming on November 12th?
Kevin Spiess - Thursday, August 30th, 2007 | 2:16PM (PST)
They say rumors are just facts that haven't been confirmed yet
Not much new info has surfaced recently on the Interwhat about AMD's upcoming HD 2900 Pro; but, some morsels of note concerning the next Nvidia GPUs have.
Digitimes, citing unnamed sources, is saying that G92 GPU is set to launch on November 12th, 2007. Contrary to our previous reports, Digitimes is saying that the G92 is a refresh/replacement of the beloved 8800 GTS. However, tech news site the Inquirer obliquely referenced this new rumor by sticking to their guns, and reposted information garnered from their sources stating that the G92 is a high-end GPU replacement, with enough power to make a 8800 GTX look quaint. According to the Inquirer, the card will have a 384-bit memory controller, and 768 megs of GDDR4 fast-flavor memory.
Time will tell -- but it has been a while since Nvidia released new cards, so, November seems like an entirely reasonable time for a new GPU's arrival. It doesn't take a rocket scientist, or a marketing genius, to suspect that they will release something in time to cash in on Christmas.
Nou, ik weet het wel. Ik ga sparen voor iets GROOTS, wat ik rond die tijd ga kopen!Anoniem: 220775 schreef op maandag 03 september 2007 @ 01:07:
Zelfs gespecialiseerde sites weten het dus niet meer.
(Desnoods twee G92's in SLI als ze langzaam zijn
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Kan best hoor, zoveel is 10K in 3dmark06 niet. En aangezien het een refresh zou worden van de 8800GTS kan dat zeker kloppen.Anoniem: 161608 schreef op maandag 03 september 2007 @ 17:47:
http://forums.vr-zone.com/showthread.php?t=183032
schepje zout, of toch niet?
Anoniem: 226494
En als hij op 3,6gig loopt ?leonpwner1 schreef op zondag 02 september 2007 @ 19:49:
[...]
Ik denk eerder dat die E6600 een bottleneck gaat vormen voor die G92 dan de G92 voor die E6600
Anoniem: 222644
Anoniem: 226494
[ Voor 15% gewijzigd door Anoniem: 226494 op 03-09-2007 19:50 ]
Anoniem: 222644
Ik draai regelmatig op verschillende clocks, maar de verschillen zijn niet enorm, goed aangezien hij op 2,4 Ghz al zo verschrikkelijk goed is.Anoniem: 226494 schreef op maandag 03 september 2007 @ 19:49:
2,4GIG zal denk ik wel een bottlenek gaan vormen maar 3,6GIG kijkt me niet ook niet met 1 Tflop
Maar ik denk niet zozeer dat de CPU te slecht is, maar eerder de overbrenging van data, want het moet uiteindelijk toch van de HDD komen, en zelfs met Raptors erin hangen zit daar toch overduidelijk het probleem.
Waarschijnlijk zullen deze nog wel uitkomen, er zijn diverse fabrikanten zover ik weet bezig met AGP-versies van mid-range 8-serie, maar pin me er niet op vastAnoniem: 226494 schreef op maandag 03 september 2007 @ 20:07:
Denk het niet. Maar wie weet.
Er zijn trouwens Hotfixes voor Windows Vista voor nVidia.
De problemen die ik al eens aangaf zouden hiermee verholpen moeten worden (te lage FPS, artifacts onder goede temperatuur en met verschillende kaarten en PC's)
[ Voor 32% gewijzigd door Anoniem: 222644 op 03-09-2007 20:14 ]
[ Voor 65% gewijzigd door Format-C op 03-09-2007 22:46 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 222644
Das inderdaad waar, maar niet veel mensen gamen op die resoluties.RappieRappie schreef op maandag 03 september 2007 @ 22:41:
Over dat bottlenecken: ga maar eens op 1920x1200 gamen, dan is de CPU geen bottleneck meer maar de GPU.Dus dat hele bottleneck verhaal ligt puur aan de gebruikte resolutie en gebruikte AA en AF. Op 1024x768 of 1280x1024 is de CPU idd een bottleneck, maar als je naar de 1600x1200 met veel AA en AF gaat of 1920x1200 dan is het puur de graka die het zwaar gaat krijgen en ervoor zorgt dat de maximale FPS niet hoger wil/ kan.
Ikzelf houdt bijvoorbeeld vast aan 17 inch, omdat groter simpelweg niet past in me computerhoek.
(ondanks dat 19 inch op dit moment de norm is, zal ik in de toekomst ook 17 inch nemen)
Ja, zie ook eerder in dit topic. En wel hier: The Source in "[Algemeen] nVidia Nieuws & Discussie Top..."Anoniem: 91868 schreef op maandag 03 september 2007 @ 20:04:
Komen er nog agp kaarten uit zoals bijv. een 8600gts?
En mijn reactie met uitleg hier: CJ in "[Algemeen] nVidia Nieuws & Discussie Top..."
Voor zover ik weet alleen de low en midrange.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
toch zie ik wel degelijk een verschil in fraps als ik de game world in conflict demo speel of bioshock demo op 2560*1600 met alles op max als ik mijn quadcore op 2.66 draai of op 3.2 . Dus gewoon zeggen dat een cpu geen bottleneck meer is op die resoluties klopt toch ook niet direct hoor. (als ik op 2 cores speel zie ik wel geen verschil in vergelijking met quadcore, dus de game is waarschijnlijk enkel dual core geoptimaliseerd en niet multicore)RappieRappie schreef op maandag 03 september 2007 @ 22:41:
Over dat bottlenecken: ga maar eens op 1920x1200 gamen, dan is de CPU geen bottleneck meer maar de GPU.Dus dat hele bottleneck verhaal ligt puur aan de gebruikte resolutie en gebruikte AA en AF. Op 1024x768 of 1280x1024 is de CPU idd een bottleneck, maar als je naar de 1600x1200 met veel AA en AF gaat of 1920x1200 dan is het puur de graka die het zwaar gaat krijgen en ervoor zorgt dat de maximale FPS niet hoger wil/ kan.
http://specs.tweak.to/15628 Area-51 ALX (evga 680i, qx6700 @3.2, 4 gb 1066 Mhz Patriot, geforce 8800 Ultra SLI, 2*1Tb Hitachi, 30" dell, 7.1 gigaworks s750, g15 logitech, mx revolution, X-fi Xtreme Gamer)
http://www.legionhardware.com/document.php?id=618&p=3
http://www.legionhardware.com/document.php?id=618&p=4
http://www.legionhardware.com/document.php?id=618&p=4
http://www.overclockers.com/articles1390/index02.aspAlthough the GeForce 8800 GTX is best suited to high-end systems, it can be utilized quite well on slightly slower processors. Of course we are not talking about slow processors here, in fact quite the opposite. However, the 1600x1200 resolution showed almost no performance variations between the eleven configurations with the FSAA and Aniso settings enabled. The only game to show noticeable performance differences when using lower clocked or lower performance processors was X3: Reunion.
het zal ongetwijfeld bij sommige games WEL verschil maken, maar bij andere weer helemaal niet.It definitely picks up a few frames per second, from 2.66 GHz 3.40 GHz every 100 MHz, but once you approach 3.40 GHz, FEAR gaming will not scale AT ALL with CPU clockspeed. Again, this is all done at 1024 x 768 resolution. If I turn up the resolution to 1280 x 960, things get very interesting. When high res gaming, it is quite obvious here that the GPU's performance does not scale AT ALL at any CPU clockspeed:
[ Voor 81% gewijzigd door Format-C op 04-09-2007 10:17 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Nu kan ik 2 dingen doen, wachten op G92 release en een upgrade e6750.
Of mijn huidig systeem houden en een x1950XT kopen.
Als ik die x1950 xt koop kan ik eventjes vooruit is toch wel aardig snelle videokaart, maar als ik nu een volledige upgrade doe ben ik weer 700 euro ofzo kwijt maar kan ik weer 2 jaar goed vooruit mag ik hopen.
Het blijft natuurlijk afhangen van het financieel plaatje. Maar wat is nu het verstandigste.
Als je kan wachten tot december komen de nieuwe intelprocessors uit, dan kan je of een van
deze kopen, of een dual core/quad core, die waarschijnlijk wel in prijs zal dalen met die release.
Dat in combinatie met een nieuwe graka en mobo en je kan weer een heel stuk verder. Als je
enkel een nieuwe graka koopt ben je binnen dit en max. een jaar toch aangewezen op een nieuwe
PC wil je nog iets kunnen spelen...
Dus uiteindelijk zou dat slechts een uitsel van executie zijn
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Anoniem: 159816
Uitstel van executie. De laatste stuiptrekkingen. De PC's met AGP mobo's beginnen onderhand echt te verouderen, dan heeft videokaart updaten al zo goed als geen nut meer.Apoca schreef op dinsdag 04 september 2007 @ 22:03:
Is toch mooi om te zien dat AGP nog steeds leeft
Het is komisch om te zien dat nieuws op de grote "tech sites" al veel eerder te zien is op dit forum... Was al bekend.... meer dan een week zelfs.... Effe terug bladeren en je ziet waar.... (zelfs nog een paar posts terug weer herhaald).Anoniem: 161608 schreef op dinsdag 04 september 2007 @ 17:33:
http://www.digitimes.com/mobos/a20070904PD209.html
nieuwe bridge chip pci-e -> agp?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Natuurlijk heb je gelijk dat PC's met AGP beginnen te verouderen.Anoniem: 159816 schreef op woensdag 05 september 2007 @ 05:54:
[...]
Uitstel van executie. De laatste stuiptrekkingen. De PC's met AGP mobo's beginnen onderhand echt te verouderen, dan heeft videokaart updaten al zo goed als geen nut meer.
Toch vind ik het opmerkelijk hoe lang je met een systeem kan doen als je een paar handige upgrades uitvoert zoals bijvoorbeeld een nieuwe videokaart, geheugen of harde schijf. Mijn systeem is inmiddels 4,5 jaar oud en draait als een zonnetje onder XP. Zelfs met een "bescheiden" videokaart als de 7600GS, ben ik in staat COD 2 te spelen op 1280x1024 (op medium AA en AF uit).
Bovendien gaan de fabrikanten echt geen nieuwe kaarten uitbrengen als ze er geen brood inzien.
De xfx geforce 8600 gts:

Alleen wat een geknoei met de drivers om hem fatsoenlijk te laten lopen...

Maarja, het is wel stukken beter als mijn msi 7300le lol
Edit net een 3d mark 06 test gedaan:

[ Voor 28% gewijzigd door Joopieboy op 06-09-2007 21:37 ]
Het leven is te kort om geduld te hebben!
Anoniem: 91868
Ik heb serieus nog interesse in een laatste agp upgrade hoor.Anoniem: 159816 schreef op woensdag 05 september 2007 @ 05:54:
[...]
Uitstel van executie. De laatste stuiptrekkingen. De PC's met AGP mobo's beginnen onderhand echt te verouderen, dan heeft videokaart updaten al zo goed als geen nut meer.
lol compleet verkeerd geinterpreteerd, men heeft het over het aantal transistors, niet over de 3D markAnoniem: 161608 schreef op maandag 03 september 2007 @ 17:47:
http://forums.vr-zone.com/showthread.php?t=183032
schepje zout, of toch niet?
Nu zei ik dit hiervoor en zei iemand anders dat je een langzame dood gaat met een X1950XT, nu dat gerucht van guru3D naar buiten kwam dat G92 een tussenlink evt wordt met 8800 en 8600. Begin ik toch te twijfelen dat die langzame dood wel meevalt.J_star schreef op dinsdag 04 september 2007 @ 14:06:
Ik zit met een dilemma, nu komt dus november die nieuwe G92, leuk en aardig maar daar heb ik niet zo gek veel aan met een AMD 3500+.
Nu kan ik 2 dingen doen, wachten op G92 release en een upgrade e6750.
Of mijn huidig systeem houden en een x1950XT kopen.
Als ik die x1950 xt koop kan ik eventjes vooruit is toch wel aardig snelle videokaart, maar als ik nu een volledige upgrade doe ben ik weer 700 euro ofzo kwijt maar kan ik weer 2 jaar goed vooruit mag ik hopen.
Het blijft natuurlijk afhangen van het financieel plaatje. Maar wat is nu het verstandigste.
Want ik zou eventueel ook dan een 8800GTS kunnen halen maar heb ik dan nog steeds een bottleneck met processor? Just asking. Weet mijn god niet waar je dat nu eigenlijk kan uitvinden? Zijn zat reviews van nieuwe spullen die beter en sneller zijn maar niet of oud materiaal nog goed kan werken met nieuw.
http://tweakers.net/price...-EN8600GTS-HTDP-256M.html
Zoals te zien is deze kaart in 2 winkels rond de 120 euro, terwijl deze kaarten normaal voor 160 euro in de winkels liggen!
Weet iemand of hier een addertje onder het gras zit? Dat dit misschien geen volwaardige 8600GTS is?
Hoe kan het dat deze kaart zo veel goedkoper is dan anderen?
Ik heb al lopen googlen naar benchmarks van deze kaart, maar ik vind alleen benchmarks van de 8600GTS, niet van deze specifieke goedkope kaart!
fout in pw. Kijk maar naar de grafiek, daar zie je dit product op en neer schommelen. Dus een leverancier zet het product fout in zijn systeem en sommige webshops die automatisch alles linken hebben direct dezelfde fout. Probeer maar te bestellen, zal niet lukken vermoed ik.MilaNL schreef op vrijdag 07 september 2007 @ 22:52:
Ik snap iets totaal niet. Het betreft de Asus EN8600GTS/HTDP/256M videokaart. Dit is een 8600GTS maar deze versie heeft een veel lagere prijs dan alle andere 8600GTS kaarten.
http://tweakers.net/price...-EN8600GTS-HTDP-256M.html
Zoals te zien is deze kaart in 2 winkels rond de 120 euro, terwijl deze kaarten normaal voor 160 euro in de winkels liggen!
Weet iemand of hier een addertje onder het gras zit? Dat dit misschien geen volwaardige 8600GTS is?
Hoe kan het dat deze kaart zo veel goedkoper is dan anderen?
Ik heb al lopen googlen naar benchmarks van deze kaart, maar ik vind alleen benchmarks van de 8600GTS, niet van deze specifieke goedkope kaart!
Anoniem: 8819
Met een x1950xt ga je niet langzaam dood hoor.J_star schreef op vrijdag 07 september 2007 @ 22:48:
[...]
Nu zei ik dit hiervoor en zei iemand anders dat je een langzame dood gaat met een X1950XT, nu dat gerucht van guru3D naar buiten kwam dat G92 een tussenlink evt wordt met 8800 en 8600. Begin ik toch te twijfelen dat die langzame dood wel meevalt.
Want ik zou eventueel ook dan een 8800GTS kunnen halen maar heb ik dan nog steeds een bottleneck met processor? Just asking. Weet mijn god niet waar je dat nu eigenlijk kan uitvinden? Zijn zat reviews van nieuwe spullen die beter en sneller zijn maar niet of oud materiaal nog goed kan werken met nieuw.
De kaart is krachtige genoeg voor de games die uit moeten komen.
Voordat directx10 echt noodzakelijk is dan zijn we weer dik1jaar verder.
Je kan ook kijken voor een x1950pro (100euro en bij fok staat er een voor 85euro te koop van 3weken oud)
Laat je zelf niet gek maken met de lowbudget kaarten die nu op de markt zijn.
En ja ik beschouw een nvidia 8800gtx ook als lowbudget samen met de ati x2900serie.
De reden is dat ik de prijs nu niet waard vind tegen over de directx9 games die nog uit moeten komen. (met de huidige directx 9kaarten op de markt zoals prijs\kwalitijds verhouding)
Aangezien je windows vista moet draaien voor directx10 wat nu nog steets kinder fouten bezit.
Zie ik nu niet noodzakelijk om een directx10kaart te kopen van dik 300@500euro
Je kan dus kiezen tussen een snelle directx9kaart van 100euro of lowbudget kaart zoals de nvidia8600serie en ati x1600serie voor de zelfde prijs en alleen voor directx10 opties
Anoniem: 8819
Hier ben ik niet zo mee eens.Anoniem: 159816 schreef op woensdag 05 september 2007 @ 05:54:
[...]
Uitstel van executie. De laatste stuiptrekkingen. De PC's met AGP mobo's beginnen onderhand echt te verouderen, dan heeft videokaart updaten al zo goed als geen nut meer.
Mijn broertje heeft een bordje met agp maar daar pas wel een core dual proc op met ddr2. (10066bus)
En zo zal er wel veel meer mensen zijn die alleen agp hebben en geen pci-e aansluiting.
Klikke doen
Het leven is te kort om geduld te hebben!
leuke review...maar niet echt de klasse waarin ik aan het kijken ben op het momentJoopieboy schreef op vrijdag 07 september 2007 @ 23:19:
Ik heb een revieuw geschreven over de xf 8600 gts die ik van de week heb gekocht, misschien leuk om te lezen, opmerkingen zijn welkom
Klikke doen
ik ben nu al tijden aan het w8en met kopen van een videokaart...maar voor Call of Duty 4, Crysis, Starcraft 2 etc wil ik er wel even een dikke videokaart induwen. Mijn hele systeem is wel netjes alleen de videokaart loopt achter (6800 GS)
aangezien ik nu 450 euro op m'n rekening heb staan begin ik erg te neigen om een 8800 GTS 640 te kopen, slim om dat nu te doen of beter toch nog wachten? ik begin het wachten wel een beetje beu te worden
wachten, nov komt refresh uit.Thrills33ka schreef op zaterdag 08 september 2007 @ 00:51:
[...]
leuke review...maar niet echt de klasse waarin ik aan het kijken ben op het moment
ik ben nu al tijden aan het w8en met kopen van een videokaart...maar voor Call of Duty 4, Crysis, Starcraft 2 etc wil ik er wel even een dikke videokaart induwen. Mijn hele systeem is wel netjes alleen de videokaart loopt achter (6800 GS)
aangezien ik nu 450 euro op m'n rekening heb staan begin ik erg te neigen om een 8800 GTS 640 te kopen, slim om dat nu te doen of beter toch nog wachten? ik begin het wachten wel een beetje beu te worden
Dan heb je voor zelfde geld minmaal hetzelfde, wellicht meer features / meer peformance / minder warm.
maar in het nieuws blijkt nu dat ze een 8700 GT en GTS gaan uitbrengen...The Source schreef op zaterdag 08 september 2007 @ 00:57:
[...]
wachten, nov komt refresh uit.
Dan heb je voor zelfde geld minmaal hetzelfde, wellicht meer features / meer peformance / minder warm.
niet echt waar ik op zit te wachten want een lager getal zal ook altijd wel lager presteren anders is het te onlogisch
Anoniem: 220775
Ik zit in hetzelfde bootje als jij, dus ik weet wat je doormaakt
Weet je wat erbij stond? GeruchtThrills33ka schreef op zaterdag 08 september 2007 @ 01:14:
[...]
maar in het nieuws blijkt nu dat ze een 8700 GT en GTS gaan uitbrengen...
niet echt waar ik op zit te wachten want een lager getal zal ook altijd wel lager presteren anders is het te onlogisch
Voor dat geld heb je al een GTX,zou ik dan kiezen boven een GTS,of dat slim is weet ik niet want je kunt ook wachtenThrills33ka schreef op zaterdag 08 september 2007 @ 00:51:
[...]
leuke review...maar niet echt de klasse waarin ik aan het kijken ben op het moment
ik ben nu al tijden aan het w8en met kopen van een videokaart...maar voor Call of Duty 4, Crysis, Starcraft 2 etc wil ik er wel even een dikke videokaart induwen. Mijn hele systeem is wel netjes alleen de videokaart loopt achter (6800 GS)
aangezien ik nu 450 euro op m'n rekening heb staan begin ik erg te neigen om een 8800 GTS 640 te kopen, slim om dat nu te doen of beter toch nog wachten? ik begin het wachten wel een beetje beu te worden

Anoniem: 220775
Anoniem: 162692
DX10.1 wow , ik verheug me erop.. Dx10 vond ik ook al niks & stap Dx10 -> 10.1 is wrs NOG kleiner.Anoniem: 220775 schreef op zaterdag 08 september 2007 @ 14:44:
En DX10.1 lijkt me ook wel handig om te hebben. Grote kans dat er games verschijnen die 10.1 echt nodig zullen hebben voor alle eye-candy. En daar zit je dan met je investering van 500 euro.
Het leven is te kort om geduld te hebben!
De stap was niet groot zegt hijJoopieboy schreef op zaterdag 08 september 2007 @ 23:09:
Tjah, direct x 8 naar direct x 9 was ook niet wereld schokkend, maar als je nu van direct x 8 naar direct x 10 bekijkt is er wel behoorlijk wat verschil in, dusja, wat is verschil.... iets tussen wat net uit is en wat al wat ouder is, of heel oud?


DirectX9 was een compleet nieuwe build.
Eerder het verschil tussen DX9 en DX10 is klein, praktisch hetzelfde maar opgevoerd in snelheid en beter met z'n resources, in een notendop. Wat je zegt is dus stierenpoep.
[ Voor 3% gewijzigd door Jejking op 09-09-2007 00:14 ]
Anoniem: 8819
De stap van ps1.1 moet je niet naar kijken dat was directx8.0Jejking schreef op zaterdag 08 september 2007 @ 23:27:
[...]
De stap was niet groot zegt hij... Zie hier: SM3.0/PS3.0 (DX9) vs PS1.1 (DX8.1)
[afbeelding]
DirectX9 was een compleet nieuwe build.
Eerder het verschil tussen DX9 en DX10 is klein, praktisch hetzelfde maar opgevoerd in snelheid en beter met z'n resources, in een notendop. Wat je zegt is dus stierenpoep.
Kijk beter naar ps1.3 directx8.1 naar directx9.0 dat is inderdaad klein
Directx9 was pas volwassen toen ps3.0 werd ondersteunt. (directx9.0c)
Verschil van directx9.0c naar directx10 is klein (iets meer verwerkings functies)
Sorry, typo, het wordt laat. Dit is dus een vergelijking van PS1.4 tov PS3.0/SM3.0 (ATi Radeon 8500 vs GF6800-series). Dat verschil is dus GROOT, zie ook maar HalfLife2-screenies. HDR anyone?
DX9 was al vanaf het begin volwassen. nVidia was zo slim om het nieuwe Shadermodel maar 3.0 te dopen, bij wijze van verkoopargument. ''kijk ons eens''. Het enige verschil tussen 2.0 en 3.0 is het aantal instructies, meer niet.
Kijk maar naar HalfLife2, in DX9 wordt met SM2.0 ook HDR bereikt, SC: Chaos Theory met SM2.0 : HDR, Tone Mapping, e.d. De uiteindelijke verwerkingslimiet van SM2.0 is inderdaad lager, maar het verschil in IQ is nihil. Daarom had SM3.0 beter SM2.4 kunnen heten. Zie ook SM2.0B van ATi (de X300/X700/X800-series).
Anoniem: 133470
ps1.1 en 1.3 scheelt bijna niks (2 instructies ofzo).De stap van ps1.1 moet je niet naar kijken dat was directx8.0
Kijk beter naar ps1.3 directx8.1 naar directx9.0 dat is inderdaad klein
ps1.4 was wel een groot verschil. Maar omdat bijna niemand een Radeon 8500 had, is dat een beetje een mislukte standaard. ps1.4 werd in het DX8-tijdperk nauwelijks gebruikt (ps1.3 overigens ook niet, want je had er bijna niks aan). Pas in het DX9-tijdperk kwamen er meer kaarten die ook ps1.4 ondersteunden, en toen was het bv op de trage GeForce FX-serie wel handig om ps1.4 te gebruiken ipv 2.0.
Naast de uitgebreide instructieset en veel grotere instructielimieten lijkt me vooral de overgang van integer naar floating point in DX9 heel belangrijk.
Dit maakte dingen als HDR rendering en shadowmapping mogelijk (zonder lelijke hacks, en met prima prestaties en goede kwaliteit).
Waarom vind je dat?Directx9 was pas volwassen toen ps3.0 werd ondersteunt. (directx9.0c)
Persoonlijk vind ik ps3.0 niet zo heel wereldschokkend tov ps2.0 in de praktijk.
Grootste verschil lijkt me dan de branching, alleen was dat in de praktijk zo traag dat je vaak beter multipass-algoritmen toe kon passen met de stencilbuffer of alphatest. En dat kon met ps2.0 ook al.
Het verschil tussen DX9 en DX10 is juist weer redelijk groot, vind ik. Voornamelijk de geometry shader is een compleet nieuw iets. Helaas werkt dat ongeveer net zo goed als dynamic branching in ps3.0, maar misschien wordt dat nog beter met meer volwassen drivers, of anders een nieuwe generatie hardware.Verschil van directx9.0c naar directx10 is klein (iets meer verwerkings functies)
Ook heb je nu meer formaten rendertargets met hogere precisie, is texturefiltering voor floatingpoint textures verplicht, en hebben ze ook eindelijk wat shadowmap-formaten/filters gestandaardiseerd (die nVidia al tijden had, overigens), waardoor je nu betere schaduwkwaliteit hebt.
Er zijn vast nog veel meer dingen te noemen, maar dit schiet me nu even snel te binnen.
Anoniem: 8819
verschil tussen ps1.1 en ps1.3 was inderdaad maar een paar functiesAnoniem: 133470 schreef op zondag 09 september 2007 @ 00:28:
[...]
ps1.1 en 1.3 scheelt bijna niks (2 instructies ofzo).
ps1.4 was wel een groot verschil. Maar omdat bijna niemand een Radeon 8500 had, is dat een beetje een mislukte standaard. ps1.4 werd in het DX8-tijdperk nauwelijks gebruikt (ps1.3 overigens ook niet, want je had er bijna niks aan). Pas in het DX9-tijdperk kwamen er meer kaarten die ook ps1.4 ondersteunden, en toen was het bv op de trage GeForce FX-serie wel handig om ps1.4 te gebruiken ipv 2.0.
Naast de uitgebreide instructieset en veel grotere instructielimieten lijkt me vooral de overgang van integer naar floating point in DX9 heel belangrijk.
Dit maakte dingen als HDR rendering en shadowmapping mogelijk (zonder lelijke hacks, en met prima prestaties en goede kwaliteit).
[...]
Waarom vind je dat?
Persoonlijk vind ik ps3.0 niet zo heel wereldschokkend tov ps2.0 in de praktijk.
Grootste verschil lijkt me dan de branching, alleen was dat in de praktijk zo traag dat je vaak beter multipass-algoritmen toe kon passen met de stencilbuffer of alphatest. En dat kon met ps2.0 ook al.
[...]
Het verschil tussen DX9 en DX10 is juist weer redelijk groot, vind ik. Voornamelijk de geometry shader is een compleet nieuw iets. Helaas werkt dat ongeveer net zo goed als dynamic branching in ps3.0, maar misschien wordt dat nog beter met meer volwassen drivers, of anders een nieuwe generatie hardware.
Ook heb je nu meer formaten rendertargets met hogere precisie, is texturefiltering voor floatingpoint textures verplicht, en hebben ze ook eindelijk wat shadowmap-formaten/filters gestandaardiseerd (die nVidia al tijden had, overigens), waardoor je nu betere schaduwkwaliteit hebt.
Er zijn vast nog veel meer dingen te noemen, maar dit schiet me nu even snel te binnen.
Het grote verschilwas dat bij ps1.1 alleen de data in1xging de rest moest wachten.
Bij ps1.3 kon meer verschillende data in 2x doen (1baans weg naar 2baans weg toe)
Dit zorgde er voor dat de data sneller verwerkt word.
Verder verschil tussen ps2,0 en ps3,0 was niet hdr maar hdr samen met A.F functie
Dit kon niet met ps2.0 (nvidia 6600serie en hoger hadden geen volwaardige ps3.0 en kon A.F met hdr niet)
Ps3,0 naar ps 4.0 (directx10) zit niet zo veel verschil in kwa verwerking
Daarom zie je bijna niet veel verschil tussen een zeer goed directx9 game versus directx10.
Microsoft flicht voor directx10 ga ik niet mee reken de game niet gezien dus geloof ik het niet in.
Directx10.1 zal meer verschil uitmaken versus directx9.0c .
De huidige directx10 kaarten vind ik nu niks waard .
Ben al eerder ingestoken over functies die een kaart zal hebben en het was bagger.
Matrox g400serie met speciaal mapping
Goeie kaart drivers voor games waardeloos
Ati 7200serie (ook wel radeon classic)
Zal vol support directx8.0 kaart worden
Helaas pixels shader 1.0 werd niet onder directx ondersteunt (werd versie 1.1)
Dikke kaart erg duur hup de vuilnis bak ik.
Ati 8500pro met support voor pixel shader 1,4
Wel humm kaart had diverse problemen
de geforce 3 serie was smoother kwa game.
Shaders werden niet gebruikt (meestel 1,3)
Nvidia fx serie zal ful support hebben voor directx9.0
Wel humm je weet wat voor kaart het is
Ik had een nvidia fx5800ultra
Nvidia 6600serie en hoger zullen pixel shader 3.0 hebben
Helaas niet alle functies zaten er in
Kaart kon geen hdr met A.F aan
Conclusie de eerste versie kaart worden door mij niet meer gekocht
Wacht wel op de tweede versie
het is toch geen HDR met A.A.?Anoniem: 8819 schreef op zondag 09 september 2007 @ 01:32:
Nvidia 6600serie en hoger zullen pixel shader 3.0 hebben
Helaas niet alle functies zaten er in
Kaart kon geen hdr met A.F aan
Anoniem: 89068
Eisen:
- Stil (dus passief);
- Ik wil er geen geld aan uitgeven dus hij moet goedkoop zijn. Als het effe kan niet meer dan €75;
- Hij moet minimaal één DVI uitgang hebben.
Speel namelijk nooit spellen op de pc en kijk ook nooit films of wat dan ook. Het enige wat belangrijk kan zijn is dat ik veel photoshop. Vind het raar dat er nergens te lezen is (bijv. bbg) wat je beter kan kopen als je toch nooit spellen speelt enz.
Na wat research zijn mij de volgende videokaarten opgevallen:
- Asus GeForce 7300 GT 256MB DDR2 (PCI-e, DVI) EN7300GT/SILENT/HTD/256M (€47.95)
- Asus GeForce 7600 GS 256MB DDR2 (AGP, DVI) N7600GS/HTD/256M (€73.95)
- Asus EN8600GT SILENT/HTDP/512M (€129.95) Vind ik dus eigenlijk te veel voor iets wat ik niet belangrijk vindt.
Nu wil ik graag Vista gaan draaien en las net iets over dat de 7300 GT/GS niet de meest ideale videokaart is voor Aero.
Wat kunnen jullie mij hierover zeggen en zowel wat kunnen jullie zeggen wat voor mij prima is voor mijn nieuwe pc'tje.
Mijn dank is groot!
Ik draaide Aero hier een tijdje terug met een ASUS 6200TC 64MB kaartje... Dus die 7300 moet dat ook makkelijk trekken.Anoniem: 89068 schreef op zondag 09 september 2007 @ 02:43:
Nu wil ik graag Vista gaan draaien en las net iets over dat de 7300 GT/GS niet de meest ideale videokaart is voor Aero.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Je speelt geen spellen en je kijkt geen films en je wilt weinig uitgeven. Dan heb je alles van bovenstaande geweld niet nodig.Anoniem: 89068 schreef op zondag 09 september 2007 @ 02:43:
Wil zeer binnenkort dan eindelijk gaan overstappen op een nieuwe pc. Ik zit eigenlijk nog met één probleem. Het uitkiezen van een videokaart.
Eisen:
- Stil (dus passief);
- Ik wil er geen geld aan uitgeven dus hij moet goedkoop zijn. Als het effe kan niet meer dan €75;
- Hij moet minimaal één DVI uitgang hebben.
Speel namelijk nooit spellen op de pc en kijk ook nooit films of wat dan ook. Het enige wat belangrijk kan zijn is dat ik veel photoshop. Vind het raar dat er nergens te lezen is (bijv. bbg) wat je beter kan kopen als je toch nooit spellen speelt enz.
Na wat research zijn mij de volgende videokaarten opgevallen:
- Asus GeForce 7300 GT 256MB DDR2 (PCI-e, DVI) EN7300GT/SILENT/HTD/256M (€47.95)
- Asus GeForce 7600 GS 256MB DDR2 (AGP, DVI) N7600GS/HTD/256M (€73.95)
- Asus EN8600GT SILENT/HTDP/512M (€129.95) Vind ik dus eigenlijk te veel voor iets wat ik niet belangrijk vindt.
Nu wil ik graag Vista gaan draaien en las net iets over dat de 7300 GT/GS niet de meest ideale videokaart is voor Aero.
Wat kunnen jullie mij hierover zeggen en zowel wat kunnen jullie zeggen wat voor mij prima is voor mijn nieuwe pc'tje.
Mijn dank is groot!
Heb je voorkeur voor het control panel van ATI of nVidia? Ik zou voor een 8400GS of een 2400PRO passief gekoeld gaan. Vallen beide binnen je budget, supporten biede hardware HD content offload (wellicht ooit in toekomst handig), worden beide niet echt warm en verbruiken weinig energie. Ook is er DX10 support.
Anoniem: 133470
Hoe kom je daar nou weer bij?verschil tussen ps1.1 en ps1.3 was inderdaad maar een paar functies
Het grote verschilwas dat bij ps1.1 alleen de data in1xging de rest moest wachten.
Bij ps1.3 kon meer verschillende data in 2x doen (1baans weg naar 2baans weg toe)
Dit zorgde er voor dat de data sneller verwerkt word.
Als je bedoelt dat de ps1.3-kaarten (GeForce 4-serie) meer pipelines en efficientere texture-fetchers etc hadden dan de ps1.1-kaarten (GeForce 3-serie), okee...
Maar dat is geen eigenschap van ps1.3 an sich, want dat geldt namelijk ook voor het draaien van ps1.1-code op een ps1.3+ kaart.
Dat heeft vooral een andere reden, namelijk dat games nog niet klaar zijn voor DirectX 10. De eerste DirectX9-spellen waren ook niet heel denderend... Zelfs bij Half-Life2 zag je nauwelijks verschil tussen ps1.4 en ps2.0. Maar als je dat vergelijkt met de laatste spellen in DirectX9, zoals bv BioShock, dan is dat toch weer een aardige stap vooruit, en absoluut niet meer haalbaar met alleen ps1.4.Ps3,0 naar ps 4.0 (directx10) zit niet zo veel verschil in kwa verwerking
Daarom zie je bijna niet veel verschil tussen een zeer goed directx9 game versus directx10.
Bij DirectX10 zul je de komende jaren ook nog flinke vooruitgang zien in kwaliteit. Wacht eerst Crysis en 3DMark07 maar af, dat zullen de eersten zijn die echt voor DirectX 10 ontworpen zijn qua textures, shaders en effecten.
DirectX 10.1 is nou juist weer nauwelijks een verbetering. Vandaar ook het kleine verschil in versienummer. Bepaalde dingen in 10.1 zijn eigenlijk nutteloos... Zoals het verplicht stellen dat hardware 4xAA ondersteunt. Leuk, maar dat hebben we al jaren.Microsoft flicht voor directx10 ga ik niet mee reken de game niet gezien dus geloof ik het niet in.
Directx10.1 zal meer verschil uitmaken versus directx9.0c .
De huidige directx10 kaarten vind ik nu niks waard .
Dat er ook wat algoritmische verbeteringen in AA mogelijk zijn... Leuk, maar zo'n enorme impact zal het niet hebben.
Shader Model 4.1 is ook niet een wereld van verschil met 4.0. Dat zal voorlopig nog geen doorslaggevend verschil maken in games... Zeker nu de meeste spellen nog nauwelijks zichtbare verschillen tussen 3.0 en 4.0 hebben.
Het zal nog wel 1 tot 2 jaar duren voordat DX10 maximaal benut wordt door de meeste spellen. Tegen die tijd ben je toch wel aan een upgrade toe. Niet voor DX10.1, maar puur voor meer snelheid.
Ik vind dat geleuter over DX10.1 dus nergens op slaan. Ik heb ook nooit iemand gehoord over de GeForce4, terwijl ie geen ps1.4 uit DX8.1 ondersteunde, wat destijds toch WEL een behoorlijk verschil maakte in bv HL2. Toen zagen de meeste gamers het niet eens. Als er toen een nieuwsartikel over ps1.4 geweest was, a la het nieuws over 10.1 nu, dan zouden ze ook spontaan ineens gaan zeiken. Mensen zijn maar meelopers, schapen.
Alsof dat een garantie is dat je alle features hebt...Conclusie de eerste versie kaart worden door mij niet meer gekocht
Wacht wel op de tweede versie
Ik heb nog NOOIT een kaart gezien die echt alle features had.
ATi heeft het zelfs gepresteerd met de eerste Radeon X-serie om SM2.x-hardware uit te brengen tegenover de GeForce 6-serie van nVidia die wel SM3.0 had. En de X-serie was wel degelijk tweede generatie DX9.
En dan ga jij juist commentaar leveren op de GeForce 6-serie? Die vond ik nou juist de beste keus. Het alternatief ondersteunde nog veel minder features (maar ook daar hoorde je bijna niemand mekkeren, de meeste gamers zagen het verschil niet eens... zouden ze bij DX10.1 ook niet gezien hebben, als ze niet geconditioneerd waren tegen DX10.1 zoals nu).
Dankzij het nieuwe beleid van Microsoft is het nu in ieder geval wel zo dat zowel de GeForce 8-serie als de Radeon HD nu *wel* alle features van DX10 ondersteunt. Maar daarbuiten zijn er wel wat verschillen in features. Dat blijft altijd zo, want fabrikanten willen zich onderscheiden, en alleen de snelste kaart maken is niet genoeg.
Verder kan ik je nu alvast melden dat als je straks een DX10.1-kaart koopt, dat ie niet compatible is met DX11 (en misschien komt er tussendoor ook nog wel een DX10.2 ofzo, die gaat ie ook niet ondersteunen). Dus ja, moet je dan nooit een kaart kopen? Bij mij is het gewoon ingecalculeerd dat ik om de 2 a 3 jaar een nieuwe kaart koop, en dat ik daarbij alleen in het eerste jaar voorop loop qua features. Features hebben toch geen nut als je niet de snelheid hebt om ze te gebruiken. We weten nu al dat de laatste generatie DX10 games dermate zwaar gaat worden dat ie nooit op vol detail kan draaien op een GeForce 8-serie. Waarschijnlij ook niet eens op de komende DX10.1-generatie. Dat is altijd al zo geweest, en zal altijd zo blijven.
Daar hou ik gewoon rekening mee. Videokaarten zijn wegwerpartikelen. Ik koop dan ook nooit de duurste, maar altijd 1 of 2 modellen lager. Uiteindelijk gaat de hele generatie tegelijk onderuit bij nieuwere spellen, en is het verschil tussen een GTS en Ultra onbelangrijk... Of je nou 10 of 12 fps krijgt, beiden zijn niet fijn.
Aero doet het prima op m'n 7300 GT'tje hoorAnoniem: 89068 schreef op zondag 09 september 2007 @ 02:43:
Nu wil ik graag Vista gaan draaien en las net iets over dat de 7300 GT/GS niet de meest ideale videokaart is voor Aero.
Vroeger kon je de fanspeed van 6600/6800 kaarten en 7800 serie kaarten veranderen met Rivatuner. Met de 7900 en 7600 series kon dat niet meer.
Kan je de fan snelheid van de 8600 en 8800 serie aanpassen met een tool zoals rivatuner?
bvd.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ja, dat kan ook met de laatste nVidia drivers.XanderDrake schreef op maandag 10 september 2007 @ 19:09:
Kan je de fan snelheid van de 8600 en 8800 serie aanpassen met een tool zoals rivatuner?
Oh, ben ik blij om dat te lezen. Vanaf welke drivers hebben we het dan?biobak schreef op maandag 10 september 2007 @ 19:11:
Ja, dat kan ook met de laatste nVidia drivers.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
ForceWare 163.67 Windows XP 64-bit
ForceWare 163.67 Windows Vista 32-bit
ForceWare 163.67 Windows Vista 64-bit
Download:
http://www.nzone.com/obje...oads_rel70betadriver.html
http://us.download.nvidia...rceware_Release_Notes.pdf
http://us.download.nvidia...rceWare_Release_Notes.pdf
oh, en voor wie het interesseert;
Enemy Territory: QUAKE Wars Demo
http://downloads.guru3d.com/download.php?det=1733
[ Voor 98% gewijzigd door The Source op 10-09-2007 23:51 ]
Ik weet dat het een fudzilla-post is maar... is de G92 nu toch high-end?G92 is the high end solution
Written by Fuad Abazovic
Monday, 10 September 2007 07:37
There has been a lot of talk about G92 and many sites reported that this chip is a mainstream part. Our well informed sources have confirmed our previous allegation that G92 is a high end.
It should be a faster clocked revised version of the G80 core at 65 nanometre and it should launch in mid November. The G98 is also the real codename and that is the 65 nanometre version of the G86 the 80 nanometre entry level chip. 65 nanometre will help Nvidia to make its production cheaper and the chips cooler.
There will be one more G9x chips on 65 nanometre and we believe that G96 is the name. Time will tell.
http://www.fudzilla.com/i...ask=view&id=2939&Itemid=1
Misschien dat The Source zijn lich hier eens over kan schijnen?
[ Voor 63% gewijzigd door Gurneyhck op 11-09-2007 10:24 ]
Anoniem: 226494
Lol na installatie van deze nieuwe drivers werkt geen 1 gpu oc progamma meer bij mij.The Source schreef op maandag 10 september 2007 @ 23:46:
ForceWare 163.67 Windows XP 32-bit
ForceWare 163.67 Windows XP 64-bit
ForceWare 163.67 Windows Vista 32-bit
ForceWare 163.67 Windows Vista 64-bit
Download:
http://www.nzone.com/obje...oads_rel70betadriver.html
http://us.download.nvidia...rceware_Release_Notes.pdf
http://us.download.nvidia...rceWare_Release_Notes.pdf
oh, en voor wie het interesseert;
Enemy Territory: QUAKE Wars Demo
http://downloads.guru3d.com/download.php?det=1733
Ik heb wel eerst de oude driver verwijderd.
Thnx SourceThe Source schreef op maandag 10 september 2007 @ 23:46:
ForceWare 163.67 Windows XP 32-bit
ForceWare 163.67 Windows XP 64-bit
ForceWare 163.67 Windows Vista 32-bit
ForceWare 163.67 Windows Vista 64-bit
Download:
http://www.nzone.com/obje...oads_rel70betadriver.html
http://us.download.nvidia...rceware_Release_Notes.pdf
http://us.download.nvidia...rceWare_Release_Notes.pdf
oh, en voor wie het interesseert;
Enemy Territory: QUAKE Wars Demo
http://downloads.guru3d.com/download.php?det=1733
Bij mij levert Quake wars dikke errors (opengl) op. Komt het door de drivers? Ik heb nu de BioShock beta drivers. Ja ik denk dat het daar aan ligt
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 159816
Ik heb die ook en die leveren 0,0 problemen op. (winxP)XanderDrake schreef op dinsdag 11 september 2007 @ 22:07:
[...]
Thnx Source
Bij mij levert Quake wars dikke errors (opengl) op. Komt het door de drivers? Ik heb nu de BioShock beta drivers. Ja ik denk dat het daar aan ligt
Ik zoek eigenlijk de best mogelijke nieuwe videokaart maar het spul is al bijna 3 jaar oud waardoor ik door de bomen het bos niet meer zie en ik weet de evt. botleneck's niet precies..
De kaart heeft een kabeltje die naar het printje gaat van de connectors voor
S-Video, Composite en Scart en dat maakt het wat moeilijk....
Het betreft een Aldi MD 8383 . Een P4, 3,4 Gig, met momenteel nog Win.XP.
Het is PCI-Express x 16. Voeding is 350 Watt.
Ik doe eigenlijk "alles een beetje" met deze PC maar heb er een poosje geen tijd voor gehad...
Graag wat tips....
(Sorry als dit het verkeerde topic is ?) Peter Triac
Voor jou geldt: **LET OP** Welke videokaart/monitor moet ik kopen?Peter Triac schreef op woensdag 12 september 2007 @ 02:10:
Welke vervanging voor mijn oude nVvidea GeForce 6610 XL ? ? (128Mb).
Ik zoek eigenlijk de best mogelijke nieuwe videokaart maar het spul is al bijna 3 jaar oud waardoor ik door de bomen het bos niet meer zie en ik weet de evt. botleneck's niet precies..
De kaart heeft een kabeltje die naar het printje gaat van de connectors voor
S-Video, Composite en Scart en dat maakt het wat moeilijk....
Het betreft een Aldi MD 8383 . Een P4, 3,4 Gig, met momenteel nog Win.XP.
Het is PCI-Express x 16. Voeding is 350 Watt.
Ik doe eigenlijk "alles een beetje" met deze PC maar heb er een poosje geen tijd voor gehad...
Graag wat tips....
(Sorry als dit het verkeerde topic is ?) Peter Triac
Dit soort vragen horen bovendien niet in een Discussie topic.
Ik zie dat dit deel al moddervet over de 500 posts heen is. Ik kan nergens terug vinden dat er een regeling is getroffen over een nieuw deel, maar bij deze mag er dus een nieuw deel verzonnen worden.
Als Hacku dat weer wilt doen is dat prima, anders zoek even contact met hem op en mocht dat niet lukken dan zie vanzelf een DM/mail verschijnen van de next in line toch?
Als je stil blijft staan, komt de hoek wel naar jou toe.
Dit topic is gesloten.