Euhm... moet dit niet 40nm en 55nm zijn???[b][message=30708523,noline]GT212 komt begin Q1 09. Dit is de 45nm versie van de GT200 die op 45nm gemaakt is.
Yep. Mijn fout. 
TSMC heeft de 45nm versie voor General Purpose producten (45GS) geschrapt. Ze gaan hiervoor gelijk door naar de 40nm die-shrink (40GS).
Voor Low Power producten (LP) bestaat echter wel 45LP. 40LP is daarvan de die-shrink. 45LP wordt echter al gebruikt door TSMC in producten van o.a. Qualcomm en Altera.
Zowel NV als AMD gaan dus na 55nm direct door naar 40nm.
TSMC heeft de 45nm versie voor General Purpose producten (45GS) geschrapt. Ze gaan hiervoor gelijk door naar de 40nm die-shrink (40GS).
Voor Low Power producten (LP) bestaat echter wel 45LP. 40LP is daarvan de die-shrink. 45LP wordt echter al gebruikt door TSMC in producten van o.a. Qualcomm en Altera.
Zowel NV als AMD gaan dus na 55nm direct door naar 40nm.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 265911
Ik neem aan dat de GT206 de nieuwe gtx260 is met 216SP.
Daar zijn al benchmarks van uitgelekt:
http://www.hkepc.com/?id=1684&page=2&fs=idn#view
Niet echt veel verschil dus, maar veel is er ook niet veranderd dus het ligt in de lijn der verwachtingen.
Daar zijn al benchmarks van uitgelekt:
http://www.hkepc.com/?id=1684&page=2&fs=idn#view
Niet echt veel verschil dus, maar veel is er ook niet veranderd dus het ligt in de lijn der verwachtingen.
Nee de gtx260 blijft gewoon het zelfde heten, de gtx280/260 komen uit de gt200 serie, dit word gt206 serie, dus eigenlijk alleen maar een kleiner procéde. (Correct me if im wrong)Anoniem: 265911 schreef op dinsdag 09 september 2008 @ 23:31:
Ik neem aan dat de GT206 de nieuwe gtx260 is met 216SP.
Daar zijn al benchmarks van uitgelekt:
http://www.hkepc.com/?id=1684&page=2&fs=idn#view
Niet echt veel verschil dus, maar veel is er ook niet veranderd dus het ligt in de lijn der verwachtingen.
En ja hoor. Een class action suit tegen nVidia. Oorzaak?
Bron: nieuws: Nvidia aangeklaagd wegens 'onder de pet houden' gpu-probleemEen aandeelhouder heeft Nvidia voor de rechter gesleept omdat het bedrijf problemen met G84- en G86-gpu's stil zou hebben gehouden. Een eind 2007 uitgebrachte HP-biosupdate zou erop wijzen dat het euvel al lange tijd bekend was.
HP meldde eind juli dat het bedrijf in november 2007 al met een biosupdate was gekomen om de hieruit voortvloeiende temperatuurproblemen het hoofd te bieden, met andere woorden: dat het gpu-euvel al vanaf dat moment speelde. Aandeelhoudster Lisa Miller ziet hierin aanleiding om Nvidia voor de rechter te slepen in een zogeheten class action suit, 'namens allen die tussen 8 november 2007 en 2 juli 2008 Nvidia-aandelen hebben gekocht'. Volgens de aanklacht heeft Nvidia de Securities and Exchange-wet overtreden, volgens welke het bedrijf een dergelijk probleem bekend had moeten maken zodra het er weet van had. De rechtbankstukken stellen dat er na de openbaarmaking in juli drie miljard dollar van Nvidia's marktwaarde in rook opging. Er wordt een niet nader gespecificeerde schadevergoeding geëist.
NVIDIA Enables SLI on Intel X58 Chipsets For a Fee
Hoe dit moet? Lees het hier: http://legitreviews.com/article/782/1/
Hoe dit moet? Lees het hier: http://legitreviews.com/article/782/1/
Anoniem: 169917
Ik ben van plan te upgraden naar een HD4850X2, die zou na verwachting evengoed als een GTX280 presteren.
Maar nu ik zie (op Guru3D) dat de nieuwe GTX260 óók om en nabij de performance van de GTX280 komt, veranderd dat IMO de situatie.
Bij de HD4850X2 zit je toch altijd nog met schaalbaarheid, twee chips op één pcb, terwijl de GTX260 niet op die manier vandoen heeft met schaalbaarheid gezien het monolitische design.
Ik benieuwd hoe het zal gaan met de prijs van de beiden.
Maar nu ik zie (op Guru3D) dat de nieuwe GTX260 óók om en nabij de performance van de GTX280 komt, veranderd dat IMO de situatie.
Bij de HD4850X2 zit je toch altijd nog met schaalbaarheid, twee chips op één pcb, terwijl de GTX260 niet op die manier vandoen heeft met schaalbaarheid gezien het monolitische design.
Ik benieuwd hoe het zal gaan met de prijs van de beiden.
Als ze de GTX260 naamgeving niet wijzigen, voor zover ik weet, zullen ze de prijs dus ook niet wijzigenAnoniem: 169917 schreef op dinsdag 16 september 2008 @ 22:14:
Ik ben van plan te upgraden naar een HD4850X2, die zou na verwachting evengoed als een GTX280 presteren.
Maar nu ik zie (op Guru3D) dat de nieuwe GTX260 óók om en nabij de performance van de GTX280 komt, veranderd dat IMO de situatie.
Bij de HD4850X2 zit je toch altijd nog met schaalbaarheid, twee chips op één pcb, terwijl de GTX260 niet op die manier vandoen heeft met schaalbaarheid gezien het monolitische design.
Ik benieuwd hoe het zal gaan met de prijs van de beiden.

De meeste mensen deugen!
Anoniem: 162692
BFG GeForce GTX 260 OCX MAXCORE (tested today)Anoniem: 169917 schreef op dinsdag 16 september 2008 @ 22:14:
Ik ben van plan te upgraden naar een HD4850X2, die zou na verwachting evengoed als een GTX280 presteren.
Maar nu ik zie (op Guru3D) dat de nieuwe GTX260 óók om en nabij de performance van de GTX280 komt, veranderd dat IMO de situatie.
Bij de HD4850X2 zit je toch altijd nog met schaalbaarheid, twee chips op één pcb, terwijl de GTX260 niet op die manier vandoen heeft met schaalbaarheid gezien het monolitische design.
Ik benieuwd hoe het zal gaan met de prijs van de beiden.
* Memory: 896MB GDDR3
* Core Clock: 648MHz (vs. 576MHz standard)
* Shader Clock: 1404MHz (vs. 1242MHz standard)
* Memory Data Rate: 2250MHz (vs. 1998MHz standard)
* Processor Cores: 216 (vs. 192 standard)
Deze versie dus
Niet het reference design, maar een overclocked edition.
HD4850X2, moeilijke beslissing.
Daar waard CF niet werkt, zal de 260GTX+ een pak beter zijn.
Werkt CF wel, dan zal de HD4850X2 beter zijn.
Dan is het niet zo moeilijk als je schetst. Check je games en in reviews hoe die schalen op CF; je kan er vanuit gaan dat premium games in de toekomst zich echt niet snijen door CF niet te ondersteunen en de drivers worden qua CF alleen beter. Ik denk eerlijk gezegd dat de 4850X2 een betere keus gaat zijn, hoop alleen dat hij stil is [important for me].Anoniem: 162692 schreef op woensdag 17 september 2008 @ 09:39:
[...]
Daar waard CF niet werkt, zal de 260GTX+ een pak beter zijn.
Werkt CF wel, dan zal de HD4850X2 beter zijn.
Btw, kan ik nog iets met mijn HR03-Plus die nu op mijn G80 zit of is er geen enkele kaart daarna waar die oppast
De meeste mensen deugen!
Anoniem: 162692
Op een HD4850 past die allesinds niet.Cassius schreef op woensdag 17 september 2008 @ 11:10:
[...]
Dan is het niet zo moeilijk als je schetst. Check je games en in reviews hoe die schalen op CF; je kan er vanuit gaan dat premium games in de toekomst zich echt niet snijen door CF niet te ondersteunen en de drivers worden qua CF alleen beter. Ik denk eerlijk gezegd dat de 4850X2 een betere keus gaat zijn, hoop alleen dat hij stil is [important for me].
Btw, kan ik nog iets met mijn HR03-Plus die nu op mijn G80 zit of is er geen enkele kaart daarna waar die oppast?
Vergeet niet, CF werkt niet in "zoveel" games zoals het moet.
Zelf zou ik een overclocked GTX260 nemen omdat je dan altijd performance hebt, met of zonder multi gpu support. Stiller dan een GTX260, hmm.. dat is moeilijk
Newsflash: nVidia ontslaat 6.5% van haar personeel
NV heeft bekend gemaakt dat het 350 mensen gaat ontslaan, wat neer komt op 6.5% van haar totale personeelsbestand.
NV heeft bekend gemaakt dat het 350 mensen gaat ontslaan, wat neer komt op 6.5% van haar totale personeelsbestand.
BronNvidia has just announced that it plans to lay off 360 people, or 6.5 percent of its workforce. This unpleasant event is taking place as Nvidia’s has dramatically changed its business outlook after Q2. We had a chance to speak with Nvidia and Luciano Alibrandi, the Director of product PR in EMEAI, has confirmed the news.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nvidia heeft vast nog wel wat centjes over van de 8800 serie, maar AMD begint nu toch weer terug te slaan. En zoals altijd: concurrentie is goed, voor ons
AMD Ryzen 5800X - 32GB DDR4 Corsair RGB - XFX 6900XT - Panasonic HIT 990Wp - AE200L WPB met cv-ondersteuning
Yep, ze hebben vast nog wel wat centjes... maar niet genoeg om die 360 man te behouden....
Dit is min of meer een bevestiging dat de fouten in de GPUs en het gebrek aan succes van de GTX200 Serie (of beter gezegd: het moeten verkopen van de GT200 GPUs tegen een veel lagere prijs dan verwacht) voelbaar beginnen te worden in hun portemonnee.
Dit is min of meer een bevestiging dat de fouten in de GPUs en het gebrek aan succes van de GTX200 Serie (of beter gezegd: het moeten verkopen van de GT200 GPUs tegen een veel lagere prijs dan verwacht) voelbaar beginnen te worden in hun portemonnee.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Misschien kunnen ze bij Intel aan de bak.
Edit:
Fud zegt ook nog dit:
En die mensjes gebruiken allemaal amerikaanse computertjes en computer onderdeeltjes voor hun werk. Tja, het heeft direkt gezien allemaal niet zo heel veel met nVidia te maken misschien, maar het is daar niet best en heeft vast wel invloed.
Edit; Ik lees net dat AIG 85 miljard leent van de FED om te overleven overigens Wát een bedragen zeg!
We mogen van geluk spreken dat het hier (vooralsnog) nog wat meevalt eigenlijk.
Edit:
Wie zegt dat dit het gevolg daarvan is? Waar haal je die informatie vandaan? Ik vind het wat makkelijk om alles daarop te gaan gooien eigenlijk... Tuurlijk zal het er mee te maken hebben, maar...CJ schreef op vrijdag 19 september 2008 @ 18:28:
Dit is min of meer een bevestiging dat de fouten in de GPUs en het gebrek aan succes van de GTX200 Serie (of beter gezegd: het moeten verkopen van de GT200 GPUs tegen een veel lagere prijs dan verwacht) voelbaar beginnen te worden in hun portemonnee.
Fud zegt ook nog dit:
Het is de volledige markt van een aantal grote (zo niet grootste, zoals AIG) verzekeraars en banken/ kredietverstrekkers die in elkaar klapt in de VS. Het zijn niet alleen dat soort bedrijven die er last van hebben. De aandelen van heel veel bedrijven klappen in elkaar qua waarde... De hele financiele markt ligt daar op zijn gat. En niet alleen dáár trouwens. Driekwart van de wereld heeft er last van.With Lehman Brothers down, Stanley Morgan at the edge, and Wall Street on its knees, we believe that this is not the only announcement of this kind we will see in the IT sector in the months and quarters to come.
74 miljoen cliënten
AIG telt wereldwijd 74 miljoen cliënten, voornamelijk Amerikanen, die in het geval van een faillissement niet langer verzekerd zijn. De verzekeraar stelt 116.000 mensen tewerk in 130 landen.
Edit; Ik lees net dat AIG 85 miljard leent van de FED om te overleven overigens Wát een bedragen zeg!
We mogen van geluk spreken dat het hier (vooralsnog) nog wat meevalt eigenlijk.
[ Voor 126% gewijzigd door Format-C op 19-09-2008 20:28 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik heb mijn 9800GTX+ binnen van MSI, maar ik heb een vraag: Op de koeler (In het midden van de fan) zit een ronde sticker, maar deze is aan één kant een beetje los en deze is niet precies in het midden geplaatst. Nu mijn vraag: Het is een best dik stickertje, is het beter als ik het er helemaal afhaal? Ivm. de instabiliteit van de fan dan?
Core i5 4670k, 8gb, MSI GTX460 HAWK TA
net ff de nieuwe PhysX spullen hier van tweakers meuktracker gehaald, maar de performance is er niet op vooruit gegaan.Eerder achteruit. (nou moet ik wel toegeven dat mn PC aan een verse install toe is) maar op de benchmark van Vantage komt de framerate niet hoger dan 20 (net of ie gecapped word, hij lag hiervoor tegen de 25) en de Physx berekeningsdingen liggen ook veeeel lager. Ben nu weer terug op de oude scores,voor dat de PhysX dingen aan konden 
heel vaag
heel vaag
Je kunt ermee lachen maar jij als ATI fan zou moeten betekenen dat de huidige situatie in de financiele markt de doodsteek voor AMD kan betekenen. Met AMD gaat het al enorm slecht en hun balans ziet er erg rood uit de laatste jaren. De overname van ATI heeft ze veel meer gekost dan de initiele koopsom, ze hebben er voornamelijk op afgeschreven en de VGA divisie maakt nog steeds verlies, kortom het is een enorm blok om hun been. Normaal is dit een lange termijn investering maar AMD moet nu van geleend geld lenen. Guess what? Die failliete Lehman brothers bank was de bank die AMD de laatste keer 1.6 Miljard had geleend (ook reden dat ze failliet zijn, geld pompen in verlies gevende bedrijven is geen goede strategie blijkt nu). De financiering van de laatste jaren bestaat uit geleend geld en het verkopen van schulden tegen hogere interest. Met de huidige situatie in de financiele markt wil niemand geld uitlenen, ze zijn er niet zeker van dat ze het terug krijgen, dus waar kan AMD geld krijgen? Daarbij wie wil er schulden van AMD overkopen... kans dat het terug betaald wordt is niet groot. Kortom Nvidia mag dan wel 360 mensen ontslaan, ik denk dat bij AMD het mes op de keel staat. Overigens, afgelopen week was een groot bloedbad op de beurs... wat blijkt, AMD verliest in deze week 5.7%, INTEL verliest 4.6% en Nvidia wint 12% op de beurs. Dus zeg maar dat Nvidia afgelopen week een kleine 18% meer waard is geworden tov AMD... zullen ze toch iets goed doen, niet? Natuurlijk zegt dit weinig over hoe de bedrijven het financieel doen, maar geeft wel aan dat beleggers vertrouwen erin hebben, en zij zorgen voor de cash.CJ schreef op vrijdag 19 september 2008 @ 18:28:
Yep, ze hebben vast nog wel wat centjes... maar niet genoeg om die 360 man te behouden....
Dit is min of meer een bevestiging dat de fouten in de GPUs en het gebrek aan succes van de GTX200 Serie (of beter gezegd: het moeten verkopen van de GT200 GPUs tegen een veel lagere prijs dan verwacht) voelbaar beginnen te worden in hun portemonnee.
Ik lach er ook niet om en dit topic gaat niet over AMD, maar over NV. Hoe slecht het er op economisch gebied voor staat weet iedereen wel die het nieuws een beetje volgt....
Ik state alleen maar even wat facts die de laatste tijd gelekt zijn uit de IHV wereld. En een van die facts is dat NV 360 mensen ontslaat. Een andere fact is dat dit niet nodig was geweest als ze echt nog zo veel centjes over hadden gehouden van de 8800 serie.
Elk bedrijf heeft het de laatste tijd zwaar te verduren gehad. AMD heeft 10% van de workforce moeten ontslaan. Zelfs Intel heeft de afgelopen 2 jaar enorm veel personeel geloost en de boel gestroomlijnd. NV leek altijd maar buiten schot te blijven, zeker als je kijkt naar al die overnames die ze de laatste 2 jaar hebben uitgevoerd. En toen kwamen er een paar tegenslagen tegelijkertijd, en je ziet... zelfs Goliath is omver te blazen....
In dit geval komt het door een combinatie van incompetentie (fouten met GPU), het onderschatten van de concurrentie (RV770 sterker en beter ontvangen door de community dan verwacht) en daarnaast de economische crisis waar we ons nu in bevinden.
Het maakt me persoonlijk echt geen moer uit of AMD failliet gaat of dat NV failliet gaat. Ja, dat verbaast je misschien wel. Ik wil gewoon m'n games goed kunnen spelen. Desnoods doe ik dat op een videokaart van Intel of S3. Als-ie maar werkt en de dingen doet die ik belangrijk vind (en op dit moment doet een Radeon dat voor mij).
Ik state alleen maar even wat facts die de laatste tijd gelekt zijn uit de IHV wereld. En een van die facts is dat NV 360 mensen ontslaat. Een andere fact is dat dit niet nodig was geweest als ze echt nog zo veel centjes over hadden gehouden van de 8800 serie.
Elk bedrijf heeft het de laatste tijd zwaar te verduren gehad. AMD heeft 10% van de workforce moeten ontslaan. Zelfs Intel heeft de afgelopen 2 jaar enorm veel personeel geloost en de boel gestroomlijnd. NV leek altijd maar buiten schot te blijven, zeker als je kijkt naar al die overnames die ze de laatste 2 jaar hebben uitgevoerd. En toen kwamen er een paar tegenslagen tegelijkertijd, en je ziet... zelfs Goliath is omver te blazen....
In dit geval komt het door een combinatie van incompetentie (fouten met GPU), het onderschatten van de concurrentie (RV770 sterker en beter ontvangen door de community dan verwacht) en daarnaast de economische crisis waar we ons nu in bevinden.
Het maakt me persoonlijk echt geen moer uit of AMD failliet gaat of dat NV failliet gaat. Ja, dat verbaast je misschien wel. Ik wil gewoon m'n games goed kunnen spelen. Desnoods doe ik dat op een videokaart van Intel of S3. Als-ie maar werkt en de dingen doet die ik belangrijk vind (en op dit moment doet een Radeon dat voor mij).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ben ik het niet helemaal mee eens. Als je een (financiële) reserver hebt en je bemerkt dat die hard aan het slinken is, dan neem je maatregelen om dat slinken ongedaan te maken / beperken. Het lijkt me nogal onlogisch als ze pas maatregelen nemen als al die reserves al in rook zijn opgegaan.CJ schreef op zaterdag 20 september 2008 @ 11:58:
En een van die facts is dat NV 360 mensen ontslaat. Een andere fact is dat dit niet nodig was geweest als ze echt nog zo veel centjes over hadden gehouden van de 8800 serie.
Dat het een teken aan de wand is moge natuurlijk duidelijk zijn, daar ben ik het mee eens.
Ik heb een beetje rondgezocht naar info over custom resoluties, maar kan in mijn Nvidia software nergens vinden waar ik deze zelf kan toevoegen. Ik wil namelijk gamen op een reso van 1024x640.
Master_A
Als je het niet kunt instellen via de normale manier kan het altijd nog met programma's zoals Ultramon en Powerstrip.Amiet01 schreef op zondag 21 september 2008 @ 22:53:
Ik heb een beetje rondgezocht naar info over custom resoluties, maar kan in mijn Nvidia software nergens vinden waar ik deze zelf kan toevoegen. Ik wil namelijk gamen op een reso van 1024x640.
Edit: Dit is trouwens een Nieuws en Discussie topic waarschuwing gemist?
[ Voor 8% gewijzigd door -The_Mask- op 21-09-2008 23:14 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Excuses hiervoor. Had het inderdaad gemist, maar ik zie het nu wel bovenaan. In ieder geval bedankt voor de tips.
Master_A
Wat een grapjassen... Ik geloof er niets van.edward2 schreef op maandag 22 september 2008 @ 19:33:
Iemand een GTX350 preorderen
http://austin.net.au/Prod...e/GCGTX3502G/Default.aspx
Waarom zetten ze de ATi HD5870 er ook niet direkt bij...

Edit: En mocht het wel zo zijn, dan wordt het een leuke kerst.
[ Voor 36% gewijzigd door Format-C op 22-09-2008 20:05 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ze hebben ook een gtx280+ die je kan preorderen en er staat September 2008 bij. De gtx350 zou voor eind van het jaar moeten komen met deze specs:edward2 schreef op maandag 22 september 2008 @ 19:33:
Iemand een GTX350 preorderen
http://austin.net.au/Prod...e/GCGTX3502G/Default.aspx
http://en.hardspell.com/doc/showcont.asp?news_id=3764
NVIDIA GTX 350
GT300 core
55nm technology
576mm
512bit
DDR5 2GB memory, doubled GTX280
480SP doubled GTX280
Grating operation units are 64 the same with GTX280
216G bandwidth
Default 830/2075/3360MHZ
Pixel filling 36.3G pixels/s
Texture filling 84.4Gpixels/s
Cannot support D10.1 .10.0/SM4.0
[ Voor 3% gewijzigd door luckyjan op 23-09-2008 15:33 ]
Hmm, wat moet ik dan doen om toch mooie performance te krijgen, met mijn 9800GTX+?
Via de controlpanel 2XAA en 4XAF forcen? Want blijkbaar is 8XAF niet goed?
Gulfstream G650
Dat laatste, nee toch..luckyjan schreef op dinsdag 23 september 2008 @ 15:33:
[...]
Ze hebben ook een gtx280+ die je kan preorderen en er staat September 2008 bij. De gtx350 zou voor eind van het jaar moeten komen met deze specs:
http://en.hardspell.com/doc/showcont.asp?news_id=3764
NVIDIA GTX 350
GT300 core
55nm technology
576mm
512bit
DDR5 2GB memory, doubled GTX280
480SP doubled GTX280
Grating operation units are 64 the same with GTX280
216G bandwidth
Default 830/2075/3360MHZ
Pixel filling 36.3G pixels/s
Texture filling 84.4Gpixels/s
Cannot support D10.1 .10.0/SM4.0
[ Voor 13% gewijzigd door hosee op 24-09-2008 23:09 ]
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
Als dat de echte specs zijn (wat ik ten zeerste betwijfel) heeft Nvidia bijster weinig geleerd van de GT200, of ze vinden het leuk om hun kaarten met verlies van de hand te doen.
Anoniem: 156281
De specs lijken mij idd compleet uit de lucht gegrepen. Alles is gewoon verdubbeld, en de core size blijft gelijk? Moet dan al op een enorm klein proces (40nm? 32nm?) gebakken worden om zo ver te raken. Nu, ik hoop voor hen dat 't ze lukt, anders gaat nVidia nog verder achterlopen op ATi als de 5870X2 eraan komt.Snorro schreef op woensdag 24 september 2008 @ 23:15:
Als dat de echte specs zijn (wat ik ten zeerste betwijfel) heeft Nvidia bijster weinig geleerd van de GT200, of ze vinden het leuk om hun kaarten met verlies van de hand te doen.
Met dat laatste lijntje bedoelt men wss geen DX10.1 support, maar dat wisten we al
[ Voor 8% gewijzigd door Anoniem: 156281 op 24-09-2008 23:23 ]
Oké ja, wisten we al maar intussen staat er ook niets over DX11.
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
nVidia Forceware 178.13 WHQL released (klikken om te downen):
XP 32
XP 64
Vista 32
Vista 64
Products supported
User Guide
Releasenotes:
meuk: Nvidia Geforce 178.13 whql
Game on!!!!
XP 32
XP 64
Vista 32
Vista 64
Products supported
User Guide
Releasenotes:
Edit:# WHQL-certified driver for GeForce 6-series, 7-series, 8-series, 9-series, and 200-series GPUs, including the newly released GeForce 9800 GTX+, 9800 GT, 9500 GT and 9400 GT GPUs.
# Adds support for NVIDIA PhysX acceleration on all GeForce 8-series, 9-series and 200-series GPUs with a minimum of 256MB dedicated graphics memory (this driver package installs NVIDIA PhysX System Software v8.09.04).
# Experience GPU PhysX acceleration in several full games and demos today by downloading the GeForce Power Pack.
# Adds support for 2-way and 3-way NVIDIA SLI technology with GeForce GTX 200-series GPUs on Intel® D5400XS motherboards.
# Supports single GPU and NVIDIA SLI™ technology on DirectX 9, DirectX 10, and OpenGL, including 3-way and Quad SLI technology.
# Supports CUDA™.
# Supports Folding@home distributing computing application. Download the high performance client for NVIDIA GPUs here and join the NVIDIA team: #131015.
# Supports GPU overclocking and temperature monitoring by installing NVIDIA System Tools software.
# Includes several 3D application performance improvements. The following are examples of improvements measured with v178.13 WHQL versus v175.19 WHQL driver:
* Single GPU increases up to 11% in 3DMark Vantage (performance preset)
* Single GPU increases up to 11% in Assassin's Creed DX10
* Single GPU increases up to 15% in Bioshock DX10
* Single GPU increases up to 15% in Call of Duty 4
* Single GPU increases up to 8% in Enemy Territory: Quake Wars
* 2-way SLI increases up to 7% in Bioshock DX10
* 2-way SLI increases up to 10% in Company of Heroes: Opposing Fronts DX10
* 2-way SLI increases up to 12% in Enemy Territory: Quake Wars
* 2-way SLI increases up to 10% in World in Conflict DX10
# Includes numerous 3D application compatibility fixes. Please read the release notes for more information
meuk: Nvidia Geforce 178.13 whql
Game on!!!!
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Is die big bang 2 driver eral?
Die waarbij je dual monitor en sli bij elkaar kan hebben?
Die zou toch deze maand komen.
Die waarbij je dual monitor en sli bij elkaar kan hebben?
Die zou toch deze maand komen.
Hmmm de hype dat Nvidia drivertweaks/hacks zou uitvoeren bij 3DMark icm PhysX lijkt bij deze een beetje ontkracht, ik ben met deze driver om precies te zijn 219 punten omhoog gegaan vanaf 175.19!
Moet wel bij gezegd, ik heb het hier over 3DMark06, niet Vantage.
Moet wel bij gezegd, ik heb het hier over 3DMark06, niet Vantage.
En dat is nou ook het puntSnorro schreef op vrijdag 26 september 2008 @ 16:53:
Hmmm de hype dat Nvidia drivertweaks/hacks zou uitvoeren bij 3DMark icm PhysX lijkt bij deze een beetje ontkracht, ik ben met deze driver om precies te zijn 219 punten omhoog gegaan vanaf 175.19!
Moet wel bij gezegd, ik heb het hier over 3DMark06, niet Vantage.
Het is bij vantage, 06 heeft er geen Physx test inzitten...
Wat is bij jullie, met de laatste drivers en PhysX ondersteuning de CPU usage bij bijv, de Cloth demo?
Hier (C2D E8400 @ 3,2 GHz, 4 GB OCZ DDR2-800 en Vista32, op een 8800GT) doet het op twee cores behoorlijk trekken, zo om en nabij de 60 tot 80 met uitschieters naar de 100. Klopt dat?
Hier (C2D E8400 @ 3,2 GHz, 4 GB OCZ DDR2-800 en Vista32, op een 8800GT) doet het op twee cores behoorlijk trekken, zo om en nabij de 60 tot 80 met uitschieters naar de 100. Klopt dat?
Anoniem: 8819
ik zit te denken om een 8400gs pci te koop voor physx naast mijn ati kaarten.
Vraag me af of dat werkt????
iemand een idee?
Vraag me af of dat werkt????
iemand een idee?
Anoniem: 170090
Kan iemand mij vertellen hoe het zit met de streaming processors van de GTX 260.
Het zijn er in princiepe 192 maar ik lees her en der dat er ook versies zijn met 216 streaming processors.
Kan iemand mij vertellen of deze nieuwe al in NL verkrijgbaar zijn en of het veel verschil maakt voor bv Farcry 2 ?
Het zijn er in princiepe 192 maar ik lees her en der dat er ook versies zijn met 216 streaming processors.
Kan iemand mij vertellen of deze nieuwe al in NL verkrijgbaar zijn en of het veel verschil maakt voor bv Farcry 2 ?
Is Far Cry 2 al uit danAnoniem: 170090 schreef op vrijdag 26 september 2008 @ 20:52:
Kan iemand mij vertellen hoe het zit met de streaming processors van de GTX 260.
Het zijn er in princiepe 192 maar ik lees her en der dat er ook versies zijn met 216 streaming processors.
Kan iemand mij vertellen of deze nieuwe al in NL verkrijgbaar zijn en of het veel verschil maakt voor bv Farcry 2 ?
Anyway, hier zie je hoeveel % de GTX260 met 216 SP's beter presteert dan die met 192 SP's:

De grafiek toont HD4870 1GB vs. HD4870 512MB en GTX260 216 vs. GTX260 192.
[ Voor 5% gewijzigd door Avalaxy op 26-09-2008 21:02 ]
Staat er ook nog ergens op welke reso er getest is? Anders is het een behoorlijk nutteloze excercitieAvalaxy schreef op vrijdag 26 september 2008 @ 21:01:
[...]
Is Far Cry 2 al uit danIf yes, upload even een kopie voor me
(
)
Anyway, hier zie je hoeveel % de GTX260 met 216 SP's beter presteert dan die met 192 SP's:
[afbeelding]
De grafiek toont HD4870 1GB vs. HD4870 512MB en GTX260 216 vs. GTX260 192.
Anoniem: 170090
Farcry 2 is naar mijn weten nog niet uit, maar deze wil ik zowiezo gaan kopen wanneer hij uitkomt en dan heb ik geen zin om met de kaart in de knoei te komen.
Dan is natuurlijk devolgende vraag, waar is degene met 216 verkrijgbaar ???
Dan is natuurlijk devolgende vraag, waar is degene met 216 verkrijgbaar ???
These comparisons are taken from the highest playable resolution in each game we tested, which is either 1920x1200 or 2560x1600 depending on the game. This class of card is able to handle the highest resolutions, but sometimes not with all the features cranked up (as our tests are designed). These high resolutions do the best job at stressing both memory and processing power, as processing more pixels every frame has an impact on both.Edmin schreef op vrijdag 26 september 2008 @ 21:06:
[...]
Staat er ook nog ergens op welke reso er getest is? Anders is het een behoorlijk nutteloze excercitie
Luie mensen...

En die reso's geven al aan dat het wellicht minder nuttig is voor de 1600x1050 mensen onder ons.Paprika schreef op vrijdag 26 september 2008 @ 21:18:
[...]
These comparisons are taken from the highest playable resolution in each game we tested, which is either 1920x1200 or 2560x1600 depending on the game. This class of card is able to handle the highest resolutions, but sometimes not with all the features cranked up (as our tests are designed). These high resolutions do the best job at stressing both memory and processing power, as processing more pixels every frame has an impact on both.
Luie mensen...
BTW, je mag het lui vinden, maar als je een graph post mag je hem ook toelichten.
vv right back at ya
Kun je de link ff posten van je grafiek? Lijkt mij ook interessant om het verschil te zien tussen de 1gig en de 512mb Ati te zien, gewoon om te weten wat het verschil is in hoge resoluties met meer grakageheugen.
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
Maar het geheugengebruik van ATi kaarten is niet hetzelfde als die van ATi kaarten, en er zijn wel meer dingen die niet gelijk zijn. Niet 1 op 1 vergelijkbaar dus.
Maar ik neem aan dat je de link nog steeds wilt zien... Here you go: http://www.anandtech.com/video/showdoc.aspx?i=3415
Maar ik neem aan dat je de link nog steeds wilt zien... Here you go: http://www.anandtech.com/video/showdoc.aspx?i=3415
Toch kan 1 gig aan geheugen op een graka in hogere resoluties net dat verschil maken en volgens mij zal dat voor beide merken ongeveer op hetzelfde uitkomen. Niet dat het exact hetzelfde performanceverschil zal zijn tussen de twee voor éénzelfde game maar het verschil zal er zijn op hogere reso's met o.a AA.
In ieder geval is er wel een verschil te merken in fps tussen de 512mb en 1 gig Ati's in de tests van Anantech.
Denk dat mijn twee 8800GT's met 1 gig beter zouden presteren op 2560x1600 dan nu het geval is.
Bedankt voor de link..
In ieder geval is er wel een verschil te merken in fps tussen de 512mb en 1 gig Ati's in de tests van Anantech.
Denk dat mijn twee 8800GT's met 1 gig beter zouden presteren op 2560x1600 dan nu het geval is.
Bedankt voor de link..
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
Avalaxy schreef op vrijdag 26 september 2008 @ 23:05:
Maar het geheugengebruik van ATi kaarten is niet hetzelfde als die van ATi kaarten, en er zijn wel meer dingen die niet gelijk zijn. Niet 1 op 1 vergelijkbaar dus.
Maar ik neem aan dat je de link nog steeds wilt zien... Here you go: http://www.anandtech.com/video/showdoc.aspx?i=3415
Dit klopt inderdaad, dit merk je ook in het algemeen tussen ATi & Nvidia... Bij ATi is het geheugen sneller met een langzamere core, bij Nvidia dus andersom.
PS:
"I'm British you muppet" ftw!
En verder?
In ieder geval, volgens deze link : http://www.pcstats.com/articleview.cfm?articleID=2255 lijkt bij de Palit 8800GT de 512 mb extra geheugen wel degelijk iets uit te maken, zelfs tegenover een Asus TOP met 512mb.
Wil verder opmerken dat 1 gig geheugen bij de voorlaatste en laatste G92 graka's van Nvidia ver te zoeken is en dat vind ik een behoorlijk gemis.
In ieder geval, volgens deze link : http://www.pcstats.com/articleview.cfm?articleID=2255 lijkt bij de Palit 8800GT de 512 mb extra geheugen wel degelijk iets uit te maken, zelfs tegenover een Asus TOP met 512mb.
Wil verder opmerken dat 1 gig geheugen bij de voorlaatste en laatste G92 graka's van Nvidia ver te zoeken is en dat vind ik een behoorlijk gemis.
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
Newsflash: Meer re-branding komt er aan...
Uit de laatste beta drivers:
G92
- 8800GT (oktober 2007) -> 9800GT (augustus 2008)
- 8800GTS 512 (januari 2008) -> 9800GTX (april 2008)-> 9800GTX+ (juni 2007) -> GTS 150 (oktober 2008)
- 8800GS (februari 2008) -> 9600GSO (april 2008)
G94
- 9600GT (februari 2008) -> GT 130 (oktober 2008)
G96
- 9500GT/9400GT (augustus 2008) -> GT 120 (oktober 2008)
Uit de laatste beta drivers:
Leuke naamgevingsgeschiedenis wordt dat voor de verschillende GPUs van NV.NVIDIA_G92.DEV_0615.1 = "NVIDIA GeForce GTS 150"
NVIDIA_G94.DEV_0626.1 = "NVIDIA GeForce GT 130"
NVIDIA_G96.DEV_0646.1 = "NVIDIA GeForce GT 120"
G92
- 8800GT (oktober 2007) -> 9800GT (augustus 2008)
- 8800GTS 512 (januari 2008) -> 9800GTX (april 2008)-> 9800GTX+ (juni 2007) -> GTS 150 (oktober 2008)
- 8800GS (februari 2008) -> 9600GSO (april 2008)
G94
- 9600GT (februari 2008) -> GT 130 (oktober 2008)
G96
- 9500GT/9400GT (augustus 2008) -> GT 120 (oktober 2008)
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dat kunnen ze niet maken. Niet alleen namen ze de stap om een mini-evolutie (ander bakproces) een nieuwe naam mee te geven, nu pakken ze er een geheel nieuwe naam bij . Ik zou het bijna op een gevalletje consumentenbedrog gooien

Anoniem: 120284
Jakkes
Dus ze plakken de oude G80 in verbouwde vorm in kaartjes die suggereren dat ze van de GT200 afstammen. Leuk is dat....
Wat ik zelf een gebrek vind in de huidige line-up is dat de 9800GTX+ te veel energie verbruikt. Idle een hap meer dan de GTX260. Dat slaat nergens op.
Dat gedoe dat midrange en low budget later uitkomt dan de high-end vind ik sowieso storend. Ik wil "binnenkort" een 2e videokaart om m'n 3e monitor aan te sturen. In dat geval wil ik graag een high-end (budget) / midrange (performance) kaart en daarnaast een cheapo kaartje met Dual DVI en passieve koeling uit de low-budget serie. Maar nee, dat zit er dus weer eens niet in
Volgens xtremesystems trekt mijn 7900GTX idle 29 Watt
En volgende dezelfde bron trekt de 9800GTX+ idle 52 Watt
Ofwel: de 7900GTX trekt al 25 Watt te veel idle, maar de 9800GTX+ doet daar nog eens 23 Watt bovenop! 23 Watt!!! Dat is meer dan mijn hele laptop stookt verdorie. (T7300 / 320GB 7200 rpm / NVS 140m).
Dus ze plakken de oude G80 in verbouwde vorm in kaartjes die suggereren dat ze van de GT200 afstammen. Leuk is dat....
Wat ik zelf een gebrek vind in de huidige line-up is dat de 9800GTX+ te veel energie verbruikt. Idle een hap meer dan de GTX260. Dat slaat nergens op.
Dat gedoe dat midrange en low budget later uitkomt dan de high-end vind ik sowieso storend. Ik wil "binnenkort" een 2e videokaart om m'n 3e monitor aan te sturen. In dat geval wil ik graag een high-end (budget) / midrange (performance) kaart en daarnaast een cheapo kaartje met Dual DVI en passieve koeling uit de low-budget serie. Maar nee, dat zit er dus weer eens niet in

Volgens xtremesystems trekt mijn 7900GTX idle 29 Watt
En volgende dezelfde bron trekt de 9800GTX+ idle 52 Watt
Ofwel: de 7900GTX trekt al 25 Watt te veel idle, maar de 9800GTX+ doet daar nog eens 23 Watt bovenop! 23 Watt!!! Dat is meer dan mijn hele laptop stookt verdorie. (T7300 / 320GB 7200 rpm / NVS 140m).
[ Voor 59% gewijzigd door Anoniem: 120284 op 03-10-2008 02:03 ]
Newsflash: Nieuwe 9600GSO komt er aan
Nog wat nieuws... voordat de complete renaming-verandering er aan zit te komen wordt eerst de 9600GSO nog even onder handen genomen. Nu maakt-ie nog gebruikt van de G92-core waarvan een gedeelte is uitgeschakeld (96SP/192-bit). Straks maakt-ie gebruik van de G94 core (waarschijnlijk de 55nm versie). Het punt is echter dat de G94 maar 64 SPs aan boord heeft en een 256-bit memory interface heeft....
De 9600GT was altijd al iets sneller dan de 9600GSO, dus waarschijnlijk klokken ze de G94 gewoon terug in snelheid of schakelen ze een ROP partitie uit om ook tot die 192-bit te komen (maar dan met maximaal 64 SPs).
Het zal mij benieuwen wat voor nieuwe naam deze straks gaat krijgen. De 9600GT wordt de GT130. De 9500GT wordt de GT120. Dus deze zal dan misschien de GT125 worden?
Bron: http://en.hardspell.com/doc/showcont.asp?news_id=4166
Nog wat nieuws... voordat de complete renaming-verandering er aan zit te komen wordt eerst de 9600GSO nog even onder handen genomen. Nu maakt-ie nog gebruikt van de G92-core waarvan een gedeelte is uitgeschakeld (96SP/192-bit). Straks maakt-ie gebruik van de G94 core (waarschijnlijk de 55nm versie). Het punt is echter dat de G94 maar 64 SPs aan boord heeft en een 256-bit memory interface heeft....
De 9600GT was altijd al iets sneller dan de 9600GSO, dus waarschijnlijk klokken ze de G94 gewoon terug in snelheid of schakelen ze een ROP partitie uit om ook tot die 192-bit te komen (maar dan met maximaal 64 SPs).
Het zal mij benieuwen wat voor nieuwe naam deze straks gaat krijgen. De 9600GT wordt de GT130. De 9500GT wordt de GT120. Dus deze zal dan misschien de GT125 worden?
Bron: http://en.hardspell.com/doc/showcont.asp?news_id=4166
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
mischien rare vraag maar vroeger als je dual monitor had geconfigureerd.
kreeg je ook al die opties voor snel combinaties om apps en dergelijke van eerste scherm naar het tweede scherm te verplaatsen.
is dat verdwenen in de nieuwe versie drivers? of weet iemand hoe je dat weer werkend krijgt?
kreeg je ook al die opties voor snel combinaties om apps en dergelijke van eerste scherm naar het tweede scherm te verplaatsen.
is dat verdwenen in de nieuwe versie drivers? of weet iemand hoe je dat weer werkend krijgt?
Een vraag over de Big Bang II driver.
Die zou in september van dit jaar komen, hierdoor zou je met sli een dual-monitor setup aankunnen sturen.
Weet iemand waar ik die kan krijgen of is hij nog niet uit?
Volgens mij was het R180.0 of zoiets.
Die zou in september van dit jaar komen, hierdoor zou je met sli een dual-monitor setup aankunnen sturen.
Weet iemand waar ik die kan krijgen of is hij nog niet uit?
Volgens mij was het R180.0 of zoiets.
Is dat niet deze: http://www.nvidia.com/object/winxp_178.13_whql.html ?
Voorlopig enkel OEM onlyCJ schreef op vrijdag 03 oktober 2008 @ 00:12:
Newsflash: Meer re-branding komt er aan...
Uit de laatste beta drivers:
[...]
Leuke naamgevingsgeschiedenis wordt dat voor de verschillende GPUs van NV.
G92
- 8800GT (oktober 2007) -> 9800GT (augustus 2008)
- 8800GTS 512 (januari 2008) -> 9800GTX (april 2008)-> 9800GTX+ (juni 2007) -> GTS 150 (oktober 2008)
- 8800GS (februari 2008) -> 9600GSO (april 2008)
G94
- 9600GT (februari 2008) -> GT 130 (oktober 2008)
G96
- 9500GT/9400GT (augustus 2008) -> GT 120 (oktober 2008)
Ik weet niet of het al gepost was, gerucht gaat dat NV er een paar partners gaat uitstampen
- Club3D
- Foxconn
- ECS
- Biostar
- Albatron
Het kan best dat een van die partners groot is in een bepaald land of regio (zoals Club3D het in Nederland wel goed doet, maar daarbuiten weinig) maar op wereldwijd niveau kopen deze partners te weinig in. Daarnaast gaat er nog een andere gerucht dat dit de eerste ontslag ronde is, er zouden er meer volgen. Beide geruchten...
En nee dit hoeft niet positief voor ATI te zijn. Het kan best waar deze merken sterk zijn dat ATI daar al een ander sterk merk heeft en het dus leidt tot kanabalisme van het marktaandeel. Daarbij heeft Nvidia ook gemerkt dat oversupply een erg slechte zaak is. Er is niets meer op te verdienen, niet voor de vendors, distributeurs en dealers, daarom gaat niemand stock houden, kortom geeft een slecht situatie. ATI kan zeker nog wat wat sterke partners gebruiken, maar die staat niet in bovenstaande lijstje, tenminste als je naar wereldniveau kijkt. Dan zouden ze beter af zijn met een eVGA of XFX.
[ Voor 45% gewijzigd door The Source op 07-10-2008 22:10 ]
Ik kan het niet tussen de release notes vinden.
Ik heb nu zelf 178.15 maar daar kan het niet bij.
Kan het zijn dat het wel in 178.13 zit en niet in 178.15 of is het gewoon zo dat ik nog moet wachten?
Anoniem: 120284
Ik snap niet dat ze XFX er niet uitgooien. Als er 1 merk boutkaarten maakt en fancontrols sloopt is het XFX wel.
Ik verkoop regelmatig XFX kaarten en heb daar nog nooit problemen met gehad. In geval van defect volgt gewoon een swap (zelfde of gelijkwaardig product) of een credit.
Dat is een wonder, een 7900GT die het zo lang uithoudtAnoniem: 218213 schreef op dinsdag 07 oktober 2008 @ 23:44:
nou mijn 7900gt van xfx doet het anders toch al 3 jaar
Anoniem: 120284
Je had eens op het XFX forum moeten kijken in de tijd van de 7800GT: wat een stumperds bij XFX!
Ze hadden vier (of zelfs vijf) versies en ze erkenden er maar twee. Er was een versie met LEDs en die LED's hadden ze op hetzelfde circuit als de fan gedaan, maar omdat die LED's wel 12 Volt nodig hadden hadden ze maar even de fancontrol ongedaan gemaakt. Daar zit je dan in de takkeherrie met je hippe LED's.
Ook veel mensen die een zichtbaar beschadigde kaart terug kregen van een RMA enzo. En mensen die 2 maanden aan het wachten waren bij een RMA.
Ik vind het altijd heel leuk om de mensen die zo lang op een RMA met een XFX kaart zitten te wachten recht in hun gezicht uit te lachen. Voor hetzelfde geld (soms iets meer of minder) heb je een EVGA met wel fatsoenlijke garantieafhandeling. Dan kost het maar een tientje meer. Liever een tientje meer voor service dan 2 maanden wachten.
Uiteindelijk konden de medewerkers van XFX het commentaar niet snel genoeg meer van het forum verwijderen en hebben ze het forum opgedoekt
@racer13: zozo... da's knap voor een kaart die pas 2,5 jaar geleden op de markt kwam.
Ze hadden vier (of zelfs vijf) versies en ze erkenden er maar twee. Er was een versie met LEDs en die LED's hadden ze op hetzelfde circuit als de fan gedaan, maar omdat die LED's wel 12 Volt nodig hadden hadden ze maar even de fancontrol ongedaan gemaakt. Daar zit je dan in de takkeherrie met je hippe LED's.
Ook veel mensen die een zichtbaar beschadigde kaart terug kregen van een RMA enzo. En mensen die 2 maanden aan het wachten waren bij een RMA.
Ik vind het altijd heel leuk om de mensen die zo lang op een RMA met een XFX kaart zitten te wachten recht in hun gezicht uit te lachen. Voor hetzelfde geld (soms iets meer of minder) heb je een EVGA met wel fatsoenlijke garantieafhandeling. Dan kost het maar een tientje meer. Liever een tientje meer voor service dan 2 maanden wachten.
Uiteindelijk konden de medewerkers van XFX het commentaar niet snel genoeg meer van het forum verwijderen en hebben ze het forum opgedoekt

@racer13: zozo... da's knap voor een kaart die pas 2,5 jaar geleden op de markt kwam.
[ Voor 27% gewijzigd door Anoniem: 120284 op 08-10-2008 00:20 ]
Nou, leuk. Problemen met serviceverlening komen vaak pas aan het licht nadat de koop gesloten is. Waarom dan mensen uitlachen? Het is toch niet hun schuld?Anoniem: 120284 schreef op woensdag 08 oktober 2008 @ 00:17:
Ik vind het altijd heel leuk om de mensen die zo lang op een RMA met een XFX kaart zitten te wachten recht in hun gezicht uit te lachen. Voor hetzelfde geld (soms iets meer of minder) heb je een EVGA met wel fatsoenlijke garantieafhandeling. Dan kost het maar een tientje meer. Liever een tientje meer voor service dan 2 maanden wachten.
De problemen die jullie met XFX ondervinden liggen toch echt aan de leverancier. Wanneer ik RMA's indien verlopen die gewoon zoals bij andere merken (swappen / creditnota).
Anoniem: 218213
woeps!. oke bijna 3 jaar dan, maart 2006Anoniem: 120284 schreef op woensdag 08 oktober 2008 @ 00:17:
Je had eens op het XFX forum moeten kijken in de tijd van de 7800GT: wat een stumperds bij XFX!
Ze hadden vier (of zelfs vijf) versies en ze erkenden er maar twee. Er was een versie met LEDs en die LED's hadden ze op hetzelfde circuit als de fan gedaan, maar omdat die LED's wel 12 Volt nodig hadden hadden ze maar even de fancontrol ongedaan gemaakt. Daar zit je dan in de takkeherrie met je hippe LED's.
Ook veel mensen die een zichtbaar beschadigde kaart terug kregen van een RMA enzo. En mensen die 2 maanden aan het wachten waren bij een RMA.
Ik vind het altijd heel leuk om de mensen die zo lang op een RMA met een XFX kaart zitten te wachten recht in hun gezicht uit te lachen. Voor hetzelfde geld (soms iets meer of minder) heb je een EVGA met wel fatsoenlijke garantieafhandeling. Dan kost het maar een tientje meer. Liever een tientje meer voor service dan 2 maanden wachten.
Uiteindelijk konden de medewerkers van XFX het commentaar niet snel genoeg meer van het forum verwijderen en hebben ze het forum opgedoekt![]()
@racer13: zozo... da's knap voor een kaart die pas 2,5 jaar geleden op de markt kwam.
Anoniem: 120284
Als ik ze van te voren gewaarschuwd heb he...Edmin schreef op woensdag 08 oktober 2008 @ 09:29:
[...]
Nou, leuk. Problemen met serviceverlening komen vaak pas aan het licht nadat de koop gesloten is. Waarom dan mensen uitlachen? Het is toch niet hun schuld?
Nee. Bij EVGA kun je direct RMA'en. Verder: Als een merk als XFX slechte service aan de leverancier geeft zal een leverancier vaak ook moeilijker gaan doen en weer op XFX wachten.Hacku schreef op woensdag 08 oktober 2008 @ 09:34:
De problemen die jullie met XFX ondervinden liggen toch echt aan de leverancier. Wanneer ik RMA's indien verlopen die gewoon zoals bij andere merken (swappen / creditnota).
Dan heb je geluk blijkbaar, want het zijn hufters! Ik beaam het verhaal van Jcvjcvjcvjcv. XFX heeft destijds aan een voor RMA ingeleverde 7900 GT zelf schade toegebracht om onder de RMA regeling uit te komen. Gelukkig hadden mijzelf en de reseller beide foto's gemaakt van de bewuste kaart vooraf deze werd verzonden. Rechtsbijstand kwam er aan te pas om te zorgen dat ik twee defecte 7900 GT's vergoed kreeg.Hacku schreef op dinsdag 07 oktober 2008 @ 23:01:
Ik verkoop regelmatig XFX kaarten en heb daar nog nooit problemen met gehad. In geval van defect volgt gewoon een swap (zelfde of gelijkwaardig product) of een credit.
Ik was toen absoluut niet de enige waarbij ze dit flikte.
Mijd XFX, als ware het de pest, want het is een ontrouwbare toko... en dan druk ik me nog enigzins netjes uit.
@ Jcvjcvjcvjcv
btw als iemand me toen zou hebben uitgelachen had ik die terplekke een hoek gegeven, je wil niet weten hoe gefrustreerd je kan worden van zoiets... zit je dan niet op te wachten
@Hieronder, nee was niet gewaarschuwd
[ Voor 13% gewijzigd door Demon_Eyez op 08-10-2008 16:38 ]
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
Anoniem: 120284
Als ik iemand van te voren waarschuw dat ze een tientje te veel bezuinigen op een cruciaal iets en ze negeren mij om er vervolgens op de harde manier achter te komen dat ik gelijk heb, dan lach ik ze inderdaad uit.
Zo kan ik ook nog steeds lachen om de mensen die om PC advies vroegen bij mij en mijn advies over de fans negeerden. Ze gingen voor 4 euro fans om er een half jaar later achter te komen dat dat niet werkte en alsnog 15 euro fans (Papst etc.) kochtten. Resultaat is dat zij 25% meer hebben uitgegeven om op hetzelfde terecht te komen.
Maar ik mag aannemen dat jij niet van te voren gewaarschuwd was?
Zo kan ik ook nog steeds lachen om de mensen die om PC advies vroegen bij mij en mijn advies over de fans negeerden. Ze gingen voor 4 euro fans om er een half jaar later achter te komen dat dat niet werkte en alsnog 15 euro fans (Papst etc.) kochtten. Resultaat is dat zij 25% meer hebben uitgegeven om op hetzelfde terecht te komen.
Maar ik mag aannemen dat jij niet van te voren gewaarschuwd was?
iemand?jorisw86 schreef op dinsdag 07 oktober 2008 @ 18:29:
mischien rare vraag maar vroeger als je dual monitor had geconfigureerd.
kreeg je ook al die opties voor snel combinaties om apps en dergelijke van eerste scherm naar het tweede scherm te verplaatsen.
is dat verdwenen in de nieuwe versie drivers? of weet iemand hoe je dat weer werkend krijgt?
Anoniem: 120284
Dat is de nVidia desktop manager ofzo.
Het komt er op neer dat het dusdanig buggy is dat dat ding telkens vastloopt.
[ Voor 93% gewijzigd door Ultraman op 09-10-2008 11:45 ]
Om hier even op terug te komen...CJ schreef op maandag 06 oktober 2008 @ 19:28:
Newsflash: Nieuwe 9600GSO komt er aan
De nieuwe GF9600GSO die gebruik maakt van de G94 krijgt dus 48 SPs (de G92 versie had 96) en een 256-bit memory interface (de G92 versie had een 192-bit). Deze moet het gat opvullen tussen de 9500GT en 9600GT en het dus opnemen tegen de HD4670 en HD4650.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wel grappig dat ze eerst een voornemen doen om de naamgeving duidelijker te maken, komen ze nu met een nieuwe kaart onder de oude naam. Het ging bij de 8800GTS al mis en nu doen ze het weer. Blijkbaar is het een strategie geworden van nVidia om de productline-up zo verwarrend te maken dat mensen onbewust teveel betalen voor hun product omdat ze gewoon niet kunnen vergelijken binnen de GeForce 9 serie.
Goud is geen geld
In de ogen van NV is het waarschijnlijk ook eenvoudiger. Voor de leek is het verwarrend dat een 8800GTS sneller is dan een 9600GSO. Dus rebrand je de 8800GTS naar 9800GTX, zodat je weer opeenvolgende nummertjes krijgt.
Deze nieuwe 9600GSO (48SP/256-bit) is waarschijnlijk dus wel langzamer dan de vorige 9600GSO (96SP/192-bit). De naam 9600GS was dan beter geweest. Zowiezo vind ik het beter om een product met andere specs een andere naam te geven. Straks krijg je mensen die een oude 9600GSO hebben en dit in SLI willen gooien met een andere... en dus een nieuwe kopen... Voor zover ik weet werkt een G94 nog altijd niet in combinatie met een G92 in SLI.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit geeft ook de problematiek aan bij het hernoemen en opnieuw introduceren van producten. De nieuwe 9600GSO is eigenlijk wat de GSO had moeten zijn: kleine broer van de 9600GT, omdat ze beide de G94 chip hebben met dezelfde featureset en eigenschappen. De 8800GS had gewoon moeten blijven waar die was of nVidia had hem net als de 9800GTX (G92) en 9800GT (G92) en 9800GX2 (G92) in het 9800 of 9700 straatje moeten plaatsen. Dan was het wel logisch geweest en ook meer kloppend met relatieve prestaties en productnamen.
Goud is geen geld
Anoniem: 265911
Er komt gelukkig wel wat 'nieuws' aan
, namelijk de gtx 270 en gtx 290 en er wordt zels over een gx2 gesproken
.
Let wel op; het is waarschijnlijk geschreven door Charley:
http://forums.vr-zone.com/showthread.php?t=337438
Let wel op; het is waarschijnlijk geschreven door Charley:
http://forums.vr-zone.com/showthread.php?t=337438
Anoniem: 219166
Het gaat nu toch wel heel traag vooruit in de gpu-wereld? Sinds ik een jaar of 2 geleden mijn 8800gtx gekocht heb is het qua prestaties nog niet zo drastisch op vooruit gegaan? toch? Als ik hem nu vergelijk met de topkaarten kan hij nog steeds lekker mee.
Anoniem: 120284
Mooi toch.
Wat een nog veel langzamer gaat is de audio. Ik baal er echt van dat er daar nauwelijks ontwikkeling (eerder degradatie) is.
Zo is mijn X-Fi Fatal1ty van drie jaar oud nog steeds high-end
Een van de weinig componenten die de drie jaar haalt (samen met kast, floppydriver, brander en fans)
Wat een nog veel langzamer gaat is de audio. Ik baal er echt van dat er daar nauwelijks ontwikkeling (eerder degradatie) is.
Zo is mijn X-Fi Fatal1ty van drie jaar oud nog steeds high-end
Een van de weinig componenten die de drie jaar haalt (samen met kast, floppydriver, brander en fans)
InderdaadAnoniem: 120284 schreef op zaterdag 11 oktober 2008 @ 15:29:
Mooi toch.
Wat een nog veel langzamer gaat is de audio. Ik baal er echt van dat er daar nauwelijks ontwikkeling (eerder degradatie) is.
Zo is mijn X-Fi Fatal1ty van drie jaar oud nog steeds high-end![]()
Een van de weinig componenten die de drie jaar haalt (samen met kast, floppydriver, brander en fans)
je zou in de audio misschien kunnen denken aan reeelere geluidsweerkaatsing op muren e.d. Normaliter wordt in games enkel het geluid verzacht als het verder weg of in een andere kamer zit, en wordt er maar weinig gedaan aan het omgevingslawaai. Sowieso, een drukke FPS als COD4 of crysis, daar kun je nog veel meer geluidskanalen vullen dan die 128. In de eerst genoemde game vanwege de hoeveelheid drukte op je scherm, en in het tweede geval door wat extra geluiden toe te voegen aan de mooie bosrijke omgeving.Avalaxy schreef op zaterdag 11 oktober 2008 @ 15:43:
[...]
InderdaadMet EAX5 loop je nog steeds voorop. Maar opzich valt er ook niet zoveel te evolueren op het gebied van geluid denk ik he. Geluid blijft geluid, ik denk niet dat je het mooier krijgt
Aan de 128 kanalen die EAX5.0 ondersteunt heb je overigens ook meer dan genoeg aangezien de meeste games amper boven de 64 kanalen uitkomen.
Verder zou je ook kunnen denken aan het feit dat bij de meeste games, als je half op een metaal staat (met een voet op metaal en met de andere nog op het beton), dat je toch een metaal geluid hoort met beide voeten. Kleine dingetjes die het realisme toch net een zetje de goede richting op duwen
maar verder wel een beetje offtopic
inderdaad ... sinds de invoering van unified shaders is er niet echt meer een sprong geweest. Wel verdubbeling van shader processors, wat meer geheugen, sneller geheugen e.d. maar niet echt een sprong. Wel heeft ATI / AMD een vooruitgang geboekt in dit unified shader tijdperk door na de brakke start van de 2900 XT een fatsoenlijk lapmiddelkaart in te voeren. (uiteraard kijkend naar de prijs kwaliteit verhoudingAnoniem: 219166 schreef op zaterdag 11 oktober 2008 @ 10:51:
Het gaat nu toch wel heel traag vooruit in de gpu-wereld? Sinds ik een jaar of 2 geleden mijn 8800gtx gekocht heb is het qua prestaties nog niet zo drastisch op vooruit gegaan? toch? Als ik hem nu vergelijk met de topkaarten kan hij nog steeds lekker mee.
[ Voor 23% gewijzigd door M2M op 12-10-2008 00:36 ]
Apple komt nu ook uit de kast: Apple Admits NVIDIA GPU Problems in Some MacBook Pros:
Bron: http://technologyexpert.b...idia-gpu-problems-in.html"a repair will be done free of charge, even if your MacBook Pro is out of warranty." ... anticipated customer warranty, repair, return, replacement and other consequential costs and expenses arising from a weak die/packaging material set in certain versions of our previous generation MCP and GPU products used in notebook systems. All newly manufactured products and all products currently shipping in volume have a different and more robust material set.
NVIDIA assured Apple that Mac computers with these graphics processors were not affected. However, after an Apple-led investigation, Apple has determined that some MacBook Pro computers with the NVIDIA GeForce 8600M GT graphics processor may be affected.
Anoniem: 120284
Precies, de games lopen er mee achter.Avalaxy schreef op zaterdag 11 oktober 2008 @ 15:43:
[...]
InderdaadMet EAX5 loop je nog steeds voorop. Maar opzich valt er ook niet zoveel te evolueren op het gebied van geluid denk ik he. Geluid blijft geluid, ik denk niet dat je het mooier krijgt
Aan de 128 kanalen die EAX5.0 ondersteunt heb je overigens ook meer dan genoeg aangezien de meeste games amper boven de 64 kanalen uitkomen.
Het kan gewoon veel mooier, zoals M2M zegt. Audio speelt enorm op het realiteitsgevoel.
Ik zit ook nog steeds met een 8800GTX (@Ultra) en ik kijk er allemaal maar een beetje raar naar. nVidia en ATi gebruiken superlatieven om kaarten als de GTX280 en 4870 te beschrijven zoals ze geleerd is op de marketing schooltjes; maar ik vind het een van de slechtste twee jaren op het gebied van prestatie vooruitgang ooit in GPU land. " Vroeger" had je binnen twee jaar toch -echt- wel 100% of meer van high-end naar high-end; nu zie ik soms zelfs de GTX260 achter de 8800Ultra eindigen
? Het gaat echt maar baggersloom nu.

De meeste mensen deugen!
Anoniem: 219166
het is een goede investering geweest een 8800gtx te kopen bij launch achteraf bezien. Ik zit nog steeds met high-end spul na 2 jaar
Het speelveld is veranderd. Vergelijkingen van vroeger gaan nu niet meer op zeker nu in ieder geval AMD is gestapt van huge monolithic GPUs naar meerdere kleinere GPUs in de high-end. Ik weet dat sommige mensen het niet 'eerlijk' vinden om een dual-GPU te vergelijken met een single GPU, maar het is nu eenmaal een feit dat alles anders is dan vroeger. Het begon al toen de 7950GX2 ingezet werd als counter tegen de X1950XTX. Zo is de highend van AMD nu de HD4870X2 en die is toch vaak wel een stuk sneller als de 8800GTX/Ultra, zeker gezien het feit dat de HD4870 gemiddeld al sneller is dan een 8800GTX/Ultra.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 120284
De HD4870 staat dan ook tegenover de GTX260, waar die van verliest
, zeker van de 216 shader versie
En sorry hoor, maar een GTX260 is toch echt wel sneller dan een 8800GTX (of 9800GTX(+))
En sorry hoor, maar een GTX260 is toch echt wel sneller dan een 8800GTX (of 9800GTX(+))
[ Voor 47% gewijzigd door Anoniem: 120284 op 12-10-2008 15:04 ]
Anoniem: 215257
http://en.hardspell.com/d...?news_id=4073&pageid=3327Anoniem: 120284 schreef op zondag 12 oktober 2008 @ 15:03:
De HD4870 staat dan ook tegenover de GTX260, waar die van verliest, zeker van de 216 shader versie
En sorry hoor, maar een GTX260 is toch echt wel sneller dan een 8800GTX (of 9800GTX(+))
Volgens mij gaan ze vrij gelijk op hoor..
Uhrm.... Anders lees je ook even wat recente reviews van de GTX260 Core 216 vs de HD4870 1GB. Twee nieuwe uitvoeringen tegen elkaar... en dan zie je dat het aardig dicht op elkaar zit en het afhangt van de games waar je mee speelt. Crysis bv NV, Mass Effect/GRID bv AMD. Ook de IQ instelling is van belang... met 8xMSAA is een bepaalde fabrikant beduidend beter dan de ander.... (ik heb gehoord dat dit NV erg dwars zit en ze dit voor de opvolger willen aanpakken). De HD4870 benadert soms zelfs de GTX280 in een aantal games:Anoniem: 120284 schreef op zondag 12 oktober 2008 @ 15:03:
De HD4870 staat dan ook tegenover de GTX260, waar die van verliest, zeker van de 216 shader versie
Anandtech zegt zelfs:
GTX260 Core 216 vs HD4870 1GB reviews:The Radeon HD 4870 1GB is a better buy than both the GTX 260 and core 216 variant.
http://www.anandtech.com/video/showdoc.aspx?i=3415
http://techreport.com/articles.x/15651
http://www.driverheaven.n...php?reviewid=642&pageid=1
http://enthusiast.hardocp...2MiwxLCxoZW50aHVzaWFzdA==
Het verschil is dus echt niet zo groot als jij het doet lijken...
Daarnaast komt de 9800GTX+ nog aardig dicht in de buurt van de GTX260 in een aantal tests.... dit komt bv doordat de GTX260 evenveel texture units aan boord heeft als de 9800GTX... en sommige games nog best wel leunen op de texture units. Tel daarbij op de hogere snelheid van de core (wat dus ook de TMUs beinvloed) en het is niet gek dat de 9800GTX+ en GTX260 soms dicht bij elkaar liggen.En sorry hoor, maar een GTX260 is toch echt wel sneller dan een 8800GTX (of 9800GTX(+))
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 120284
Ik heb de [H] review al gelezen een paar dagen geleden.
Bottomline is dat de GTX260 Core216 net iets sneller is. En er is zelfs een geval waar de HD4870 op average wint, maar vanwege de vele dalen terecht als verliezer wordt aangewezen.
Bottomline is dat de GTX260 Core216 net iets sneller is. En er is zelfs een geval waar de HD4870 op average wint, maar vanwege de vele dalen terecht als verliezer wordt aangewezen.
Anoniem: 120284
Ik heb de [H] review al gelezen een paar dagen geleden.
Bottomline is dat de GTX260 Core216 net iets sneller is. En er is zelfs een geval waar de HD4870 op average wint, maar vanwege de vele dalen terecht als verliezer wordt aangewezen.
En dat de ATI sneller is met AA etc: lekker boeiend! Als het resultaat toch een onspeelbare framerate is, kan het me eerlijk gezegd geen zak schelen of het nou 20fps of 10fps is, allebei is het te langzaam.
Bottomline is dat de GTX260 Core216 net iets sneller is. En er is zelfs een geval waar de HD4870 op average wint, maar vanwege de vele dalen terecht als verliezer wordt aangewezen.
En dat de ATI sneller is met AA etc: lekker boeiend! Als het resultaat toch een onspeelbare framerate is, kan het me eerlijk gezegd geen zak schelen of het nou 20fps of 10fps is, allebei is het te langzaam.
Ik wil niet veel zeggen... maar selectief reviews lezen.. of sterker nog... selectief quoten... De bottomline bij [H] was de volgende:Anoniem: 120284 schreef op maandag 13 oktober 2008 @ 00:15:
Ik heb de [H] review al gelezen een paar dagen geleden.
Bottomline is dat de GTX260 Core216 net iets sneller is. En er is zelfs een geval waar de HD4870 op average wint, maar vanwege de vele dalen terecht als verliezer wordt aangewezen.
Waar wordt er iets als verliezer aangeduid als elke review zegt dat deze kaarten elkaar niet veel ontlopen?The Bottom Line
While there weren’t any major gameplay advantages, save for GRID, prices on the 1GB Radeon HD 4870 are very competitive with the 216 Core GeForce GTX 260. This price competition makes both video cards very appealing to gamers as they both offer an enjoyable gameplay experience.
Tuurlijk... en je koopt een dure high end kaart om zonder AA te spelen. En niet iedereen speelt Crysis. Er zijn genoeg games waar 8xAA prima te doen is met ruim speelbare FPS. Maar misschien had je daar over heen gelezen in de reviews?En dat de ATI sneller is met AA etc: lekker boeiend! Als het resultaat toch een onspeelbare framerate is, kan het me eerlijk gezegd geen zak schelen of het nou 20fps of 10fps is, allebei is het te langzaam.
Let op... 512MB versie van de HD4870 die dus tegen z'n limiet aan loopt met 8xAA.






Ik zie daar toch hele speelbare framerates in populaire games met 8xAA. En zo veel doen de GTX260 Core 216 en de HD4870 512MB helemaal niet voor elkaar onder....
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Niet alleen Apple komt met problemen... Ook HP is weer terug met nog meer defecte nVidia chips:Jejking schreef op zondag 12 oktober 2008 @ 02:37:
Apple komt nu ook uit de kast: Apple Admits NVIDIA GPU Problems in Some MacBook Pros:
[...]
Bron: http://technologyexpert.b...idia-gpu-problems-in.html
http://www.theinquirer.ne...desktops-defective-nvidiaHP admits 38 desktops have defective Nvidia chips
IT LOOKS LIKE Nvidia was being a little economical with the truth about the defective chips fiasco. The latest deviation from the official line comes once again from HP.
If you recall, Nvidia said in its 8-K that it may affect other parts as well. HP just sent out a bulletin, reprinted below with customer names removed, that linked to the following page. For those keeping track, the bulletin concerns 38 models of HP Pavilion Slimline desktops, and at least some use the 6150LE chipset. (Please excuse Nvidia's term 'motherboard GPU', search and replace with 'integrated graphics'.) Looks like we can add another part to the defective chipset list.
Do, however, note that this is not a laptop, nor is this chipset a laptop chipset. This pretty much answers the open question of whether or not the defects would be found in other parts, but any credibility they had as an authoritative source this matter is long gone. Recall, they said: "However, we are continuing to test and otherwise investigate other products. There can be no assurance that we will not discover defects in other MCP or GPU products. "
We can't wait to hear the spin on this one.
Laptops only, my behind. HP only, my behind. Small batch, my behind. Under control, my behind. What will be next? µ
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 120284
Dat komt omdat ik niet de prijs/performance heb meegenomen. Ik heb alleen gezegd: sneller.CJ schreef op maandag 13 oktober 2008 @ 01:01:
[...]
Ik wil niet veel zeggen... maar selectief reviews lezen.. of sterker nog... selectief quoten... De bottomline bij [H] was de volgende:
[...]
Waar wordt er iets als verliezer aangeduid als elke review zegt dat deze kaarten elkaar niet veel ontlopen?
[...]
Tuurlijk... en je koopt een dure high end kaart om zonder AA te spelen. En niet iedereen speelt Crysis. Er zijn genoeg games waar 8xAA prima te doen is met ruim speelbare FPS. Maar misschien had je daar over heen gelezen in de reviews?![]()
Let op... 512MB versie van de HD4870 die dus tegen z'n limiet aan loopt met 8xAA.
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
Ik zie daar toch hele speelbare framerates in populaire games met 8xAA. En zo veel doen de GTX260 Core 216 en de HD4870 512MB helemaal niet voor elkaar onder....
En ik weet wat niet waar jij je meervoud van 'speelbare' framerates vandaan haalt? Ik zie alleen die van HL2. De rest kwakt net boven de 60/70 AVG, dus heel vaak er onder.
Uhrm... heb je de andere games uberhaupt wel eens gespeeld? Een game als Oblivion is perfect speelbaar op zo'n 40fps. Daar moesten we het vroeger mee stellen op een X1950XT zonder HDR en AA of op veel lagere resolutie... en nu staat zowel HDR als 8xAA aan op high res. Een RTS game als Company Of Heroes met 8xAA rond de 50fps op die resolutie... is ook zeer speelbaar....
Ik weet niet in wat voor wereld jij leeft, maar de games die Firingsquad getest heeft zijn zeer zeker speelbaar op de gemeten framerates.
Om
Ik weet niet in wat voor wereld jij leeft, maar de games die Firingsquad getest heeft zijn zeer zeker speelbaar op de gemeten framerates.
Om
maar even te quoten:Guru3D
Natuurlijk is het per persoon verschillend wat men speelbaar vindt, maar doorgaans is dit een goede leidraad. En in veel van de games die Firinqsquad getest heeft is 60/70 fps helemaal niet eens nodig om al een optimale spelbeleving te ondergaan (zie bv een shaderintensieve RPG als Oblivion of RTS als COH). En uit eigen ervaring weet ik dat die games met de behaalde FPS op Firingsquad prima speelbaar zijn op zowel de GTX260 (Core216) als de HD4870. En dan te bedenken dat er 8xAA aan staat....Frames per second Gameplay
<30 FPS - very limited gameplay
30-40 FPS - average yet very playable
40-60 FPS - good gameplay
>60 FPS - best possible gameplay
- So if a graphics card barely manages less than 30 FPS, then the game is not very playable, we want to avoid that at all cost.
- With 30 FPS up-to roughly 40 FPS you'll be very able to play the game with perhaps a tiny stutter at certain graphically intensive parts. Overall a very enjoyable experience. Match the best possible resolution to this result and you'll have the best possible rendering quality versus resolution, hey you want both of them to be as high as possible.
- When a graphics card is doing 60 FPS on average or higher then you can rest assured that the game will likely play extremely smoothly at every point in the game, turn on every possible in-game IQ setting.
- Over 100 FPS? You have either a MONSTER graphics card or a very old game.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 120284
40-60 fps average noem ik niet goed. Dat houdt dus in dat het meestal 80 fps is en je op de kritieke punten 20 fps hebt. En tja, wanneer heb je nu de hoogste framerate 'nodig'? Precies, het moment dat je het hoekje omloopt, dat de andere rookgranaten gooit, dat soort stukjes. En laat nou dat je framerate daar het laagste zijn, normaal gesproken.
Als ik mijn framerate op 50 als avg zie zet ik ofwel de settings lager, ofwel stop met spelen en ga iets doen wat wel fatsoenlijk draait.
Als ik mijn framerate op 50 als avg zie zet ik ofwel de settings lager, ofwel stop met spelen en ga iets doen wat wel fatsoenlijk draait.
Gelukkig is er meer in het leven dan een first person shooter. Whatever floats your boat toch?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Een MMORPG is zeker te spelen met +10 FPS, Strategy met +25 FPS, FPS in singeplayer +30 FPS & Multiplayer +60 FPS...
@jcvjcvjcvjcv
Ik weet niet waar jij kijkt maar...
AnAndTech
http://www.anandtech.com/video/showdoc.aspx?i=3415&p=1
Age of Conan
4870 1GB wint op alle resoluties
Crysis
4870 1GB wint op alle resoluties
Oblivion
GTX 260 216 wint op alle resoluties
Enemy Territory Quake Wars
4870 1GB wint op alle resoluties
Race Driver Grid
4870 1GB wint op alle resoluties
Assasin's Creed
4870 1GB wint op 2560x1600 4x AA (enige test)
The Witcher
GTX 260 216 wint op 2560x1600 2x AA (enige test)
5 v 2...
Bottomline is dat de GTX260 Core216 net iets sneller is dat je gewoon ongelijk hebt en al helemaal zo zonder agumenten.
Dat jij geen ATi wilt vind ik ok, maar onderbouw je posts want anders is het gewoon compleet waardeloos.
@jcvjcvjcvjcv
Ik weet niet waar jij kijkt maar...
AnAndTech
http://www.anandtech.com/video/showdoc.aspx?i=3415&p=1
Age of Conan
4870 1GB wint op alle resoluties
Crysis
4870 1GB wint op alle resoluties
Oblivion
GTX 260 216 wint op alle resoluties
Enemy Territory Quake Wars
4870 1GB wint op alle resoluties
Race Driver Grid
4870 1GB wint op alle resoluties
Assasin's Creed
4870 1GB wint op 2560x1600 4x AA (enige test)
The Witcher
GTX 260 216 wint op 2560x1600 2x AA (enige test)
5 v 2...
Bottomline is dat de GTX260 Core216 net iets sneller is dat je gewoon ongelijk hebt en al helemaal zo zonder agumenten.
Ik kan geen spel meer spelen zonder AA... Crysis speel ik op 1680x1050 met 4x AA, DirectX 9 met een Enthusiast config in singeplayer met +35 FPS, dat is voor deze game op singeplayer perfect en het ziet er schitterend uit. Mijn oude kaarten waren 7800GT, 8800GTS 640MB, 8800GT, 9800GTX dus nee.... een ATi fanboy ben ik zeker niet, ik koop gewoon wat op dat moment voor mijn budget het beste is, en dat is nu een ATi kaart. De 4870 presteerd gemiddeld gewoon beter en dat is een feit. Dat jij AA onzin vindt, snap ik zowieso al niet, tenzij je eigenlijk een bril nodig hebt, maar die nooit op zet.En dat de ATI sneller is met AA etc: lekker boeiend! Als het resultaat toch een onspeelbare framerate is, kan het me eerlijk gezegd geen zak schelen of het nou 20fps of 10fps is, allebei is het te langzaam.
Dat jij geen ATi wilt vind ik ok, maar onderbouw je posts want anders is het gewoon compleet waardeloos.
[ Voor 3% gewijzigd door Paprika op 13-10-2008 17:57 ]
Dit topic is gesloten.
Let op:
Dit is een NIEUWS & DISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond nVidia kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!
Dit is een NIEUWS & DISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond nVidia kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!