In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter
Dit topic is vooral niét bedoeld om te posten dat:
jouw favoriete kaart niet leverbaar is bij een shop.
jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst!
Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2
Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 34
Sinds eind oktober 2007 is ook de G92 core op de markt. Dit is een G80 core, maar dan met enkele optimalisaties en gebakken op 65 i.p.v. 80nm, wat resulteert in een lager stroomverbruik.
Vanaf G92 core zijn er nog wat nog een extra technologieën gebruikt:
"HybridPower™* technology offers exceptional graphics performance and power savings for everyday needs"
en PCI-E 2.0 interface, wat een maximum transfer snelheid van 16GB/s oplevert <> PCI-E 1.0 die "slechts" 8GB/S als maximum heeft
Sinds Begin maart is ook de volledige GT1xx line up bekend gemaakt. In tegenstelling zoals velen zouden durven te vermoeden zijn ook deze kaarten gewoon gebaseerd op de (oude)G92/94 GPU-kern en horen ze gewoon in deze generatie thuis in plaats van een volgende.
Een opmerking moet wel gemaakt worden dat deze kaarten enkel voor OEM gebruik bedoeld zijn en deze dus niet in de losse handel verkrijgbaar zijn.
Rebranding heeft nooit voorgedaan/bestaat dus niet!
9800 GTX
GPU: G92
Release Date: 03/2008
Interface: PCI-E 2.0 x16
Transistors: 754 million
Unified shaders: 128
shader clock: 1688 MHz
Texture units: 64
ROP's: 16
Core Clock: 675 MHz
Memory Clock: 1100 MHz (GDDR3)
Memory Bandwidth: 70.4 GB/sec
Memory Interface: 256 bit
Memory: 512 MB
Texture Fill Rate:43.2 billion/s
OpenGL: 2.1
Sli: Dual/Tri-SLI
Comsumption: 140 Watt (max)
Power Connectors: 2x 6-pin
9800 serie
9800 GTX+
GPU: G92 (55nm)
Release Date: 07/2008
Interface: PCI-E 2.0 x16
Transistors: ??? million
Unified shaders: 128
Shader clock: 1836 MHz
ROP's: 16
Core Clock: 738 MHz
Memory Clock: 1000 MHz (GDDR3)
Shader Clock: 1836 MHz
Memory Bandwidth: 70.4 GB/sec
Memory Interface: 256 bit
Memory: 512 MB
Consumption: 145 watt
2-3 way SLI support
GTS150
GPU: G92b (55nm)
aka GTS250 Slow, 9800GTX+
Release Date: 10/04/2009
Interface: PCI-E x16 2.0
Transistors: 754 million
Unified shaders: 128
Shader clock: 1836 MHz
Texture units: 64
ROP's: 16
Core Clock: 740 MHz
Memory Clock: 1000 (GDDR3)
Memory Bandwidth: 64 GB/sec (GDDR3)
Memory Interface: 256 bit
Memory: 1024 MB (GDDR3)
Texture Fill Rate: 47.2 billion/s
OpenGL: 2.1
Sli: Dual/Tri-SLI
Comsumption: 141 Watt (max)
Power Connectors: 2x 6-pin
Enkel OEM
9800 serie
GTS 250
GPU: G92a/b (65/55nm)
Release Date: 03/03/2009
Interface: PCI-E x16 2.0
Transistors: +/- 754 million
Unified shaders: 128
Shader clock: 1836 MHz
ROP's: 16
Core Clock: 738 MHz
Memory Clock: 1100MHz (GDDR3)
Memory Bandwidth: 70.4 GB/sec (GDDR3)
Memory Interface: 256 bit
Memory: 512/1024/2018 MB (GDDR3)
Texture units: 64
Texture Fill Rate: 47.2 (billion/sec)
OpenGL: 3.0
SLI: 2-way/3-way SLI
Consumption: 112 watt (max) officieel 150
Power Connectors: 1x 6-pin
Waarom?
Kleinere PCB, past dus handiger in de Case
Lager verbruik waardoor je maar een 6-pin power connector nodig hebt.
Veel lagere prijs
9800 Gx2
GPU: 2x G92
Release Date: 03/2008
Interface: PCI-E 2.0 x16
Transistors: 2X 754 million
Unified shaders: 2x 128
Shader clock: 1500 MHz
ROP's: 2x 16
Core Clock: 600 MHz
Memory Clock: 1000 MHz (GDDR3)
Memory Bandwidth: 128 GB/sec
Memory Interface: 512 bit (2x 256 bit)
Memory: 1024 MB (2x 512MB)
Texture units: 2x 64
Texture Fill Rate: 79.8 (billion/sec)
OpenGL: 2.1
SLI: Quad SLI
Consumption: 197 watt (max)
Power Connectors: 1x 6-pin,1x 8-pin
De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.
De eerste 2 kaarten gereleased in deze nieuwe reeks zijn direct de high end kaarten. Deze kaarten zijn stukken beter dan de vorige high end maar dit brengt een mooi prijskaartje met zich mee. Hoewel dat er veel kans is dat deze prijs snel kan dalen doordat ati zijn kaarten deze keer veel beter opkunnen tegen het NVIDIA geweld (we denken aan de HD4870x2)
De GeForce GTX 280 en 260 gebruiken dezelfde identieke GPU cores maar het in het 260 model werden onderdelen van de core uitgeschakeld en ook de RAM en memory interface werden verminderd voor marketing doeleinden.
De GT200 is tot nu toe de grootste GPU core die men tot nu toe ooit gefabriceerd heeft hij bestaat uit 1.4 miljard transistoren die een oppervlakte bestreiken van 575mm² gebakken met 65nm procédé hoewel men hard werkt om over te kunnen snappen naar 55nm. De totale kaart meet 27 cm.
De 2 huidig gereleasde 200serie kaarten ondersteuen ook 10 bit kleuren, hiervoor heb je wel displayport nodig, dus voor dit feature zal je moeten wachten tot een fabrikant grafische kaarten met deze uitgangen beschikbaar zal stellen op de markt.
Beide kaarten hebben een verbeterde versie van PureVideo voor het hardwarematig decoderen van oa VC-1,WMV9 en H.264 geëncodeerde filmbestanden.
De standaard referentie kaart hebben allemaal 2 dual link DCI connectors en een HDTV/s-Video connector.
Energieconsumptie: De high end kaarten zijn weer energievreters zoals je kon verwachten. Het maximale vermogen van deze kaarten zijn: 182 Watt (GTX260) tot 236 Watt (GTX 280)
De GTX 280 zal 1 8-pin en 1 6-pin pci-e power connectoren vereisen wanneer de GTX 260 toekomt met "slechts" 2 6-pin pci-e power conectoren.
Enige actuele succes van de chipset afdeling van nVidia: Lancering van van nVidia's Ion platform
Tot nu toe zijn alle reviews lovend; Een stukken minder verbruikende chipset die ervoor zorgt dat full HD wel afgespeeld kan worden(desnoods via coreAVC + CUDA indien je codec niet hardwarematig wordt ondersteunt) op je netbook eventueel om aan te sluiten op je HD-TV.
Helaas minder positief nieuws? (Hoewel licentie technisch kostend besparend en wie wil er nu een dx10 game spelen op een Windows xp netbook die dit dus toch niet ondersteunt...)
nieuws: Nvidia: DirectX 11 geen impuls voor verkoop videokaarten
Echter zijn hierdoor zeker niet alle problemen opgelost: Charlie (bekende nVidia basher) heeft namelijk vernomen dat slecht 2% van de geproduceerde gpu cores werkende (nog niet eens bug-vrij) zijn gekregen uit de laatste (gehaaste) revisie waardoor nVidia zeker minstens 1 respin zal moeten doorgaan om zijn nieuwe gt300 gpu-core's een hogere yield te laten bekomen.
Echter zal de massaproductie pas starten in het eerste kwartaal van volgende jaar(2010) Waardoor we in het beste geval Fermi maar pas op het einde van Q1 tot begin/midden van Q2 zullen in de schappen zien:
Tot dan toe zal AMD/ATI vrij spel hebben met hun DirectX 11 kaarten wanneer ze over hun productieproblemen heen komen tenminste.
Hieruit kunnen we wel afleiden dat de tweede respin van Fermi(A2) dus niet de definitieve zal zijn en men zoals gebruikelijk rekent op de derde respin (A3). Wat men eigenlijk wel kon verwachten nadat de eerste respin (A1) amper 7 werkende gpu's afleverde.
Patch maakt physX weer mopelijk met ati-nVidia gpu combinatie:
Nadat deze functionaliteit sinds de 186 drivers geblokkeerd werd is deze weer terug te brengen aan de hand van een patch die op alle recente drivers zou moeten werken:
De vorige nieuwsberichten kan je logischerwijze steeds vinden in het vorige topic ;)
nVidia stapt uit de pc-gaming sector
Dit gerucht blijkt meer en meer geopperd te worden. Dit komt voornamelijk daar nVidia dit zelf ook aanzwengelt. Ze zitten momenteel in de hoek waar de klappen vallen op vlak van PC-hardware, als enige grote speler zonder x-86 licentie waar de andere twee speler Intel en het ([sarcasm]ooh zo open [/sarcasm]) AMD geen licenties meer verlenen voor nieuwe chipsets voor hun cpu's (en hierdoor ook geen nieuwe igp's van nVidia meer mogelijk zijn).
De ontwikkeling van high-end GPU's wordt duurder en duurder en aan de andere kant minder lucratief daar goedkope varianten (de igps's) dus niet meer mogelijk zijn. Hierdoor wordt het gerucht sterker en sterker dat nVidia zich nog enkel zal richten op professionele hardware (dit krijgt nu al officieel de voorrang) en multimedia hardware zoals de Tegra. (zie het andere topic)
Link naar een nl website, van een mede-tweaker die nog aan het TS hier heeft meegeholpen, die het verhaal stukken beter kan uitleggen dan ik: Notebookspot.nl: Nvidia verlegt focus van GPU naar CPU
Waarheidsfactor:45%
nVidia houdt introductie van Lucid Hydra moederborden tegen:
Daar nVidia de enige is die winst maakt door sli licenties te verkopen is het de enige kandidaat om Lucid-Hyrda tegen te houden (zoals het PhysX tegenhield in combi met ATI kaarten of Hybrid SLI niet meer support onder druk van MS)
Echter is de officiele uitleg dat MSI nog wacht op volledig geteste werkende drivers voor alle mogelijke combinaties en is de bron een niet super geïnformeerdeCharlie.
Waarheidsfactor:55%
Notebook nVidia GPU's met dx10.1 support?
Dit gerucht is redelijk zeker daar er vele bevestigingen zijn gekomen dat er idd zo'n mobiele GPU's er zitten aan te komen zelfs gefabriceerd met het 40nm proces! Men suggereert echter dat men deze functionaliteit mogelijk bij de launch niet ter beschikking kan stellen maar eventueel achteraf met een driverupdate zal doen als het blijkt dat het marketing technisch intressant/nodig blijkt te zullen zijn.
Het feit dat er nu al desktop modellen met dx10.1 zijn geleverd bevestigd alleen nog meer dit gerucht:
gaan dat nVidia's grafische kaart hooguit einde Q4 2009 (indien dit nog lukt wss een paperlaunch) begin 2010 pas in massa geproduceerd zullen worden. Men gaat ervan uit dat de nVidia serieuse problemen heeft met zijn dx11 serie kaarten, oa doordat men vernomen heeft dat het geproduceerde test exemplaar gewoonweg dood is terug gekeerd en er dus nog serieus veel werk voor de boeg is voordat deze massa produceerbaar zal worden.
*update 5 oktober 2009*
Deze geruchten worden behouden ook al wijst men meer en meer naar eind Q1 2010 tegen dat nVidia zijn massa productie helemaal in orde zou kunnen krijgen, deze geruchten worden gevoed door het eventueel showen van een valse gt300 kaart en de enorm lage bekomen yield-rates: Semiaccurate: nVidia fakes fermi boards
nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(5oktober 2009) zijn er nieuwe whql drivers uit die recenter zijn dan de beta's die te vinden zijn op de nvidia site
De allerlaatste Beta client kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.
Een goede site voor drivers voor Mobile GPU's is(kun je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nvidia www.laptopvideo2go.com
In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter
Dit topic is vooral niét bedoeld om te posten dat:
jouw favoriete kaart niet leverbaar is bij een shop.
jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Veel lees- en discussieerplezier toegewenst!
Informatie over de G70 core wordt in dit topic niet meer bijgehouden, daar deze kaarten al een redelijke leeftijd hebben en alle nieuwe laptops nu een 8 of 9 reeks van mobiele kaart hebben. De nieuwswaarde van de 7 reeks of oudere mobiele kaarten is dus enorm laag in te schatten.
In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur.
De belangrijkste features van de G80 zijn:
Unified shaders
DirectX 10 ondersteuning
OpenGL 2.0 ondersteuning
Nieuwe AA modes CSAA, 8Q, 16Q
128 bit HDR ondersteuning in combinatie met AA
16x hoekonafhankelijke AF
Ondersteuning voor GPU Physics
Shader Model 4
Purevideo (HD)
SLI
Hieronder volgen de Mobiele modellen uit de Geforce 8M reeks:
8 serie
8400M
Deze kaart is de opvolger van de go 7400M kaart. Technisch gezien zijn het tragere 8600M GS kaarten.
De voordelen zijn vooral DirectX 10 supportte en ondersteuning van purevideo.
De Qaudro FX 360M is gebaseerd op deze kaart.
GPU: G86M
Announce Date: 09/05/2007
Interface: PCI-E x16
Consumption: 11(GS)-14(GT) Watt
Transistors: 210 million
Geforce 8400M G
GeForce 8400M GS
GeForce 8400M GT
Stream-Processors
8
16
16
Core Clock (MHz)
400
400
450
Shader Clock (MHz)
800
800
900
Memory Clock (MHz)
600
600
600
Maximum Memory
256MB
256MB
512MB
Memory Interface
64-bit
64-bit
128-bit
Memory Bandwidth (GB/sec)
9.6
9.6
19.2
Texture Fill Rate (billion/sec)
3.2
3.2
3.6
8600M GT
Deze kaart is in essentie technisch gezien een hoger geklokte 8400M GT kaart. De performatie ligt net ietsje hoger dan de 7600 / 7700 go grafische kaarten.
De 8600M kaart is één van de eerste laptop GPU's die DirectX 10 support en hardwarematige versnelling van decodatie van H.264-geëncodeerde HD-films.
De quadro FX 570M kaart is gebaseerd op deze kaart.
GPU: G84M
Announce Date: 09/06/2007
Interface: PCI-E x16
Consumption: 20 Watt
Transistors: 289 million
GeForce 8600M GS
GeForce8 600M GT
Stream-Processors
16
32
Core Clock (MHz)
600
475
Shader Clock (MHz)
1200
950
Memory Clock (MHz)
700
700
Maximum Memory
512MB
512MB
Memory Interface
128-bit
128-bit
Memory Bandwidth (GB/sec)
12.8/22.4 (DDR2/GDDR3)
12.8/22.4 (DDR2/GDDR3)
Texture Fill Rate (billion/sec)
4.8
7.6
8700M Serie
Deze Serie was oorspronkelijk ontwikkeld voor de high-end markt. Er is maar 1 versie van deze reeks namelijk de 8700M GT en een quadro afgeleidde de fx 1600M
Deze chipset kan je eigenlijk eerder zien als een deftige mid-end kaart dankzij oa zijn 128-bit memory bus. (Deze kaart toont bv een goede 3D mark performantie maar doet het ingame veel slechter dankzij de kleine memory bus, wat nog eens 3dmark zijn relevantie aantoont )
Hierdoor is deze kaart een in essentie een hoger geklokte 8600M GT kaart met GDDR-3. Deze kaart toont wel goede performantie in een dual-card sli configuratie. En is alleen goed genoeg om te gamen.
GPU: G84M/G84GLM(quadro fx 1600M)
Announce Date: 12/06/2007
Interface: PCI-E x16
Consumption: 29 /50Qqaudro) Watt
Transistors: 289 million
GeForce 8700M GT
Qaudro fx 1600M
Stream-Processors
32
32
Core Clock (MHz)
625
625
Shader Clock (MHz)
1250
1250
Memory Clock (MHz)
800
800
Maximum Memory
512MB
512MB
Memory Interface
128-bit
128-bit
Memory Bandwidth (GB/sec)
25.6 (GDDR3)
25.6 (GDDR3)
Texture Fill Rate (billion/sec)
10
10
8800M Serie
Met de G92M core en een 256 bit Memory bus is deze serie is de echte Mobile 8 high-end serie. Er zijn 2 varianten van deze serie plus een Quadro afgeleide op de markt.
GPU: G92M (65 nm)
Announce Date: 19/11/2007
Interface: PCI-E x16
Consumption: 35 /37 Watt
Transistors: 754 million
GeForce 8800M GTS
Qaudro FX 3600M
GeForce 8800M GTX
Stream-Processors
64
(64 of) 96
96
Core Clock (MHz)
500
500
500
Shader Clock (MHz)
1250
1250
1250
Memory Clock (MHz)
800
800
800
Maximum Memory
512MB
512MB
512MB
Memory Interface
256-bit
256-bit
256-bit
Memory Bandwidth (GB/sec)
51.2 (GDDR3)
51.2 (GDDR3)
51.2 (GDDR3)
Texture Fill Rate (billion/sec)
16
16
24
De GeForce 9M Serie werd gereased op 21 februarie 2008 eerst exclusief voor asus maar daarop volgend ook voor andere merken (oa medion laptop beschikken al een tijdje over grafische kaarten van deze nieuwe reeks)
Alle GPU's in de Geforce 9M Serie beschikken over volgende eigenschappen:
Betere performantie bij hetzelfde verbruik in vergelijking met de GeForce 8M Serie voor de low- en mid-end kaarten.
Volledige DirectX 10.0 en OpenGL 2 compatibileit,
Mogelijkheid tot 16X antialiasing
Full HD DVD / Blu-ray hardware decodering.
9100M G
Geïntigreerde grafische kaart op het moederbord Met 8 stream processors, kan theoretisch 26 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze IGP kan kan samenwerken via hybrid sli met een 9200M of 9300M kaart wat resulteert in een performantie van een Geforce 9400M kaart
GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
GeForce 9100M G + GeForce 9200M GS = GeForce 9400M
9200M GS
Ultra low end grafische mobiele kaart Met 8 stream processors, kan theoretisch 31 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is gemaakt met als doel samen te werken met een GeForce 9100M via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart
GeForce 9100M G + GeForce 9200M GS = GeForce 9400M
GPU: NB9M
Announce Date: 03/06/2008
Interface: PCI-E x16
Consumption: 13 Watt
Transistors: ?? million
Core Speed: 550 MHz
Shader Speed: 1300 MHz
Memory Speed: 700 MHz
Memory Bus Width 64 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 256 MB
9300M G
low-mid end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart ondersteunt ook NVIDIA® Quantum Effects en kan samen werken met een GeForce 9100M (GS editie) via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart.
GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
GPU: NB9M
Announce Date: 04/06/2008
Interface: PCI-E x16
Consumption: 13 Watt
Transistors: ?? million
Stream processors: 16
Core Speed: 400 MHz
Shader Clock: 800 MHz
Memory Clock: 600MHz
Memory Bus Width: 64 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 256 MB
9500M Serie
9500M G
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 (ook 16 stream processors). Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
GPU: NB9P
Announce Date: 03/06/2008
Interface: PCI-E2.0 x16
Consumption: ?? Watt
Transistors: ?? million
Stream processors: 16
Core Speed: 500 MHz
Shader Clock: 1250 MHz
Memory Clock: 800 MHz
Memory Bus Width: 128 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 1024 MB
9500M GS
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 maar met 32 stream processors. Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
Door de optimalisaties en dubbel aantal stream processors haalt deze kaart ongeveer 10% betere performance dan een 8600GT.
GPU: G84-50
Announce Date: 03/06/2008
Interface: PCI-E2.0 x16
Consumption: ?? Watt
Transistors: ?? million
Stream processors: 32
Core Speed: 475 MHz
Shader Clock: 950 MHz
Memory Clock: 700 MHz
Memory Bus Width: 128 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 512 MB
9600M Serie
Deze med-end kaart is geproduceed met het 65nm proces welke hogere klok frequenties toelaten met hetzelfde verbruik. Ook deze kaart heeft de nieuwe PureVideo HD video processor (VP3) en HybridPower support.
Deze HybridPower support zorgt ervoor dat in samenwerking met de Nvidia 9100M G integrated graphics kaart er minder stroom wordt gebruikt (1 van de 2 wordt gebruikt echter nooit samen dit zou namelijk geen speed boost meer opleveren)
Deze kaart kan je qua performantie vergelijken met een 9500 GT desktop grafische kaart daar de 9600GT een 256 bit memory interface heeft en het dus stukken beter doet
GPU: NB9P (65nm)
Announce Date: 3/06/2008
Interface: PCI-E2.0 x16
Consumption: ???/29 Watt (9650M GS)
Transistors: ??? million
GeForce 9600M GS
GeForce 9600M GT
GeForce 9650M GS
Stream-Processors
32
32
32
Core Clock (MHz)
430
500
625
Shader Clock (MHz)
1075
1250
1250
Memory Clock (MHz)
800
800
800
Maximum Memory
1024MB (GDDR2/GDDR3)
1024MB (GDDR2/GDDR3)
512MB (GDDR2?/GDDR3)
Memory Interface
128-bit
128-bit
128-bit
Memory Bandwidth (GB/sec)
(GDDR3)
25.6
25.6
Texture Fill Rate (billion/sec)
10
9700M GT
Deze kaarten zijn de directe opvolgers van de 8700M kaarten. Technisch gezien zijn het simpelweg hoger geclockte kaarten dan de 9600M kaarten.
Ze zijn geproduceerd gebruik makend van het 65nm procedure en ondersteunen de volgende eigenschappen:
De nieuwe PureVideo HD video processor (VP3)
HybridPower support (switchen tussen uw onboard grafische kaart en de MGPU, Vista only)
ondersteunt CUDA enabled programma's
NVIDIA PhysX-ready.
Je kan deze kaart qua performantie het beste vergelijken met een GeForce 9500GT desktop kaart, beiden stammen af van dezelfde G96 core.
De performantie is echter hoger dan de 9600M hoofdzakelijk door de hoge clock speeds (hoogste clock snelheid van de 9000M serie). Maar net zoals met de desktop kaart zijn zwaar vragen DirectX 10 games te zwaar om op hoge details/resolutie te spelen.
9700M GTS
Deze kaarten zijn in tegenstelling tot hun naamgeving gebaseerd op een andere core dan de 9700M GT kaarten, namelijk de G94 core ipv de G96.
Dit houdt in dat er 48 shaders beschikbaar zijn ipv 32 én de geheugenbus is 256 bit breed! Deze kaart ondersteunt verder dezelfde eigenschappen als de GT variant
Qua performantie valt deze kaart ergens tussen een 9500GT en 9600GT desktop kaart.
GeForce 9700M GT
GeForce 9700M GTS
Core
G96(NB9P)
G94(NB9E-GTS)
Consumptie (Watt)
45
60
Stream-Processors
32
48
Core Clock (MHz)
625
530
Shader Clock (MHz)
1550
1325
Memory Clock (MHz)
800
800
Maximum Memory
512 (GDDR2/GDDR3)
512 (GDDR3)
Memory Interface
128-bit
256-bit
Memory Bandwidth (GB/sec)
25.6
51.2
Texture Fill Rate (billion/sec)
10.0
12.7
GTX 1x0M Serie
Deze reeks werd samen met de GTX2xxM reeks bekend gemaakt. Deze chips hebben veel kans om populair worden doordat ze een stuk goedkoper zijn dan de GTX280M die weliswaar 2 keer zoveel performantie biedt maar stukken warmer loopt en meer kost.
Deze chips supporten SLI, HYBRID Power, Cuda en PhysX maar zijn desondanks nog steeds gebaseerd op de (oude) G92b chip
Deze reeks zal vooral gebruikt worden als higer mid-end en als vervanger dienen voor de 9600M en de 9700M reeks(de GTX 160M zou ongeveer 30 tot 40% beter performantie bieden dan de 9700M GT). Meest waarschijnlijk zal deze kaart dus een heel populaire kaartje worden in laptops.
GeForce GTS150M
GeForce GTS160M
Core
G94(??)
G92b(55nm)
Consumptie (Watt)
??
??
Stream-Processors
64
64
Core Clock (MHz)
600
600
Shader Clock (MHz)
1000
1500
Memory Clock (MHz)
800
800
Maximum Memory
1024(GDDR3)
1024MB (GDDR3)
Memory Interface
256-bit
256-bit
Memory Bandwidth (GB/sec)
51.2
51.2
Texture Fill Rate (billion/sec)
13.0
19.0
9800M Serie
Net als de 9700M Serie zijn er 2 cores gebruikt bij de varianten. Deze kaarten beschikken ook over dezelfde eigenschappen als de vorige serie maar zijn duidelijk high-end.
9800M GT en 9800M GTS zijn beiden gebaseerd op G94 Core wanneer de 9800M GTX gabaseerd is op een G92 Core. Het verschil tussen de varianten ligt voornamelijk bij het steeds bijkomend aantal shaders.
Qua performantie kan je een 9800M GT het beste vergelijken met een 8800GS desktop kaart
De GTX kan je het beste vergelijken met een 8800GT kaart die ietsje sneller zal zijn vanwege zijn geheugensnelheid
GeForce 9800M GS
GeForce 9800M GT
GeForce 9850M GS
Core
G94(NB9E-GT)
G94(NB9E-GTS)
G92(NB9E-GTX)
Consumptie (Watt)
75
65
75
Stream-Processors
64
96
112
Core Clock (MHz)
600
500
500
Shader Clock (MHz)
1500
1250
1250
Memory Clock (MHz)
800
800
800
Maximum Memory
1024(GDDR3)
512MB (GDDR3)
512MB (GDDR3)
Memory Interface
256-bit
256-bit
256-bit
Memory Bandwidth (GB/sec)
51.2
51.2
51.2
Texture Fill Rate (billion/sec)
19.2
24.0
28.0
GTX2xxM Serie
Op 3 maart 2009 heeft nVidia 2 nieuwe mobiele high-end grafische kaarten voorgesteld die de opvolgers zullen worden van resectievelijk de 9800M GT en de 9800M GTX. Desondanks hun naamgeving (marketing truc om de eindgebruikers te misleiden ? ) zijn deze kaarten nog steeds gebaseerd op de G92-architectuur.
Ook deze kaarten ondersteunen alle nieuwe technologiën (incluis hybridpower).
GeForce GTX260M
GeForce GTX280M
Core
G92(??)
G92(??)
Consumptie (Watt)
??
??
Stream-Processors
112
128
Core Clock (MHz)
550
585
Shader Clock (MHz)
1375
1463
Memory Clock (MHz)
950
950
Maximum Memory
1024MB(GDDR3)
1024MB (GDDR3)
Memory Interface
256-bit
256-bit
Memory Bandwidth (GB/sec)
60.8
60.8
Texture Fill Rate (billion/sec)
31
38
Begin 2009 werd er de nieuwe G100M reeks voorgesteld. Deze bestaat uit sneller, feature-uitgebreide kaarten geproduceerd met het 55nm-productieproces.
Momenteel zijn gegevens beschikbaar over 3 van deze nieuwe kaarten:
Geforce G105M
GeForce G110M
GeForce GT130M
Core
G105M
G110M
G92(NB9E-GTX)
Consumptie (Watt)
??
??
??
Stream-Processors
8
16
32
Core Clock (MHz)
??
??
??
Shader Clock (MHz)
1600
1000
1500
Memory Clock (MHz)
500(DDR2)/700(GDDR3)
500(DDR2)/700(GDDR3)
500 (DDR2)/800 (GDDR3)
Maximum Memory
tot 512MB
tot 1024MB (GDDR3)
512MB (GDDR3)
Memory Interface
64-bit
64-bit
128-bit
Memory Bandwidth (GB/sec)
8(DDR2)/11(GDDR3)
8(DDR2)/11(GDDR3)
16 (DDR2)/25 (GDDR3)
Texture Fill Rate (billion/sec)
??
??
??
De GeForce G105M en de G110M zullen de Mainstream markt bedienen en vormen hierdoor de opvolger van de 9200M tot aan de 9400M kaarten.
De GeForce GT 130M zal de Performance markt bedienen en vormt hierdoor de opvolger voor de 9500M en de 9600M grafische kaarten (hoewel dat nVidia vermoedelijk de GTS 160M zal pushen als opvolger voor populaire de 9600M GT kaart).
Hoeveel dit gerucht waard is, is onbekend daar volgens nVidia zelf de performantie van de GT 130m en de 9600M GT 100% hetzelfde is (en dit dus ruikt naar een zoveelste rebranding )
Deze reeks van mobiele kaarten werd gelanceerd op 3 maart 2009 met 2 gpu's die eigenlijk gebaseerd waren op de al reeds overbekende G92b cor. De "echte" G2xxM Mobiele GPU's werden echter pas op 15 Juni Geïntroduceerd dit zijn kaarten die zijn gebaseerd op de GT215 tot GT218 cores. Echter enkel de GTS kaarten (GT215 core) supporten GDDR5 (yeah nVidia kaarten met GDDR5 support bestonden al degelijk vanaf zomer 2009).
Deze reeks van kaarten wordt voornamelijk gepromoot dat ze tot 50% zuiniger zijn da vorige generatie en volledig geoptimaliseerd zijn voor Windows 7 (DirectX 10.1 support).
Mainstream: GeForce G210M
Deze kaarten zijn de directe opvolgers van de G102M tot G110M, 9200M totaan 9400M en 8400M Geforce kaarten. Technisch gezien is het een unieke core de GT218 welke op het nieuwe 40nm proces wordt gefabriceerd en ondersteunen de volgende eigenschappen:
DPureVideo HD 1080P technologie
HybridPower support (schakelt de tweede GPU aan indien je de laptop aan het electriciteitsnet hangt en af indien je hem er weer van af haalt, niet langer manueel of afhankelijk van gpu gebruik/energy profile van MS zoals bij de desktop varianten van Hybrid sli)
GeForceBoost technologie (totaan 80% meer aan performantie door gebruik te maken van 2 GPU's)
ondersteunt CUDA enabled programma's << CoreAVC playback!
Powermize Intelligent Power Management
De technische specifcaties zijn als volgende:
Core: GT218
Announce Date: 15/06/2009
Interface: PCI-E2.0 x16
Consumption: 14 Watt
Transistors: ?? million
Unified shaders: 16/8/4
Core Speed: 625 MHz
Shader Clock: 1500 MHz
Memory Clock: 500(DDR2)/800 ((G)DDR3) MHz
Memory Bus Width: 64 Bit
Memory Type GDDR2, GDDR3
Memory Bandwidth (GB/sec): 8 (DDR2)/12.8((G)DDR3)
Max. Amount of Memory: 1024 MB
DirectX: 10.1
Performance: GeForce G230M en GeForce G240M
Deze kaarten zijn de directe opvolgers van de G130M, 9500M totaan 9650M en de 8600M Geforce kaarten. Technisch gezien hebben beide kaarten dezelfde unieke core namelijk de GT216 welke op het nieuwe 40nm proces wordt gefabriceerd en ondersteunen dezelfde eigenschappen als de G210M buiten de volgende eigenschappen:
GeForceBoost technologie lijkt niet aanwezig te zijn
Powermize Intelligent Power Management wordt ook niet vermeld als feature
NVIDIA® CUDA™ is a general purpose parallel computing architecture that leverages the parallel compute engine in NVIDIA graphics processing units (GPUs) to solve many complex computational problems in a fraction of the time required on a CPU. It includes the CUDA Instruction Set Architecture (ISA) and the parallel compute engine in the GPU. To program to the CUDATM architecture, developers can, today, use C, one of the most widely used high-level programming languages, which can then be run at great performance on a CUDATM enabled processor. Other languages will be supported in the future, including FORTRAN and C++.
Basically komt her opneer dat CUDA een programmeertaal is die ervoor zorgt dat de minder krachtige, maar vele shader processoren ter beschikking komen van de programmeur.
Deze cpu's zijn veel minder krachtig dan een gewone desktop CPU maar maken dit ruimschoots goed door hun aantal. In feite is een gpu krachtiger dan een cpu maar het is veel moeilijker hiervoor te programmeren daar 1 bewerking veel langer zal duren, maar je verschillende bewerkingen tegelijkertijd kan doen.
Je zal dus je programma code zo moeten schrijven dat zoveel mogelijk taken parallel kunnen worden uitgevoerd. CUDA is dus vooral voordelig voor parallelliseerbare taken die veel berekeningen eisen, we denken aan wetenschappelijk onderzoek of aan renderen van beelden.
CUDA zal je helpen bij het programmeren door een high-level C-achtige taal ter beschikking te stellen waardoor de programmeur het een stuk eenvoudiger heeft om al deze kleine processortjes zo optimaal mogelijk te gebruiken.
Hybrid power SLI
Wat heb je nodig?
1. een Hybrid power compatibel Moederbord.
Let op een goed moederbord is heel moeilijk te vinden doordat je dus een recente chipset met een igp nodig hebt MAAR deze moet ook nog video uitgangen hebben op het moederbord zelf.
Vele moederbord fabrikanten maken wel reclame dat het moederbord hybrid-sli compatibel is indien er geen video uitgang aanwezig is op het moederbord is deze techniek zo goed als nutteloos.
Indien je meer dan 1 scherm wil aansluiten zal je zelfs moeten uitkijken naar moederborden die dus 2 video uitgangen hebben.
Ikzelf ben bij de Asus M3N78 als enige mogelijkheid terecht gekomen die vindbaar is in nederland( niet gevonden in belgie). Héél recentelijk is er ook nog de mogelijkheid van M4N78 Pro erbij gekomen. Waarom deze moederborden ipv een paar anderen?
Simpele deze zijn de enige moederborden die zowel een GeForce 8200 of GeForce 8300 als chipset hebben en meer dan 1 video uitgang hebben waardoor een je dual screen setup kan draaien. Dit lijkt misschien triviaal maar als je hybrid sli wil draaien moeten al je schermen op je moederbord worden aangesloten waardoor als je maar 1 video uitgang hebt je simpel weg beperkt bent tot 1 scherm. let op:
Hybrid Sli support nu (mits goede drivers) multi screens maar met een maximum van
2 schermen een 3de scherm op je dGPU aansluiten disable je Hybrid Sli.
2. Gebruik momenteel nooit de sleep modus van windows Vista .. Om 1 of andere manier kan deze sowieso niet goed overweg met Hybrid sli (een kaart die er is maar niet zichtbaar is wanneer je terugkomt uit sleepmodus is blijkbaar niet leuk voor Vista.). Maar erger dit zal veroorzaken dat je dGPU weer tot leven komt maar constant in 3D modus zal blijven waardoor je dus meer zal verbruiken dan dat je Hybrid SLI zou disablen en je simpel weg op je dGPU zou werken!
Het vermoeden bestaat dat nVidia hier niet zoveel kan tegen doen doordat het het powermanagement van Vista is die eigenlijk een (of meerdere) fout maakt.
2. Een Hybrid sli compatibele grafische kaart
AGAIN heel goed opletten, bv een 9800GT kaart ondersteunt dit theoretisch, praktisch bijna niet doordat er vele oude 8800GT gerebrand zijn naar een 9800GT (de oude 8800GT's ondersteunen dit dus niet!)
Ook de GTX265 en de GTX285 ondersteunen dit niet.
DUs wil je hybrid gaan, checkt niet enkel de nvidia site of uw kaart compatibel is maar check dit in de gedetailleerde specificaties van uw specifieke grafische kaart (zelfs sommige fabrikanten zijn hier heel zuinig mee .. bv zeggen dat al hun 9800 kaarten dit ondersteunen maar in werkelijkheid een hele hoop revisies zijn die dit niet doen ..)
3. Praktisch gezien momenteel een AMD cpu doordat je geen enkele chipset hebt die hybrid power sli ondersteunt die een intel cpu aanvaard
Hoe werkt het?
Simpel weg de monitors aansluiten op uw moederbord gpu (vandaar dus de noodzaak dat uw igp videouitgangen ter beschikking moet hebben ...)
En dan in het bios kruipen om een paar settings aan te passen.
Daarna zal je manueel power saving of performantie optie hebben rechts onder in de task bar.
Om van mode te kunnen switchen mag geen enkel 3D programma open staan. Dus eerst van mode veranderen dan pas het spel opstarten
Het taskbar icoontje zal veranderen adhv je mode zodoende kan je in 1 blik direct zien in welje mode je Grafische kaart zich bevindt.
nVidia blijkft voorlopig Physx en cuda supporten ondanks harde concurrentie en het feit dat het gebruik van Physx in games nog steeds niet algemeen is.
Dat Physx wel degelijk een positief effect kunnen hebben toont volgende grafiek mooi aan (UT3 map dat speciaal ontwikkeld is voor Physx )
Nieuwe Informatieve gegevens dankzij de release van de GTX275 kaart waarbij nVidia maar bleef hameren op de PhysX, CUDA en AO voordelen.
• Anandtech Games:
Sacred 2:
• Tom's Hardware
• AnandTech
Warmonger:
• AnandTech
UT3 PhysX Mod Pack:
• AnandTech
Mirror's Edge:
• AnandTech
Batman Arkham:(finally a good game ? )
• Onze eigen Tweakers FP
How To: Dedicated PhysX kaart
Om een grafische kaart als dedicated PhysX kaart te gebruiken moet je hem enkel als een multi gpu installeren. Maw in een tweede pci-e slot steken en een recente driver gebruiken.
Je hebt maar 1 (recente) driver nodig om dan beide kaarten te gebruiken in combinatie met elkaar. Je zal deze driver echter achter het plaatsten van je tweede grafische kaart opnieuw moeten installeren . Dit is nodig om je driver je tweede kaart te laten herkennen. Eenmaal de driver opnieuw geinstalleerd is, is er een optie in het driver menu om deze kaart dan te enkel te laten werken voor het PshyX werk.
quote: Driver release notes
Supports control of your GPU PhysX configuration from the NVIDIA display driver control panel.
Let op dit is geen SLI maar een "simpele" multi-gpu installatie, zoals je vroeger deed om meer dan 2 schermen aan te sturen bv. Hierdoor kan je elke GeForce kaart van de 8, 9 en GT200 reeks gebruiken als dedicated PhysX kaart in combinatie met je zwaardere grafische kaart. Je bent dus niet beperkt tot 2 dezelfde grafische kaarten zoals bij SLI.
Een tweede opmerking die moet gemaakt worden is dat je best toch niet een al te lichte kaart neemt. Om het grofweg te zeggen je steekt deze kaart bij om je pc te voorzien van extra shaders die dan het PhysX werk zullen doen, een 8400 met 16 trage shaders zal hierdoor te zwak uitvallen voor wat je wil bereiken( een 9400 wellicht ook, deze shaders zijn weliswaar sneller maar nog steeds beperkt tot 16). Je gaat juist deze 2de kaart installeren omdat je vindt dat de PshyX teveel shader power gebruikt van je main-kaart waardoor je fps teveel daalt.
Aan de andere kant is het ook redelijk zinloos om een te zware kaart hiervoor in te zetten. Tot nu toe heeft men ervaren dat een 9600GT het meeste opbrengt. Een zwaarder kaart zal niet meer bijdragen tot je PhysX ervaring en enkel maar meer shaders hebben die niets zitten te doen (maar wel energie zitten te verslinden). Let wel! Tot nu toe, dit kan veranderen in de toekomst!!
De algeme consensus is dus dat je het beste een 8600/9600 bijprikt wanneer je een kaart wil bijkopen, indien je bv een 8800 al liggen hebt is dit natuurlijk ook ideaal en mss beter naar de toekomst toe.
*update 7 oktober 2009*
Nog steeds is een 8600Gt kaart voldoende maar wel het minimum volgens nVidia zelf!
Onder Windows XP zijn er hiervoor geen beperkingen maar Vista heeft deze wel:
One limitation of this mode under Vista is that a second monitor must be attached to run PhysX on the secondary GPU, and you must extend the Vista desktop onto this secondary monitor. According to NVIDIA this limitation is related to the Windows Vista display driver model (WDDM). However, the same limitation does not exist in Windows XP.
Dit kan je oplossen door:
If you don’t have a second monitor available, you can also run a second display cable from your monitor to the second GeForce card running PhysX.
Met een beetje geluk heeft uw monitor zowel een dvi als een vga ingang
Je zou zeggen, pff al die beperkingen onder Vista ik gebruik XP wel... denk eraan de driver support voor Vista is momenteel veel beter dan voor XP zowel qua performantie als qua hardwarre support voor deze nieuwe technieken. Een ander mooi voorbeeld hiervan is Hybrid sli, dit wordt ook enkel maar onder VIsta ondersteunt.
Een andere reden om naar vista gaan is de Systeem Ram waar een aardig stukje zal van afgepitst worden door je high-end kaart(en) die je gebruikt in combinatie met je dedicated PhysX kaart waardoor je toch naar een 64-bit OS zal grijpen.
Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum
**Edit 15~16/10
Afsplitsen PureVideo gedeelte naar het Mediaspelers en HTPC subfora (tegelijkertijd dit onderdeel eens een beetje upgedate/afgewerkt en Tegra toegevoegd in dit nieuwe TS)
**Edit 14/10
Update van de twee nieuwe 40nm kaarten.
TODO:
Mobiele laptop:: dringend wijzigingen nodig
Vermelding van ION
Geruchten rond de GT300 <<exacte specificaties??
Informatie van de GT200 dringend updaten ;p
[Voor 31% gewijzigd door lightdestroyer op 16-10-2009 01:34]
Ik heb eerlijk gezegd niet veel vertrouwen in de GT300. Ik denk niet dat hij de HD58xx weg blaast. Hij zal vast wel sneller zijn. Maar met weg blazen hebben we het over 40+% hogere performance. Daar naast verwacht ik dat die kaart 450+ euro moet gaan kosten als je ziet dat een HD5870 die veel goedkoper te maken is nu al +-330 kost.
Dus ik wil eerst wel eens wat dingen van die kaart zien voordat ik dit soort conclusies ga trekken. Mja het is en blijft FUD he.....
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Zal vast wel een dual kaart van komen, van de GTX365 dan, waarschijnlijk niet van de GTX385. Of Asus moet het weer nodig vinden om een te dure en te slechte kaart te maken (hitte uitval)
Ik heb eerlijk gezegd niet veel vertrouwen in de GT300. Ik denk niet dat hij de HD58xx weg blaast. Hij zal vast wel sneller zijn. Maar met weg blazen hebben we het over 40+% hogere performance. Daar naast verwacht ik dat die kaart 450+ euro moet gaan kosten als je ziet dat een HD5870 die veel goedkoper te maken is nu al +-330 kost.
Zal vast wel een dual kaart van komen, van de GTX365 dan, waarschijnlijk niet van de GTX385. Of Asus moet het weer nodig vinden om een te dure en te slechte kaart te maken (hitte uitval)
Tja ik wil het nog niet eens over een dual versie hebben aangezien de single versie nog nergens te bekennen is. Ik verwacht dat die nog wel even kan gaan duren.
AMD zal wel over een of twee maanden met hun Hemlock dual HD5870 komen. Die zal een GT300 Single kaart wel kunnen verslaan. Afhankelijk van de warmte productie van de single GT300 kunnen we een inschatting maken wat een dual zou gaan doen. Maar ik vermoed wel dat die de HD5870 X2 zal gaan verslaan. Maar dan is de vraag wat gaan beide kaarten kosten ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Lol.. Ik heb net de review op Hardware.info gelezen over de GT220. Wat een flutkaart, hij wordt op alle vlakken verslagen door de 4670. Ik kan me echt niet voorstellen dat je als systeembouwer zoiets in je systeem wilt verkopen.
AMD zal wel over een of twee maanden met hun Hemlock dual HD5870 komen. Die zal een GT300 Single kaart wel kunnen verslaan. Afhankelijk van de warmte productie van de single GT300 kunnen we een inschatting maken wat een dual zou gaan doen. Maar ik vermoed wel dat die de HD5870 X2 zal gaan verslaan. Maar dan is de vraag wat gaan beide kaarten kosten ?
Tsja.. wat kost destijds de 4870x2 bij release, de prijzen zullen wel richting de € 600,- gaan ben ik bang.
Verder ben ik het ook eens met de opmerking dat Nvidia het zwaar krijgt om de prijs/kwaliteit van de huidige ati's te beconcureren...
Ik heb eerlijk gezegd niet veel vertrouwen in de GT300. Ik denk niet dat hij de HD58xx weg blaast. Hij zal vast wel sneller zijn. Maar met weg blazen hebben we het over 40+% hogere performance. Daar naast verwacht ik dat die kaart 450+ euro moet gaan kosten als je ziet dat een HD5870 die veel goedkoper te maken is nu al +-330 kost.
Dus ik wil eerst wel eens wat dingen van die kaart zien voordat ik dit soort conclusies ga trekken. Mja het is en blijft FUD he.....
Persoonlijk denk ik ook dat FUD aan het overdrijven is. Waarschijnlijk wordt het (imho) gewoon weer dezelfde situatie als met de HD4xxx en GT2xx, namelijk de Nvidia kaarten iets sneller, maar daarom ook iets duurder.
Nvidia and its partners believe that Fermi should destroy Radeon HD 5870 and HD 5850 sales, but this is only after it starts shipping.
Het is vooral die zin in het Fudzilla artikel waar het chauvinisme, de marketing en de partijdigheid van Fudzilla vanaf druipen.
Ten eerste moeten er nog steeds benchmarks getoond worden van Fermi. Tot die tijd is het heel erg moeilijk te stellen hoe deze kaart zich verhoudt ten opzichte van de HD5870. Evenmin onbelangrijk zou nVidia er goed aan doen om een werkelijk exemplaar van de GT300 te tonen, als fabrieks-klaar verkoopbaar product. Evenmin onbelangrijk is dat ze eerst maar eens kaarten het retailkanaal in moeten krijgen in fatsoenlijke aantallen. Of sterker, eerst moet de kaart in zijn geheel beschikbaar komen.
Daarnaast, superlatieven als 'destroy' zijn sowieso komisch. Als een HD5870 straks 250 euro kost en een GTX380 kost 450+ euro voor ~20-30% extra performance, dan weet ik wel zeker dat er genoeg mensen zijn die wel een HD5870 willen kopen.
Er staat duidelijk nVidia en zijn partners geloven dat ....
Ten tweede is het hier niet de bedoeling om bepaalde sites af te breken/op te hemelen maar nVidia nieuws te bespreken, om eerlijk te zijn ben ik het kotsbeu om 20 topic pagina's vol te lezen met mensen die kritiek hebben tegen bepaalde websites.
In het Ati topic wordt toch ook niet constant om per 5 post gezaagd hoe bevoordeeld Charly wel niet is in zijn woordkeuze wanneer hij nieuws schrijft?
Het bespreken van nieuws over Ati kaarten en hoe goed ze zijn tegenover nog een onbekende, nog te lanceren kaart doe je maar in het Ati topic, daarvoor dient het ook. (Waar men je naar alle wss zal doorverwijzen naar het ervaringstopic omdat het daar ook niet gewenst is)
Neem dit niet al te persoonlijk op, dit geld zeker niet voor jouw alleen, .. maar er zijn genoeg waarschuwingen/modbreaks geweest...
Er is meer dan genoeg nieuws over nVidia te vinden tegenwoordig dat men niet constant totaal off-topic moet bezig zijn.
Als voorbeeld heb ik amper nieuws zien passeren over de twee nieuwe kaarten die gelanceerd zijn door nVidia behalve een hoop posts die als doelstelling hadden gelijk aan te tonen hoe zwak deze wel niet zijn ...(yeah low end kaarten hebben de neiging die eigenschap te hebben ...)
Indien men toch zo graag deze posts wil maken, stel ik voor een "[Algemeen] nVidia Bashing" of [Algemeen] Hoe ervaar ik de evilness van nVidia" topic aan te maken waar iedereen zich naar hartelust kan uitleven en het hier weer rustiger wordt.
(Indien iemand dit serieus wil overwegen wil ik zelf helpen met de topic layout .. hoewel mijn TS niet echt een goed voorbeeld is )
Dat de mods niets doen tegen al dat fanboy geneuzel? Hoe kan je in hemelsnaam volhouden dat FUD een nvidia propaganda site is als ze al sinds de launch van de DX11 kaarten van ATI hallelujah roepen over die dingen?
Vandaag zijn ze weer lyrisch over geteste 5750 en 5770 kaarten zelfs. Iets té lyrisch misschien zelfs.
Tsja.. wat kost destijds de 4870x2 bij release, de prijzen zullen wel richting de € 600,- gaan ben ik bang.
Verder ben ik het ook eens met de opmerking dat Nvidia het zwaar krijgt om de prijs/kwaliteit van de huidige ati's te beconcureren...
Als je maar de absolute performance kroon hebt kom je een heel eind, de meeste mensen zal het worst wezen of ze een honderdje meer betalen als ze dan het beste van het beste hebben.
Ik zet hierbij even een bedenking neer: van ATI wordt gezegd dat ze met veel minder transistoren dezelfde prestaties weten neer te zetten, als het gaat om de vergelijking tussen de gt200 en de rv770. Het is waar dat nVidia massa's meer transistoren in z'n chips heeft gebouwd dan ATI, en dat ze desondanks toch ongeveer gelijk zitten qua prestaties.
Daartegenover staat echter dat nVidia, ondanks zijn veel hogere aantal transistoren, qua verbruik eveneens rond het niveau van dat van ATI zit. Dat wil dus zeggen dat de performance/watt ratio ongeveer gelijk is, en dat de performance per transistor ratio veel lager is dan bij ATI, maar dat de transistor/watt ratio veel hoger is dan bij ATI. Waarbij ik eigenlijk uitkom op mijn bedenking: volgens mij wordt een groot deel van de nVidia chip niet gebruikt bij het normale gamen. Is dat mogelijk? Dat ze zoveel extra transistoren hebben ingebouwd, voor bijvoorbeeld CUDA functionaliteit? Want dat is ook een van de punten die wordt aangehaald nu, bij het speculeren over het ontwerp van de fermi-chip.
Klopt bij de gt200 chip wordt maar een heel klein deel van de chip daad werkelijk gebruikt voor gaming halve chip of meer zit gewoon uit zn neus te vreten..
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
GT200 is gemaakt voor CUDA, da's een allang bekend feit en een piétsje onhandig geweest. Wat betreft performance/watt vind ik ATi toch iets de overhand hebben. In de ruststand komt nV prima mee omdat het de NVIO-chip heeft die 2D-zaken afhandelt en waardoor de meest stroomverbruikende chipdelen uitgaan. Onder load moet alles echter aan en schiet het verbruik omhoog. Ga maar na, onder load is nV een stukje minder zuinig dan ATi, afhankelijk van het model. Niet dat ATi-kaarten zo ongelofelijk zuinig zijn trouwens
Weer een interessant gerucht (voor zover dat niet bekend was hier): er gaan geruchten dat Nintendo ergens in 2010 met een gloednieuwe Nintendo DS (opvolger?) komt die voorzien zal worden van Nvidia's Tegra SOC.
mindcrash schreef op woensdag 14 oktober 2009 @ 21:45:
Weer een interessant gerucht (voor zover dat niet bekend was hier): er gaan geruchten dat Nintendo ergens in 2010 met een gloednieuwe Nintendo DS (opvolger?) komt die voorzien zal worden van Nvidia's Tegra SOC.
nVidia zet zwaar in op hun tegra platform. nVidia zelf (of beter de pr afdeling) verklaart dat ze enkel producten fabriceren die een extra meerwaarde kunnen bieden. Maw nVidia ziet weinig toekomst meer in igp chipsets (oa omdat ze bij Intel in een juridisch dispuut zijn en ook de onderhandelingen met AMD verlopen als de geruchten juist zijn alles behalve vlot, ook biedt de nVidia chipsets totaal geen meerwaare tegenover de standaard intel/AMD chipsets dus waarom zou men deze willen kopen als eindgebruiker? )
maar zet voluit in op platforms zoals ion en tegra. Nudat Ion in de toekomst beperkt zal worden tot via chips-only gokt nVidia dus voluit op de Tegra die oa al zal gebruikt worden in de Zune.
• Nvidia: Tegra Puts 8 Processors Inside Zune HD
Let ook op het feit dat in deze press release van nVidia vermeld wordt dat ze toen 50 lopende projecten hadden waarin Tegra zou worden gebruikt.
Verschillende sources claimen dat indien deze zet succesvol is, dit voor nVidia zelf meer winst kan opleveren dan hun chipset afdeling ooit gedaan heeft. Natuurlijk indien het tegra platform door vele fabrikanten wordt in gebruik genomen ( daarin verwees men steeds naar smart phones, maar een hand held console op het Tegra platform past imo perfect in het nVidia verkoop plaatje..)
In ieder geval is de potentiele markt voor de Tegra in theorie enorm groot en heeft ze tot nu toe geen enkele concurrentie ( het Tegra platform gebruikt ARM cpu's, dus het is een extra meerwaarde tegenover ARM's en zeker geen concurrent)
**Edit**
Ik ben blijkbaar vergeten de volgende berichten in mijn TS op te nemen (was het wel van plan).
Waarschijnlijk zijn deze berichten al gepasseerd in dit topic...
• NVIDIA's Road Ahead: Ion, Tegra and The Future of The Company
• Nvidia demos Tegra running Android
• Nvidia Working on Chrome OS Tegra Devices
Ik had nog ergens anders een artikel gevonden over de toekomst plannen van nVidia met het Tegra platform maar ik vind deze niet direct ..
Vooral de laatste 2 artikels zijn intressant, indien nVidia android/Chrome OS succesvol kan porten naar het Tegra platform is er geen enkele beperking meer om dit platform heel gemakkelijk voor smartphones te introduceren.
En op lange termijn heeft nVidia dan geen x86 licentie meer nodig indien er genoeg pc's/laptops verkocht geraken met Chrome OS als primair besturingssysteem en een tegra chip als cpu+gpu combinatie.
Het zou direct ook ARM zijn probleem oplossen dat windows tot nu toe weigerde hun cpu's te ondersteunen.
Dit allemaal in het geval dat android/Chrome OS een succes worden natuurlijk.
[Voor 30% gewijzigd door lightdestroyer op 14-10-2009 22:28]
Daartegenover staat echter dat nVidia, ondanks zijn veel hogere aantal transistoren, qua verbruik eveneens rond het niveau van dat van ATI zit. Dat wil dus zeggen dat de performance/watt ratio ongeveer gelijk is, en dat de performance per transistor ratio veel lager is dan bij ATI, maar dat de transistor/watt ratio veel hoger is dan bij ATI. Waarbij ik eigenlijk uitkom op mijn bedenking: volgens mij wordt een groot deel van de nVidia chip niet gebruikt bij het normale gamen. Is dat mogelijk? Dat ze zoveel extra transistoren hebben ingebouwd, voor bijvoorbeeld CUDA functionaliteit? Want dat is ook een van de punten die wordt aangehaald nu, bij het speculeren over het ontwerp van de fermi-chip.
Het verbaast me dat jij dit niet weet. Het is al sinds de introductie van de GT200 bekend dat de chip gericht is op GPGPU en CUDA etc.
Maw nVidia ziet weinig toekomst meer in igp chipsets (oa omdat ze bij Intel in een juridisch dispuut zijn en ook de onderhandelingen met AMD verlopen als de geruchten juist zijn alles behalve vlot, ook biedt de nVidia chipsets totaal geen meerwaare tegenover de standaard intel/AMD chipsets dus waarom zou men deze willen kopen als eindgebruiker? )
IGP gaat volledig verdwijnen, Intel en AMD gaan de graphics naar de CPU verhuizen. Intel met Clarkdale, AMD met Fusion. Lynnfield heeft zelf de PCIe controller in de CPU zitten. Zo is P55 geen chipset meer maar slechts één chip.
Ik denk dat het goed is voor nvidia om success te hebben met de tegra gezien hun huidige videokaart situatie.
Als de performance van de gt300(dus wat de gtx380 zou worden) dat is nvidia qwa gpu misschien wel gered. Niet dat ze falliet zouden gaan maar dan is hun komende generatie geen verloren hoop maar ik geloof die plaatje niet.
Naluh! schreef op woensdag 14 oktober 2009 @ 18:41:
Dat de mods niets doen tegen al dat fanboy geneuzel? Hoe kan je in hemelsnaam volhouden dat FUD een nvidia propaganda site is als ze al sinds de launch van de DX11 kaarten van ATI hallelujah roepen over die dingen?
Als je iets tegenkomt dat je niet aanstaat, maak gewoon een TR aan. Snellopende grote topics als deze zijn voor ons erg lastig om continu bij te houden. We hebben al wat meer modforce rondlopen, maar in de regel gaan we eerder af op topicreports dan dat we alle grote topics door kunnen gaan spitten.
mindcrash schreef op woensdag 14 oktober 2009 @ 21:45:
Weer een interessant gerucht (voor zover dat niet bekend was hier): er gaan geruchten dat Nintendo ergens in 2010 met een gloednieuwe Nintendo DS (opvolger?) komt die voorzien zal worden van Nvidia's Tegra SOC.
There really isn't anything new with Theo's leak; you'll find more info on this forum when me and/or Ailuros hint about it, really... And his speculation doesn't make any sense anyway.
As I said before, it's nearly certainly a 40nm *custom* SoC based on Tegra2 IP (DX9-level like Tegra1) and a single Cortex-A9 with FPU. Tegra1 has 2 TMUs, Tegra2 probably has 4 TMUs. It'd be a relatively safe bet to assume they're going to stick to that, but who knows. I also have no clue about what kind of multimedia system Nintendo might have asked for.
Nintendo T(egra ) S
- Nvidia Tegra2 (Custom design, DirectX9, 40nm, 4 TMU's)
- ARM Cortex-A9 600mhz
- Build-in Camera
- Touch Screen
- Backwards compatible met DS/DSi
Software getoond achter gesloten deuren op GamesCom: Pikmin, Metroid, Nintendogs, Brain Training, Mario Kart(naar verluid net zo mooi als Mario Kart Wii/Double Dash)
Nintendo heeft daarnaast honderden miljoenen meer aan R&D gespendeerd dan normaal en er staan haast geen DS games meer op het programma na Q2 2010. Een launch aan het einde van volgend jaar sluit ik dus zeker niet uit.
Nintendo T(egra ) S
- Nvidia Tegra2 (Custom design, DirectX9, 40nm, 4 TMU's)
- ARM Cortex-A9 600mhz
- Build-in Camera
- Touch Screen
- Backwards compatible met DS/DSi
Software getoond achter gesloten deuren op GamesCom: Pikmin, Metroid, Nintendogs, Brain Training, Mario Kart(naar verluid net zo mooi als Mario Kart Wii/Double Dash)
Nintendo heeft daarnaast honderden miljoenen meer aan R&D gespendeerd dan normaal en er staan haast geen DS games meer op het programma na Q2 2010. Een launch aan het einde van volgend jaar sluit ik dus zeker niet uit.
[/quote]
Ik ben wel heel benieuwd wat voor kaart dit gaat zijn. Met zo'n aankondiging lijkt het me niet zomaar een low-end kaartje. Iemand een idee?
edit: Het zou natuurlijk een GT200 op 40nm met 256 bit, GDDR5 en DX10.1. Deze technieken heeft nVidia ondertussen allemaal al eens toegepast op low-end kaartjes, dus zeker niet onmogelijk. Dat zou helemaal geen verkeerd kaartje zijn en ook verklaren waarom de GTX285, GTX275 en GTX260 langzamerhand van de markt verdwijnen. Mooie overbrugging tot Fermi en na die release leuk voor mid-end.
[Voor 58% gewijzigd door Depep op 21-10-2009 22:23]
Het kan natuurlijk ook een paper release van de GT300 zijn Bij Halloween zijn er dan 10 kaarten beschikbaar over de hele wereld en dan zou hij beter beschikbaar moeten zijn in Q1
edit: Het zou natuurlijk een GT200 op 40nm met 256 bit, GDDR5 en DX10.1. Deze technieken heeft nVidia ondertussen allemaal al eens toegepast op low-end kaartjes, dus zeker niet onmogelijk. Dat zou helemaal geen verkeerd kaartje zijn en ook verklaren waarom de GTX285, GTX275 en GTX260 langzamerhand van de markt verdwijnen. Mooie overbrugging tot Fermi en na die release leuk voor mid-end.
Wat je hier omschrijft zou dus feitenlijk de GT212 zijn. DX10.1, 40nm, GDDR5 en een 256-bit geheugenbus waren allemaal onderdeel van die chip. Uitgaande van een uitlating van Neliz een topic of wat terug en het gebrek aan nieuws over Fermi, zou het haast nog zo kunnen zijn ook. Ik zou me alleen afvragen of nVidia nu nog wel een GT212 zou willen uitbrengen, maar ze zullen sowieso met een kaart moeten komen voor de feestdagen.
KiLLaHeRTz schreef op woensdag 21 oktober 2009 @ 22:41:
Het kan natuurlijk ook een paper release van de GT300 zijn Bij Halloween zijn er dan 10 kaarten beschikbaar over de hele wereld en dan zou hij beter beschikbaar moeten zijn in Q1
In de aankondiging werd al gemeld dat het niet om een kaart ging gebasseerd op de Fermi-chip, dus die launch zal het nog niet zijn.
[Voor 17% gewijzigd door dahakon op 21-10-2009 22:45]
dahakon schreef op woensdag 21 oktober 2009 @ 22:44:
Uitgaande van een uitlating van Neliz een topic of wat terug en het gebrek aan nieuws over Fermi, zou het haast nog zo kunnen zijn ook. Ik zou me alleen afvragen of nVidia nu nog wel een GT212 zou willen uitbrengen, maar ze zullen sowieso met een kaart moeten komen voor de feestdagen.
Dat zou een kwartaal geleden al gebeurd moeten zijn.. en gaat niet meer gebeuren ook.
Op achitektuurgebied lijkt mij dit de grooste onzin. Dit zou je dan moeten zien in Shader spects. This SM4.0.
De shaders lijken mij vanaf G80 tot G200b hetzelfde. Tenzij mij iemand de spects verschillen kan aantonen.
Tenzij je bedoeld dat de shader vs RopTMU verhouding vergroot is in voordeel van shaders. Maar 3D renderen wordt ook meer shader heavy.
Of dat nV hun G80 afgeleide meer als GPGPU ding marketeerd. g80 tech in G200 bombaderen als iets cuda GPGPU specifiek.
Voor de nieuwe DX10.1 GPU moeten ze aan de shader architektuur sleutelen om SM4.1 er in te pleuren.
en daarmee kansen om de architektuur GPGPU gericht te maken. Dus van die nieuwe DX10.1 van nV zou jed at kunnen verwachten.
Fermi met SM5.0 maar ook c++ support lijkt mij duidelijk veel meer op GPGPU gericht.
Cuda is een C taalt dat door nV ownership en exclusiviteit alleen Binaries mag genereren voor nV shaders.
We gaan de Watcom en MS en intel C(++) plugin compilers ook niet verafgoden. Dus zo bijzonder is dit ook weer niet.
Cuda is dus een C taaltje compiler dat samenwerkt met de driver en wat libs en tools waar nV aardig wat werk in gestopd heeft. Plus een leger uitleen Cuda code kloppers om het nog veel harder de markt in te pushen.
Om tegen de vraag naar standaarden keihard in te gaan, wat geen kleine opgave is. En daar dus ook zwaar in te investeren.
Ik zie Fermi als een GPU die kwa architektuur die daadwerkelijk meer gericht is op GPGPU.
Door extra GPGPU features en eigenlijk CPU features zoals caches en C++ support.
Maar ook extra veel van die shader dingen.
Leuk, maar wie zit daar nu op te wachten... de echte Nvidia fan heeft al lang een GTX275 gecombineerd met een GTS250 op een SLI moederbord, of zit te wachten op Fermi, en ik denk dat dit nog maar eens aantoont dat die laatste nog lang niet klaar is...
[Voor 3% gewijzigd door Anoniem: 263719 op 22-10-2009 09:48]
Ik vraag me toch af of een GTX285 niet sneller is dan die GTX275+GTS250. In games zonder physx natuurlijk al helemaal, maar ik in games mèt physx is dat vaak niet heel zwaar en vandaar dat de extra rekenkracht van de GTX285 (t.o.v. de GTX275) die extra physx misschien al kan opvangen. Maar ik ben benieuwd naar de benchmarks.
(of kan een physx-kaart nog voor meer dingen gebruikt worden dan alleen physx? Een soort hybrid-Sli-achtig iets zou voor deze kaart leuker zijn)
Heeft geen speciale krachten en is daar erg boos over.
bwerg schreef op donderdag 22 oktober 2009 @ 09:56:
Ik vraag me toch af of een GTX285 niet sneller is dan die GTX275+GTS250. In games zonder physx natuurlijk al helemaal, maar ik in games mèt physx is dat vaak niet heel zwaar en vandaar dat de extra rekenkracht van de GTX285 (t.o.v. de GTX275) die extra physx misschien al kan opvangen. Maar ik ben benieuwd naar de benchmarks.
(of kan een physx-kaart nog voor meer dingen gebruikt worden dan alleen physx? Een soort hybrid-Sli-achtig iets zou voor deze kaart leuker zijn)
Als je met een GTX285 "echte" PhysX games speelt op 19x12 of 25x26 met AF en AA zie je al snel een framerate verlies van 40 tot 50 procent, dit was al zo in Mirror's Edge en ook in Batman, de huidige implementatie van GPU PhysX vreet kracht van je GPU.
Deze "dedicated" opstelling (SLI PhysX) zal stukken sneller zijn.
[afbeelding]
Iets anders kan ik mij niet bedenken eigenlijk.
[...]
Te vroeg anders hadden ze de vorige keer niet zo'n stuk plastic (Fermi) laten zien.
128 bits bus? Dan kan hij toch nooit concurreren met de 58xx serie? Ook al hebben ze GDDR5 in gebruik genomen, dat draait ook nog 'maar' op 3600 Mhz, klikt eerder als een concurrent voor de 57xx serie.
Nog een leuk stukje voor de linux gebruikers onder ons, een nvidia linux developer over de staat/support voor linux drivers .
Op anandtech ook een blog over het feit dat nvidia de eerste is die opencl enabled drivers aan iedereen aanbied + een kleine recap over de staat van opencl.
nvidia? met "Our $129 card competes with AMD's top of the line model in the latest games such as Batman: Arkham Asylum."
Dat heet "in je eigen mes lopen"
Ik gok erop dat er binnenkort wat ATi slides verschijnen met een boodschap over "PhysX" en "cheating" en wat slides over de laatste games zonder een bepaalde implementatie van PhysX. Dit is natuurlijk vragen om problemen.
Damn wat een boel anti nv boy's hier weer om dood ziek van te worden. Jammer hoor dat het nog steeds zo is op tweakers ik had het wel wat pro verwacht ipv bashen en bashen en zeuren als een oud wijf alsof je er zelf last van hebt.
Of ga anders trug na het ati hok want het zijn voornamelijk pro ati volk.
Hier word iedereen telkens helemaal flauw van.
Niet meteen zo hakken Lup, prettig wakker worden is anders.
Dit is een realistisch beeld over een logische reactie die ATi zou kunnen geven. Met dit soort quotes vraag je erom om de marketingmachines weer op te starten. Hierbij laat ik even in het midden of nVidia of ATi nu gelijk heeft over de bescherming van PhysX / CUDA (zie Rutger Mulder in "[nieuws] Nvidia en de toekomst" ) maar het gaat gedonder in de PR-glazen geven, dat is een ding wat zeker is.
Informatief linkje trouwens, bevestigt het beeld wat velen hebben. Jammer alleen dat ze niet vermelden welke drivers er gebruikt zijn (van ATi én nVidia vanwege de combinatieblokkade), de oude of nieuwe met hack?
Klopt ik vraag mij nu ok erg af welke drivers hier voor werden gebruikt en of ze ook nog een gemod zijn of zo iets. lijkt mij namelijk van wel dat laatste
spNk schreef op donderdag 22 oktober 2009 @ 12:09:
Wel vaag dat de ATi kaart soms nog minder minimale fps haalt dan de GT220... volgens mij was dat systeem meer aan het doen dan alleen benchmarken.
Of misschien had Nvidia wel gelijk dat hun low budget kaart de top line van ATI kon bijhouden met Physx.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Of misschien moet er gekeken worden naar de CPU usage wanneer PhysX op de CPU gedaan wordt in vergelijking tot wanneer PhysX op de GPU gedaan wordt. Dat kan ook best interessante resultaten geven...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Tja als de cpu zich dood werkt aan physics dan zal je inderdaad een extreme CPU bottleneck hebben. Als je ze naast elkaar zet, gaan de framerates wel behoorlijk netjes omhoog en kan de 5870 ook wat doen behalve alleen maar te zitten wachten op de professor.
Een aparte manier om dit bij de gamer te brengen (Onze budget kaart is sneller i.p.v. Bij physics over de CPU is de bottleneck zo hard dat ons kaartje de games nog beter kan draaien dan de top ATi kaart), maar als de rest van het systeem je bottleneck is, dan zullen de frames niet hoog gaan.
Dit valt me wel heel erg tegen, ik had op z'n minst een nieuwe GPU verwacht. Deze kaart is net zoiets als die kaart met 3 GPUs die ASUS ooit uitbracht, leuk dat het kan, maar niet echt interessant om daadwerkelijk te gebruiken.
Paprika schreef op donderdag 22 oktober 2009 @ 12:28:
Tja als de cpu zich dood werkt aan physics dan zal je inderdaad een extreme CPU bottleneck hebben. Als je ze naast elkaar zet, gaan de framerates wel behoorlijk netjes omhoog en kan de 5870 ook wat doen behalve alleen maar te zitten wachten op de profcessor.
Ik denk dat CJ er meer op doelt dat Physics maar op 1 CPU core uitgevoerd wordt, terwijl het zich juist zo goed leent om parallel uit te voeren. Zo moet de videokaart inderdaad wel heel erg wachten op de CPU, terwijl dit eigenlijk niet nodig zou zijn.
offtopic: Die CPU doet geen kont tijdens "CPU Physx".
Met Batman op mijn Q6600 (i.c.m. 2900XT), op zowel 2.8Ghz, 3.2Ghz en 3.6Ghz getest; constant 30% CPU usage of lager. Dit met drops naar ~10fps ofzo, op de meest onzinnige plekken (lege kamers en gangen enzo), terwijl op drukke scenes waar menig wc-rol gesneuveld is, met overal dampige fog effecten, heb ik 40fps.
Als ze nou eens die CPU Physx thread paralleliseren, dan had ik constant boven de 30fps gezeten.
Degenen die zullen zeggen "maar je kan niet zomaar iets paralleliseren", GPU physx gebruikt >50 threads, of denk je dat alles word afgehandeld door 1 enkele shadercore?
offtopic: Die CPU doet geen kont tijdens "CPU Physx".
Met Batman op mijn Q6600 (i.c.m. 2900XT), op zowel 2.8Ghz, 3.2Ghz en 3.6Ghz getest; constant 30% CPU usage of lager. Dit met drops naar ~10fps ofzo, op de meest onzinnige plekken (lege kamers en gangen enzo), terwijl op drukke scenes waar menig wc-rol gesneuveld is, met overal dampige fog effecten, heb ik 40fps.
Als ze nou eens die CPU Physx thread paralleliseren, dan had ik constant boven de 30fps gezeten.
Degenen die zullen zeggen "maar je kan niet zomaar iets paralleliseren", GPU physx gebruikt >50 threads, of denk je dat alles word afgehandeld door 1 enkele shadercore?
Misschien hebben ze het expres niet voor multi cores gemaakt, zodat het altijd beter zal zijn op een GPU van nVidia?
Dat hoeft ook niet, misschien is het 30% op een core
Dat kan toch niet? Als hij op 30% draait op een quadcore betekent dat dat er 25% per core is, dan kan het niet dat 1 core 30% van alles voor zijn rekening neemt
Of begrijp ik je nu verkeerd?
Dat je bedoelt dat er 30% van 1core wordt gebruikt en niet 30% van de hele cpu?
offtopic: 1 Thread word 'gesplit' over m'n 4 Cores, dus alle cores lopen constant op 30% (25% van die ene thread, en 5% voor ander spul zoals audio of AI thread) te "crunchen".
Overigens, was dat (zoals neliz al een beetje zegt) het maximum cpu usage wat ik waarnam, vaak genoeg zat die CPU met 10% cpu usage uit zijn neus te eten terwijl ik naar een 10fps diashow zat te kijken.
neliz schreef op donderdag 22 oktober 2009 @ 10:21:
Als je met een GTX285 "echte" PhysX games speelt op 19x12 of 25x26 met AF en AA zie je al snel een framerate verlies van 40 tot 50 procent, dit was al zo in Mirror's Edge en ook in Batman, de huidige implementatie van GPU PhysX vreet kracht van je GPU.
Deze "dedicated" opstelling (SLI PhysX) zal stukken sneller zijn.
Als je die lijn doortrekt, dan zou je stellen dat een GTS250 minstens 40 à 50% van de kracht van een GTX285 heeft, en dat een multicore cpu, toch in het geval van batman, zo "sterk" is als de GTS250, als het gaat om het weergeven van de PhysX in batman via die hack. Klopt dat allemaal? Of is de implementatie van PhysX via GPU nog niet zo optimaal waardoor er meer kracht verloren gaat dan nodig is?
offtopic: 1 Thread word 'gesplit' over m'n 4 Cores, dus alle cores lopen constant op 30% (25% van die ene thread, en 5% voor ander spul zoals audio of AI thread) te "crunchen".
Overigens, was dat (zoals neliz al een beetje zegt) het maximum cpu usage wat ik waarnam, vaak genoeg zat die CPU met 10% cpu usage uit zijn neus te eten terwijl ik naar een 10fps diashow zat te kijken.
Gesplit? Een thread kan je niet splitten over meerdere cores. Wél kan die door de threadscheduler van het OS van de ene core naar de andere worden gebracht tussen het uitvoeren door, maar een enkele thread kan nooit op meerdere cores simultaan draaien.
Dus misschien is het interessanter als eens alle vier de cores apart in de gaten worden gehouden, dan is er geen ruimte voor speculatie zoals met die "is die 30% mooi verdeeld over alle cores, of is dat 1 core maxed out en de rest een beetje prielen?", imho toch.
En om het nu over die mogelijke cpu-bottleneck voor cpu-PhysX te hebben, als geen enkele cpu core op 100% draait tijdens zo'n slideshow moment, dan lijkt het mij dat niet de cpu de bottleneck is op zo'n moment, en dat er dus iets anders aan de hand zou moeten zijn.
[Voor 11% gewijzigd door RuddyMysterious op 23-10-2009 08:45]
Mirror''s Edge:
Een 9800GTX+ levert op 1920x1200 4xAA ~85% van de framerate van een GTX260-216 met GPU PhysX aan.
Een 9800GTX+ levert op diezelfde resolutie ~80% van de framerate van een GTX260-216 met PPU PhsyX.
Een 9800GTX+ levert op diezelfde resolutie ~80% van de framerate van een GTX260-216 als beiden een 9600GT als dedicated PhysX processor gebruiken.
en dat een multicore cpu, toch in het geval van batman, zo "sterk" is als de GTS250, als het gaat om het weergeven van de PhysX in batman via die hack. Klopt dat allemaal? Of is de implementatie van PhysX via GPU nog niet zo optimaal waardoor er meer kracht verloren gaat dan nodig is?
PhysX via de CPU is niet optimaal, daar praat je echt over hooguit PROCENTEN van je CPU die geütiliseerd worden, een vergelijking daartussen is nutteloos.
DevilsProphet schreef op vrijdag 23 oktober 2009 @ 08:43:
Dus misschien is het interessanter als eens alle vier de cores apart in de gaten worden gehouden, dan is er geen ruimte voor speculatie zoals met die "is die 30% mooi verdeeld over alle cores, of is dat 1 core maxed out en de rest een beetje prielen?", imho toch.
Nog beter in de gaten houden ?
(linker cijfertjes en de horizontale balkjes zijn cpu usage)
Overigens, waarom zou 'gesplit' tussen (gefaalde) aanhalingstekens staan, juist, omdat ik om 5:30 AM niet meer zo wakker ben en niet op de juiste term kwam.
[Voor 7% gewijzigd door SirNobax op 23-10-2009 12:24]
Dit is die nieuwe kaart teminste dat willen ze mij laten geloven vind het er nogal als een goedkope soep uitzien.
Het is een mockup... dat staat zelfs in de bron:
As you can see in the crude mockup picture we created above [created with two images from colleagues at TechPowerUp!, image doesn't feature correct amount of memory chips],
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
AMD launched the first 40nm desktop graphics card - Radeon HD 4770 back in April, but the low yield of TSMC’s 40nm chips made the product hardly available on the market.
On contrary to AMD’s “quick” strategy, NVIDIA decided to wait until last week to debut its 40nm GeForce 210 and GT220, though the company had started to bring them to OEM market in July.
GeForce 210/GT220 is NVIDIA’s first try to extend its GT200 series down to entry-level market. According to the company’s roadmap, GeForce 210 is designed to take the place of GeForce 9400GT (64bit), targeting AMD Radeon HD 4550/4350, while GT220 is expected to deliver performance between GeForce 9500GT and 9600GT, fighting against AMD Radeon HD 4670.
Based on GT218 GPU, GeForce 210 is powered by 16 stream processors, while GT220 is built with GT216 and features 48 stream processors. Both of them have included support for DirectX 10.1 and SM4.1.
GT220 can be equipped with DDR2 or DDR3 or GDDR3 memory, with frequency ranging between 790MHz and 1012MHz, along with a 128-bit memory interface. The 210 will be available in DDR2 and DDR3 variants, paired up with a 64-bit memory interface.
Thanks to the advanced 40nm manufacturing process, the die area of aforementioned graphics cards become much smaller while packing more transistors. GT220 has a die area of 100mm2 which contains 486 million transistors, whereas the 65nm 9500GT has a die area of 144mm2 which includes 314 million transistors only. Of course, the new processing also brings down the power consumption. According to NVIDIA, the TDP of GeForce 210/GT220 is only 30.5W and 58W respectively.
Lekker onzinnige kaart die GT220. Enkel als je een low-profile kaartje wil hebben die niet te veel energie verbruikt zijn ze interessant.
Vooral de shader performance is teleurstellend IMO.
Pak bijvoorbeeld de 9600GSO 512 (de G94 versie, de g92 versie is nog sneller), die rond de 50E kost (dus over het algemeen goedkoper dan de GT220), dan heb je 48 shader cores die op ~1600Mhz lopen.
Bij de GT220 lopen er 48 shaders op ~1350Mhz.
De overige specificaties, buiten DX10.1 dan, dat is wel weer mooi, zijn ook niet snel genoeg om zo'n GSO eruit te rennen, zeker gezien de budget GT220's met DDR2 worden gekoppeld .
Lijkt dus meer op een testpaard dan iets om serieus mee te concureren. Zelfs vergeleken met nvidia's eigen 9600 GSO krijg je minder, voor meer.
(en ja, ik snap dat de g94 veel duurder, en dus minder interessant voor nvidia, is om in een budget kaart te douwen)
Maar die kaart word wel gemaakt binnenkort hoe hij gaat heten weet ik niet maar het word wel een gtx275 en gtx250 op een kaat. En de gtx250 chip word gebruikt voor physx. Maar 9 van de 10 games zit de
gtx250 chip uit zijn neus te eten. Het is dat er zo weining physx games zijn anders was ik mischien nog wel ff bij nv
gebleven. Maar om eerlijk te zijn vind ik zo'n kaart niet aantrekkelijk meer.
Het is idd fake foto maar hij word binnenkort wel bekent gemaakt
Nvidia moet echt met een dx11 kaart komen om mee te kunnen gaan met de rest.
Ik vind dx11 echt eeen hele verbetering tegenover dx10. Ik heb dit nu zelf met eigen
ogen kunnen zien.
Anoniem: 304087 schreef op zaterdag 24 oktober 2009 @ 11:43:
Maar die kaart word wel gemaakt binnenkort hoe hij gaat heten weet ik niet maar het word wel een gtx275 en gx250 op een kaat. En de gx250 chip word gebruikt voor physx. Maar 9 van de 10 games zit de
gx250 chip uit zijn neus te eten. Het is dat er zo weining physx games zijn anders was ik mischien nog wel ff bij nv
gebleven. Maar om eerlijk te zijn vind ik zo'n kaart niet aantrekkelijk meer.
Het is idd fake foto maar hij word binnenkort wel bekent gemaakt
ik weet niet of hier al iets over gepost is, maar het ziet er toch wel indrukkend uit, 3 miljard (goed) biljoen (fout) transistors,
"Nvidia last night introduced the new GPU design that will feed into its next-generation GeForce graphics chips and Tesla GPGPU offerings but which the company also hopes will drive it ever deeper into general number crunching."!
Let op: Houd de discussie open en eerlijk. Overtuigen doen we met argumenten. Voor ATi vs. NVidia flamewars is hier geen plaats. Voor het gebruik van termen als 'fanboy' en aanverwante zaken is er geen tolerantie!
Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.
Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.
Functioneel en analytisch
Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie.
Meer details
janee
Relevantere advertenties
Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht.
Meer details
Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.
Ingesloten content van derden
Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden.
Meer details