In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter
Dit topic is vooral niét bedoeld om te posten dat:
jouw favoriete kaart niet leverbaar is bij een shop.
jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Veel lees- en discussieerplezier toegewenst!
Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2
Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 34
Sinds eind oktober 2007 is ook de G92 core op de markt. Dit is een G80 core, maar dan met enkele optimalisaties en gebakken op 65 i.p.v. 80nm, wat resulteert in een lager stroomverbruik.
Vanaf G92 core zijn er nog wat nog een extra technologieën gebruikt:
"HybridPower™* technology offers exceptional graphics performance and power savings for everyday needs"
en PCI-E 2.0 interface, wat een maximum transfer snelheid van 16GB/s oplevert <> PCI-E 1.0 die "slechts" 8GB/S als maximum heeft
Sinds Begin maart is ook de volledige GT1xx line up bekend gemaakt. In tegenstelling zoals velen zouden durven te vermoeden zijn ook deze kaarten gewoon gebaseerd op de (oude)G92/94 GPU-kern en horen ze gewoon in deze generatie thuis in plaats van een volgende.
Een opmerking moet wel gemaakt worden dat deze kaarten enkel voor OEM gebruik bedoeld zijn en deze dus niet in de losse handel verkrijgbaar zijn.
Rebranding heeft nooit voorgedaan/bestaat dus niet!
9800 GTX
GPU: G92
Release Date: 03/2008
Interface: PCI-E 2.0 x16
Transistors: 754 million
Unified shaders: 128
shader clock: 1688 MHz
Texture units: 64
ROP's: 16
Core Clock: 675 MHz
Memory Clock: 1100 MHz (GDDR3)
Memory Bandwidth: 70.4 GB/sec
Memory Interface: 256 bit
Memory: 512 MB
Texture Fill Rate:43.2 billion/s
OpenGL: 2.1
Sli: Dual/Tri-SLI
Comsumption: 140 Watt (max)
Power Connectors: 2x 6-pin
9800 serie
9800 GTX+
GPU: G92 (55nm)
Release Date: 07/2008
Interface: PCI-E 2.0 x16
Transistors: ??? million
Unified shaders: 128
Shader clock: 1836 MHz
ROP's: 16
Core Clock: 738 MHz
Memory Clock: 1000 MHz (GDDR3)
Shader Clock: 1836 MHz
Memory Bandwidth: 70.4 GB/sec
Memory Interface: 256 bit
Memory: 512 MB
Consumption: 145 watt
2-3 way SLI support
GTS150
GPU: G92b (55nm)
aka GTS250 Slow, 9800GTX+
Release Date: 10/04/2009
Interface: PCI-E x16 2.0
Transistors: 754 million
Unified shaders: 128
Shader clock: 1836 MHz
Texture units: 64
ROP's: 16
Core Clock: 740 MHz
Memory Clock: 1000 (GDDR3)
Memory Bandwidth: 64 GB/sec (GDDR3)
Memory Interface: 256 bit
Memory: 1024 MB (GDDR3)
Texture Fill Rate: 47.2 billion/s
OpenGL: 2.1
Sli: Dual/Tri-SLI
Comsumption: 141 Watt (max)
Power Connectors: 2x 6-pin
Enkel OEM
9800 serie
GTS 250
GPU: G92a/b (65/55nm)
Release Date: 03/03/2009
Interface: PCI-E x16 2.0
Transistors: +/- 754 million
Unified shaders: 128
Shader clock: 1836 MHz
ROP's: 16
Core Clock: 738 MHz
Memory Clock: 1100MHz (GDDR3)
Memory Bandwidth: 70.4 GB/sec (GDDR3)
Memory Interface: 256 bit
Memory: 512/1024/2018 MB (GDDR3)
Texture units: 64
Texture Fill Rate: 47.2 (billion/sec)
OpenGL: 3.0
SLI: 2-way/3-way SLI
Consumption: 112 watt (max) officieel 150
Power Connectors: 1x 6-pin
Waarom?
Kleinere PCB, past dus handiger in de Case
Lager verbruik waardoor je maar een 6-pin power connector nodig hebt.
Veel lagere prijs
9800 Gx2
GPU: 2x G92
Release Date: 03/2008
Interface: PCI-E 2.0 x16
Transistors: 2X 754 million
Unified shaders: 2x 128
Shader clock: 1500 MHz
ROP's: 2x 16
Core Clock: 600 MHz
Memory Clock: 1000 MHz (GDDR3)
Memory Bandwidth: 128 GB/sec
Memory Interface: 512 bit (2x 256 bit)
Memory: 1024 MB (2x 512MB)
Texture units: 2x 64
Texture Fill Rate: 79.8 (billion/sec)
OpenGL: 2.1
SLI: Quad SLI
Consumption: 197 watt (max)
Power Connectors: 1x 6-pin,1x 8-pin
De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.
De eerste 2 kaarten gereleased in deze nieuwe reeks zijn direct de high end kaarten. Deze kaarten zijn stukken beter dan de vorige high end maar dit brengt een mooi prijskaartje met zich mee. Hoewel dat er veel kans is dat deze prijs snel kan dalen doordat ati zijn kaarten deze keer veel beter opkunnen tegen het NVIDIA geweld (we denken aan de HD4870x2)
De GeForce GTX 280 en 260 gebruiken dezelfde identieke GPU cores maar het in het 260 model werden onderdelen van de core uitgeschakeld en ook de RAM en memory interface werden verminderd voor marketing doeleinden.
• De GT200 is tot nu toe de grootste GPU core die men tot nu toe ooit gefabriceerd heeft hij bestaat uit 1.4 miljard transistoren die een oppervlakte bestreiken van 575mm² gebakken met 65nm procédé hoewel men hard werkt om over te kunnen snappen naar 55nm. De totale kaart meet 27 cm.
• De 2 huidig gereleasde 200serie kaarten ondersteuen ook 10 bit kleuren, hiervoor heb je wel displayport nodig, dus voor dit feature zal je moeten wachten tot een fabrikant grafische kaarten met deze uitgangen beschikbaar zal stellen op de markt.
• Beide kaarten hebben een verbeterde versie van PureVideo voor het hardwarematig decoderen van oa VC-1,WMV9 en H.264 geëncodeerde filmbestanden.
• De standaard referentie kaart hebben allemaal 2 dual link DCI connectors en een HDTV/s-Video connector.
• Energieconsumptie: De high end kaarten zijn weer energievreters zoals je kon verwachten. Het maximale vermogen van deze kaarten zijn: 182 Watt (GTX260) tot 236 Watt (GTX 280)
• De GTX 280 zal 1 8-pin en 1 6-pin pci-e power connectoren vereisen wanneer de GTX 260 toekomt met "slechts" 2 6-pin pci-e power conectoren.
Enige actuele succes van de chipset afdeling van nVidia: Lancering van van nVidia's Ion platform
Tot nu toe zijn alle reviews lovend; Een stukken minder verbruikende chipset die ervoor zorgt dat full HD wel afgespeeld kan worden(desnoods via coreAVC + CUDA indien je codec niet hardwarematig wordt ondersteunt) op je netbook eventueel om aan te sluiten op je HD-TV.
• nieuws: ASRock bouwt nettop op basis van Nvidia's Ion-platform
• nieuws: HP, Dell, Asus en MSI komen met Ion-netbooks
De vorige nieuwsberichten van daterend vanaf 28 februarie kan je logischerwijze steeds vinden in het vorige topic ;)
Notebook nVidia GPU's met dx10.1 support?
Dit gerucht is redelijk zeker daar er vele bevestigingen zijn gekomen dat er idd zo'n mobiele GPU's er zitten aan te komen zelfs gefabriceerd met het 40nm proces! Men suggereert echter dat men deze functionaliteit mogelijk bij de launch niet ter beschikking kan stellen maar eventueel achteraf met een driverupdate zal doen als het blijkt dat het marketing technisch intressant/nodig blijkt te zullen zijn. Waarheidsfactor:85%
Waar blijft nVidia met hun dx11 kaart nadat ATI zijn gpu werkende en in productie heeft?
De geruchten oa op onze eigen FP:
• nieuws: 'Eerste DirectX 11-gpu's Nvidia leverbaar in loop van 2010'
gaan dat nVidia's grafische kaart hooguit einde Q4 2009 (indien dit nog lukt wss een paperlaunch) begin 2010 pas in massa geproduceerd zullen worden. Men gaat ervan uit dat de nVidia serieuse problemen heeft met zijn dx11 serie kaarten, oa doordat men vernomen heeft dat het geproduceerde test exemplaar gewoonweg dood is terug gekeerd en er dus nog serieus veel werk voor de boeg is voordat deze massa produceerbaar zal worden.
Een goede site voor drivers voor Mobile GPU's is(kun je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nvidia www.laptopvideo2go.com
Review GeForce 9800GT: Hardware Canucks PAS OP: NIET ELKE KAART VAN DEZE REEKS ONDERSTEUNEN ALLE FEATURES ZOALS HYBRID SLI (gerebrande 8800GT's <> "nieuwere" 9800GT's)
In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter
Dit topic is vooral niét bedoeld om te posten dat:
jouw favoriete kaart niet leverbaar is bij een shop.
jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Veel lees- en discussieerplezier toegewenst!
Informatie over de G70 core wordt in dit topic niet meer bijgehouden, daar deze kaarten al een redelijke leeftijd hebben en alle nieuwe laptops nu een 8 of 9 reeks van mobiele kaart hebben. De nieuwswaarde van de 7 reeks of oudere mobiele kaarten is dus enorm laag in te schatten.
In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur.
De belangrijkste features van de G80 zijn:
Unified shaders
DirectX 10 ondersteuning
OpenGL 2.0 ondersteuning
Nieuwe AA modes CSAA, 8Q, 16Q
128 bit HDR ondersteuning in combinatie met AA
16x hoekonafhankelijke AF
Ondersteuning voor GPU Physics
Shader Model 4
Purevideo (HD)
SLI
Hieronder volgen de Mobiele modellen uit de Geforce 8M reeks:
8 serie
8400M
Deze kaart is de opvolger van de go 7400M kaart. Technisch gezien zijn het tragere 8600M GS kaarten.
De voordelen zijn vooral DirectX 10 supportte en ondersteuning van purevideo.
De Qaudro FX 360M is gebaseerd op deze kaart.
GPU: G86M
Announce Date: 09/05/2007
Interface: PCI-E x16
Consumption: 11(GS)-14(GT) Watt
Transistors: 210 million
Geforce 8400M G
GeForce 8400M GS
GeForce 8400M GT
Stream-Processors
8
16
16
Core Clock (MHz)
400
400
450
Shader Clock (MHz)
800
800
900
Memory Clock (MHz)
600
600
600
Maximum Memory
256MB
256MB
512MB
Memory Interface
64-bit
64-bit
128-bit
Memory Bandwidth (GB/sec)
9.6
9.6
19.2
Texture Fill Rate (billion/sec)
3.2
3.2
3.6
8600M GT
Deze kaart is in essentie technisch gezien een hoger geklokte 8400M GT kaart. De performatie ligt net ietsje hoger dan de 7600 / 7700 go grafische kaarten.
De 8600M kaart is één van de eerste laptop GPU's die DirectX 10 support en hardwarematige versnelling van decodatie van H.264-geëncodeerde HD-films.
De quadro FX 570M kaart is gebaseerd op deze kaart.
GPU: G84M
Announce Date: 09/06/2007
Interface: PCI-E x16
Consumption: 20 Watt
Transistors: 289 million
GeForce 8600M GS
GeForce8 600M GT
Stream-Processors
16
32
Core Clock (MHz)
600
475
Shader Clock (MHz)
1200
950
Memory Clock (MHz)
700
700
Maximum Memory
512MB
512MB
Memory Interface
128-bit
128-bit
Memory Bandwidth (GB/sec)
12.8/22.4 (DDR2/GDDR3)
12.8/22.4 (DDR2/GDDR3)
Texture Fill Rate (billion/sec)
4.8
7.6
8700M Serie
Deze Serie was oorspronkelijk ontwikkeld voor de high-end markt. Er is maar 1 versie van deze reeks namelijk de 8700M GT en een quadro afgeleidde de fx 1600M
Deze chipset kan je eigenlijk eerder zien als een deftige mid-end kaart dankzij oa zijn 128-bit memory bus. (Deze kaart toont bv een goede 3D mark performantie maar doet het ingame veel slechter dankzij de kleine memory bus, wat nog eens 3dmark zijn relevantie aantoont )
Hierdoor is deze kaart een in essentie een hoger geklokte 8600M GT kaart met GDDR-3. Deze kaart toont wel goede performantie in een dual-card sli configuratie. En is alleen goed genoeg om te gamen.
GPU: G84M/G84GLM(quadro fx 1600M)
Announce Date: 12/06/2007
Interface: PCI-E x16
Consumption: 29 /50Qqaudro) Watt
Transistors: 289 million
GeForce 8700M GT
Qaudro fx 1600M
Stream-Processors
32
32
Core Clock (MHz)
625
625
Shader Clock (MHz)
1250
1250
Memory Clock (MHz)
800
800
Maximum Memory
512MB
512MB
Memory Interface
128-bit
128-bit
Memory Bandwidth (GB/sec)
25.6 (GDDR3)
25.6 (GDDR3)
Texture Fill Rate (billion/sec)
10
10
8800M Serie
Met de G92M core en een 256 bit Memory bus is deze serie is de echte Mobile 8 high-end serie. Er zijn 2 varianten van deze serie plus een Quadro afgeleide op de markt.
GPU: G92M (65 nm)
Announce Date: 19/11/2007
Interface: PCI-E x16
Consumption: 35 /37 Watt
Transistors: 754 million
GeForce 8800M GTS
Qaudro FX 3600M
GeForce 8800M GTX
Stream-Processors
64
(64 of) 96
96
Core Clock (MHz)
500
500
500
Shader Clock (MHz)
1250
1250
1250
Memory Clock (MHz)
800
800
800
Maximum Memory
512MB
512MB
512MB
Memory Interface
256-bit
256-bit
256-bit
Memory Bandwidth (GB/sec)
51.2 (GDDR3)
51.2 (GDDR3)
51.2 (GDDR3)
Texture Fill Rate (billion/sec)
16
16
24
De GeForce 9M Serie werd gereased op 21 februarie 2008 eerst exclusief voor asus maar daarop volgend ook voor andere merken (oa medion laptop beschikken al een tijdje over grafische kaarten van deze nieuwe reeks)
Alle GPU's in de Geforce 9M Serie beschikken over volgende eigenschappen:
Betere performantie bij hetzelfde verbruik in vergelijking met de GeForce 8M Serie voor de low- en mid-end kaarten.
Volledige DirectX 10.0 en OpenGL 2 compatibileit,
Mogelijkheid tot 16X antialiasing
Full HD DVD / Blu-ray hardware decodering.
9100M G
Geïntigreerde grafische kaart op het moederbord Met 8 stream processors, kan theoretisch 26 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze IGP kan kan samenwerken via hybrid sli met een 9200M of 9300M kaart wat resulteert in een performantie van een Geforce 9400M kaart
GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
GeForce 9100M G + GeForce 9200M GS = GeForce 9400M
9200M GS
Ultra low end grafische mobiele kaart Met 8 stream processors, kan theoretisch 31 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is gemaakt met als doel samen te werken met een GeForce 9100M via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart
GeForce 9100M G + GeForce 9200M GS = GeForce 9400M
GPU: NB9M
Announce Date: 03/06/2008
Interface: PCI-E x16
Consumption: 13 Watt
Transistors: ?? million
Core Speed: 550 MHz
Shader Speed: 1300 MHz
Memory Speed: 700 MHz
Memory Bus Width 64 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 256 MB
9300M G
low-mid end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart ondersteunt ook NVIDIA® Quantum Effects en kan samen werken met een GeForce 9100M (GS editie) via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart.
GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
GPU: NB9M
Announce Date: 04/06/2008
Interface: PCI-E x16
Consumption: 13 Watt
Transistors: ?? million
Stream processors: 16
Core Speed: 400 MHz
Shader Clock: 800 MHz
Memory Clock: 600MHz
Memory Bus Width: 64 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 256 MB
9500M Serie
95000M G
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 (ook 16 stream processors). Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
GPU: NB9P
Announce Date: 03/06/2008
Interface: PCI-E2.0 x16
Consumption: ?? Watt
Transistors: ?? million
Stream processors: 16
Core Speed: 500 MHz
Shader Clock: 1250 MHz
Memory Clock: 800 MHz
Memory Bus Width: 128 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 1024 MB
95000M GS
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 maar met 32 stream processors. Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
Door de optimalisaties en dubbel aantal stream processors haalt deze kaart ongeveer 10% betere performance dan een 8600GT.
GPU: G84-50
Announce Date: 03/06/2008
Interface: PCI-E2.0 x16
Consumption: ?? Watt
Transistors: ?? million
Stream processors: 32
Core Speed: 475 MHz
Shader Clock: 950 MHz
Memory Clock: 700 MHz
Memory Bus Width: 128 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 512 MB
9600M Serie
Deze med-end kaart is geproduceed met het 65nm proces welke hogere klok frequenties toelaten met hetzelfde verbruik. Ook deze kaart heeft de nieuwe PureVideo HD video processor (VP3) en HybridPower support.
Deze HybridPower support zorgt ervoor dat in samenwerking met de Nvidia 9100M G integrated graphics kaart er minder stroom wordt gebruikt (1 van de 2 wordt gebruikt echter nooit samen dit zou namelijk geen speed boost meer opleveren)
Deze kaart kan je qua performantie vergelijken met een 9500 GT desktop grafische kaart daar de 9600GT een 256 bit memory interface heeft en het dus stukken beter doet
GPU: NB9P (65nm)
Announce Date: 3/06/2008
Interface: PCI-E2.0 x16
Consumption: ???/29 Watt (9650M GS)
Transistors: ??? million
GeForce 9600M GS
GeForce 9600M GT
GeForce 9650M GS
Stream-Processors
32
32
32
Core Clock (MHz)
430
500
625
Shader Clock (MHz)
1075
1250
1250
Memory Clock (MHz)
800
800
800
Maximum Memory
1024MB (GDDR2/GDDR3)
1024MB (GDDR2/GDDR3)
512MB (GDDR2?/GDDR3)
Memory Interface
128-bit
128-bit
128-bit
Memory Bandwidth (GB/sec)
(GDDR3)
25.6
25.6
Texture Fill Rate (billion/sec)
10
9700M GT
Deze kaarten zijn de directe opvolgers van de 8700M kaarten. Technisch gezien zijn het simpelweg hoger geclockte kaarten dan de 9600M kaarten.
Ze zijn geproduceerd gebruik makend van het 65nm procedure en ondersteunen de volgende eigenschappen:
De nieuwe PureVideo HD video processor (VP3)
HybridPower support (switchen tussen uw onboard grafische kaart en de MGPU, Vista only)
ondersteunt CUDA enabled programma's
NVIDIA PhysX-ready.
Je kan deze kaart qua performantie het beste vergelijken met een GeForce 9500GT desktop kaart, beiden stammen af van dezelfde G96 core.
De performantie is echter hoger dan de 9600M hoofdzakelijk door de hoge clock speeds (hoogste clock snelheid van de 9000M serie). Maar net zoals met de desktop kaart zijn zwaar vragen DirectX 10 games te zwaar om op hoge details/resolutie te spelen.
9700M GTS
Deze kaarten zijn in tegenstelling tot hun naamgeving gebaseerd op een andere core dan de 9700M GT kaarten, namelijk de G94 core ipv de G96.
Dit houdt in dat er 48 shaders beschikbaar zijn ipv 32 én de geheugenbus is 256 bit breed! Deze kaart ondersteunt verder dezelfde eigenschappen als de GT variant
Qua performantie valt deze kaart ergens tussen een 9500GT en 9600GT desktop kaart.
GeForce 9700M GT
GeForce 9700M GTS
Core
G96(NB9P)
G94(NB9E-GTS)
Consumptie (Watt)
45
60
Stream-Processors
32
48
Core Clock (MHz)
625
530
Shader Clock (MHz)
1550
1325
Memory Clock (MHz)
800
800
Maximum Memory
512 (GDDR2/GDDR3)
512 (GDDR3)
Memory Interface
128-bit
256-bit
Memory Bandwidth (GB/sec)
25.6
51.2
Texture Fill Rate (billion/sec)
10.0
12.7
GTX 1x0M Serie
Deze reeks werd samen met de GTX2xxM reeks bekend gemaakt. Deze chips hebben veel kans om populair worden doordat ze een stuk goedkoper zijn dan de GTX280M die weliswaar 2 keer zoveel performantie biedt maar stukken warmer loopt en meer kost.
Deze chips supporten SLI, HYBRID Power, Cuda en PhysX maar zijn desondanks nog steeds gebaseerd op de (oude) G92b chip
Deze reeks zal vooral gebruikt worden als higer mid-end en als vervanger dienen voor de 9600M en de 9700M reeks(de GTX 160M zou ongeveer 30 tot 40% beter performantie bieden dan de 9700M GT). Meest waarschijnlijk zal deze kaart dus een heel populaire kaartje worden in laptops.
GeForce GTS150M
GeForce GTS160M
Core
G94(??)
G92b(55nm)
Consumptie (Watt)
??
??
Stream-Processors
64
64
Core Clock (MHz)
600
600
Shader Clock (MHz)
1000
1500
Memory Clock (MHz)
800
800
Maximum Memory
1024(GDDR3)
1024MB (GDDR3)
Memory Interface
256-bit
256-bit
Memory Bandwidth (GB/sec)
51.2
51.2
Texture Fill Rate (billion/sec)
13.0
19.0
9800M Serie
Net als de 9700M Serie zijn er 2 cores gebruikt bij de varianten. Deze kaarten beschikken ook over dezelfde eigenschappen als de vorige serie maar zijn duidelijk high-end.
9800M GT en 9800M GTS zijn beiden gebaseerd op G94 Core wanneer de 9800M GTX gabaseerd is op een G92 Core. Het verschil tussen de varianten ligt voornamelijk bij het steeds bijkomend aantal shaders.
Qua performantie kan je een 9800M GT het beste vergelijken met een 8800GS desktop kaart
De GTX kan je het beste vergelijken met een 8800GT kaart die ietsje sneller zal zijn vanwege zijn geheugensnelheid
GeForce 9800M GS
GeForce 9800M GT
GeForce 9850M GS
Core
G94(NB9E-GT)
G94(NB9E-GTS)
G92(NB9E-GTX)
Consumptie (Watt)
75
65
75
Stream-Processors
64
96
112
Core Clock (MHz)
600
500
500
Shader Clock (MHz)
1500
1250
1250
Memory Clock (MHz)
800
800
800
Maximum Memory
1024(GDDR3)
512MB (GDDR3)
512MB (GDDR3)
Memory Interface
256-bit
256-bit
256-bit
Memory Bandwidth (GB/sec)
51.2
51.2
51.2
Texture Fill Rate (billion/sec)
19.2
24.0
28.0
GTX2xxM Serie
Op 3 maart 2009 heeft nVidia 2 nieuwe mobiele high-end grafische kaarten voorgesteld die de opvolgers zullen worden van resectievelijk de 9800M GT en de 9800M GTX. Desondanks hun naamgeving (marketing truc om de eindgebruikers te misleiden ? ) zijn deze kaarten nog steeds gebaseerd op de G92-architectuur.
Ook deze kaarten ondersteunen alle nieuwe technologiën (incluis hybridpower).
GeForce GTX260M
GeForce GTX280M
Core
G92(??)
G92(??)
Consumptie (Watt)
??
??
Stream-Processors
112
128
Core Clock (MHz)
550
585
Shader Clock (MHz)
1375
1463
Memory Clock (MHz)
950
950
Maximum Memory
1024MB(GDDR3)
1024MB (GDDR3)
Memory Interface
256-bit
256-bit
Memory Bandwidth (GB/sec)
60.8
60.8
Texture Fill Rate (billion/sec)
31
38
Begin 2009 werd er de nieuwe G100M reeks voorgesteld. Deze bestaat uit sneller, feature-uitgebreide kaarten geproduceerd met het 55nm-productieproces.
Momenteel zijn gegevens beschikbaar over 3 van deze nieuwe kaarten:
Geforce G105M
GeForce G110M
GeForce GT130M
Core
G105M
G110M
G92(NB9E-GTX)
Consumptie (Watt)
??
??
??
Stream-Processors
8
16
32
Core Clock (MHz)
??
??
??
Shader Clock (MHz)
1600
1000
1500
Memory Clock (MHz)
500(DDR2)/700(GDDR3)
500(DDR2)/700(GDDR3)
500 (DDR2)/800 (GDDR3)
Maximum Memory
tot 512MB
tot 1024MB (GDDR3)
512MB (GDDR3)
Memory Interface
64-bit
64-bit
128-bit
Memory Bandwidth (GB/sec)
8(DDR2)/11(GDDR3)
8(DDR2)/11(GDDR3)
16 (DDR2)/25 (GDDR3)
Texture Fill Rate (billion/sec)
??
??
??
De GeForce G105M en de G110M zullen de Mainstream markt bedienen en vormen hierdoor de opvolger van de 9200M tot aan de 9400M kaarten.
De GeForce GT 130M zal de Performance markt bedienen en vormt hierdoor de opvolger voor de 9500M en de 9600M grafische kaarten (hoewel dat nVidia vermoedelijk de GTS 160M zal pushen als opvolger voor populaire de 9600M GT kaart).
Hoeveel dit gerucht waard is, is onbekend daar volgens nVidia zelf de performantie van de GT 130m en de 9600M GT 100% hetzelfde is (en dit dus ruikt naar een zoveelste rebranding )
nieuws: Nvidia komt dit jaar met mobiele 55nm- en 40nm-gpu's
Dit houdt dus in dit dat er dit jaar een hele reeks nieuwe mobiele grafische kaarten gereleased worden
Het eerste helft van het jaar zullen alle G9X gebaseerde mobiele kaarten een 55nm versie krijgen met de respectievelijke marketing namen:
• GeForce G105M - G105M
• GeForce GT 120M - GT 130M
• GeForce GTS 160M
• GeForce GTX 170M - GTX 180M
In het tweede deel van het jaar zullen dan de nieuwe 40 nm op de GT21x architectuur gebaseerde kaarten verschijnen:
• GeForce GS en GE low-end (gebaseerd op de nieuwe GT218 GPU core)
• GeForce GS, NS, GE, GLM mid-end (gebaseerd op de nieuwe GT216 GPU core)
• GeForce GT, GS, GE Performance (gebaseerd op de nieuwe GT215 GPU core)
• GeForce GTX high-end (gebaseerd op de nieuwe GT212 GPU core)
Hierbij valt dus vooral op dat deze kaarten dezelfde naam-schema structuur krijgen als hun desktop tegenhanders (alle GeForce9 kaarten zullen ook daar rebranded worden naar GT1xx kaarten)
Hierbij is wel het verschil dat de mobiele varianten een veel kleiner productie proces zullen hebben (respectievelijk 55 en 40 nm)
NVIDIA® CUDA™ is a general purpose parallel computing architecture that leverages the parallel compute engine in NVIDIA graphics processing units (GPUs) to solve many complex computational problems in a fraction of the time required on a CPU. It includes the CUDA Instruction Set Architecture (ISA) and the parallel compute engine in the GPU. To program to the CUDATM architecture, developers can, today, use C, one of the most widely used high-level programming languages, which can then be run at great performance on a CUDATM enabled processor. Other languages will be supported in the future, including FORTRAN and C++.
Basically komt her opneer dat CUDA een programmeertaal is die ervoor zorgt dat de minder krachtige, maar vele shader processoren ter beschikking komen van de programmeur.
Deze cpu's zijn veel minder krachtig dan een gewone desktop CPU maar maken dit ruimschoots goed door hun aantal. In feite is een gpu krachtiger dan een cpu maar het is veel moeilijker hiervoor te programmeren daar 1 bewerking veel langer zal duren, maar je verschillende bewerkingen tegelijkertijd kan doen.
Je zal dus je programma code zo moeten schrijven dat zoveel mogelijk taken parallel kunnen worden uitgevoerd. CUDA is dus vooral voordelig voor parallelliseerbare taken die veel berekeningen eisen, we denken aan wetenschappelijk onderzoek of aan renderen van beelden.
CUDA zal je helpen bij het programmeren door een high-level C-achtige taal ter beschikking te stellen waardoor de programmeur het een stuk eenvoudiger heeft om al deze kleine processortjes zo optimaal mogelijk te gebruiken.
Hybrid power SLI
Wat heb je nodig?
1. een Hybrid power compatibel Moederbord.
Let op een goed moederbord is heel moeilijk te vinden doordat je dus een recente chipset met een igp nodig hebt MAAR deze moet ook nog video uitgangen hebben op het moederbord zelf.
Vele moederbord fabrikanten maken wel reclame dat het moederbord hybrid-sli compatibel is indien er geen video uitgang aanwezig is op het moederbord is deze techniek zo goed als nutteloos.
Indien je meer dan 1 scherm wil aansluiten zal je zelfs moeten uitkijken naar moederborden die dus 2 video uitgangen hebben.
Ikzelf ben bij de Asus M3N78 als enige mogelijkheid terecht gekomen die vindbaar is in nederland( niet gevonden in belgie). Héél recentelijk is er ook nog de mogelijkheid van M4N78 Pro erbij gekomen. Waarom deze moederborden ipv een paar anderen?
Simpele deze zijn de enige moederborden die zowel een GeForce 8200 of GeForce 8300 als chipset hebben en meer dan 1 video uitgang hebben waardoor een je dual screen setup kan draaien. Dit lijkt misschien triviaal maar als je hybrid sli wil draaien moeten al je schermen op je moederbord worden aangesloten waardoor als je maar 1 video uitgang hebt je simpel weg beperkt bent tot 1 scherm. let op:
Hybrid Sli support nu (mits goede drivers) multi screens maar met een maximum van
2 schermen een 3de scherm op je dGPU aansluiten disable je Hybrid Sli.
2. Gebruik momenteel nooit de sleep modus van windows Vista .. Om 1 of andere manier kan deze sowieso niet goed overweg met Hybrid sli (een kaart die er is maar niet zichtbaar is wanneer je terugkomt uit sleepmodus is blijkbaar niet leuk voor Vista.). Maar erger dit zal veroorzaken dat je dGPU weer tot leven komt maar constant in 3D modus zal blijven waardoor je dus meer zal verbruiken dan dat je Hybrid SLI zou disablen en je simpel weg op je dGPU zou werken!
Het vermoeden bestaat dat nVidia hier niet zoveel kan tegen doen doordat het het powermanagement van Vista is die eigenlijk een (of meerdere) fout maakt.
2. Een Hybrid sli compatibele grafische kaart
AGAIN heel goed opletten, bv een 9800GT kaart ondersteunt dit theoretisch, praktisch bijna niet doordat er vele oude 8800GT gerebrand zijn naar een 9800GT (de oude 8800GT's ondersteunen dit dus niet!)
Ook de GTX265 en de GTX285 ondersteunen dit niet.
DUs wil je hybrid gaan, checkt niet enkel de nvidia site of uw kaart compatibel is maar check dit in de gedetailleerde specificaties van uw specifieke grafische kaart (zelfs sommige fabrikanten zijn hier heel zuinig mee .. bv zeggen dat al hun 9800 kaarten dit ondersteunen maar in werkelijkheid een hele hoop revisies zijn die dit niet doen ..)
3. Praktisch gezien momenteel een AMD cpu doordat je geen enkele chipset hebt die hybrid power sli ondersteunt die een intel cpu aanvaard
Hoe werkt het?
Simpel weg de monitors aansluiten op uw moederbord gpu (vandaar dus de noodzaak dat uw igp videouitgangen ter beschikking moet hebben ...)
En dan in het bios kruipen om een paar settings aan te passen.
Daarna zal je manueel power saving of performantie optie hebben rechts onder in de task bar.
Om van mode te kunnen switchen mag geen enkel 3D programma open staan. Dus eerst van mode veranderen dan pas het spel opstarten
Het taskbar icoontje zal veranderen adhv je mode zodoende kan je in 1 blik direct zien in welje mode je Grafische kaart zich bevindt.
nVidia blijkft voorlopig Physx en cuda supporten ondanks harde concurrentie en het feit dat het gebruik van Physx in games nog steeds niet algemeen is.
Dat Physx wel degelijk een positief effect kunnen hebben toont volgende grafiek mooi aan (UT3 map dat speciaal ontwikkeld is voor Physx )
Nieuwe Informatieve gegevens dankzij de release van de GTX275 kaart waarbij nVidia maar bleef hameren op de PhysX, CUDA en AO voordelen.
• Anandtech Games:
Sacred 2:
• Tom's Hardware
• AnandTech
Warmonger:
• AnandTech
UT3 PhysX Mod Pack:
• AnandTech
Mirror's Edge:
• AnandTech
How To: Dedicated PhysX kaart
Om een grafische kaart als dedicated PhysX kaart te gebruiken moet je hem enkel als een multi gpu installeren. Maw in een tweede pci-e slot steken en een recente driver gebruiken.
Je hebt maar 1 (recente) driver nodig om dan beide kaarten te gebruiken in combinatie met elkaar. Je zal deze driver echter achter het plaatsten van je tweede grafische kaart opnieuw moeten installeren . Dit is nodig om je driver je tweede kaart te laten herkennen. Eenmaal de driver opnieuw geinstalleerd is, is er een optie in het driver menu om deze kaart dan te enkel te laten werken voor het PshyX werk.
quote: Driver release notes
Supports control of your GPU PhysX configuration from the NVIDIA display driver control panel.
Let op dit is geen SLI maar een "simpele" multi-gpu installatie, zoals je vroeger deed om meer dan 2 schermen aan te sturen bv. Hierdoor kan je elke GeForce kaart van de 8, 9 en GT200 reeks gebruiken als dedicated PhysX kaart in combinatie met je zwaardere grafische kaart. Je bent dus niet beperkt tot 2 dezelfde grafische kaarten zoals bij SLI.
Een tweede opmerking die moet gemaakt worden is dat je best toch niet een al te lichte kaart neemt. Om het grofweg te zeggen je steekt deze kaart bij om je pc te voorzien van extra shaders die dan het PhysX werk zullen doen, een 8400 met 16 trage shaders zal hierdoor te zwak uitvallen voor wat je wil bereiken( een 9400 wellicht ook, deze shaders zijn weliswaar sneller maar nog steeds beperkt tot 16). Je gaat juist deze 2de kaart installeren omdat je vindt dat de PshyX teveel shader power gebruikt van je main-kaart waardoor je fps teveel daalt.
Aan de andere kant is het ook redelijk zinloos om een te zware kaart hiervoor in te zetten. Tot nu toe heeft men ervaren dat een 9600GT het meeste opbrengt. Een zwaarder kaart zal niet meer bijdragen tot je PhysX ervaring en enkel maar meer shaders hebben die niets zitten te doen (maar wel energie zitten te verslinden). Let wel! Tot nu toe, dit kan veranderen in de toekomst!!
De algeme consensus is dus dat je het beste een 8600/9600 bijprikt wanneer je een kaart wil bijkopen, indien je bv een 8800 al liggen hebt is dit natuurlijk ook ideaal en mss beter naar de toekomst toe.
Onder Windows XP zijn er hiervoor geen beperkingen maar Vista heeft deze wel:
One limitation of this mode under Vista is that a second monitor must be attached to run PhysX on the secondary GPU, and you must extend the Vista desktop onto this secondary monitor. According to NVIDIA this limitation is related to the Windows Vista display driver model (WDDM). However, the same limitation does not exist in Windows XP.
Dit kan je oplossen door:
If you don’t have a second monitor available, you can also run a second display cable from your monitor to the second GeForce card running PhysX.
Met een beetje geluk heeft uw monitor zowel een dvi als een vga ingang
Je zou zeggen, pff al die beperkingen onder Vista ik gebruik XP wel... denk eraan de driver support voor Vista is momenteel veel beter dan voor XP zowel qua performantie als qua hardwarre support voor deze nieuwe technieken. Een ander mooi voorbeeld hiervan is Hybrid sli, dit wordt ook enkel maar onder VIsta ondersteunt.
Een andere reden om naar vista gaan is de Systeem Ram waar een aardig stukje zal van afgepitst worden door je high-end kaart(en) die je gebruikt in combinatie met je dedicated PhysX kaart waardoor je toch naar een 64-bit OS zal grijpen.
Wat is PureVideo?
NVIDIA PureVideo™ technology is the combination of high-definition video processors and software that delivers unprecedented picture clarity, smooth video, accurate color, and precise image scaling for all video content. It turns your PC into a high-end home-theater.
NVIDIA PureVideo technology:
* Accelerates WMV HD and MPEG video,
* Features spatial-temporal de-interlacing for HD and SD content, and
* Performs inverse telecine, bad edit correction, and other post-processing functions to eliminate jaggies and blurriness, resulting in a sharp picture..
Hoe kom ik aan PureVideo?
Je kunt op de site van NVidia een 30-dagen trial downloaden, die met deze key 60 dagen werkt
First and Last Name: Trial-60
Email Address: dvdtrial@nVidia.com
Last 4 Digits of Credit Card: 2005
Activation Key: 84CA-4A56-9BF7-2D53-5BA3-5FD6-FA56
Na deze proefperiode kan je de PureVideo Decoder hier kopen.
Hoe configureer ik PureVideo?
Naast de NVIDIA PureVideo Decoder User's Guide is er ook een Reviewers Guide met tips (enigszins gedateerd). Voor beste kwaliteit en prestaties is het noodzakelijk Video Mixing Renderer (VMR) te activeren in Windows Media Player :
To set up the VMR follow these steps
1. Launch Windows Media Player
2. Click on Tools > Options on the menu bar
3. Click on the Performance tab
4. Click on the Advanced button
File Playback Video mixing renderer mode: check “Use video mixing renderer” and “use high quality mode”
DVD-Video playback Video mixing renderer mode: check “Use video mixing renderer” and uncheck “Use overlays”
Als "use high quality mode" is aangevinkt onder "File Playback", dan is het mogelijk dat MPEG-4 ASP videobestanden (XviD, DivX5 etc.) in zwart/wit met een groenige waas worden afgespeeld. Selecteer dan "Use overlays" onder "File Playback".
Als FFDShow op je systeem staat of stond, dan werkt PureVideo waarschijnlijk niet. Wees terughoudend met het installeren van codecpacks. Controleer met Windows XP Video Decoder Checkup Utility of PureVideo als MPEG-2 preferred codec actief is.(Om dit op te lossen kan je bij de FFDShow video settings de nodige formaten in plaats van libavlib none te kiezen.)
Er zijn momenteel al 3 PureVideo versies verschenen: PureVideo 1
De eerste en simpelste versie van PureVideo. Geïntroduceerd samen met de GeForce 6 serie. De video-enige werd verbeterd door
• Het bijvoegen van deinterlacing algoritmes
• verfijnde video-resizing wannneer men gebruik maakt van overlays
• Verbetering van compatibiliteit met DirectX9 in combinatie met VMR9 (ipv overlay)
• Het overerfen van de decoderings pipeline die ook oudere grafische kaarten al hadden (VPE)
In de latere modellen van de Geforce 6 werd er ook hardware accelaratie voor VC-1 en H.264 bijgevoegd
De accelaratie van bv mpeg-2 was bij testen nog niet verschrikkelijk veel maar de run length, variabele length en inverse quantisatie werden volledig overgenomen door PureVideo.
PureVideo 2
Focussed op Acceleratie van 1080p HD materiaal. (wat afspeelbaar is op vele pc's (oa met behulp van betere software decoders zie onderaan dit topicje)maar toch zwaar genoeg is om een pc op zijn knieën te krijgen)
• Er werd een bitstream processor (BPS) bijgevoegd
• Een verbeterde video processor (VP2)
Hierdoor kon de AACS-decryptie en de H.264/AVC high profile CABAC volledig hardwarematig gedecodeerd worden (blu-ray)
Bij VC-1 zorgt PureVideo2 voor de inverse discrete cosine transformatie (iDCT) en de motion compensation stages, voor de verwerking van de bitstream en entrophy fase wordt er nog steeds op CPU gerekend.
PureVideo 3
Deze meest recente PureVideo versie werd geïntroduceerd samen met de Geforce 9600GT.
Vooral de hardware ondersteuning voor VC-1 af te spelen is verbeterd (zoals je kon lezen bij Purevideo2 was deze niet echt groot en werd er nog zwaar gesteund op de cpu).
Alternatieve Oplossingen
Om betere video performatie te krijgen zonder hardware matige acceleratie op een nvidea kaart (we spreken dus bijvoorbeeld op Geforce 5 serie grafische kaarten) of betere performatie op h.264 geëncodeerde video bestanden met een ander profile zoals bv veel gebruikte x.264 geëncodeerde bestanden is vooral een goed codec pack noodzakelijk.
LET OP!. Deze codec packs (kunnen) interferen dus met PureVideo!
Aanrader is het CCCP codec pack gecombineerd met CoreAVC voor h.264 HD video bestanden (720p/1080p).
CoreAVC is idd betalend maar zeker de moeite waard daar het op een ietswat oudere pc's het verschil kan maken tussen niet speelbare videobestanden en vlekkeloos afspelen. Je kan een trial downloaden en kijken of het de moeite waard is.
Voor integratie in CCCP gewoon settings runnen en h264 uitvinken. Er zal automatisch gebruik worden gemaakt van ander geinstalleerde h.264 codecs in dit geval dus CoreAVC.
Sinds CoreAVC versie 1.9.0.0 is er nu ook cuda support ingebouwd!
Dit houdt in deze goede software encoder eigenlijk ook hardwarematig het decoderen zal uitvoeren op een GeForce 8,9 en GT200 kaart hiervoor heeft uw wel een 182.xx of recentere driver nodig die dit gebruik van cuda ondersteunt.
De MPC standaard player bij installatie van CCCP staat ingesteld op overlay (indien u dit wilt kan je dit steeds veranderen naar VMR9 of VMR7)
Voor mensen die geen zin hebben op aparte of bijkomende codecs op hun pc. Of zich er liever niets willen van aantrekken (cpu power toch teveel bv ;p) is er steeds VLC. CPU intensief, subs worden niet altijd goed voorgesteld maar het videobestand zal altijd wel goed afspelen zonder dat er configuratie van de gebruiker noodzakelijk is!
Dit komt doordat VLC gebruik maakt van zijn eigen interne decoders zonder deze op 1 of andere manier te installeren of registreren op uw systeem.
** Edit: 2/03/2009**
TS aangepast:
• De twee rebranded kaarten toch toegevoegd hoewel veel gegevens nog mankeren en ik behalve één enkel nieuwspost op een tech-site ik er nog geen info over had gelezen.
Hartelijk dank voor deze informatie CJ!!
•
De twee groene edities heb ik dan toch maar speciaal in het overzicht bijgevoegd adhv een extra kleurtje (Persoonlijk vind ik deze edities niet de moeite om in de TS bijgevoegd te worden daar als je dan consequent zou willen zijn je alle OC edities ook zou moeten beginnen te vermelden ...)
Aan de andere kant bestaat er wel een kans dat deze kaarten populair gaan worden door de "groene" hype errond (en nog meer door het feit dat ze geen extra stroom connector nodig hebben)
Hierbij nogmaals bedankt voor de technishe details gegeven door CJ.
•
PhysX uit de TS gehaalt simpelweg doordat de post te groot wordt
Deze zal zeker terug komen op deze plaats samen met de andere technologiën; CUDA, Hybrid(power) SLI
•
Driver sectie is ook upgedate naar de laatste driver release.
**Edit 3/03/2009**
De Reviews van de gt250 zijn online gekomen: Hierdoor een aanpassing van de TS
Grootste redenen om deze kaart aan te kopen (tegenover de vroegere 9800GTX+)
Kleinere (custom) pcb, waardoor hij dus gemakkelijker in ietsje kleinere case's kan.
Minder verbruik wat toch een voordeel is, zeker in mid-end grafische kaarten
Door dit mindere gebruik is enkel nog een 6-pins pci-e voedingsconnector nodig.
**Edit 2/04/2009**
Updaten van de beschikbare drivers
Bijvoegen van nVidia's nieuwste kaart+ revieuws
Bijvoegen van FP Tabel van de nieuwe quadro kaarten
Updaten technologiën
**Edit 9/06/2009
Updaten van de beschikbare drivers
Bijvoegen van de toekomstuge 3 GT21x GPU's (Met dank aan CJ voor de informatie!!)
Terug plaatsen van geruchten (plaats gewonnen door eens de drivers te versimpelen)
Updaten van de recente nieuwsberichten
Zoals altijd zijn opmerkingen,aanvullingen, correcties op fouten meer dan gewenst
[Voor 1% gewijzigd door lightdestroyer op 09-06-2009 14:46. Reden: Aanpassing toevoegen in de lijst]
Prachtige openingspost (eerste keer dat ik dit topic bezoek), ik heb een vrij simpele vraag maar ik krijg het niet voor elkaar.
Ik heb een nvidia 8800 gt met een dual monitor setup met dual view. Nu staat de hoofdmonitor rechts, en de extra monitor links van de hoofdmonitor. Echter wanneer ik de muis beweeg moet ik aan de rechterkant van de hoofdmonitor het scherm uit om vanuit de linkerkant van de 2e monitor in het 2e scherm te komen.
Ik vroeg me af of het mogelijk is om de muis links uit de hoofdmonitor te laten lopen aan de rechterkant in de 2e monitor want dit is optisch veel gemakkelijker. Ik kan het echter nergens in de beeldscherminstellingen teruvinden.
Dit is een nieuws discusie topic. en geen help desk.
Op je vraag geen idee heb geen multimon. Maar toen ik het wel had kon je die sherm 1 en 2 verplaatsten in het instel sherm. Soort drag 'n drop.
Silvos schreef op dinsdag 09 juni 2009 @ 17:51:
Ik vroeg me af of het mogelijk is om de muis links uit de hoofdmonitor te laten lopen aan de rechterkant in de 2e monitor want dit is optisch veel gemakkelijker. Ik kan het echter nergens in de beeldscherminstellingen teruvinden.
Rechter muis knop op het bureaublad > Eigenschappen > Settings tab > je kan de 2 monitoren gewoon verslepen.
Ik heb een nvidia 8800 gt met een dual monitor setup met dual view. Nu staat de hoofdmonitor rechts, en de extra monitor links van de hoofdmonitor. Echter wanneer ik de muis beweeg moet ik aan de rechterkant van de hoofdmonitor het scherm uit om vanuit de linkerkant van de 2e monitor in het 2e scherm te komen.
Ik vroeg me af of het mogelijk is om de muis links uit de hoofdmonitor te laten lopen aan de rechterkant in de 2e monitor want dit is optisch veel gemakkelijker. Ik kan het echter nergens in de beeldscherminstellingen teruvinden.
Wss heb je enkel bij de nVidia instellingen gezocht maar irrationeel is deze instelling te vinden onder de beeldscherm instellingen van windows zelf. Rechtermuisknop op je Bureaublad en dan gewoon de cijfertjes plaatsen zoals jij wilt (Elk beeldscherm krijgt zijn nummer toegewezen). Dit zal wss van 1 - 2 naar 2 - 1 gaan. Door rechtermuisknop op 1 van die schermpjes kan je ook het primaire beeldscherm veranderen (wss wil je wel uw startbalk op hetzelfde scherm behouden, dit doe je met deze optie)
**Edit** Ik moet dringen leren sneller te antwoorden
Echter zijn dit spijtig genoeg geen vragen voor in dit topic, indien je na veel googlen, of zoeken op dit fora het antwoord niet kan vinden is het hier de gewoonte om een eigen topic aan te maken indien de vraag de moeite waard is. Zodoende voorkomt men vervuiling van topics waarin men een andere doelstelling heeft dan het vinden van een oplossing voor 1 specifieke vraag. In dit geval is dit een nieuws & discussie topic over nVidia; nu, in het verleden en natuurlijk zeker naar de toekomst toe.
In ieder geval bedankt voor de TS, maar als je een echt goede wil lezen kan ik je ook zeker de TS van Ati aanraden
het lijkt me niet dat de gt300 de gt212 chip krijgt
Ook dit is iets irrationeel. Momenteel is het hoe lager de core nummer hoe meer high end de uiteindelijke GPU zal worden.
Dit is eigenlijk wel heel logisch te verklaren doordat men eerder is begonnen met de toekomstige GT300 (men wist toen zelf niet eens hoe de kaart ging noemen)
En pas later aan de lowere mid-end kaarten die ook een chronologische benaming van hun gpu core kregen (215-216-218)
Deze nummer komen zeker niet overeen met de uiteindelijke benaming van de kaarten.
De GT215-GT218 zullen zeker niet zo heten daar (toch zeker de GT218) zeker, alle naar we toch mogen als nVidia-fanboy beter zal(zullen) presteren als een GTS250.
Deze manier van werken is momenteel de huidige strategie van nVidia, voor elke nieuwe generatie eerst de meest high-end kaart ontwikkelen en uitbrengen en hiervan dan in een later stadium (vaak 9 maand later) goedkopere (zowel in productie als in uiteindelijk verkoopsprijs) mid en low end varianten te produceren. Maw wanneer de GT300 zal gelanceerd worden zal de mid-end kaarten bestaan uit varianten van de GT200 core. Net zoals men nu de high-end GT200 kaarten heeft (GT260 tot GT295) met als low en mid-end kaarten G92 varianten, de vroegere high-end kaarten.
Hebben hier meerdere mensen problemen met de nieuwste drivers, want sinds ik deze geinstalleerd heb gaat mijn beeld zodra mijn pc in windows komt naar mijn 2e monitor. In mijn geval is dit een tv. en ik wil dit beeld op mijn primaire scherm houden.
Lijkt wel een driver probleem. Heb ook al de nieuwe beta drivers geprobeerd maar dat haalt niet veel uit
Ik heb een nvidia 8800 gt met een dual monitor setup met dual view. Nu staat de hoofdmonitor rechts, en de extra monitor links van de hoofdmonitor. Echter wanneer ik de muis beweeg moet ik aan de rechterkant van de hoofdmonitor het scherm uit om vanuit de linkerkant van de 2e monitor in het 2e scherm te komen.
Ik vroeg me af of het mogelijk is om de muis links uit de hoofdmonitor te laten lopen aan de rechterkant in de 2e monitor want dit is optisch veel gemakkelijker. Ik kan het echter nergens in de beeldscherminstellingen teruvinden.
bij de beeldscherm instellingen/display properties kan je die schermpjes slepen met nummertjes 1 en 2. dus gewoon omdraaien .
lightdestroyer schreef op dinsdag 09 juni 2009 @ 20:22:
[...]
Deze nummer komen zeker niet overeen met de uiteindelijke benaming van de kaarten.
De GT215-GT218 zullen zeker niet zo heten daar (toch zeker de GT218) zeker, alle naar we toch mogen als nVidia-fanboy beter zal(zullen) presteren als een GTS250.
GT218 = GeForce G210
GT216 = GeForce GT220
De GeForce G210 zal zo'n 30% sneller zijn dan z'n voorloper de GeForce 9400 en de GeForce GT220 zal ook zo'n 30% sneller zijn dan z'n voorloper GeForce 9500GT afgaande op de benchmarks die ik in het vorige topic postte.
De (GPU) GT215 komt daar nog boven en zal hoogstwaarschijnlijk zo'n 30% sneller zijn dan de GeForce 9600GT. Of dit genoeg is om de GeForce GTS 250 bij te houden is nog maar de vraag. Denk dat-ie ongeveer gaat presteren als een HD4770/9800GT.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Hmm dan ontgaat mij het nut van die kaarten mij eigenlijk wel
30% klinkt veel maar aan de huidige prijzen moeten die nieuwe kaarten echt veel goedkoper produceerbaar zijn om de R&D eruit te halen. (Buiten dat we mss een marketingsoffensief kunnen verwachten met de nieuwe benamingen en de directX 10.1 ondersteuning + dat ze eventueel zuiniger kunnen zijn voor de klanten).
Misschien dat men met deze kaarten vooral mikt op OEM's (hogere benaming, zuiniger en dus ook stiller ... performance is niet zo belangrijk in deze markt) maar dan zou dat willen zeggen dat de G100/GT120/GT130 snel door hun levenscycli zijn ..
En van de performance die gelijkwaardig is aan een 9800GT loop je tegenwoordig ook niet echt warm meer. Klok maar eens een 9800GT over naar een 9800GTX je fps krijgen een enorme boost.
Ik ging ervan uit dat het wat meer ging zijn daar zover ik je posts begreep deze kaarten het nog redelijk nog moesten uithouden. (Khad om eerlijk te zijn de vantage benchmarks punten genegeerd omdat die mij nog steeds in feite weinig tot niets zeggen ... nooit echt geïntresseerd geweest in die benchmark suite en zeker niet de laatste.)
Mijn excuses dus voor het te hoog inschatten van de toekomstige GPU's kwas blijkbaar veel te optimistisch
Die enorme boost valt wel mee die je krijgt bij een OC. En dat je er niet meer warm voor loopt ... budget kaarten als de 8800GT en de 9800GT (same old same new ) doen het nog steeds prima hoor. Je kan er -alles- mee spelen en ze zijn vrij zuinig. Enig nadeel is dat ze met de stock koelblokken vrij luidruchtig zijn .
Albatron has recently unveiled a little PCI Express x1 graphics card based on GeForce 9500GT, and started to ship it to Japanese market.
AL9500GT-512D3X1 is clocked at 550MHz core, 1375MHz shader and 1400MHz memory. This card features 512MB GDDR3 memory, and DVI, D-Sub and S-Video interfaces.
The PCIe x1 solution seems to be popular among those who lack a x16 slot, but the price tag of Yen14480(US$148) might be scaring you away - after all, we’re talking about a GeForce 9500GT card.
Hierin worden een paar verschillende GTX275 getest, van de verschillende manufacturers. Ook een standaard 4890 en de GTX285 zit erbij.
De uitkomst is dat de EVGA GTX275 FTW standaard de snelste is, vaak zelfs sneller dan de stock GTX285 wat natuurlijk erg netjes is, maar dat de MSI GTX275 Twin Frozr OC net iets minder is dan de GTX285 en dus ook de EVGA, maar dat deze wel veel beter geclocked kan worden nog, met veel lagere temperaturen.
Daar was ikzelf nogal blij mee, aangezien ik deze week mijn nieuw bestelde 275 Twin Frozr binnen krijg.
Maar in ieder geval erg goede en uitgebreide review!
Ik vind het toch erg interessant dat nVidia besloten heeft om in ieder geval hun 40nm laptop GPU's DX10.1 te maken. Eerst melden dat DX10.1 prut is en totaal overbodig en dan toch nog aan het einde van de DX10 tijd met DX10.1 GPU's komen. Dat zet me wel aan het denken.
Ik vraag me af of die GT212 ooit nog komt. Met die 384 Shaders zou dat een hele krachtige kaart geweest zijn. 40nm en DX10.1. Nu staat de Next gen DX11 van AMD al weer voor de deur.
En ik weet niet hoe ver nVidia met de GT300 is. Ze zouden die GT212 gedropt kunnen hebben om de GT300 af te maken. Of juist andersom zorgen dat de GT212 het gat tussen nVidia en AMD klein kan houden tot de GT300 er is.
Over die nieuwe GT2xx chips. Die zullen ook wel op 55nm of 40nm gemaakt zijn om de kosten te drukken. Misschien ook DX10.1 ? maar de chips zijn dus en iets sneller en goedkoper te maken. Dus meer winst. Wat ook kan is dat ze de oude chip weer gebruikt hebben. En net als bij de G92b chip er elke keer een andere stikker op plakken. Tata nieuwe kaart en verkopen ze ook weer meer kaarten.
[Voor 15% gewijzigd door Astennu op 15-06-2009 14:27]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Later meer info over GT215, RV870, RV840, G300
Ik weet de officiele NV launches dates al (mid Oct) maar die laat ik wel door iemand anders verklappen.
Vantage scores zijn beetje afgerond om bron te beschermen
Later meer info over GT215, RV870, RV840, G300
Ik weet de officiele NV launches dates al (mid Oct) maar die laat ik wel door iemand anders verklappen.
Vantage scores zijn beetje afgerond om bron te beschermen
Je bent laat voor de verandering.... Ik had de informatie over de G210 en GT220 al een paar weken geleden gepost in het vorige deel.
De GeForce G210 zal zo'n 30% sneller zijn dan z'n voorloper de GeForce 9400 en de GeForce GT220 zal ook zo'n 30% sneller zijn dan z'n voorloper GeForce 9500GT afgaande op de benchmarks die ik in het vorige topic postte.
De (GPU) GT215 komt daar nog boven en zal hoogstwaarschijnlijk zo'n 30% sneller zijn dan de GeForce 9600GT. Of dit genoeg is om de GeForce GTS 250 bij te houden is nog maar de vraag. Denk dat-ie ongeveer gaat presteren als een HD4770/9800GT.
Ook ik had de cijfers afgerond om de bron te beschermen. Ik denk dat je dezelfde slides gezien hebt die ik hier heb liggen aangezien je ook de boardnummers vermeldt. Daar staat bij dat de designkits begin Juni aan fabrikanten worden uitgeleverd en dat massaproductie in Augustus begint.
CJ schreef op maandag 22 juni 2009 @ 10:46:
[...]
Je bent laat voor de verandering.... Ik had de informatie over de G210 en GT220 al een paar weken geleden gepost in het vorige deel.
mmhh... wordt traag . Info was inderdaad al van eind Mei voor Computex maar ik ben veel op business trip geweest en VGA was de afgelopen maanden niet echt spannend, dus weinig naar gekeken. Kwam het tegen en dacht dat het niet gepost was... next time better.
Nog meer mensen die vinden dat nV er een zootje van heeft qua drivers momenteel? Het lijkt werkelijk nergens op de laatste maanden...
Elke driver heeft bijna een probleem, en dat terwijl dit eerst NOOIT zo was!
Prototype: lag, ook al heb ik 60FPS. (Edit; ook met SLi uit!)
Fallout 3; screen flicker "bij daglicht" in game.
Lange(re) laadtijd van Control Panel.
Riddick AODA; lage framerates (ook laggy), terwijl ik het gevoel heb dat dit niet nodig is, en er gewoon een beter SLI profiel moet komen.
Saints Row 2; draait helemaal ruk. Onspeelbaar.
De wat oudere games draaien wel goed, maar het zijn vooral de FPS games die goed draaien. Games waarin je free roamed draaien allemaal ruk. Ik heb ook het idee dat er minder snel SLi optimalisaties zijn. Baggerzooi!
Ik hoop dat dit niet te lang blijft duren, anders neem ik wel ATi de volgende keer... Of binnenkort.
[Voor 8% gewijzigd door Format-C op 23-06-2009 20:15]
MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX
Helpt het niet om SLI gewoon uit te zetten bij games waar je problemen hebt? Dan heb je sowieso geen last meer van micro stutter en misschien dat het andere problemen ook oplost.
Ik heb dit niet eerder meegemaakt... Echt niet. Ik ga SLi echt niet uitzetten... Ik wil gewoon goeie drivers, die SLi profielen hebben!!!
Het lijkt wel of ze maar wat aan het aanmodderen zijn qua drivers. Dit lijkt nergens op. Het is eigenlijk vanaf de 182.xx driver dat het ruk is. De 182.05 was de laatste goeie driver. En die is van 10 februari!
Misschien hebben ze mensen ontslagen of zijn er mensen weggegaan?
Vaag hoor dit.
Edit; Micro stutter heb ik nooit last van gehad trouwens.
Edit2; de 190.15 zijn (vooralsnog) wel weer goed. Net geinstalleerd...
Maar alle WHQL's van de laatste maanden zijn echt om te janken.
[Voor 34% gewijzigd door Format-C op 23-06-2009 20:39]
MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX
De 185 driver branche is nogal "oud" (lange tijd in beta gebleven) waardoor mss de profielen idd niet echt upgedate zijn geweest.
Plus de 185 drivers waren plots stukken beter dan de 181-182 drivers.. mss door opoffering van SLI ondersteuning(of gewoon minder hard naar gekeken ten voordelen van de meer gebenchmarkte games..)?
Het zou leuk zijn ergens performantie cijfers te zien van de 190 drivers tegenover de 185/186 tak.
In ieder geval heb ik al veel positiefs gehoord van deze drivers MAAR ze zijn ook weer bij velen niet stabiel te krijgen, nu tis een beta voor iets zeker
Our sources have confirmed that Nvidia is working hard to launch its first DirectX 11 in this year. Well informed sources are telling us that the plan is to launch in late Q4 2009, but they can still make it before the end of the year.
Many people were reporting that Nvidia's high end GPU, something that we all call GT300, might be delayed for early 2010. Well we can tell you that this won’t happen, but we strongly believe that Nvidia cannot make it in time for the Windows 7 launch.
ATI has every chance to launch its DirectX 11 before Nvidia. Nvidia will come just a month or two later, but still in 2009.
Mushkin, a company famous for its quality RAM is now diving in deep to the GPU market again.
It was roughly a year ago that Mushkin released their 8800GT onto the public. And now are getting a bit more serious about this side of the market.
Mushkin has announced a complete lineup now including the GTX 260, 275 and GTX 285. Mushkin will also push out an overclocked GTX 260 and 275. The new cards will sell under the name of ultimateFX and will come in what looks like a wooden Cigar Box.
No word on price and only time will tell if these cards will make it in the market.
A while back, or to be precise, in January last year, Mushkin has announced its first graphics card, the Geforce 8800 GT XP. As of today, it looks like Mushkin is getting more serious about this part of the market and has announced several Nvidia based cards ranging from GTX 260 to GTX 285 with promise of Overclocked and GTX 295 that should be announced soon.
As far as we could tell, a new Mushkin branded cards are all based on Nvidia's reference design, but it appears that Mushkin is also doing an overclocked cards branded as OC and OC2, brands already seen at BFG. The new series is called ultimateFX and will be delivered in a WoodBox, which is a box made of wood, just in case you wondered.
Normaal erg hoog omdat het proces mature moet zijn wil je volume doen. NV is al druk bezig met het verschepen van 40nm echter is dit enkel voor de OEM's. Het zal nog wel tot Q4 duren voordat 40nm mature genoeg is willen ze volume doen.
Van VGA is er weinig te vinden maar op het gebied van CPU's wat AMD data:
Nog even plaatje van AMD presentatie online gezet:
[Voor 9% gewijzigd door The Source op 08-07-2009 00:43]
After silently introducing first desktop OEM 40nm cards including GT220 and G210, Nvidia plans to release quite a few DirectX 10.1 compatible retail cards.
We heard that they should be launching in September time, and by this time, we expect that ATI might even have its DirectX 11 cards ready.
With Nvidia, things are quite clear. The first DirectX 11 chip is in super high end, something that we all call GT300, even that might not be the real code name. Nvidia's desktop 40nm refresh is a minor facelift of existing chips, all done in 40nm and don’t expect any miracles.
They should be marginally better than the current 55nm generation and that’s it. We wonder if Nvidia will force the guys behind Assassin’s Creed to enable DirectX 10.1 again, as its been disabled for a while, at least we believe so.
Er zijn nieuwe nvidia Beta drivers sinds vandaag te vinden op de guru 3D site en deze keer ook bij nvidia zelf. Wat onder andere inhoudt dat ik deze keer ook win XP 64-bit drivers gevonden heb
Deze drivers zijn net zoals de voorgaande weer uniform, maw de vista en win7 drivers zijn dezelfde
Ook zijn deze net als alle nieuwe drivers ook bedoeld voor het ION platform (welke in weze niet echt verschilt met ander chipsets dus dat is meer marketing dan wat anders, de gebruikte igp in het ION platform heeft juist dezelfde grafische drivers nodig als de igp's van standaard moederborden..
This is a beta driver for GeForce 6, 7, 8, 9, 100, and 200-series desktop GPUs and ION GPUs.
New in Release 190.38
•Adds support for OpenGL 3.1
•Adds support for CUDA 2.3 for improved performance in GPU Computing applications. See CUDA Zone for more details.
•Adds a new user-controlled power management setting for GeForce 9-series and later graphics cards. This option allows users to set a performance level for each DirectX or OpenGL application.
•Includes several new control panel features and numerous bug fixes. More information can be found in the release documentation.
•Users without US English operating systems can select their language and download the International driver here.
Existing Support:
•Supports single GPU and NVIDIA SLI technology* on DirectX 9, DirectX 10, and OpenGL.
•Installs PhysX System Software version 9.09.0428.
•Supports NVIDIA PhysX acceleration on a dedicated GeForce graphics card. Use one card for graphics and dedicate a different card for PhysX processing for game-changing physical effects. Learn more here.
•Supports GeForce Plus Power Pack #3. Download these FREE PhysX and CUDA applications now!
•Supports GPU overclocking and temperature monitoring by installing NVIDIA System Tools software.
*Note: The following SLI features are only supported on Windows Vista and Windows 7: Quad SLI technology using GeForce 9800 GX2 or GeForce GTX 295, 3-way SLI technology, Hybrid SLI, and SLI multi-monitor support.
Ze hadden er wel een erg luxe cooling voor nodig....LN2. Maar op zich erg netjes dat het ze gelukt is. En technisch gezien draait nVidia al sinds de G80 gedeeltelijk op meer dan 1Ghz dankzij de snelle shaders.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Let er wel mee op, het lijkt me meer marketing dan dat het een praktische waarde heeft.
Men heeft LN2 koeling gebruikt + 7 voltmods ...
Dat is ver van alle versies die MSI ooit zal gaan verkopen aan het grote publiek.
Aan de andere kant is het wel mooi en toont het de potentieel aan van de chip, maar zoals al lang duidelijk is geworden zowel bij AMD (phenomII) als nu dus bij nVidia zal je bij grotere chips, ook al heb je een prachtig design, niet superhoog geraken in Hz doordat de warmte niet snel genoeg kan afgevoerd worden.
Mss maar goed ook of we zaten binnen een half jaar aan 500watt slurpende high-end kaarten
Hieraan ziet men ook hoe slim de designkeuze was van Ati.
Kleinere chips krijg je blijkbaar wel nog deftig genoeg gekoeld voor hogere clocksnelheden.
Hoewel ze duidelijk ook aan de limiet zitten, als je ziet dat bij de OC versies vooral de koeler het mogelijke potentieel van je kaart bepaald ..
Wel de koeler of het geluid dat deze produceert (we denken hierbij aan de BE van XFX, het is een oplossing als een ander)
Een hele tijd terug in 2007 was er ook al een GF8600GTS op 1Ghz geklokt. Dus het is in dat opzicht niet echt een milestone voor nVidia. Het zou imo pas een milestone voor nVidia zijn als ze ook daadwerkelijk in de winkels een 1Ghz GPU op de schappen weten te krijgen. Maar gezien de architecturen zo verandert zijn in de loop der tijd, zegt de kloksnelheid ook niet echt veel meer, zeker niet als ze per klokslag efficienter geworden zijn.
ah, dat van die 8600 wist ik niet maar bij ati word er in ieder geval nogal groots over gedaan dus als tegenbericht leek me dit wel grappig om te melden
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
New in Release 190.38
•Adds support for OpenGL 3.1
•Adds support for CUDA 2.3 for improved performance in GPU Computing applications. See CUDA Zone for more details.
•Adds a new user-controlled power management setting for GeForce 9-series and later graphics cards (cards must already support more than one power state). This option allows users to set a performance level for each DirectX or OpenGL application.
•Includes several new control panel features and numerous bug fixes. More information can be found in the release documentation.
Nou ik heb die nieuwe drivers geprobeerd de 190.38 WHQL.Maar heb er onder windows 7 7600.1385 alleen maar ellende mee met mn 9800gx2.Iemand anders al ervaring mee?
edit: @chimo:
Ik heb al wat meer rond gelezen en er zijn meer mensen met problemen met deze driver.Ik kan nu niet meer zeggen of het bij mij aan de driver lag.Want mijn mobo heeft het opgegeven.Ik had de drivers geinstalleerd.
En toen na de herstart.Heeft mn pc het nog een uurtje gedaan.
PS Ik kan natuurlijk niet meer zeggen dat het door de drivers komt....Maar dat er meer problemen zijn met deze drivers is me al wel duidelijk.
edit2:Ik weet niet wat er gebeurd is....maar het blijkt dus dat mn mobo het niet is.MAAR MN VIDEOKAART!!
Wie weet of dit door die drivers kan komen?
[Voor 68% gewijzigd door Anoniem: 292447 op 22-07-2009 13:57]
Anoniem: 292447 schreef op dinsdag 21 juli 2009 @ 22:20:
Nou ik heb die nieuwe drivers geprobeerd de 190.38 WHQL.Maar heb er onder windows 7 7600.1385 alleen maar ellende mee met mn 9800gx2.Iemand anders al ervaring mee?
Ik heb een onboard 8200 en heb ze gewoon over de oude heen geinstalleerd, geen probleem, alleen de installer ziet er iets anders uit (hij pakt ze eerst uit, soort extractor).
Verder is de optie om PhysX op Enable/Disable te zetten verdwenen, i.t.t. de vorige drivers.
Misschien niet direct met deze drivers te maken maar ik heb ook de Nvidia chipset drivers geinstalleerd en zodra ik de Nvidia Control Panel open, verbreekt mijn netwerkverbinding. Ik denk dat het te maken heeft met de Nvidia Network Management driver, die ik heb mee geinstalleerd. Iemand anders hetzelfde "probleem"?
Anoniem: 292447 schreef op dinsdag 21 juli 2009 @ 22:20:
Nou ik heb die nieuwe drivers geprobeerd de 190.38 WHQL.Maar heb er onder windows 7 7600.1385 alleen maar ellende mee met mn 9800gx2.Iemand anders al ervaring mee?
edit: @chimo:
Ik heb al wat meer rond gelezen en er zijn meer mensen met problemen met deze driver.Ik kan nu niet meer zeggen of het bij mij aan de driver lag.Want mijn mobo heeft het opgegeven.Ik had de drivers geinstalleerd.
En toen na de herstart.Heeft mn pc het nog een uurtje gedaan.
PS Ik kan natuurlijk niet meer zeggen dat het door de drivers komt....Maar dat er meer problemen zijn met deze drivers is me al wel duidelijk.
edit2:Ik weet niet wat er gebeurd is....maar het blijkt dus dat mn mobo het niet is.MAAR MN VIDEOKAART!!
Wie weet of dit door die drivers kan komen?
Hier ook problemen net als vele andere gebruikers.
Geen AA meer en de fanspeed van m'n GTS250 blijft op 50% staan en gaat niet meer vanzelf omlaag dus ben ik weer terug bij 186.18
Ik kreeg net vanuit een vrij betrouwbare bron te horen dat nVidia problemen schijnt te hebben met 40nm. Dit beinvloedt zowel de inmiddels aangekondigde 40nm producten in de GT21x reeks als de aankomende GT300, die volgens mij bron nog nog steeds z'n tapeout niet heeft gehad. Midden juli zou de tape-out zijn, maar die heeft nVidia gemist. Ik weet ook inmiddels waar het aan zou moeten liggen, maar meer kan ik er op dit moment niet over vertellen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Heb je na de installatie toevallig de behuizing open gedaan? Mijn 8800GTX is vorige week overleden door statische electriciteit (even met mijn hand tegen het pcb geweest) waarna ik nu enkel nog in veilige modus kan opstarten en ik overal rode strepen zie... (intussen nieuwe besteld)
CJ schreef op donderdag 23 juli 2009 @ 00:17:
Ik kreeg net vanuit een vrij betrouwbare bron te horen dat nVidia problemen schijnt te hebben met 40nm. Dit beinvloedt zowel de inmiddels aangekondigde 40nm producten in de GT21x reeks als de aankomende GT300, die volgens mij bron nog nog steeds z'n tapeout niet heeft gehad. Midden juli zou de tape-out zijn, maar die heeft nVidia gemist. Ik weet ook inmiddels waar het aan zou moeten liggen, maar meer kan ik er op dit moment niet over vertellen.
Zelfde bron als charlie?
Het is echt wel bizar trouwens hoeveel er fout gaat voor nvidia. mogen we er dan nog 3 maanden bij optellen? mid-oktober tape-out, revisie 1 silicon (met mazzel) werkend en eind december massa productie?
"Zeus was so enamored by Europa that he decided to seduce and ravage her. "
Nee natuurlijk heb ik de kast niet open gedaan...Inmiddels natuurlijk wel na het aftesten van het probleem.De 9800 gx 2 zit trouwens zelf in een behuizing.Dus statische elecktriciteit lijkt me onwaarschijnlijk.
Anoniem: 292447 schreef op donderdag 23 juli 2009 @ 11:59:
Nee natuurlijk heb ik de kast niet open gedaan...Inmiddels natuurlijk wel na het aftesten van het probleem.De 9800 gx 2 zit trouwens zelf in een behuizing.Dus statische elecktriciteit lijkt me onwaarschijnlijk.
Ok. Mijn 8800GTX zit trouwens ook in een behuizing, maar de onderkant van de kaart (in de kast de bovenkant) heb ik blijkbaar toch even aangeraakt met de zijkant van mijn hand, dus veel heeft het echt niet nodig. Maar goed, jouw probleem is dus misschien toch te wijten aan de drivers of gewoon 'toeval'.
CJ schreef op donderdag 23 juli 2009 @ 00:17:
Ik kreeg net vanuit een vrij betrouwbare bron te horen dat nVidia problemen schijnt te hebben met 40nm. Dit beinvloedt zowel de inmiddels aangekondigde 40nm producten in de GT21x reeks als de aankomende GT300, die volgens mij bron nog nog steeds z'n tapeout niet heeft gehad. Midden juli zou de tape-out zijn, maar die heeft nVidia gemist. Ik weet ook inmiddels waar het aan zou moeten liggen, maar meer kan ik er op dit moment niet over vertellen.
40nm van nVidia is volgens mij al een maandje ofzo shipping. Eerste 40nm mobile shipments zijn OEM only voor back to school.
OEM only ja, omdat ze niet genoeg aan kunnen leveren voor de gewone markt. Ik heb uit zeer betrouwbare bron vernomen dat 40nm niet lekker loopt voor NVIDIA op hun GT21x producten. Ze zouden wat risico's genomen hebben wat betreft power distribution op de ASICs en dat bijt hun nu in een kont. In het ergste geval moeten ze alle 40nm producten een nieuwe spin geven. Bumpgate Part 2 anyone?
De situatie die je nu krijgt is dat AMD dus straks z'n DX11 serie lanceert en deze voor het eind van het jaar verkrijgbaar zal zijn, terwijl NVIDIA eind dit jaar op de desktop pas met DX10.1 kaarten komt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Earlier this month NVIDIA announced the GeForce GT220/G210 OEM edition graphics card which belong to entry-level segment judging by the specs.
Our information source has told us that NVIDIA is now working on something codenamed GT230 based on 40nm technology. Confusingly enough, we didn’t find any sign of GT230 from NVIDIA’s 40nm product roadmap.
Designed for mainstream market, GT230 is said to feature GDDR5/GDDR3 memory, and the number of stream processors may reach 96, or just 64 or 80 ones.
NVIDIA’s GT230 is expected to launch in December, and it’s unknown yet if the card will support DirectX 11 or not.
96 shaders is nog steeds bij lange na niet een highend kaart. Nvidia heeft gewoon enorm veel problemen bij het van de grond krijgen van een 40nm ontwerp voor highend.
ATi heeft die problemen ook, maar die liggen puur bij TSMC en als die de boel op de rit heeft dan is het GAAN.
Voor Nvidia gelden diezelfde problemen PLUS de problemen in hun eigen ontwerp, en dat tezamen wordt wel erg zuur voor ze. Ben benieuwd hoe dit afloopt allemaal.......
Once more we have confirmed that the chip that we call GT300 is on schedule to launch in 2009. The way it looks now the chip should be launching roughly in November timeframe and of course it will be a high end product.
Nvidia has put in a lot of effort in order to beat ATI and keep the performance leadership, as this is something it cannot afford to lose. The real volume shipment of Nvidia’s new DirectX 11, 40nm high end part should be expected in early Q1 2010 but since $599+ products are not selling in millions of units, Nvidia should be able to ship sufficient cards to consumers.
Even if something goes wrong, Nvidia will still show its hardware in late Q4 2009 just as they did with Geforce GTX 295 dual chip and ship it in early Q1 2010, as the strategy worked last time.
William Dally, chief scientist of Nvidia Corp, said at the Design Automation Conference that NVIDIA and designers will need electronic design automation tool to optimize power consumption and improve design efficiency.
Mr. Dally describes graphics as “throughput processors”,which will get rapid development in the following years. He predicts that GPU,based on improved 11nm process, will have at least 5000 stream processingwith 20TFLOPs of computing power in 2015.While current flagship GeForce GTX 285 (G200b) only has 240 stream processors. ATI’s most powerful Radeon HD 4890 chip (RV790) features 160 5-way SIMD units, or 800 stream processors.
William Dally, chief scientist of Nvidia Corp, said at the Design Automation Conference that NVIDIA and designers will need electronic design automation tool to optimize power consumption and improve design efficiency.
Mr. Dally describes graphics as “throughput processors”,which will get rapid development in the following years. He predicts that GPU,based on improved 11nm process, will have at least 5000 stream processingwith 20TFLOPs of computing power in 2015.While current flagship GeForce GTX 285 (G200b) only has 240 stream processors. ATI’s most powerful Radeon HD 4890 chip (RV790) features 160 5-way SIMD units, or 800 stream processors.
Maar of dat in de praktijk zo veel toegevoegde waarde zal hebben? Volgens mij zal je nog steeds goed het verschil tussen echt en gerenderd kunnen zien. De prestaties gaan volgens een exponentiële curve, het realisme volgens een logaritmische.
Cyberblizzard schreef op zaterdag 01 augustus 2009 @ 10:39:
[...]
Maar of dat in de praktijk zo veel toegevoegde waarde zal hebben? Volgens mij zal je nog steeds goed het verschil tussen echt en gerenderd kunnen zien. De prestaties gaan volgens een exponentiële curve, het realisme volgens een logaritmische.
Denk ook niet ze bij die grote chips blijven.
Want zolang ATi kleine goedkope chips blijft maken en nVidia grote en duurdere om te produceren gaan ze waarschijnlijk hun winst steeds verder zien dalen. En dat willen ze meestal niet.
Ik heb hier nog niets over gezien in dit topic... dus bij deze even het nieuws dat de grote PR man bij NVIDIA is vertrokken voor een nieuw avontuur. Derek Perez was altijd erg zichtbaar wanneer het aankwam op NVIDIA PR. Wie de functie als hoofd Public Relations gaat opvullen is nog niet bekend.
er was idd gemeld dat er een dood terugkwam. of dat iets met deze tapeout te maken heeft is me niet bekend. bekend is wel dat bij de meeste generaties Nvidia circa 3 tapeouts nodig had (met de nodige fixes tussendoor) voordat met over kon gaan op productie met redelijke yields.
ze zijn er dus voorlopig nog niet. gerucht wordt steeds hardnekkiger dat het toch echt op zijn vroegst Q1 2010
gaat worden en misschien dus zelfs later. natuurlijk zal Nvidia ervoor zorgen dat ze het (mogelijke) feestje van ATi gaan dwarsbomen en dus waarschijnlijk wel al veel eerder kaartjes klaarhebben voor de pers en de nodige "paperlaunch" zullen doen.
natuurlijk zal Nvidia ervoor zorgen dat ze het (mogelijke) feestje van ATi gaan dwarsbomen en dus waarschijnlijk wel al veel eerder kaartjes klaarhebben voor de pers en de nodige "paperlaunch" zullen doen.
Eigenlijk hoop ik dat ook. Ik heb absoluut geen voorkeur voor Nvidia of ATI, dus als ATI eerder met hun nieuwe kaart komt vind ik het erg prettig om dan te weten of ik wel of niet beter nog 2 maandjes kan wachten op de GT300.
CJ zei in de ati topic dat nvidia het gemist had. Of herriner ik me het vekeerd en zei cj dat de tape out totaal niet werkend terug kwam?
nVidia had de tape-out met als richt datum half juli gemist. Er kwam niks (goeds) terug... Half juli was al een uitgestelde datum. Nog geen week nadat dit het geval was, heeft wel een succes-volle tape-out plaats gevonden. GT300 is groot. Denk aan GT200 groottes op 65nm, maar nu dus op 40nm....
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
niet alle D12U's waren dood. via via hoorde ik uit Taiwan over een yield rate van 0.39%. dus max 4 goede dies per 1000. aangezien er max iets van 94 dies op één 300mm wafer passen kun je nagaan waar het woord "dood" vandaan komt.
Ter vergelijking, de yield rate van gt200b3 was rond de 45%
Andere 40nm producten zijn wel in productie, al heel lang zelfs, maar gezien de erg matige yields praat je over chips (216 bijv.) die al sinds februari door TSMC uitgepompt worden maar die bij lange na niet genoeg zijn om een gelijktijdige launch te waarborgen.
[Voor 31% gewijzigd door neliz op 03-08-2009 10:30]
met wat voor snelheid worden die wafers/chips gemaakt/gebakken dan eigenlijk?
je zegt dat er een yield rate van 0.39% is, en er 94 chips op 1 wafer zouden passen. in wat voor tijdsbestek word dan 1 zon wafer gemaakt? en dus per 3 wafers ongeveer 1 werkende chip?
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
normale verwerktijd ligt tussen de 40 en 60 dagen voor een 300mm wafer.
Yield rate van RV770 was 70%
GT21X yields zijn ook heel erg laag. denk aan rond de 10%, productie van de GT216/8 is echt al een half jaar aan de gang en er zijn nog steeds niet genoeg chips om dit product op de markt te brengen (geannonceerd? ja, op de markt? neen.)
Yields at 40%, I absolutely believe it. I have worked in a fab and have direct experience, let me detail a few problems.
Large die almost always have poorer yields. The problem is die on the edge of the wafer are the hardest to yield. Larger die means a higher ration of edge die per wafer.
As previously commented a wafer usually yields or does not.... that is completely false!!! It's easy to have a wafer that encounters 1 problem that will screw up half the die. You could have particle splatter take out ~20% on a wafer.
The shrink of this die is also going to take a long time. I figure these wafers take ~45 days to make with 400-600 steps. If you start your first wafer 55nm, it will be 45 days before you know how it turned out. Then you'll have to make adjustments and send others out.
Over de kosten. Ik weet niet wat een 40nm wafer nu precies kost. op 130nm kostte één 300mm wafer (6 laags) $3400 bij bestelling van 30.000 wafers, Dit zijn de totale kosten voor een behandelde wafer, kaal kost dat ding ~2900, kale 90nm 300mm wafer was ~3100. stel dat een 300mm wafer op 55nm $5000 kost (waarschijnlijk meer) praat je dus over een gemiddelde kostenpost van ~$53 voor één 55nm GT200, werkend of niet. met een 40% yield rate heb je het over $135 voorr één gt200b. Hoeveel wafers? Tsja.. dat is de grote vraag.. hoeveel wafers neemt nvidia af bij tsmc? ik gok veel, vanaf 50.000 per maand.
[Voor 20% gewijzigd door neliz op 03-08-2009 12:34]
hmm, dat is best wel lang. nou weet ik niet hoeveel wafers er tegelijk gemaakt kunnen worden maar zo is het ook niet raar dat er dus nog niet genoeg goed werkende chips zijn.
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Lijkt mij erg laag.
Of is zoiets normaal en is dat normaal bij GPU's (en CPU's)?
Dat is niet erg... je hebt technieken waardoor je een crappy yield rate van 30% naar 90% kan opschroeven.... NVIDIA werkt met de harvesting techniek, terwijl AMD nu meer repairability (redundancy) toe past (alhoewel ook zij af en toe nog harvesten, zie HD4830, HD47790, HD4730, HD4860).
Stel dat de yieldrate inderdaad 45% is van de GT200b, dan geldt het hier voor de cores waar alles functioneert en dus als GTX285 door het leven kan gaan. Het percentage cores die voor de GTX275 en GTX260 gebruikt kan worden ligt dan een stuk hoger dan die 45%. En gaat dus niet alles verloren. In plaats van 55% gooi je dan misschien maar 10% weg omdat er nog een gedeelte als een lager model verkocht kan worden.
Het nadeel van harvesten is dat de yieldrate in de loop der tijd verbeterd. Op een gegeven moment moet je dus met opzet goed werkende GPUs die je voor de volle mep had kunnen verkopen kreupel maken.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
CJ schreef op maandag 03 augustus 2009 @ 13:31:
[...]Het nadeel van harvesten is dat de yieldrate in de loop der tijd verbeterd. Op een gegeven moment moet je dus met opzet goed werkende GPUs die je voor de volle mep had kunnen verkopen kreupel maken.
Nou ja.. nadeel... zo bedoel je het waarschijnlijk ook niet helemaal, maar een echt nadeel hoeft het natuurlijk niet te zijn. Ze kunnen ook de prijs verlagen van de snelste chip, omdat de yields beter zijn. Daardoor zijn ze dan weer concurrerender. Plus wanneer de yields beter worden kunnen er ook weer OC (overgeklokte) versies uitgebracht worden voor de top 5% chips.
En er is nou eenmaal meer vraag naar het midden segment waardoor je soms beter meerdere mid-end chips met een lagere winstmarge kan verkopen dan 0 high-end chips.
Er zullen vast wel meer voordelen zijn...
Ghost81 schreef op maandag 03 augustus 2009 @ 13:57:
En er is nou eenmaal meer vraag naar het midden segment waardoor je soms beter meerdere mid-end chips met een lagere winstmarge kan verkopen dan 0 high-end chips.
Er zullen vast wel meer voordelen zijn...
Is maar hoe je het bekijkt natuurlijk.
Er worden idd veel meerd mid-end chips verkocht, maar als je die moet maken van gecastreerde high-end chips verdien je er ook minder op. Want die grote high-end chips zijn ook duurder om te maken.
Ghost81 schreef op maandag 03 augustus 2009 @ 13:57:
[...]
Nou ja.. nadeel... zo bedoel je het waarschijnlijk ook niet helemaal, maar een echt nadeel hoeft het natuurlijk niet te zijn. Ze kunnen ook de prijs verlagen van de snelste chip, omdat de yields beter zijn. Daardoor zijn ze dan weer concurrerender. Plus wanneer de yields beter worden kunnen er ook weer OC (overgeklokte) versies uitgebracht worden voor de top 5% chips.
En er is nou eenmaal meer vraag naar het midden segment waardoor je soms beter meerdere mid-end chips met een lagere winstmarge kan verkopen dan 0 high-end chips.
Er zullen vast wel meer voordelen zijn...
Hehe. Geloof me. Aan harvesten zitten op de lange termijn meer nadelen dan aan voordelen. En dat is zeker het geval wanneer je hevige concurrentie hebt. Je maakt een highend GPU niet om gelijk vanaf het begin voor midrange of budget prijzen te verkopen.
Je zag het grote verschil tussen harvesting en repairability enorm goed bij de GT200 vs RV770. NVIDIA had geen repairability ingebakken bij de GT200. Als een chip goed was, dan werd het een GTX280 met 240 SPs. Zaten er defecten in bepaalde clusters, dan werd het een GTX260. Naarmate de tijd vorderde, verbeterde de yieldrate en kon men met de GTX260 Core216 komen. Na weer een paar maanden kon men met de GTX275 komen. AMD kon echter vanaf het begin zowel hun topmodel als het model er na met precies dezelfde specs utbrengen en variatie aanbrengen door de kloksnelheden. Dit duidt er op dat AMD vanaf het begin erg goede yields had (iets wat later ook bevestigd is).
Maar door de hevige concurrentie moest men de prijzen wel enorm snel bij stellen. Denk je dat nVidia niet enorm baalde van het feit dat ze na al een maand de GTX280 ineens voor $449 moesten verkopen ipv de $649 die ze er eerst voor vroegen? En het harvestingproduct, de GTX260, moest ineens voor $299 over de toonbank ipv $449. Normaal gesproken zijn dit de cashcows die je kan uitmelken en waarmee je veel winst maakt omdat dit simpelweg de populairste producten zijn voor de massa. Na verloop van tijd als de yields goed zijn, dan is dit een kleiner probleem om de prijzen te verlagen, maar niet een maand na launch wanneer de yields nog aan de lage kant zijn.
Gebruik je repairability, dan heb je dat probleem niet. Het nadeel wat repairability wel heeft is dat je ook te veel redundancy in een GPU kan bouwen, waardoor je die-size groter wordt zonder waarneembare (performance)voordelen. En wanneer je te weinig redundancy in bouwt dan gaat de yieldrate ineens erg achteruit. Hier is het een kwestie van goed rekening houden met allerlei factoren en men kan hierbij eventueel nog voor harvesting gaan.
Het is gewoon niet leuk voor een bedrijf om GPUs die 100% functioneel zijn met opzet kreupel te maken en voor een lagere prijs te verkopen. Daarom komt men soms snel met native oplossingen, die kleiner zijn en gemakkelijker te produceren. Denk aan een RV570 als native product ter vervanging van het harvestingproduct de R580. Of de RV8740 als native 640 SP GPU ter vervanging van het harvestingproduct de HD4830.
[Voor 97% gewijzigd door CJ op 04-08-2009 13:08. Reden: typo :+]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
According to reliable sources, Inno3D is reading a water-cooled iChill Black Series GTX 295 graphics card, and Expreview has managed to score some shiny pictures of it.
The card will be factory overclocked, though we don’t know more details yet. As you see, the water block looks pretty nice, and has an aluminum (nickel-plated) cover to avoid oxidation.
Inno3D should be announcing the iChill GTX295 Black Edition quite soon, so keep an eye for it.
NVIDIA nex-gen 40nm DX11 GPU GT300 will include four variants,none of which have taped out yet. Sources said that NVIDIA will wait to get first silicon and decide what change is added to designs.
According to our previous report, GT300 die size is about 23mm*23mm, between GT200 and GT200b with TSMC 40nm process.Manfacturing expenses will be around 30% higher than 55nm wafers.
We can figure out the cost of GT300 dies at about ((530/484) * 1.3 = 1.42x GT200.
Dus als ik het goed begrijp bouw je met repairability de chip iets groter zodat je de (licht) defecte chips kan repareren met dat stukje extra ruimte. Als je yields beter worden kan je dan dus ook een "ultra" uitbrengen als veel chips volledig werkend zijn en je die repairability ruimte inzet voor extra performance.
de prijs is alleen wel een beetje jammer. natuurlijk ook wel logisch gezien er maar 1000 gemaakt worden maar toch...de prestaties volgens die sites (en dus onder optimale omstandigheden) liggen 23% hoger terwijl de prijs 444% van een normale gtx 285 is. ik zie het nut dan eigenlijk ook niet echt hiervan.
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.
Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.
Functioneel en analytisch
Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie.
Meer details
janee
Relevantere advertenties
Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht.
Meer details
Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.
Ingesloten content van derden
Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden.
Meer details