In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter
Dit topic is vooral niét bedoeld om te posten dat:
jouw favoriete kaart niet leverbaar is bij een shop.
jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst!
Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2
Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 34
Sinds eind oktober 2007 is ook de G92 core op de markt. Dit is een G80 core, maar dan met enkele optimalisaties en gebakken op 65 i.p.v. 80nm, wat resulteert in een lager stroomverbruik.
Vanaf G92 core zijn er nog wat nog een extra technologieën gebruikt:
"HybridPower™* technology offers exceptional graphics performance and power savings for everyday needs"
en PCI-E 2.0 interface, wat een maximum transfer snelheid van 16GB/s oplevert <> PCI-E 1.0 die "slechts" 8GB/S als maximum heeft
Sinds Begin maart is ook de volledige GT1xx line up bekend gemaakt. In tegenstelling zoals velen zouden durven te vermoeden zijn ook deze kaarten gewoon gebaseerd op de (oude)G92/94 GPU-kern en horen ze gewoon in deze generatie thuis in plaats van een volgende.
Een opmerking moet wel gemaakt worden dat deze kaarten enkel voor OEM gebruik bedoeld zijn en deze dus niet in de losse handel verkrijgbaar zijn.
Rebranding heeft nooit voorgedaan/bestaat dus niet!
9800 GTX
GPU: G92
Release Date: 03/2008
Interface: PCI-E 2.0 x16
Transistors: 754 million
Unified shaders: 128
shader clock: 1688 MHz
Texture units: 64
ROP's: 16
Core Clock: 675 MHz
Memory Clock: 1100 MHz (GDDR3)
Memory Bandwidth: 70.4 GB/sec
Memory Interface: 256 bit
Memory: 512 MB
Texture Fill Rate:43.2 billion/s
OpenGL: 2.1
Sli: Dual/Tri-SLI
Comsumption: 140 Watt (max)
Power Connectors: 2x 6-pin
9800 serie
9800 GTX+
GPU: G92 (55nm)
Release Date: 07/2008
Interface: PCI-E 2.0 x16
Transistors: ??? million
Unified shaders: 128
Shader clock: 1836 MHz
ROP's: 16
Core Clock: 738 MHz
Memory Clock: 1000 MHz (GDDR3)
Shader Clock: 1836 MHz
Memory Bandwidth: 70.4 GB/sec
Memory Interface: 256 bit
Memory: 512 MB
Consumption: 145 watt
2-3 way SLI support
GTS150
GPU: G92b (55nm)
aka GTS250 Slow, 9800GTX+
Release Date: 10/04/2009
Interface: PCI-E x16 2.0
Transistors: 754 million
Unified shaders: 128
Shader clock: 1836 MHz
Texture units: 64
ROP's: 16
Core Clock: 740 MHz
Memory Clock: 1000 (GDDR3)
Memory Bandwidth: 64 GB/sec (GDDR3)
Memory Interface: 256 bit
Memory: 1024 MB (GDDR3)
Texture Fill Rate: 47.2 billion/s
OpenGL: 2.1
Sli: Dual/Tri-SLI
Comsumption: 141 Watt (max)
Power Connectors: 2x 6-pin
Enkel OEM
9800 serie
GTS 250
GPU: G92a/b (65/55nm)
Release Date: 03/03/2009
Interface: PCI-E x16 2.0
Transistors: +/- 754 million
Unified shaders: 128
Shader clock: 1836 MHz
ROP's: 16
Core Clock: 738 MHz
Memory Clock: 1100MHz (GDDR3)
Memory Bandwidth: 70.4 GB/sec (GDDR3)
Memory Interface: 256 bit
Memory: 512/1024/2018 MB (GDDR3)
Texture units: 64
Texture Fill Rate: 47.2 (billion/sec)
OpenGL: 3.0
SLI: 2-way/3-way SLI
Consumption: 112 watt (max) officieel 150
Power Connectors: 1x 6-pin
Waarom?
Kleinere PCB, past dus handiger in de Case
Lager verbruik waardoor je maar een 6-pin power connector nodig hebt.
Veel lagere prijs
9800 Gx2
GPU: 2x G92
Release Date: 03/2008
Interface: PCI-E 2.0 x16
Transistors: 2X 754 million
Unified shaders: 2x 128
Shader clock: 1500 MHz
ROP's: 2x 16
Core Clock: 600 MHz
Memory Clock: 1000 MHz (GDDR3)
Memory Bandwidth: 128 GB/sec
Memory Interface: 512 bit (2x 256 bit)
Memory: 1024 MB (2x 512MB)
Texture units: 2x 64
Texture Fill Rate: 79.8 (billion/sec)
OpenGL: 2.1
SLI: Quad SLI
Consumption: 197 watt (max)
Power Connectors: 1x 6-pin,1x 8-pin
De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.
De eerste 2 kaarten gereleased in deze nieuwe reeks zijn direct de high end kaarten. Deze kaarten zijn stukken beter dan de vorige high end maar dit brengt een mooi prijskaartje met zich mee. Hoewel dat er veel kans is dat deze prijs snel kan dalen doordat ati zijn kaarten deze keer veel beter opkunnen tegen het NVIDIA geweld (we denken aan de HD4870x2)
De GeForce GTX 280 en 260 gebruiken dezelfde identieke GPU cores maar het in het 260 model werden onderdelen van de core uitgeschakeld en ook de RAM en memory interface werden verminderd voor marketing doeleinden.
De GT200 is tot nu toe de grootste GPU core die men tot nu toe ooit gefabriceerd heeft hij bestaat uit 1.4 miljard transistoren die een oppervlakte bestreiken van 575mm² gebakken met 65nm procédé hoewel men hard werkt om over te kunnen snappen naar 55nm. De totale kaart meet 27 cm.
De 2 huidig gereleasde 200serie kaarten ondersteuen ook 10 bit kleuren, hiervoor heb je wel displayport nodig, dus voor dit feature zal je moeten wachten tot een fabrikant grafische kaarten met deze uitgangen beschikbaar zal stellen op de markt.
Beide kaarten hebben een verbeterde versie van PureVideo voor het hardwarematig decoderen van oa VC-1,WMV9 en H.264 geëncodeerde filmbestanden.
De standaard referentie kaart hebben allemaal 2 dual link DCI connectors en een HDTV/s-Video connector.
Energieconsumptie: De high end kaarten zijn weer energievreters zoals je kon verwachten. Het maximale vermogen van deze kaarten zijn: 182 Watt (GTX260) tot 236 Watt (GTX 280)
De GTX 280 zal 1 8-pin en 1 6-pin pci-e power connectoren vereisen wanneer de GTX 260 toekomt met "slechts" 2 6-pin pci-e power conectoren.
Enige actuele succes van de chipset afdeling van nVidia: Lancering van van nVidia's Ion platform
Tot nu toe zijn alle reviews lovend; Een stukken minder verbruikende chipset die ervoor zorgt dat full HD wel afgespeeld kan worden(desnoods via coreAVC + CUDA indien je codec niet hardwarematig wordt ondersteunt) op je netbook eventueel om aan te sluiten op je HD-TV.
Helaas minder positief nieuws? (Hoewel licentie technisch kostend besparend en wie wil er nu een dx10 game spelen op een Windows xp netbook die dit dus toch niet ondersteunt...)
nieuws: Nvidia: DirectX 11 geen impuls voor verkoop videokaarten
Echter zijn hierdoor zeker niet alle problemen opgelost: Charlie (bekende nVidia basher) heeft namelijk vernomen dat slecht 2% van de geproduceerde gpu cores werkende (nog niet eens bug-vrij) zijn gekregen uit de laatste (gehaaste) revisie waardoor nVidia zeker minstens 1 respin zal moeten doorgaan om zijn nieuwe gt300 gpu-core's een hogere yield te laten bekomen.
Patch maakt physX weer mopelijk met ati-nVidia gpu combinatie:
Nadat deze functionaliteit sinds de 186 drivers geblokkeerd werd is deze weer terug te brengen aan de hand van een patch die op alle recente drivers zou moeten werken:
De vorige nieuwsberichten kan je logischerwijze steeds vinden in het vorige topic ;)
Notebook nVidia GPU's met dx10.1 support?
Dit gerucht is redelijk zeker daar er vele bevestigingen zijn gekomen dat er idd zo'n mobiele GPU's er zitten aan te komen zelfs gefabriceerd met het 40nm proces! Men suggereert echter dat men deze functionaliteit mogelijk bij de launch niet ter beschikking kan stellen maar eventueel achteraf met een driverupdate zal doen als het blijkt dat het marketing technisch intressant/nodig blijkt te zullen zijn.
Het feit dat er nu al desktop modellen met dx10.1 zijn geleverd bevestigd alleen nog meer dit gerucht:
gaan dat nVidia's grafische kaart hooguit einde Q4 2009 (indien dit nog lukt wss een paperlaunch) begin 2010 pas in massa geproduceerd zullen worden. Men gaat ervan uit dat de nVidia serieuse problemen heeft met zijn dx11 serie kaarten, oa doordat men vernomen heeft dat het geproduceerde test exemplaar gewoonweg dood is terug gekeerd en er dus nog serieus veel werk voor de boeg is voordat deze massa produceerbaar zal worden.
*update 5 oktober 2009*
Deze geruchten worden behouden ook al wijst men meer en meer naar eind Q1 2010 tegen dat nVidia zijn massa productie helemaal in orde zou kunnen krijgen, deze geruchten worden gevoed door het eventueel showen van een valse gt300 kaart en de enorm lage bekomen yield-rates: Semiaccurate: nVidia fakes fermi boards
nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(5oktober 2009) zijn er nieuwe whql drivers uit die recenter zijn dan de beta's die te vinden zijn op de nvidia site
De allerlaatste Beta client kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.
Een goede site voor drivers voor Mobile GPU's is(kun je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nvidia www.laptopvideo2go.com
In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter
Dit topic is vooral niét bedoeld om te posten dat:
jouw favoriete kaart niet leverbaar is bij een shop.
jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Veel lees- en discussieerplezier toegewenst!
Informatie over de G70 core wordt in dit topic niet meer bijgehouden, daar deze kaarten al een redelijke leeftijd hebben en alle nieuwe laptops nu een 8 of 9 reeks van mobiele kaart hebben. De nieuwswaarde van de 7 reeks of oudere mobiele kaarten is dus enorm laag in te schatten.
In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur.
De belangrijkste features van de G80 zijn:
Unified shaders
DirectX 10 ondersteuning
OpenGL 2.0 ondersteuning
Nieuwe AA modes CSAA, 8Q, 16Q
128 bit HDR ondersteuning in combinatie met AA
16x hoekonafhankelijke AF
Ondersteuning voor GPU Physics
Shader Model 4
Purevideo (HD)
SLI
Hieronder volgen de Mobiele modellen uit de Geforce 8M reeks:
8 serie
8400M
Deze kaart is de opvolger van de go 7400M kaart. Technisch gezien zijn het tragere 8600M GS kaarten.
De voordelen zijn vooral DirectX 10 supportte en ondersteuning van purevideo.
De Qaudro FX 360M is gebaseerd op deze kaart.
GPU: G86M
Announce Date: 09/05/2007
Interface: PCI-E x16
Consumption: 11(GS)-14(GT) Watt
Transistors: 210 million
Geforce 8400M G
GeForce 8400M GS
GeForce 8400M GT
Stream-Processors
8
16
16
Core Clock (MHz)
400
400
450
Shader Clock (MHz)
800
800
900
Memory Clock (MHz)
600
600
600
Maximum Memory
256MB
256MB
512MB
Memory Interface
64-bit
64-bit
128-bit
Memory Bandwidth (GB/sec)
9.6
9.6
19.2
Texture Fill Rate (billion/sec)
3.2
3.2
3.6
8600M GT
Deze kaart is in essentie technisch gezien een hoger geklokte 8400M GT kaart. De performatie ligt net ietsje hoger dan de 7600 / 7700 go grafische kaarten.
De 8600M kaart is één van de eerste laptop GPU's die DirectX 10 support en hardwarematige versnelling van decodatie van H.264-geëncodeerde HD-films.
De quadro FX 570M kaart is gebaseerd op deze kaart.
GPU: G84M
Announce Date: 09/06/2007
Interface: PCI-E x16
Consumption: 20 Watt
Transistors: 289 million
GeForce 8600M GS
GeForce8 600M GT
Stream-Processors
16
32
Core Clock (MHz)
600
475
Shader Clock (MHz)
1200
950
Memory Clock (MHz)
700
700
Maximum Memory
512MB
512MB
Memory Interface
128-bit
128-bit
Memory Bandwidth (GB/sec)
12.8/22.4 (DDR2/GDDR3)
12.8/22.4 (DDR2/GDDR3)
Texture Fill Rate (billion/sec)
4.8
7.6
8700M Serie
Deze Serie was oorspronkelijk ontwikkeld voor de high-end markt. Er is maar 1 versie van deze reeks namelijk de 8700M GT en een quadro afgeleidde de fx 1600M
Deze chipset kan je eigenlijk eerder zien als een deftige mid-end kaart dankzij oa zijn 128-bit memory bus. (Deze kaart toont bv een goede 3D mark performantie maar doet het ingame veel slechter dankzij de kleine memory bus, wat nog eens 3dmark zijn relevantie aantoont )
Hierdoor is deze kaart een in essentie een hoger geklokte 8600M GT kaart met GDDR-3. Deze kaart toont wel goede performantie in een dual-card sli configuratie. En is alleen goed genoeg om te gamen.
GPU: G84M/G84GLM(quadro fx 1600M)
Announce Date: 12/06/2007
Interface: PCI-E x16
Consumption: 29 /50Qqaudro) Watt
Transistors: 289 million
GeForce 8700M GT
Qaudro fx 1600M
Stream-Processors
32
32
Core Clock (MHz)
625
625
Shader Clock (MHz)
1250
1250
Memory Clock (MHz)
800
800
Maximum Memory
512MB
512MB
Memory Interface
128-bit
128-bit
Memory Bandwidth (GB/sec)
25.6 (GDDR3)
25.6 (GDDR3)
Texture Fill Rate (billion/sec)
10
10
8800M Serie
Met de G92M core en een 256 bit Memory bus is deze serie is de echte Mobile 8 high-end serie. Er zijn 2 varianten van deze serie plus een Quadro afgeleide op de markt.
GPU: G92M (65 nm)
Announce Date: 19/11/2007
Interface: PCI-E x16
Consumption: 35 /37 Watt
Transistors: 754 million
GeForce 8800M GTS
Qaudro FX 3600M
GeForce 8800M GTX
Stream-Processors
64
(64 of) 96
96
Core Clock (MHz)
500
500
500
Shader Clock (MHz)
1250
1250
1250
Memory Clock (MHz)
800
800
800
Maximum Memory
512MB
512MB
512MB
Memory Interface
256-bit
256-bit
256-bit
Memory Bandwidth (GB/sec)
51.2 (GDDR3)
51.2 (GDDR3)
51.2 (GDDR3)
Texture Fill Rate (billion/sec)
16
16
24
De GeForce 9M Serie werd gereased op 21 februarie 2008 eerst exclusief voor asus maar daarop volgend ook voor andere merken (oa medion laptop beschikken al een tijdje over grafische kaarten van deze nieuwe reeks)
Alle GPU's in de Geforce 9M Serie beschikken over volgende eigenschappen:
Betere performantie bij hetzelfde verbruik in vergelijking met de GeForce 8M Serie voor de low- en mid-end kaarten.
Volledige DirectX 10.0 en OpenGL 2 compatibileit,
Mogelijkheid tot 16X antialiasing
Full HD DVD / Blu-ray hardware decodering.
9100M G
Geïntigreerde grafische kaart op het moederbord Met 8 stream processors, kan theoretisch 26 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze IGP kan kan samenwerken via hybrid sli met een 9200M of 9300M kaart wat resulteert in een performantie van een Geforce 9400M kaart
GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
GeForce 9100M G + GeForce 9200M GS = GeForce 9400M
9200M GS
Ultra low end grafische mobiele kaart Met 8 stream processors, kan theoretisch 31 gigaflops aan en is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is gemaakt met als doel samen te werken met een GeForce 9100M via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart
GeForce 9100M G + GeForce 9200M GS = GeForce 9400M
GPU: NB9M
Announce Date: 03/06/2008
Interface: PCI-E x16
Consumption: 13 Watt
Transistors: ?? million
Core Speed: 550 MHz
Shader Speed: 1300 MHz
Memory Speed: 700 MHz
Memory Bus Width 64 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 256 MB
9300M G
low-mid end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart ondersteunt ook NVIDIA® Quantum Effects en kan samen werken met een GeForce 9100M (GS editie) via hybrid sli wat resulteert in een performantie van een Geforce 9400M kaart.
GeForce 9100M G + GeForce 9300M GS = GeForce 9400M
GPU: NB9M
Announce Date: 04/06/2008
Interface: PCI-E x16
Consumption: 13 Watt
Transistors: ?? million
Stream processors: 16
Core Speed: 400 MHz
Shader Clock: 800 MHz
Memory Clock: 600MHz
Memory Bus Width: 64 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 256 MB
9500M Serie
95000M G
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 (ook 16 stream processors). Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
GPU: NB9P
Announce Date: 03/06/2008
Interface: PCI-E2.0 x16
Consumption: ?? Watt
Transistors: ?? million
Stream processors: 16
Core Speed: 500 MHz
Shader Clock: 1250 MHz
Memory Clock: 800 MHz
Memory Bus Width: 128 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 1024 MB
95000M GS
mid-end grafische mobiele kaart is bruikbaar voor CUDA applications en is NVIDIA PhysX-ready.
Deze kaart is de rechtstreeks opvolger van de 8600 maar met 32 stream processors. Deze kaart heeft echter een verbeterde PureVideo HD engine (VP3),
ondersteunt hybrid sli/power management en verbruikt minder door gebruik te maken van 65nm proces.
Door de optimalisaties en dubbel aantal stream processors haalt deze kaart ongeveer 10% betere performance dan een 8600GT.
GPU: G84-50
Announce Date: 03/06/2008
Interface: PCI-E2.0 x16
Consumption: ?? Watt
Transistors: ?? million
Stream processors: 32
Core Speed: 475 MHz
Shader Clock: 950 MHz
Memory Clock: 700 MHz
Memory Bus Width: 128 Bit
Memory Type GDDR2, GDDR3
Max. Amount of Memory 512 MB
9600M Serie
Deze med-end kaart is geproduceed met het 65nm proces welke hogere klok frequenties toelaten met hetzelfde verbruik. Ook deze kaart heeft de nieuwe PureVideo HD video processor (VP3) en HybridPower support.
Deze HybridPower support zorgt ervoor dat in samenwerking met de Nvidia 9100M G integrated graphics kaart er minder stroom wordt gebruikt (1 van de 2 wordt gebruikt echter nooit samen dit zou namelijk geen speed boost meer opleveren)
Deze kaart kan je qua performantie vergelijken met een 9500 GT desktop grafische kaart daar de 9600GT een 256 bit memory interface heeft en het dus stukken beter doet
GPU: NB9P (65nm)
Announce Date: 3/06/2008
Interface: PCI-E2.0 x16
Consumption: ???/29 Watt (9650M GS)
Transistors: ??? million
GeForce 9600M GS
GeForce 9600M GT
GeForce 9650M GS
Stream-Processors
32
32
32
Core Clock (MHz)
430
500
625
Shader Clock (MHz)
1075
1250
1250
Memory Clock (MHz)
800
800
800
Maximum Memory
1024MB (GDDR2/GDDR3)
1024MB (GDDR2/GDDR3)
512MB (GDDR2?/GDDR3)
Memory Interface
128-bit
128-bit
128-bit
Memory Bandwidth (GB/sec)
(GDDR3)
25.6
25.6
Texture Fill Rate (billion/sec)
10
9700M GT
Deze kaarten zijn de directe opvolgers van de 8700M kaarten. Technisch gezien zijn het simpelweg hoger geclockte kaarten dan de 9600M kaarten.
Ze zijn geproduceerd gebruik makend van het 65nm procedure en ondersteunen de volgende eigenschappen:
De nieuwe PureVideo HD video processor (VP3)
HybridPower support (switchen tussen uw onboard grafische kaart en de MGPU, Vista only)
ondersteunt CUDA enabled programma's
NVIDIA PhysX-ready.
Je kan deze kaart qua performantie het beste vergelijken met een GeForce 9500GT desktop kaart, beiden stammen af van dezelfde G96 core.
De performantie is echter hoger dan de 9600M hoofdzakelijk door de hoge clock speeds (hoogste clock snelheid van de 9000M serie). Maar net zoals met de desktop kaart zijn zwaar vragen DirectX 10 games te zwaar om op hoge details/resolutie te spelen.
9700M GTS
Deze kaarten zijn in tegenstelling tot hun naamgeving gebaseerd op een andere core dan de 9700M GT kaarten, namelijk de G94 core ipv de G96.
Dit houdt in dat er 48 shaders beschikbaar zijn ipv 32 én de geheugenbus is 256 bit breed! Deze kaart ondersteunt verder dezelfde eigenschappen als de GT variant
Qua performantie valt deze kaart ergens tussen een 9500GT en 9600GT desktop kaart.
GeForce 9700M GT
GeForce 9700M GTS
Core
G96(NB9P)
G94(NB9E-GTS)
Consumptie (Watt)
45
60
Stream-Processors
32
48
Core Clock (MHz)
625
530
Shader Clock (MHz)
1550
1325
Memory Clock (MHz)
800
800
Maximum Memory
512 (GDDR2/GDDR3)
512 (GDDR3)
Memory Interface
128-bit
256-bit
Memory Bandwidth (GB/sec)
25.6
51.2
Texture Fill Rate (billion/sec)
10.0
12.7
GTX 1x0M Serie
Deze reeks werd samen met de GTX2xxM reeks bekend gemaakt. Deze chips hebben veel kans om populair worden doordat ze een stuk goedkoper zijn dan de GTX280M die weliswaar 2 keer zoveel performantie biedt maar stukken warmer loopt en meer kost.
Deze chips supporten SLI, HYBRID Power, Cuda en PhysX maar zijn desondanks nog steeds gebaseerd op de (oude) G92b chip
Deze reeks zal vooral gebruikt worden als higer mid-end en als vervanger dienen voor de 9600M en de 9700M reeks(de GTX 160M zou ongeveer 30 tot 40% beter performantie bieden dan de 9700M GT). Meest waarschijnlijk zal deze kaart dus een heel populaire kaartje worden in laptops.
GeForce GTS150M
GeForce GTS160M
Core
G94(??)
G92b(55nm)
Consumptie (Watt)
??
??
Stream-Processors
64
64
Core Clock (MHz)
600
600
Shader Clock (MHz)
1000
1500
Memory Clock (MHz)
800
800
Maximum Memory
1024(GDDR3)
1024MB (GDDR3)
Memory Interface
256-bit
256-bit
Memory Bandwidth (GB/sec)
51.2
51.2
Texture Fill Rate (billion/sec)
13.0
19.0
9800M Serie
Net als de 9700M Serie zijn er 2 cores gebruikt bij de varianten. Deze kaarten beschikken ook over dezelfde eigenschappen als de vorige serie maar zijn duidelijk high-end.
9800M GT en 9800M GTS zijn beiden gebaseerd op G94 Core wanneer de 9800M GTX gabaseerd is op een G92 Core. Het verschil tussen de varianten ligt voornamelijk bij het steeds bijkomend aantal shaders.
Qua performantie kan je een 9800M GT het beste vergelijken met een 8800GS desktop kaart
De GTX kan je het beste vergelijken met een 8800GT kaart die ietsje sneller zal zijn vanwege zijn geheugensnelheid
GeForce 9800M GS
GeForce 9800M GT
GeForce 9850M GS
Core
G94(NB9E-GT)
G94(NB9E-GTS)
G92(NB9E-GTX)
Consumptie (Watt)
75
65
75
Stream-Processors
64
96
112
Core Clock (MHz)
600
500
500
Shader Clock (MHz)
1500
1250
1250
Memory Clock (MHz)
800
800
800
Maximum Memory
1024(GDDR3)
512MB (GDDR3)
512MB (GDDR3)
Memory Interface
256-bit
256-bit
256-bit
Memory Bandwidth (GB/sec)
51.2
51.2
51.2
Texture Fill Rate (billion/sec)
19.2
24.0
28.0
GTX2xxM Serie
Op 3 maart 2009 heeft nVidia 2 nieuwe mobiele high-end grafische kaarten voorgesteld die de opvolgers zullen worden van resectievelijk de 9800M GT en de 9800M GTX. Desondanks hun naamgeving (marketing truc om de eindgebruikers te misleiden ? ) zijn deze kaarten nog steeds gebaseerd op de G92-architectuur.
Ook deze kaarten ondersteunen alle nieuwe technologiën (incluis hybridpower).
GeForce GTX260M
GeForce GTX280M
Core
G92(??)
G92(??)
Consumptie (Watt)
??
??
Stream-Processors
112
128
Core Clock (MHz)
550
585
Shader Clock (MHz)
1375
1463
Memory Clock (MHz)
950
950
Maximum Memory
1024MB(GDDR3)
1024MB (GDDR3)
Memory Interface
256-bit
256-bit
Memory Bandwidth (GB/sec)
60.8
60.8
Texture Fill Rate (billion/sec)
31
38
Begin 2009 werd er de nieuwe G100M reeks voorgesteld. Deze bestaat uit sneller, feature-uitgebreide kaarten geproduceerd met het 55nm-productieproces.
Momenteel zijn gegevens beschikbaar over 3 van deze nieuwe kaarten:
Geforce G105M
GeForce G110M
GeForce GT130M
Core
G105M
G110M
G92(NB9E-GTX)
Consumptie (Watt)
??
??
??
Stream-Processors
8
16
32
Core Clock (MHz)
??
??
??
Shader Clock (MHz)
1600
1000
1500
Memory Clock (MHz)
500(DDR2)/700(GDDR3)
500(DDR2)/700(GDDR3)
500 (DDR2)/800 (GDDR3)
Maximum Memory
tot 512MB
tot 1024MB (GDDR3)
512MB (GDDR3)
Memory Interface
64-bit
64-bit
128-bit
Memory Bandwidth (GB/sec)
8(DDR2)/11(GDDR3)
8(DDR2)/11(GDDR3)
16 (DDR2)/25 (GDDR3)
Texture Fill Rate (billion/sec)
??
??
??
De GeForce G105M en de G110M zullen de Mainstream markt bedienen en vormen hierdoor de opvolger van de 9200M tot aan de 9400M kaarten.
De GeForce GT 130M zal de Performance markt bedienen en vormt hierdoor de opvolger voor de 9500M en de 9600M grafische kaarten (hoewel dat nVidia vermoedelijk de GTS 160M zal pushen als opvolger voor populaire de 9600M GT kaart).
Hoeveel dit gerucht waard is, is onbekend daar volgens nVidia zelf de performantie van de GT 130m en de 9600M GT 100% hetzelfde is (en dit dus ruikt naar een zoveelste rebranding )
nieuws: Nvidia komt dit jaar met mobiele 55nm- en 40nm-gpu's
Dit houdt dus in dit dat er dit jaar een hele reeks nieuwe mobiele grafische kaarten gereleased worden
Het eerste helft van het jaar zullen alle G9X gebaseerde mobiele kaarten een 55nm versie krijgen met de respectievelijke marketing namen:
• GeForce G105M - G105M
• GeForce GT 120M - GT 130M
• GeForce GTS 160M
• GeForce GTX 170M - GTX 180M
In het tweede deel van het jaar zullen dan de nieuwe 40 nm op de GT21x architectuur gebaseerde kaarten verschijnen:
• GeForce GS en GE low-end (gebaseerd op de nieuwe GT218 GPU core)
• GeForce GS, NS, GE, GLM mid-end (gebaseerd op de nieuwe GT216 GPU core)
• GeForce GT, GS, GE Performance (gebaseerd op de nieuwe GT215 GPU core)
• GeForce GTX high-end (gebaseerd op de nieuwe GT212 GPU core)
Hierbij valt dus vooral op dat deze kaarten dezelfde naam-schema structuur krijgen als hun desktop tegenhanders (alle GeForce9 kaarten zullen ook daar rebranded worden naar GT1xx kaarten)
Hierbij is wel het verschil dat de mobiele varianten een veel kleiner productie proces zullen hebben (respectievelijk 55 en 40 nm)
NVIDIA® CUDA™ is a general purpose parallel computing architecture that leverages the parallel compute engine in NVIDIA graphics processing units (GPUs) to solve many complex computational problems in a fraction of the time required on a CPU. It includes the CUDA Instruction Set Architecture (ISA) and the parallel compute engine in the GPU. To program to the CUDATM architecture, developers can, today, use C, one of the most widely used high-level programming languages, which can then be run at great performance on a CUDATM enabled processor. Other languages will be supported in the future, including FORTRAN and C++.
Basically komt her opneer dat CUDA een programmeertaal is die ervoor zorgt dat de minder krachtige, maar vele shader processoren ter beschikking komen van de programmeur.
Deze cpu's zijn veel minder krachtig dan een gewone desktop CPU maar maken dit ruimschoots goed door hun aantal. In feite is een gpu krachtiger dan een cpu maar het is veel moeilijker hiervoor te programmeren daar 1 bewerking veel langer zal duren, maar je verschillende bewerkingen tegelijkertijd kan doen.
Je zal dus je programma code zo moeten schrijven dat zoveel mogelijk taken parallel kunnen worden uitgevoerd. CUDA is dus vooral voordelig voor parallelliseerbare taken die veel berekeningen eisen, we denken aan wetenschappelijk onderzoek of aan renderen van beelden.
CUDA zal je helpen bij het programmeren door een high-level C-achtige taal ter beschikking te stellen waardoor de programmeur het een stuk eenvoudiger heeft om al deze kleine processortjes zo optimaal mogelijk te gebruiken.
Hybrid power SLI
Wat heb je nodig?
1. een Hybrid power compatibel Moederbord.
Let op een goed moederbord is heel moeilijk te vinden doordat je dus een recente chipset met een igp nodig hebt MAAR deze moet ook nog video uitgangen hebben op het moederbord zelf.
Vele moederbord fabrikanten maken wel reclame dat het moederbord hybrid-sli compatibel is indien er geen video uitgang aanwezig is op het moederbord is deze techniek zo goed als nutteloos.
Indien je meer dan 1 scherm wil aansluiten zal je zelfs moeten uitkijken naar moederborden die dus 2 video uitgangen hebben.
Ikzelf ben bij de Asus M3N78 als enige mogelijkheid terecht gekomen die vindbaar is in nederland( niet gevonden in belgie). Héél recentelijk is er ook nog de mogelijkheid van M4N78 Pro erbij gekomen. Waarom deze moederborden ipv een paar anderen?
Simpele deze zijn de enige moederborden die zowel een GeForce 8200 of GeForce 8300 als chipset hebben en meer dan 1 video uitgang hebben waardoor een je dual screen setup kan draaien. Dit lijkt misschien triviaal maar als je hybrid sli wil draaien moeten al je schermen op je moederbord worden aangesloten waardoor als je maar 1 video uitgang hebt je simpel weg beperkt bent tot 1 scherm. let op:
Hybrid Sli support nu (mits goede drivers) multi screens maar met een maximum van
2 schermen een 3de scherm op je dGPU aansluiten disable je Hybrid Sli.
2. Gebruik momenteel nooit de sleep modus van windows Vista .. Om 1 of andere manier kan deze sowieso niet goed overweg met Hybrid sli (een kaart die er is maar niet zichtbaar is wanneer je terugkomt uit sleepmodus is blijkbaar niet leuk voor Vista.). Maar erger dit zal veroorzaken dat je dGPU weer tot leven komt maar constant in 3D modus zal blijven waardoor je dus meer zal verbruiken dan dat je Hybrid SLI zou disablen en je simpel weg op je dGPU zou werken!
Het vermoeden bestaat dat nVidia hier niet zoveel kan tegen doen doordat het het powermanagement van Vista is die eigenlijk een (of meerdere) fout maakt.
2. Een Hybrid sli compatibele grafische kaart
AGAIN heel goed opletten, bv een 9800GT kaart ondersteunt dit theoretisch, praktisch bijna niet doordat er vele oude 8800GT gerebrand zijn naar een 9800GT (de oude 8800GT's ondersteunen dit dus niet!)
Ook de GTX265 en de GTX285 ondersteunen dit niet.
DUs wil je hybrid gaan, checkt niet enkel de nvidia site of uw kaart compatibel is maar check dit in de gedetailleerde specificaties van uw specifieke grafische kaart (zelfs sommige fabrikanten zijn hier heel zuinig mee .. bv zeggen dat al hun 9800 kaarten dit ondersteunen maar in werkelijkheid een hele hoop revisies zijn die dit niet doen ..)
3. Praktisch gezien momenteel een AMD cpu doordat je geen enkele chipset hebt die hybrid power sli ondersteunt die een intel cpu aanvaard
Hoe werkt het?
Simpel weg de monitors aansluiten op uw moederbord gpu (vandaar dus de noodzaak dat uw igp videouitgangen ter beschikking moet hebben ...)
En dan in het bios kruipen om een paar settings aan te passen.
Daarna zal je manueel power saving of performantie optie hebben rechts onder in de task bar.
Om van mode te kunnen switchen mag geen enkel 3D programma open staan. Dus eerst van mode veranderen dan pas het spel opstarten
Het taskbar icoontje zal veranderen adhv je mode zodoende kan je in 1 blik direct zien in welje mode je Grafische kaart zich bevindt.
nVidia blijkft voorlopig Physx en cuda supporten ondanks harde concurrentie en het feit dat het gebruik van Physx in games nog steeds niet algemeen is.
Dat Physx wel degelijk een positief effect kunnen hebben toont volgende grafiek mooi aan (UT3 map dat speciaal ontwikkeld is voor Physx )
Nieuwe Informatieve gegevens dankzij de release van de GTX275 kaart waarbij nVidia maar bleef hameren op de PhysX, CUDA en AO voordelen.
• Anandtech Games:
Sacred 2:
• Tom's Hardware
• AnandTech
Warmonger:
• AnandTech
UT3 PhysX Mod Pack:
• AnandTech
Mirror's Edge:
• AnandTech
Batman Arkham:(finally a good game ? )
• Onze eigen Tweakers FP
How To: Dedicated PhysX kaart
Om een grafische kaart als dedicated PhysX kaart te gebruiken moet je hem enkel als een multi gpu installeren. Maw in een tweede pci-e slot steken en een recente driver gebruiken.
Je hebt maar 1 (recente) driver nodig om dan beide kaarten te gebruiken in combinatie met elkaar. Je zal deze driver echter achter het plaatsten van je tweede grafische kaart opnieuw moeten installeren . Dit is nodig om je driver je tweede kaart te laten herkennen. Eenmaal de driver opnieuw geinstalleerd is, is er een optie in het driver menu om deze kaart dan te enkel te laten werken voor het PshyX werk.
quote: Driver release notes
Supports control of your GPU PhysX configuration from the NVIDIA display driver control panel.
Let op dit is geen SLI maar een "simpele" multi-gpu installatie, zoals je vroeger deed om meer dan 2 schermen aan te sturen bv. Hierdoor kan je elke GeForce kaart van de 8, 9 en GT200 reeks gebruiken als dedicated PhysX kaart in combinatie met je zwaardere grafische kaart. Je bent dus niet beperkt tot 2 dezelfde grafische kaarten zoals bij SLI.
Een tweede opmerking die moet gemaakt worden is dat je best toch niet een al te lichte kaart neemt. Om het grofweg te zeggen je steekt deze kaart bij om je pc te voorzien van extra shaders die dan het PhysX werk zullen doen, een 8400 met 16 trage shaders zal hierdoor te zwak uitvallen voor wat je wil bereiken( een 9400 wellicht ook, deze shaders zijn weliswaar sneller maar nog steeds beperkt tot 16). Je gaat juist deze 2de kaart installeren omdat je vindt dat de PshyX teveel shader power gebruikt van je main-kaart waardoor je fps teveel daalt.
Aan de andere kant is het ook redelijk zinloos om een te zware kaart hiervoor in te zetten. Tot nu toe heeft men ervaren dat een 9600GT het meeste opbrengt. Een zwaarder kaart zal niet meer bijdragen tot je PhysX ervaring en enkel maar meer shaders hebben die niets zitten te doen (maar wel energie zitten te verslinden). Let wel! Tot nu toe, dit kan veranderen in de toekomst!!
De algeme consensus is dus dat je het beste een 8600/9600 bijprikt wanneer je een kaart wil bijkopen, indien je bv een 8800 al liggen hebt is dit natuurlijk ook ideaal en mss beter naar de toekomst toe.
*update 7 oktober 2009*
Nog steeds is een 8600Gt kaart voldoende maar wel het minimum volgens nVidia zelf!
Onder Windows XP zijn er hiervoor geen beperkingen maar Vista heeft deze wel:
One limitation of this mode under Vista is that a second monitor must be attached to run PhysX on the secondary GPU, and you must extend the Vista desktop onto this secondary monitor. According to NVIDIA this limitation is related to the Windows Vista display driver model (WDDM). However, the same limitation does not exist in Windows XP.
Dit kan je oplossen door:
If you don’t have a second monitor available, you can also run a second display cable from your monitor to the second GeForce card running PhysX.
Met een beetje geluk heeft uw monitor zowel een dvi als een vga ingang
Je zou zeggen, pff al die beperkingen onder Vista ik gebruik XP wel... denk eraan de driver support voor Vista is momenteel veel beter dan voor XP zowel qua performantie als qua hardwarre support voor deze nieuwe technieken. Een ander mooi voorbeeld hiervan is Hybrid sli, dit wordt ook enkel maar onder VIsta ondersteunt.
Een andere reden om naar vista gaan is de Systeem Ram waar een aardig stukje zal van afgepitst worden door je high-end kaart(en) die je gebruikt in combinatie met je dedicated PhysX kaart waardoor je toch naar een 64-bit OS zal grijpen.
Wat is PureVideo?
NVIDIA PureVideo™ technology is the combination of high-definition video processors and software that delivers unprecedented picture clarity, smooth video, accurate color, and precise image scaling for all video content. It turns your PC into a high-end home-theater.
NVIDIA PureVideo technology:
* Accelerates WMV HD and MPEG video,
* Features spatial-temporal de-interlacing for HD and SD content, and
* Performs inverse telecine, bad edit correction, and other post-processing functions to eliminate jaggies and blurriness, resulting in a sharp picture..
Hoe kom ik aan PureVideo?
Je kunt op de site van NVidia een 30-dagen trial downloaden, die met deze key 60 dagen werkt
First and Last Name: Trial-60
Email Address: dvdtrial@nVidia.com
Last 4 Digits of Credit Card: 2005
Activation Key: 84CA-4A56-9BF7-2D53-5BA3-5FD6-FA56
Na deze proefperiode kan je de PureVideo Decoder hier kopen.
Hoe configureer ik PureVideo?
Naast de NVIDIA PureVideo Decoder User's Guide is er ook een Reviewers Guide met tips (enigszins gedateerd). Voor beste kwaliteit en prestaties is het noodzakelijk Video Mixing Renderer (VMR) te activeren in Windows Media Player :
To set up the VMR follow these steps
1. Launch Windows Media Player
2. Click on Tools > Options on the menu bar
3. Click on the Performance tab
4. Click on the Advanced button
File Playback Video mixing renderer mode: check “Use video mixing renderer” and “use high quality mode”
DVD-Video playback Video mixing renderer mode: check “Use video mixing renderer” and uncheck “Use overlays”
Als "use high quality mode" is aangevinkt onder "File Playback", dan is het mogelijk dat MPEG-4 ASP videobestanden (XviD, DivX5 etc.) in zwart/wit met een groenige waas worden afgespeeld. Selecteer dan "Use overlays" onder "File Playback".
Als FFDShow op je systeem staat of stond, dan werkt PureVideo waarschijnlijk niet. Wees terughoudend met het installeren van codecpacks. Controleer met Windows XP Video Decoder Checkup Utility of PureVideo als MPEG-2 preferred codec actief is.(Om dit op te lossen kan je bij de FFDShow video settings de nodige formaten in plaats van libavlib none te kiezen.)
Er zijn momenteel al 3 PureVideo versies verschenen: PureVideo 1
De eerste en simpelste versie van PureVideo. Geïntroduceerd samen met de GeForce 6 serie. De video-enige werd verbeterd door
• Het bijvoegen van deinterlacing algoritmes
• verfijnde video-resizing wannneer men gebruik maakt van overlays
• Verbetering van compatibiliteit met DirectX9 in combinatie met VMR9 (ipv overlay)
• Het overerfen van de decoderings pipeline die ook oudere grafische kaarten al hadden (VPE)
In de latere modellen van de Geforce 6 werd er ook hardware accelaratie voor VC-1 en H.264 bijgevoegd
De accelaratie van bv mpeg-2 was bij testen nog niet verschrikkelijk veel maar de run length, variabele length en inverse quantisatie werden volledig overgenomen door PureVideo.
PureVideo 2
Focussed op Acceleratie van 1080p HD materiaal. (wat afspeelbaar is op vele pc's (oa met behulp van betere software decoders zie onderaan dit topicje)maar toch zwaar genoeg is om een pc op zijn knieën te krijgen)
• Er werd een bitstream processor (BPS) bijgevoegd
• Een verbeterde video processor (VP2)
Hierdoor kon de AACS-decryptie en de H.264/AVC high profile CABAC volledig hardwarematig gedecodeerd worden (blu-ray)
Bij VC-1 zorgt PureVideo2 voor de inverse discrete cosine transformatie (iDCT) en de motion compensation stages, voor de verwerking van de bitstream en entrophy fase wordt er nog steeds op CPU gerekend.
PureVideo 3
Deze meest recente PureVideo versie werd geïntroduceerd samen met de Geforce 9600GT.
Vooral de hardware ondersteuning voor VC-1 af te spelen is verbeterd (zoals je kon lezen bij Purevideo2 was deze niet echt groot en werd er nog zwaar gesteund op de cpu).
Alternatieve Oplossingen
Om betere video performatie te krijgen zonder hardware matige acceleratie op een nvidea kaart (we spreken dus bijvoorbeeld op Geforce 5 serie grafische kaarten) of betere performatie op h.264 geëncodeerde video bestanden met een ander profile zoals bv veel gebruikte x.264 geëncodeerde bestanden is vooral een goed codec pack noodzakelijk.
LET OP!. Deze codec packs (kunnen) interferen dus met PureVideo!
Aanrader is het CCCP codec pack gecombineerd met CoreAVC voor h.264 HD video bestanden (720p/1080p).
CoreAVC is idd betalend maar zeker de moeite waard daar het op een ietswat oudere pc's het verschil kan maken tussen niet speelbare videobestanden en vlekkeloos afspelen. Je kan een trial downloaden en kijken of het de moeite waard is.
Voor integratie in CCCP gewoon settings runnen en h264 uitvinken. Er zal automatisch gebruik worden gemaakt van ander geinstalleerde h.264 codecs in dit geval dus CoreAVC.
Sinds CoreAVC versie 1.9.0.0 is er nu ook cuda support ingebouwd!
Dit houdt in deze goede software encoder eigenlijk ook hardwarematig het decoderen zal uitvoeren op een GeForce 8,9 en GT200 kaart hiervoor heeft uw wel een 182.xx of recentere driver nodig die dit gebruik van cuda ondersteunt.
De MPC standaard player bij installatie van CCCP staat ingesteld op overlay (indien u dit wilt kan je dit steeds veranderen naar VMR9 of VMR7)
Voor mensen die geen zin hebben op aparte of bijkomende codecs op hun pc. Of zich er liever niets willen van aantrekken (cpu power toch teveel bv ;p) is er steeds VLC. CPU intensief, subs worden niet altijd goed voorgesteld maar het videobestand zal altijd wel goed afspelen zonder dat er configuratie van de gebruiker noodzakelijk is!
Dit komt doordat VLC gebruik maakt van zijn eigen interne decoders zonder deze op 1 of andere manier te installeren of registreren op uw systeem.
**Edit 4/09
Kleine update van de drivers en het nieuws topic, op desktop gpu vlak nog steeds geen grote wijzigingen (buiten gt300 def settings?)
TODO:
Mobiele laptop:: dringend wijzigingen nodig
Vermelding van ION
Geruchten rond de GT300 <<exacte specificaties??
Informatie van de GT200 dringend updaten ;p
Nvidia Corp. has confirmed in a brief media interview that it will be able to cut-down the Fermi-G300 graphics processors in order to address certain specific markets and price-points. The move is natural for all graphics chips designers, but this time Nvidia openly admits that many of implemented capabilities will hardly offer benefits for the consumer right away.
“We are paying a bit of a compute tax in that we launched a part where a lot of the consumer compute applications haven’t really taken hold yet. But over time as more consumer computer applications are developed that take advantage of our compute (consumer) features, I think it's going to give us a big leg up,” William Dally, chief scientist at Nvidia, told Cnet News.com.
The flagship Fermi graphics processor (NV60, G300, GT300) will feature 512 stream processing engines (which are organized as 16 streaming multi-processors with 32 cores in each) that support a type of multi-threading technology to maximize utilization of cores. Each stream processor has a fully pipelined integer arithmetic logic unit (ALU) and floating point unit (FPU). The top-of-the-range chip contains 3 billion of transistors, features 384-bit memory GDDR5 memory controller with ECC and features rather unprecedented 768KB unified level-two cache as well as rather complex cache hierarchy in general. Naturally, the Fermi family is compatible with DirectX 11, OpenGL 3.x and OpenCL 1.x application programming interfaces (APIs). The new chips will be made using 40nm process technology at TSMC.
At its GPU Technology Conference (GTC) last week Nvidia specifically noted that it paid a lot of attention on boosting double-precision floating point computational performance on its Fermi-G300 chip (about 750GFLOPs) and thus will be able to address new several new markets, e.g., high-performance computing. However, DP performance is rarely needed by average consumers on the desktop or laptop markets. Obviously, in order to create power efficient version of Fermi for notebooks or low-cost desktops, Nvidia will have to sacrifice some of its capabilities.
“We're not talking about other (chips) at this point in time but you can imagine that we can scale this part by having fewer than the 512 cores and by having these cores have fewer of the features, for example less double-precision,” said Mr. Dally, who did not explain how it is possible to reduce double-precision floating point performance without decreasing single-precision point speed, something which is needed by video games. In fact, Mr. Dally’s comment may imply that non-flagship Fermi derivatives will have not only be slower in terms of performance, but will be seriously different in terms of implementation.
Still, it is an open question when Nvidia releases its new family of graphics processing units for consumers. At the GTC, Nvidia demonstrated the A1 revision of the Fermi-G300 graphics chip made in late August, whereas usually the company uses only A2 or even A3 revisions on commercial products. It usually takes months to create a new revision of a chip. Besides, Fermi the graphics card that the company demonstrated at its GTC turned out to be a mock up, not a working sample. Officially Nvidia promises to start sales of Fermi products in 2009.
TWIMTBP pays game developers with free development
Written by Fuad Abazovic
Tuesday, 06 October 2009 12:44
Many programming hours
One catch of The way its meant to be played marketing and development program is that Nvidia actually does end up spending money where publishers and developers benefit.
Most of the money never exchanges hands, but Nvidia offers thousands of programmer hours as the company codes advanced effects, tries to makes thing faster, get PhysX inside of game and does this mostly for free. Since labour is also something you need to pay, Nvidia ends up paying millions in salaries and other costs that come out of TWIMTBP program.
Senior Vice President, Content and Technology Tony Tamasi has confirmed this to Fudzilla and he also said that for some marketing purposes “money does exchange some hands”. This is mainly for in game and external advertising. Mr. Tamasi said that his software division of approximately 220 people cost Nvidia tens of millions and Jensen joked that these guys do not make any money, they just cost Nvidia money.
Let’s not forget Nvidia Russia labs where Nvidia tests dozens of game releases for performance improvement and compatibility that saves millions to PC gaming industry but if Nvidia didn’t do it, we would be stuck with console-looking games and a potential dramatic shrinkage of the PC gaming market.
If you are ATI/AMD this doesn’t suit you, as you don’t have the money or manpower to catch up with Nvidia and therefore they are very vocal opponents of the program, but Intel does have the money and it will probably challenge Nvidia with s similar scheme.
Fud begint wel erg aan geloofwaardigheid in te leveren de laatste tijd zeg.
Tuuuurlijk is nvidia de grote redder van pc gaming
Gaan we wel even voorbij aan het feit dat de bestverkopende pc games (ook op moment van release) grafisch doorgaans niet cutting-edge waren. (the sims, rollercoaster tycoon, WOW, diablo2 enz).
offtopic: Hier geen layout problemen in zowel Firefox3 als in IE7. Ie8 is niet aanwezig hier, daarvoor moet ik vanuit thuis even een keer loeren. Maar uh.. so far so good. Anders check uwen compatibility modus?
Als je stil blijft staan, komt de hoek wel naar jou toe.
offtopic: Hier geen layout problemen in zowel Firefox3 als in IE7. Ie8 is niet aanwezig hier, daarvoor moet ik vanuit thuis even een keer loeren. Maar uh.. so far so good. Anders check uwen compatibility modus?
offtopic: hier ook niet meer, vanochtend wel in IE7 en chrome, nu opgelost kennelijk.:)
Heeft geen speciale krachten en is daar erg boos over.
Hoop trouwens dat de release van de nieuwe kaartjes van Nvidia niet zo'n ramp word als nu bij ATI het geval is!! Hoe is dat bij Nvidia in het verleden gegaan, altijd voldoende voorraden etc??
As we reported a few days ago, Nvidia is facing a huge shortage of GT200-based products. Partners are complaining as they cannot get any serious demand and that Nvidia’s excuse is that they don’t want to lose money on cards.
Since Radeon 5870, 5850 and upcoming 5700 cards really look, good it looks like Nvidia wants to leave the market in hands of ATI, at least until Fermi GT300 comes out. The premature technology announcement about Fermi is definitely done in order to hurt ATI sales, but ATI definitely has at least two months head start.
Judging from all this, we expect quite bad Q3 and Q4 financial scores for Nvidia. Fermi can save Q4 2009 but only if Nvidia comes up with enough chips, which is again unlikely as this is the biggest technology improvement since G80 back in 2006.
BoRRel82 schreef op dinsdag 06 oktober 2009 @ 14:52:
Hoop trouwens dat de release van de nieuwe kaartjes van Nvidia niet zo'n ramp word als nu bij ATI het geval is!! Hoe is dat bij Nvidia in het verleden gegaan, altijd voldoende voorraden etc??
Verwacht maar niks voor Q1 2010 dan voorkom je waarschijnlijk de grootste teleurstelling. Bij NV is het in het verleden net zo grillig gegaan als bij AMD (misschien zelfs wel grilliger). G80 had goede beschikbaarheid vanaf de launch. De opvolger G92 die voor het eerst gebruikt werd in 8800GT had echter erg slechte beschikbaarheid in het begin. Ook de GTX295 begon pas na een maand redelijk leverbaar te worden en werd gelanceerd omdat de HD4870X2 nu wel erg lang eenzaam aan de top stond (een half jaar). En sommige kaarten waren pure marketingkaarten zoals de 7800GTX 512MB die slechts gelaunched werd om AMD af te troefen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
nVidia kapt er mee tot aan de launch van de GT300, ze spelen echt alles op die GT300, die moet wel echt goed gaan worden...
Stel je voor als dat niet zo is.. Dan maken ze een blunder die ze vele miljoenen gaat kosten.
Echter heb ik het volste vertrouwen in de 300 serie, alleen word hitte steeds vaker een geduchte tegenstander.. Zelf nu 3 ATI kaarten achter elkaar gehad, en op 1 na een aftermarket koeler op moeten zetten om het beestje koel te houden! I
Zelf geen ervaring met de 200 serie, maar ik heb begrepen dat ie ook richting 80 gr Load gaat?
Ik heb nu even een tussenstap gekocht, een 4890 maar ga in 2010 kijken of een 300 NV of 5870x2 mijn nieuwe bezit word.
BoRRel82 schreef op dinsdag 06 oktober 2009 @ 15:44:
Zelf geen ervaring met de 200 serie, maar ik heb begrepen dat ie ook richting 80 gr Load gaat? Ik heb nu even een tussenstap gekocht, een 4890 maar ga in 2010 kijken of een 300 NV of 5870x2 mijn nieuwe bezit word.
One catch of The way its meant to be played marketing and development program is that Nvidia actually does end up spending money where publishers and developers benefit.
Most of the money never exchanges hands, but Nvidia offers thousands of programmer hours as the company codes advanced effects, tries to makes thing faster, get PhysX inside of game and does this mostly for free. Since labour is also something you need to pay, Nvidia ends up paying millions in salaries and other costs that come out of TWIMTBP program.
Senior Vice President, Content and Technology Tony Tamasi has confirmed this to Fudzilla and he also said that for some marketing purposes “money does exchange some hands”. This is mainly for in game and external advertising. Mr. Tamasi said that his software division of approximately 220 people cost Nvidia tens of millions and Jensen joked that these guys do not make any money, they just cost Nvidia money.
Let’s not forget Nvidia Russia labs where Nvidia tests dozens of game releases for performance improvement and compatibility that saves millions to PC gaming industry but if Nvidia didn’t do it, we would be stuck with console-looking games and a potential dramatic shrinkage of the PC gaming market.
If you are ATI/AMD this doesn’t suit you, as you don’t have the money or manpower to catch up with Nvidia and therefore they are very vocal opponents of the program, but Intel does have the money and it will probably challenge Nvidia with s similar scheme.
Edit:
ow sorry, dit was al gepost
i7 7820X delidded, MSI X299 Gaming Pro Carbon, Alphacool Eisbaer 240, G.Skill Ripjaws V, KFA2 GTX 1080 EX OC, Samsung 960 Evo, Crucial MX200, CoolerMaster Cosmos S, Seasonic Prime Gold
Nvidia’s General Manager of Cuda Sanford Russell told Fudzilla that Nvidia has been working on ways to speed up virus scanning on GPU.
Since this is highly parallel job, this would be a perfect task for Nvidia GPUs and since this market is huge, Nvidia definitely plans to put a lot of effort behind this project. Every Windows PC has a virus scanner, and in case it doesn’t, it wont last that long and this is definitely a great opportunity for the success of GPU computing and CUDA.
If Nvidia makes virus scanning drastically faster, they might have a chance of selling more GPUs than any time before. The opportunity is great and we hope that they might come up with something as currently CUDA applications for mainstream market are usually video encoding and image and video enhancement based.
This is a good start, but we simply need more. Its not that everyone needs oil and gas industry applications on their desktop, something that runs great on CUDA-based GPUs. Nvidia and Standord’s group certainly work around the clock to bring about a CUDA parallel GPU computing revolution.
i7 7820X delidded, MSI X299 Gaming Pro Carbon, Alphacool Eisbaer 240, G.Skill Ripjaws V, KFA2 GTX 1080 EX OC, Samsung 960 Evo, Crucial MX200, CoolerMaster Cosmos S, Seasonic Prime Gold
Niet zo heel verbazingwekkend, gewoon een logisch gevolg van de ingeslagen weg mbt. GPGPU.
Wat interessanter is, hoe goed kan de PR-afdeling van Nv dit aan de man (de 'doorsnee consument') brengen? Met dit soort huis-tuin-keuken applicaties van CUDA zie ik ze er nog voor aan om er een consumentensucces van te maken.
Kan iemand mij een bepaalde type-reeks aanbevelen van een nVidia kaart voor het gebruik van Premiere Elements? Het is voor mijn vader die een absolute non-gamer is maar wel aan videobewerking doet. Dat is opzich niet zo spannend en heeft niet veel met een videokaart van doen. Maargoed er moet toch een kaartje in , het liefst passief gekoeld , met een s-video aansluiting. Budget <60 euro.
ps Kan iemand mij ook vertellen of ik in xp pro dan tegelijk videosignaal via dvi(of vga) en s-video kan versturen in apparte resoluties? Zodat we het materiaal ooki meteen op een tv kunnen bekijken?
Nvidia’s General Manager of Cuda Sanford Russell told Fudzilla that Nvidia has been working on ways to speed up virus scanning on GPU.
Since this is highly parallel job, this would be a perfect task for Nvidia GPUs and since this market is huge, Nvidia definitely plans to put a lot of effort behind this project. Every Windows PC has a virus scanner, and in case it doesn’t, it wont last that long and this is definitely a great opportunity for the success of GPU computing and CUDA.
If Nvidia makes virus scanning drastically faster, they might have a chance of selling more GPUs than any time before. The opportunity is great and we hope that they might come up with something as currently CUDA applications for mainstream market are usually video encoding and image and video enhancement based.
This is a good start, but we simply need more. Its not that everyone needs oil and gas industry applications on their desktop, something that runs great on CUDA-based GPUs. Nvidia and Standord’s group certainly work around the clock to bring about a CUDA parallel GPU computing revolution.
Die had ik ook gelezen maar niet gepost, aangezien het mij vrij onwaarschijnlijk lijkt dat dat enig nut heeft.
Virusscanners belasten de processor tegenwoordig maar voor een paar procent (de laptop met celeron 550 waar ik nu achter zit met 93 draaiende processen, komt tijden een full hdd scan van mcafee niet boven de 40 procent) - de cpu is daarin dus niet de beperkende factor, maar vooral de snelheid van de hardeschijf.
Wederom een niet al te positief verhaal van de welbekende Charlie.
Ondanks zijn bias, heeft hij weldegelijk een punt. Natuurlijk zullen er altijd wel mensen zijn die nVidia blijven kopen, maar nVidia lijkt daar niet veel mee op te schieten op het moment.
edit: De RV870 is ongeveer 18x18 (~330mm2) in omvang
edit 2: Je kunt je afvragen waarvan nVidia zijn developersteams blijft betalen, als ze geen winst meer kunnen maken. Al had ik ook al begrepen dat het hele TWIMTBP al aardig was gedownsized. De tijd zal het leren.
[Voor 25% gewijzigd door dahakon op 06-10-2009 21:18]
Die had ik ook gelezen maar niet gepost, aangezien het mij vrij onwaarschijnlijk lijkt dat dat enig nut heeft.
Virusscanners belasten de processor tegenwoordig maar voor een paar procent (de laptop met celeron 550 waar ik nu achter zit met 93 draaiende processen, komt tijden een full hdd scan van mcafee niet boven de 40 procent) - de cpu is daarin dus niet de beperkende factor, maar vooral de snelheid van de hardeschijf.
Uhh? Als de gpu een simpele taak kan overnemen van de cpu (omdattie op dat moment toch niets te doen heeft) komt dat de efficiëntie van het systeem als geheel alleen ten goede. Voor de gein maar m'n AVG scan even aangezet en via taakbeheer in de gaten gehouden: CPU-load fluctueert nogal, ik zie zo een beetje alle percentages voorbijkomen, van 00 tot 100%. Dus IMO wel degelijk een zeer nuttige ontwikkeling, laat maar komen (ow crap, heb straks een ATi kaart die dat niet kan )
i7 7820X delidded, MSI X299 Gaming Pro Carbon, Alphacool Eisbaer 240, G.Skill Ripjaws V, KFA2 GTX 1080 EX OC, Samsung 960 Evo, Crucial MX200, CoolerMaster Cosmos S, Seasonic Prime Gold
Ach, dergelijke dingen kunnen ook via OpenCL gedaan worden, als iemand het wil schrijven. Is het gelijk merk-onafhankelijk en kun het ook op je nieuwe ATI-kaartje doen.
Wij zien hier prijzen van de GTX260/275/285/295 allemaal dalen. Tot wel 80 euro inkoop over de laatste anderhalve maand. Maar dat ze nu echt "instorten", nee. De GTX285 is in principe nog steeds niet competatief geprijsd als je naar de 5850 kijkt - maar zoveel marktaandeel lijken ze in de cijfers niet te verliezen. Als ze toch wel verkopen hebben ze bijvoorbeeld twee opties (en nog veel meer varianten):
- We snijden €50 van de prijzen af en verkopen 33% meer
- We snijden niets van de prijzen af en blijven op "100%" huidige verkoop met kracht Geforce en nVidia brand
1000 kaarten is standaard ... stel dat ze €80 verdienen om zo'n kaart (volgens mij ben ik dan nog zeer genereus). Dan draai je qua winst "standaard" 80k winst. Nu verlagen ze de prijs €50 en verkopen 33% meer (ook hierin ben ik -zeer- genereus). 1333 x 30 = 40k winst . Nu is dit te kort door de bocht en productieprijzen worden ook immer lager en de totale omzet telt ook mee - maar het punt is er; nVidia heeft als bedrijf de kans om dit soort shitstormen door te zitten met de kracht van het merk en de brands die zij voeren. Tuurlijk doet het schade aan het merk en zal de marketing machine alles op alles zetten deze te beperken. Maar als je nog fatsoenlijk blijft verkopen en geen grote procenten marktaandeel moet inleveren, wat zou jij doen?
Illidan schreef op dinsdag 06 oktober 2009 @ 21:26:
Voor de gein maar m'n AVG scan even aangezet en via taakbeheer in de gaten gehouden: CPU-load fluctueert nogal, ik zie zo een beetje alle percentages voorbijkomen, van 00 tot 100%. Dus IMO wel degelijk een zeer nuttige ontwikkeling,
Daar noem je mij ook even een voorbeeld, AVG laat het hele systeem sowieso haperen tijdens de scan (ik vermoed dat het veel de HDD aanspreekt) en daarbij idd. geen echt stabiel verbruik heeft, er zijn zat andere (betere) anti-virus programma's die al deze nadelen niet hebben.
Mja, je vergelijkt nu een budget GPU met een high-end GPU.
Anyway, GeForce GT 220 komt deze maand naar het retail kanaal. Ze moeten nog van de band komen maar dat zal soon gebeuren. Prijsvermeldingen van Asus zijn al op het internet te vinden, Gigabyte heeft zijn GT 220 al getoond en Leadtek is review samples aan het klaarstomen.
GeForce G210 komt wat later (naar het retail kanaal dan, in OEM is deze al verkrijgbaar).
SECURITEH schreef op dinsdag 06 oktober 2009 @ 22:26:
Daar noem je mij ook even een voorbeeld, AVG laat het hele systeem sowieso haperen tijdens de scan (ik vermoed dat het veel de HDD aanspreekt) en daarbij idd. geen echt stabiel verbruik heeft, er zijn zat andere (betere) anti-virus programma's die al deze nadelen niet hebben.
whiteguy schreef op dinsdag 06 oktober 2009 @ 19:02:
Die had ik ook gelezen maar niet gepost, aangezien het mij vrij onwaarschijnlijk lijkt dat dat enig nut heeft.
Virusscanners belasten de processor tegenwoordig maar voor een paar procent (de laptop met celeron 550 waar ik nu achter zit met 93 draaiende processen, komt tijden een full hdd scan van mcafee niet boven de 40 procent) - de cpu is daarin dus niet de beperkende factor, maar vooral de snelheid van de hardeschijf.
^^ Met de heren hierboven. Virusscanners hebben het meeste baat bij I/O (brakke virusscanners daargelaten).
Maar ja, je moet toch wat om je afzetmarkt te vergroten.
NVIDIA IS KILLING the GTX260, GTX275, and GTX285 with the GTX295 almost assured to follow as Nvidia (Nvidia: NVDA) abandons the high and mid range graphics card market. Due to a massive series of engineering failures, nearly all of the company's product line is financially under water, and mismanagement seems to be killing the company.
blijkt dat je niet eeuwig kaarten kan verkopen met verlies
En Fermi wordt ook rond de 450 vierkante millimeter, In ieder geval geen 512 bit bus meer maar toch. En waar is de DX11 kaart in het performacne segment?
Maak daar waarschijnlijk maar 530+ vierkantemillimeter van.
Verder heeft nVidia geen DX11 kaart in het performance-segment. De enige DX11 chip die binnenkort het levenslicht kan zien als videokaart is de GT300, Fermi, GF100 of hoe die ook mag heten. Daaruit kunnen ze 3, of heel misschien 4 segmenten halen. Waarschijnlijk zoiets als de GTX360, GTX380 en GTX395. Verder is er alleen DX10.1 (GT220 die binnenkort eindelijk eens op de markt schijnt te komen) of DX10 (G92/GT200) die wellicht nog rebranding naar een G300 naam krijgen.
Verder is er alleen DX10.1 (GT220 die binnenkort eindelijk eens op de markt schijnt te komen) of DX10 (G92/GT200) die wellicht nog rebranding naar een G300 naam krijgen.
De GeForce GT 220 zit niet eens in het performance segment, met zijn 48 shaders zal zelf een 9600 GT sneller zijn.
En Fermi wordt ook rond de 450 vierkante millimeter, In ieder geval geen 512 bit bus meer maar toch. En waar is de DX11 kaart in het performacne segment?
Wow, het ziet er de komende maanden echt slecht uit voor nVidia als dit echt waar is.
De GT300 zal DX11 volledig ondersteunen maar een aantal aspecten (zoals tesselation zoals jij al zij) zullen software matig gedaan worden... dit zal dan ook wel een aardige performance hit veroorzaken.
Je kan de functionaliteit wel hebben, dat je dit door middel van hardware of software doet maakt geen verschil in de daadwerkelijke ondersteuning (het werkt in beide gevallen).
Ik hoop het voor al ons tweakers toch niet. Wat een zonde voor de competitie op de high-end en mainstream markt. De topkaart zou dan een GTS250 worden (die het overigens prima doet als bang for the buck kaart) ... maar dan zal ATi zich in een dermate luxe positie worstelen dat de prijzen lang hoog blijven en de vraag maar een kant op kan ... "ik wil een high-end kaart" = "get in line with ATi".
Dit is niet zoals het had moeten uitlopen, als dit waar is, is het een damn shame.
Als je even een roze(groene) bril opzet zou alles wat nVidia tot nu toe heeft gedaan, alles waar Charlie zo hard op heeft gehamerd, misschien wel gewoon een ongelofelijk goede campagne zijn geweest om de (hard) release van Fermi over twee weken geheim te houden.
Stel je voor dat NV over twee weken een volledige lineup van gtx360, gtx380 en dan een maand later gtx395 presenteerd. Met allemaal voldoende voorraad.
[Voor 4% gewijzigd door SneakyNL op 07-10-2009 08:38]
Op de artikelen op semiaccurate is weinig aan te merken. Het ziet er niet goed uit voor Nvidia. Als we een beetje pech hebben wordt ATI voor GPU's wat intel nu voor CPU's is en dat is slecht voor de consumenten prijzen en de technische vooruitgang.
luckyjan schreef op woensdag 07 oktober 2009 @ 09:09:
Op de artikelen op semiaccurate is weinig aan te merken. Het ziet er niet goed uit voor Nvidia. Als we een beetje pech hebben wordt ATI voor GPU's wat intel nu voor CPU's is en dat is slecht voor de consumenten prijzen en de technische vooruitgang.
Hoeft niet persee slecht te zijn...? Wellicht dat men zich dan ook kan concentreren software en games te maken zonder dat er elk half jaar een nieuwe kaart ligt die net weer 5 - 15% sneller is..
ATI geeft ook miljoenen uit aan research, nw technieken en ontwikkeling.. dat gaat heus niet op aan zaken diners
SneakyNL schreef op woensdag 07 oktober 2009 @ 08:37:
Als je even een roze(groene) bril opzet zou alles wat nVidia tot nu toe heeft gedaan, alles waar Charlie zo hard op heeft gehamerd, misschien wel gewoon een ongelofelijk goede campagne zijn geweest om de (hard) release van Fermi over twee weken geheim te houden.
Idee is leuk, jammer dat je voor de launch van een videokaart iets meer nodig hebt dan één bedrijfje dat alleen de chips ontwerpt!
Ik hoop het voor al ons tweakers toch niet. Wat een zonde voor de competitie op de high-end en mainstream markt. De topkaart zou dan een GTS250 worden (die het overigens prima doet als bang for the buck kaart) ... maar dan zal ATi zich in een dermate luxe positie worstelen dat de prijzen lang hoog blijven en de vraag maar een kant op kan ... "ik wil een high-end kaart" = "get in line with ATi".
Dit is niet zoals het had moeten uitlopen, als dit waar is, is het een damn shame.
Op de korte termijn ziet het er idd slecht uit voor nvidia maar uiteindelijk zullen ze hopelijk wel weer overleven en competetief worden.
Ik hoop net als jij dat nvidia zich weer hersteld maar als er een bedrijf bovenop moet liggen dan heb ik liever dat het AMD is.
Op basis van het verleden heb ik een veel beter gevoel bij dat bedrijf en schat ik de kans dat ze "misbruik' van de situatie maken erg klein in. Iig veel kleiner dan als nvidia bovenop ligt.
Laat ATI maar een tijdje de dienst uitmaken met hun open standaarden en hun wil om de nieuwe DX standaarden zsm te ondersteunen. Ik denk dat dat heel goed zou zijn voor de PC als gameplatform.
Wel moeten ze meer investeren in drivers en beter samenwerken met de ontwikkelaars.
PC Specs Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat artikel over de dood van nvidia is wel erg hijgerig, ik hecht er dan ook niet al te veel waarde aan. De huidige gtx260-275 leverd prima prestaties voor een keurige prijs in verhouding tot de 5850 van ati.
Net als een aantal jaren ati in een bijzonder slechte positie verkeerde, is deze keer misschien nvidia aan de beurt. Wel hopen dat ze beiden blijven overleven, want een monopolie positie in de grafische kaarten sector leidt tot stilstand en hoge prijzen, iets wat we beslist niet willen.
HaseMike schreef op woensdag 07 oktober 2009 @ 10:09:
Dat artikel over de dood van nvidia is wel erg hijgerig, ik hecht er dan ook niet al te veel waarde aan. De huidige gtx260-275 leverd prima prestaties voor een keurige prijs in verhouding tot de 5850 van ati.
Misschien nu nog wel, maar als de 57xx kaarten er zijn (en die zouden al snel moeten komen) worden deze kaarten ook overtroffen door AMD
Dat ATi "terug is", is leuk, maar dit is minder...
Edit; dit betekent dus hoge(re) prijzen voor de nieuwe ATi kaarten voor consumenten, omdat er simpelweg niets anders is...
Dit is inderdaad wel teveel van het goede. Ook al gun ik het AMD meer dan nVidia. Het is voor iedereen beter als de kaarten die op de markt zijn goed concureren. Maar ik moet zeggen dat €350 (5870) voor een topmodel minder is dan de GTX280 koste tijdens de introductie. Die van meen ik €500+?
Op basis hiervan maakt AMD toch minder 'misbruik' van hun positie.
[Voor 43% gewijzigd door Stefanovic45 op 07-10-2009 10:20]
Op basis waarvan dan? Hij doet voornamelijk langetermijn voorspellingen waarvan in het verleden vaak genoeg is gebleken dat het volstrekte onzin is. De GTX275 zou van papier zijn en nooit verkrijgaar worden, zelfde verhaal voor de 8800GT. Allebei onzin zoals is gebleken.
In mei voorspelde hij dat de GT300 langzamer zou worden dan de RV870, dat is nog niet zeker maar de voorlopige specificaties wijzen daar niet op... en zo zijn er vast meer voorbeelden.
Hecht er niet zoveel waarde aan vooralsnog.
Misschien nu nog wel, maar als de 57xx kaarten er zijn (en die zouden al snel moeten komen) worden deze kaarten ook overtroffen door AMD
[...]
Dit is inderdaad wel teveel van het goede. Ook al gun ik het AMD meer dan nVidia. Het is voor iedereen beter als de kaarten die op de markt zijn goed concureren. Maar ik moet zeggen dat €350 (5870) voor een topmodel minder is dan de GTX280 koste tijdens de introductie. Die van meen ik €500+?
Op basis hiervan maakt AMD toch minder 'misbruik' van hun positie.
Mjaaaa, 'misbruik' zou ik het niet willen noemen. AMD wil ook gewoon centjes verdienen. Ze hebben heus wel berekend dat ze met deze prijsstelling gewoon het meest verdienen. Die prijzen zijn echt niet zo beschaafd omdat ze jou zo aardig vinden hoor
What difference is it to me if a decision is forced upon me by a dictator or by half of my neighbors? Either way my right to free, peaceful action has been nullified. – Stephen H. Foerster
Mjaaaa, 'misbruik' zou ik het niet willen noemen. AMD wil ook gewoon centjes verdienen. Ze hebben heus wel berekend dat ze met deze prijsstelling gewoon het meest verdienen. Die prijzen zijn echt niet zo beschaafd omdat ze jou zo aardig vinden hoor
Jap, zeker aangezien de CPU divisie van AMD lijdt onder het Intel geweld kunnen ze wellicht nog wat compenseren met een goed draaiende GPU divisie die overpriced spul verkoopt. Ik gun het AMD opzich wel maar geen concurrentie is goed voor niemand op lange termijn.
Maar het lijkt me ook wel weer wat overdreven, Nvidia heeft meer dan alleen maar GPUs voor de game markt. Volgens mij doen hun chipset en mobile GPUs het nogsteeds redelijk tot goed.
UPDATE (11:37): Inmiddels hebben we reactie van één van nVidia's partners. Off-the-record konden zij ons melden dat nVidia hen had verteld dat de GeForce GTX 285 niet end-of-life is, maar tegelijkertijd kregen ze het nieuws te horen dat deze kaart niet langer ingekocht kan worden. Wie hier het verschil tussen snapt, maar het ons uitleggen. Dezelfde partner wist ons te melden dat de levering van de GTX 275 op dit moment zeer moeizaam is, maar dat de GTX 260 wel nog is goede aantallen wordt aangeleverd. Dit alles is redelijk in lijn met verhaal op SemiAccurate.com.
Mjaaaa, 'misbruik' zou ik het niet willen noemen. AMD wil ook gewoon centjes verdienen. Ze hebben heus wel berekend dat ze met deze prijsstelling gewoon het meest verdienen. Die prijzen zijn echt niet zo beschaafd omdat ze jou zo aardig vinden hoor
Na 2 jaar en 5 dagen is mijn MSI laptop overleden.
De 8600M GT is overleden, ondertussen wordt hij gerepareerd door MSI, maar ja buiten garantie en dat kost me iets van 250 euro.
Nu is het algemeen bekend dat nVidia een slecht produkt heeft geleverd met oa de 86 serie.
(zie bv dit blog voor veel links)
Nu vraag ik me af hoe ik de rekening voor de reperatie kan laten betalen door nVidia, iemand enig idee?
(nVidia heeft tenslotte zo'n slechte kaart gemaakt)
hjs schreef op woensdag 07 oktober 2009 @ 12:54:
Na 2 jaar en 5 dagen is mijn MSI laptop overleden.
De 8600M GT is overleden, ondertussen wordt hij gerepareerd door MSI, maar ja buiten garantie en dat kost me iets van 250 euro.
Nu is het algemeen bekend dat nVidia een slecht produkt heeft geleverd met oa de 86 serie.
(zie bv dit blog voor veel links)
Nu vraag ik me af hoe ik de rekening voor de reperatie kan laten betalen door nVidia, iemand enig idee?
(nVidia heeft tenslotte zo'n slechte kaart gemaakt)
De garantietermijn van 2 jaar is, voor zover ik het begrijp, niet sluitend.
Als MSI een garantie van 2 jaar geeft, dan wil dat nog niet zeggen dat je als koper na 2 jaar geen rechten meer hebt.
De garantie hangt af van wat je redelijkerwijs aan gebruikstermijn van een product mag verwachten.
Volgens mij is dat bij een laptop langer dan 2 jaar.
Dat betekent niet dat je nu een gratis reparatie kan verwachten, maar MSI mag je wel tegemoet komen in de kosten.
Van Nvidia hoef je niets te verwachten, net zoals je niet bij een leverancier van Whirlpool kan klagen als je wasmachine kapot gaat.
Misschien kan je hier beter een apart topic over aanmaken.
hjs schreef op woensdag 07 oktober 2009 @ 12:54:
Na 2 jaar en 5 dagen is mijn MSI laptop overleden.
De 8600M GT is overleden, ondertussen wordt hij gerepareerd door MSI, maar ja buiten garantie en dat kost me iets van 250 euro.
Nu is het algemeen bekend dat nVidia een slecht produkt heeft geleverd met oa de 86 serie.
(zie bv dit blog voor veel links)
Nu vraag ik me af hoe ik de rekening voor de reperatie kan laten betalen door nVidia, iemand enig idee?
(nVidia heeft tenslotte zo'n slechte kaart gemaakt)
De G84, G86 en G92 hebben allen inderdaad een produktie fout welke na anderhalf tot twee jaar problemen gaat opleveren. Aangezien het hier om een produktie fout gaat welke (eindelijk) in Juni/Juli 2008 is toegegeven door Nvidia, dient reparatie of vervanging van het produkt uitgevoerd te worden zonder extra kosten voor de consument. De leverancier van het produkt is hier verantwoordelijk voor. Dit ongeacht of de garantie periode reeds verstreken is.
Zoals al werd opgemerkt, bij Nvidia hoef je niet aan te kloppen die gaan jou niet helpen. Het is aan jouw leverancier of oem fabrikant om een schadeclaim in te dienen bij Nvidia. Helaas ben ik wel bang dat je wel rechtsbijstand nodig bent om je gelijk te halen, als de leverancier niet welwillend is.
Overigens vergoed Nvidia de GPU's wel naar oem fabrikanten die een claim indienen, alleen vergoeden ze de GPU niet het gehele moederbord dat vervangen dient te worden. Het verbaasd mij dan ook niet erg wat er de laatste tijd over Nvidia te lezen valt de afgelopen paar jaar zijn ze heel vreemd bezig. De problemen van deze mobile GPU's was namelijk in 2006 al bekend. HP heeft dit in November van dat jaar al bij Nvidia te kennen gegeven.
[Voor 17% gewijzigd door _Dune_ op 07-10-2009 13:51]
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
De G84, G86 en G92 hebben allen inderdaad een produktie fout welke na anderhalf tot twee jaar problemen gaat opleveren. Aangezien het hier om een produktie fout gaat welke (eindelijk) in Juni/Juli 2008 is toegegeven door Nvidia, dient reparatie of vervanging van het produkt uitgevoerd te worden zonder extra kosten voor de consument. De leverancier van het produkt is hier verantwoordelijk voor. Dit ongeacht of de garantie periode reeds verstreken is.
Zoals al werd opgemerkt, bij Nvidia hoef je niet aan te kloppen die gaan jou niet helpen. Het is aan jouw leverancier of oem fabrikant om een schadeclaim in te dienen bij Nvidia. Helaas ben ik wel bang dat je wel rechtsbijstand nodig bent om je gelijk te halen, als de leverancier niet welwillend is.
Heb je een link dat nVidia toegeeft dat er een probleem is, ik kan die niet vinden
Hierin staat in ieder geval dat ze het probleem (deels) erkennen. (maar niet erg recent, ik weet niet of ze daarna nog meer hebben ondernomen om het probleem op te lossen. De 8800-kaartjes zijn op dit moment ook massaal aan het uitvallen, ik weet niet of ze daar al op gereageerd hebben)
[Voor 40% gewijzigd door bwerg op 07-10-2009 13:56]
Heeft geen speciale krachten en is daar erg boos over.
bwerg schreef op woensdag 07 oktober 2009 @ 13:54: Hierin staat in ieder geval dat ze het probleem (deels) erkennen. (maar niet erg recent, ik weet niet of ze daarna nog meer hebben ondernomen om het probleem op te lossen. De 8800-kaartjes zijn op dit moment ook massaal aan het uitvallen, ik weet niet of ze daar al op gereageerd hebben)
Er ging vorig jaar inderdaad ook reeds al de geruchten dat de 8800 desktop serie dezelfde problemen kennen, dit kwam volgens mij wederom uit de hoek van HP.
Overigens hier is in de Dell fora heelveel over geschreven en daar zijn ook links te vinden van de statments van Nvidia zelf. Ik zal vanavond even kijken of ik deze terug kan vinden.
Overigens bied Dell een extra jaar garantie boven op de reeds aangekocht garantie vanwege dit probleem tot een maximum van 5 jaar, dat is eigenlijk nog niet helemaal zoals het hoort, maar tenminste toch iets. HP daar in tegen heeft gewoon nieuwe moederborden gemaakt voor bepaalde serie laptops met ATi alternatieven, dat is eigenlijk wat Dell ook had moeten doen.
Van dat betreft is Nvidia (helaas) niet goed bezig.
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
Heb je een link dat nVidia toegeeft dat er een probleem is, ik kan die niet vinden
Stop maar met zoeken. Nvidia heeft er 1 grote cover-up-actie van gemaakt om zolang mogelijk vol te houden dat er wat hun betreft nooit een fout is gemaakt.
Damn, dit is niet goed nee. . Ze moeten echt opschieten met Fermi, of een goeie G92 derivate op 40nm. Op een nog hogere clock. Dan pak je toch een stuk mid end lijkt mij.
Ja dat lijkt mij ook een goede strategie voor Nvidia, ik denk dat 90% van de mensen die een Nvidia kaart kopen geen zak hebben aan CUDA.. Speciale game kaarten, die dus waarschijnlijk kleiner en goedkoper worden, zijn veel beter.
Dat was GT212 (alleen dan niet DX11, maar DX10.1, aangezien DX11 nog ver weg was vorig jaar). Helaas voor nVidia, hebben ze dat project dus in de ijskast gegooid, om de GT300 sneller te kunnen ontwikkelen.
De rest van de schapen volgen die al over de dam waren, zoals XFX. Ik denk dat een bedrijf als XFX sowieso al erg blij is dat ze die overstap al een poosje terug hebben gemaakt. Als je nu halsoverkop ook een AMD-lijn wil implementeren, ben je een beetje aan de late kant.
Die gaan een heel slecht kwartaal tegemoet. Partners als Point of View doen inmiddels notebooks en andere spullen, die hadden dit al eerder zien aankomen.
Misschien wil nVidia zich niet meer op de gamers markt richten en enkel nog op GPCPU. Wat op zich niet slecht zou zijn voor het bedrijf, de marges zijn daar veel hoger (en nog veel andere voordelen).
Ja uhhh gewoon ook met AMD gaan werken. Je eieren in één mandje liggen is sowieso zelden verstandig bovendien moeten ze dit allang hebben zien aankomen....
Misschien wil nVidia zich niet meer op de gamers markt richten en enkel nog op GPCPU. Wat op zich niet slecht zou zijn voor het bedrijf, de marges zijn daar veel hoger (en nog veel andere voordelen).
Zou zeker kunnen maar het is gewoon onverstandig om zo vroeg al al je kaarten op GPCPU te zetten. Het is ook nog maar afwachten in hoeverre nVidia haar oplossing dermate beter is dan die van AMD.
Denk eerder dat nVidia gewoon geplaagd wordt door pech, onverstandige beslissingen en hun eigen arrogantie die eindelijk eens backfired....
[Voor 40% gewijzigd door Help!!!! op 07-10-2009 18:49]
PC Specs Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
De rest van de schapen volgen die al over de dam waren, zoals XFX. Ik denk dat een bedrijf als XFX sowieso al erg blij is dat ze die overstap al een poosje terug hebben gemaakt. Als je nu halsoverkop ook een AMD-lijn wil implementeren, ben je een beetje aan de late kant.
Ja uhhh gewoon ook met AMD gaan werken. Je eieren in één mandje liggen is sowieso zelden verstandig bovendien moeten ze dit allang hebben zien aankomen....
Dat dacht je maar Zotac gaat echt geen ATI lijn doen ... Zotac hoort namelijk bij Sapphire (zelfde moederbedrijf). En andere partners zoals point of View gaan ook geen ATI doen ... dan moet je concurreren met Sapphire, AMD's grootste partner. Daar wordt je ook niet blij van. XFX is nog wat groot zeg maar, die konden het doen maar verwacht niet dat de winst marges enorm gestegen zijn oid.
Kortom, een hoop andere bedrijven kunnen ook nog eens in de problemen komen door deze wending.
Edit; en het is gewoon een volledig verkeerde keuze geweest om grote en dure chips te blijven bouwen, en om dit ook in de toekomst te willen blijven doen, zoals ze een tijdje terug aangaven.
En ATi's strategie heeft gewerkt. En hoe!!!
Dit is echt een uppercut.
[Voor 64% gewijzigd door Format-C op 07-10-2009 18:53]
MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX
Het gaat er natuurlijk niet alleen om of je winstmarges stijgen of stabiel blijven. Uiteindelijk gaat het er natuurlijk ook om of je uberhaupt iets kunt verkopen. Wanneer je niets te verkopen hebt, zul je sowieso verlies draaien. Daar schiet je als bedrijf natuurlijk helemaal niets mee op.
Hoewel ik het mooi zou vinden als AMD eens wat meer de boventoon zou gaan voeren kan ik me nauwelijks voorstellen dat er wat serieus met nVidia aan de hand is. Anders had het aandeel toch allang gereageerd?
NVDA heeft het het afgelopen 1/2 jaar prima gedaan, de laatste paar weken misschien weer 10% eraf. Het bedrijf is bijna 2x zoveel waard als het gehele AMD. Denk niet dat dit soort berichten via dit soort kanalen bekend worden als het aandeel niet al gehalveerd is.
Ja uhhh gewoon ook met AMD gaan werken. Je eieren in één mandje liggen is sowieso zelden verstandig bovendien moeten ze dit allang hebben zien aankomen....
Ik denk niet dat dat zo makkelijk gaat. De huidige partners van Ati zullen bijvoorbeeld al (prijs)afspraken hebben, die gunstiger zullen zijn dan willekeurige nieuwkomers. En die zitten ook niet op nog meer concurrentie te wachten.
Ati heeft al genoeg partners om wereldwijd een breed assortiment te kunnen leveren. (lees: fabrikanten die custom coolers er op zetten of andere afwijkende kaarten maken, naast de standaard kaarten)
Wat voor voordelen zitten er voor Ati aan om nog meer partners te hebben behalve onder andere:
asus, gigabyte, msi, sapphire, xfx, his, powercolor, vtx, club3d, gainward enz enz ?
En dat is een ontwerpkeuze. Bij die grote bedrijven wordt ver in de toekomst gekeken en wordt nu een ontwerp vastgelegd. Er komen verschillende ontwerpen langs maar op het einde van de rit is er één stropdas die de knoop doorhakt. 3-4 jaar later zie je dan wel of dit een goede ontwerpkeuze was.
Hetzelfde met CPU's: AMD heeft met de originele Phenom een verkeerde keuze gemaakt. Voor hetzelfde geld zat er een andere stropdas aan de tekentafel die voor een ander CPU ontwerp gekozen had en had het er nu allemaal anders uitgezien. Gokwerk, je weet niet wat je concurrentie aan het doen is, en je weet nooit 100% zeker of je ontwerp wel goed is. Dat zie je pas zodra het in de markt staat.
Tja dat zou wel een stunt zijn. Kans lijkt me echter vrij klein. De negatieve geruchten zijn zo wijd verspreid en dwingend dat ik denk dat het echt ff kut met nvidia gaat.
[Voor 12% gewijzigd door Help!!!! op 07-10-2009 19:02]
PC Specs Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 9449 schreef op woensdag 07 oktober 2009 @ 18:53:
Hoewel ik het mooi zou vinden als AMD eens wat meer de boventoon zou gaan voeren kan ik me nauwelijks voorstellen dat er wat serieus met nVidia aan de hand is. Anders had het aandeel toch allang gereageerd?
NVDA heeft het het afgelopen 1/2 jaar prima gedaan, de laatste paar weken misschien weer 10% eraf. Het bedrijf is bijna 2x zoveel waard als het gehele AMD. Denk niet dat dit soort berichten via dit soort kanalen bekend worden als het aandeel niet al gehalveerd is.
Tot zeg maar afgelopen week, was er (aandeelhoudertechnisch) ook weinig aan de hand. Er waren misschien wat roddels, maar nVidia zou zijn Fermi tonen en alles draait gewoon door. Pas sinds duidelijk werd dat ze een stukje schroot toonden alszijnde Fermi werd er iets meer echt duidelijk. Als nVidia inderdaad stop met het leveren van de GT200 en Fermi niet snel komt, dan zal de echte daling van de aandelen niet lang op zich laten wachten.
Dat zal overigens ook inhouden dat het bestuur van nVidia in de problemen kan komen, aangezien deze al die tijd mooi weer heeft lopen spelen, terwijl duidelijk wordt dat het weer toch niet zo mooi was.
Maar dat blijft natuurlijk nog een beetje koffiedik kijken totdat er echt meer duidelijk wordt van Fermi.
Het gaat er natuurlijk niet alleen om of je winstmarges stijgen of stabiel blijven. Uiteindelijk gaat het er natuurlijk ook om of je uberhaupt iets kunt verkopen. Wanneer je niets te verkopen hebt, zul je sowieso verlies draaien. Daar schiet je als bedrijf natuurlijk helemaal niets mee op.
Mijn punt is dat het niet zo makkelijk is om er nog een GPU lijn te voeren. Distributeurs staan ook niet te springen om er naast Asus/MSI/Sapphire nog een serie videokaarten bij te doen (ook al zijn deze van hetzelfde merk). Een distributeur vinden is al moeilijk: de grote zeggen nee want die doen al ~4 merken; bij de kleinere maak je wel kans maar die doen niet genoeg volume.
Anoniem: 9449 schreef op woensdag 07 oktober 2009 @ 18:53:
Hoewel ik het mooi zou vinden als AMD eens wat meer de boventoon zou gaan voeren kan ik me nauwelijks voorstellen dat er wat serieus met nVidia aan de hand is. Anders had het aandeel toch allang gereageerd?
NVDA heeft het het afgelopen 1/2 jaar prima gedaan, de laatste paar weken misschien weer 10% eraf. Het bedrijf is bijna 2x zoveel waard als het gehele AMD. Denk niet dat dit soort berichten via dit soort kanalen bekend worden als het aandeel niet al gehalveerd is.
Wat is dat nou voor lulkoek?
Dat het aandeel AMD 1/2 de waarde heeft van het aandeel NVDA, wil nog niet zeggen dat het hele bedrijf de helft waard is!
dahakon schreef op woensdag 07 oktober 2009 @ 19:00:
Dat zal overigens ook inhouden dat het bestuur van nVidia in de problemen kan komen, aangezien deze al die tijd mooi weer heeft lopen spelen, terwijl duidelijk wordt dat het weer toch niet zo mooi was.
Ze hebben inmiddels nog maar $1 salaris las ik net...
Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.
Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.
Functioneel en analytisch
Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie.
Meer details
janee
Relevantere advertenties
Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht.
Meer details
Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.
Ingesloten content van derden
Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden.
Meer details