Toon posts:

[Algemeen] nVidia Nieuwdiscussie Topic - Deel 51 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 10 Laatste
Acties:
  • 43.128 views

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
http://tweakers.net/ext/f/a471907d3689beb6c9c0e2b09353b157/full.jpg
http://lightdestroyer.dommel.be/picture_library/tweakers/IndexIconC.PNG
http://lightdestroyer.dommel.be/picture_library/tweakers/TopicregelsIconC.PNG

In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
  • Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
  • Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter :)
  • Dit topic is vooral niét bedoeld om te posten dat:
    • jouw favoriete kaart niet leverbaar is bij een shop.
    • jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
    • je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
    • je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
    • je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
    • je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
    • Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
    • Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst! :)
http://lightdestroyer.dommel.be/picture_library/tweakers/G70IconC.PNG

Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he :p
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2

http://lightdestroyer.dommel.be/picture_library/tweakers/G80IconC.PNG

Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic :)
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 34

http://lightdestroyer.dommel.be/picture_library/tweakers/G92IconC.PNG

Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.

De laatste volledige info kan je steeds vinden in [Algemeen] nVidia Nieuws & Discussie Topic - Deel 44
http://lightdestroyer.dommel.be/picture_library/tweakers/GT200IconC.PNG

De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Alle informatie over deze kaarten kun je totaan deel 50 van dit topic terugvinden ;)

http://lightdestroyer.dommel.be/picture_library/tweakers/Fermi3.PNG

Instap level


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GT???
  • GPU: GF108
  • Release Date: Q2? 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders: 32
  • Shader clock??
  • ROP's: ??
  • Core Clock:
  • Memory Clock:
  • Memory Bandwidth:
  • Memory Interface:
  • Memory:
  • Consumption:
  • Performantie:OEM/Dell only(indien 32)?


http://lightdestroyer.dommel.be/picture_library/tweakers/GeForce_GT_420_oem_low_3qtr75.png

GT420 OEM
  • GPU: GF108
  • Release Date: Zomer 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:48
  • Shader clock: 1400 MHz
  • ROP's: ??
  • Core Clock: 700 MHz
  • Memory Clock: 900 MHz
  • Memory Bandwidth: 28.8 GB/sec
  • Memory Interface: 128 bit
  • Memory: 2048 MB DDR3
  • Consumption: max 50 Watt
    • Enkel OEM

Low End


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce_gt_430_3qtr_low75.png

GT 430
  • GPU: GF108
  • Release Date: 11/10/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 585 Miljoen
  • Unified shaders:96
  • Shader clock: 1400 MHz
  • ROP's: 4
  • Core Clock: 700 Mhz
  • Memory Clock: 800 - 900Mhz (GDDR3)
  • Memory Bandwidth:25,6 - 28,8 GB/s
  • Memory Interface: 128 bit
  • Memory: 1024 MB
  • Texture Units: 16
  • Consumption: Officieel max 49 Watt


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce_gt_440_3qtr_low75.png

GTS 440
  • GPU: GF106
  • Release Date: oktober 2010
  • Interface: PCI-E x16 2.0
  • Transistors: ??
  • Unified shaders:144
  • Shader clock: 1189 MHz
  • ROP's: ??
  • Core Clock: 594 Mhz
  • Memory Clock: 800-900 Mhz (GDDR3)
  • Memory Bandwidth: 38.4-43.2 GB/s
  • Memory Interface: 192 bit
  • Memory: 1.5 - 3.0 GB
  • Texture Units: ??
  • Beperkte 2-sli (zelfde fabrikant vereist)
  • Enkel OEM
  • Consumption: max 56 Watt



Mid-End


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce-gts450-pcb75.jpg

GTS 450
  • GPU: GF106 (40nm)
  • Release Date: Q2 2010 Uitgesteld naar 13 september
  • Interface: PCI-E x16 2.0
  • Transistors: 1.17 miljard
  • Unified shaders:192
  • Shader clock: 1566 MHz
  • ROP's: 16
  • Core Clock: 789 983 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 60,16/90,24 57,6 GB/s
  • Memory Interface: 128 /192 bit
  • Memory: 512?/768?/ 1024/2048? MB
  • L2 Cache Size: 256KB
  • Texture Units: 32
  • Consumption: max 106 watt
  • Performatie: mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/103149.jpg

GTX 460 SE
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 288 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 24
  • Core Clock: 650 Mhz
  • Memory Clock: 850 Mhz (GDDR5)
  • Memory Bandwidth: 108,8 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB
  • L2 Cache Size: 384KB
  • Texture Units: 48
  • Consumption: 150 Watt (minder dan de HD58 50/30)
  • Performantie:Mid-end


High Mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/103149.jpg

GTX 460 768 MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 24
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 86,4 GB/sec (GDDR5)
  • Memory Interface: 192 bit
  • Memory: 768MB (mogelijkheid voor 1536MB)
  • L2 Cache Size: 384KB
  • Texture Units: 56
  • Consumption: 150 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end


http://lightdestroyer.dommel.be/picture_library/tweakers/103243.jpg

GTX 460 1024MB
  • GPU: GF104 (40nm)
  • Release Date: 12/07/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 2.1 miljard
  • Unified shaders: 336 van de 384 beschikbaar
  • Shader clock: 1350 MHz
  • ROP's: 32
  • Core Clock: 675 Mhz
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: 115,2 GB/sec (GDDR5)
  • Memory Interface: 256 bit
  • Memory: 1024MB
  • Texture Units: 56
  • L2 Cache Size: 512KB
  • Consumption: 160 Watt (minder dan de HD58 50/30)
  • Performantie:High Mid-end


Tesla


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

Tesla C2050
  • GPU: Tesla T20
  • Release Date: "early" Q2 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3.2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock: 1600?? Mhz
  • ROP's: ??
  • Core Clock: 600-1200 MHz
  • Memory Clock:900 MHz (GDDR5)
  • Memory Bandwidth: 172.8 GB/sec (GDDR5)
  • Memory Interface: 384 bit
  • Memory: 3GB GDDR5
  • Consumption: 190W(typical)
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes


http://lightdestroyer.dommel.be/picture_library/tweakers/GT300.PNG

Tesla C2070
  • GPU: Tesla T20
  • Release Date: Q3 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3.2 miljard
  • Unified shaders: 480??
  • MIMD Architectuur
  • Shader clock: 1600?? Mhz
  • ROP's: ??
  • Core Clock: 700-1400 MHz
  • Memory Clock:1000Mhz (GDDR5)
  • Memory Bandwidth: 192 GB/sec (GDDR5)
  • Memory Interface: 384 bit
  • Memory: 6 GB (GDDR5)
  • Consumption:maximaal 225W
  • Cuda geörienteerd
  • L1 Cache per core: 48kb
  • L2 Cache per core: 768kb
  • Memory ECC Correction: Yes


Low High End


http://lightdestroyer.dommel.be/picture_library/tweakers/geforce_gtx_470_3qtr_low75.png

GTX 465
  • GPU: GF100
  • Release Date: eind mei 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 352
  • Shader clock:1215 MHz
  • Core Clock: 607 MHz
  • ROP's: 32
  • Pixel Fill Rate: 26.7 GP/s
  • Memory Clock: 802 Mhz (GDDR5)
  • Memory Bandwidth: 102.6 GB/s
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • Texture Units: 48
  • Consumption: max 200W


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX470.png

GTX 470
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 448
  • MIMD Architectuur
  • Shader clock:1215 mhz
  • Core Clock: 607 tot 1214 (hot clock) Mhz
  • ROP's: 40
  • Pixel Fill Rate: 24,3 GP/s
  • Memory Clock: 837 Mhz (GDDR5)
  • Memory Bandwidth: 133,9 GB/s
  • Memory Interface: 320 bit
  • Memory: 1280 MB
  • Texture Units: 56
  • Consumption: tot 215 Watt


High End


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX480.png

GTX 480
  • GPU: GF100
  • Release Date: April 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3,2 miljard
  • Unified shaders: 480
  • MIMD Architectuur
  • Shader clock: 1401 Mhz
  • ROP's: 48
  • Pixel Fill Rate: 33,6GP/s
  • Core Clock: 700 tot 1400 (hot clock) MHz
  • Memory Clock: 924 (GDDR5)
  • Memory Bandwidth: 177,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1536 MB
  • Texture Units: 64
  • Consumption: tot 250 Watt


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX580_75.png

GTX 570
  • GPU: GF110
  • Release Date: 7/12/2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3 miljard
  • Unified shaders: 480
  • Shader clock: 1464 Mhz
  • ROP's: 40
  • Pixel Fill Rate: ?
  • Core Clock: 732 MHz
  • Memory Clock: 950MHz (GDDR5)
  • Memory Bandwidth: 152 GB/s
  • Memory Interface: 320 bit
  • Memory: 1280 MB
  • Texture Units: 60
  • Texture Fill Rate: 43.9 (miljard/sec)
  • Consumption:219 Watt


High End


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX580_75.png

GTX 580
  • GPU: GF110
  • Release Date: oktober 2010
  • Interface: PCI-E x16 2.0
  • Transistors: 3? miljard
  • Unified shaders: 512
  • Shader clock: 1544 Mhz
  • ROP's: 64
  • Pixel Fill Rate: ?
  • Core Clock: 772 MHz
  • Memory Clock: 1002 (GDDR5)
  • Memory Bandwidth: 192,4 GB/s
  • Memory Interface: 384 bit
  • Memory: 1512 MB
  • Texture Units: 64
  • Texture Fill Rate: 49.4 (miljard/sec)
  • Consumption:??


Geruchten


http://lightdestroyer.dommel.be/picture_library/tweakers/GTX490_75.jpg

GTX 490 of 590(volgens de geruchten)
  • GPU: 2*GF104
  • Release Date: Zomer 2010 ;(
  • Interface: PCI-E x16 2.0
  • Transistors: ?? miljard
  • Unified shaders: 336*2 ofwel 240*2
  • Shader clock:?? mhz
  • Core Clock:?? (hot clock) Mhz
  • ROP's: ??
  • Pixel Fill Rate: GP/s
  • Memory Clock: 900 Mhz (GDDR5)
  • Memory Bandwidth: ?? GB/s
  • Memory Interface: 2* 192? bit
  • Memory: ??? MB
  • Texture Units: ??
  • Consumption: "Extreme" Vermoedelijk 300Watt officiele TDP


http://lightdestroyer.dommel.be/picture_library/tweakers/vraagteken.PNG

GTX 560
  • GPU: GF114
  • Release Date: februari 2011
  • Interface: PCI-E x16 2.0
  • Transistors: 3 miljard
  • Unified shaders: 384
  • Shader clock: 1640 Mhz
  • ROP's: 40?
  • Pixel Fill Rate: ?
  • Core Clock: 820 MHz
  • Memory Clock: 1000MHz (GDDR5)
  • Memory Bandwidth: 128 GB/s
  • Memory Interface: 256 bit
  • Memory: 1024 MB
  • Texture Units: 56??
  • Texture Fill Rate: ?? (miljard/sec)
  • Consumption:184 Watt


ModelnummerGPUShadersGPU
kloksnelheid
Geheugen
type
Geheugen
snelheid
Band
breedte
Bus
breedte
SLI
GT 410MGF108?48575MHz(G)ddr31600MHz12,8GB/s64bitNee
GT 520MGF108?48740MHzddr31600MHz12,8GB/s64bitNee
GT 415MGF10?48500MHzddr31600MHz25,6GB/s128bitNee
GT 420MGF10?96500MHzddr31600MHz25,6GB/s128bitNee
GT 425MGF10?96560MHzddr31600MHz25,6GB/s128bitNee
GT 525MGF10896600MHzGddr5/ddr33600MHz28,8GB/s128bitNee
GT 435MGF10?96650MHzddr31600MHz25.6GB/s128bitNee
GT 540MGF10896672MHzGddr5/ddr33600MHz28,8GB/s128bitNee
GT 550MGF10896740MHzGddr5/ddr33600MHz28,8GB/s128bitNee
GT 445MGF10?144590MHzGddr5/ddr31600/2500MHz25.6/60GB/s128/192bitNee
GT 555MGF108144590MHzGddr5/ddr33600MHz43,2GB/s192bitNee
GTX 485MGF104384575MHzGddr53000MHz76,8GB/s256bitJa

http://lightdestroyer.dommel.be/picture_library/tweakers/RecenteNieuwsberichtenIconC.PNG

Het vroegtijdig overlijden van ons forumlid CJ:
The tech community lost two of it's best this week
Spijtig genoeg heb ik geen enkel bericht hiervan op de front page gezien

"Recente" Frontpage berichten:
Nieuws:Zotac geeft ION-ITX-lijn moederborden een update
Nieuws: GTX 560 krijgt Ti-aanduiding en komt op 25 januari
Nieuws: Intel en Nvidia begraven strijdbijl met verrassende deal
Nieuws: Nvidia toont Geforce 500M-serie en GTX 485M
Nieuws: Nvidia komt met ARM-cpu's voor pc's en supercomputers
Nieuws:BMW en Tesla gebruiken Nvidia Tegra-soc voor displays
Nieuws: Nvidia brengt Geforce GTX 570 uit
Nieuws: Nvidia brengt GT 540M voor laptops uit
Nieuws: Nvidia: smartphones krijgen in nabije toekomst quadcore-cpu's
Nieuws: Nvidia wil Cuda ook naar mobieltjes brengen

Externe nieuwsberichten:
Project Denver
nVidia heeft op CES hun nieuwste project betreffende het Tegra/ARM platform voorgesteld. Blijkbaar wil nVidia verder gaan dan dat ze tot nu toe met Tegra hebben bereikt. Momenteel houdt Tegra in dat een nVidia video chip wordt gecombineerd met 1 of meerdere aangekocht ARM chips om samen een platform te vormen.
nVidia toont blijkbaar nu ook de aspiratie om de ARM cpu chips zelf te ontwikkelen en te laten produceren (nVidia is nog steeds fabless). Door de licentiedeal met Intel en de bekomen licenties op de toekomstige ARM structuur is er juridisch geen hinderpaal meer voor nVidia. Daar ook Windows 8 compatibel wal worden met ARM hoopt nVidia hierdoor een concurrentieel platform te kunnen opbouwen dat op lange termijn zelf tegen de huidige x86 platformen kan komen te staan.
Dit vooral voor tablets/smartphones en andere toepassingen. Dat er in deze markt een serieuze groei wordt verwacht is duidelijk, zelf Intel wil een deel van de koek met hun atom cpu's (en dus de x86 instructieset)
nVidia:
“Project Denver” Processor to Usher in New Era of Computing
CES:
Microsoft Announces Support of System on a Chip Architectures From Intel, AMD, and ARM for Next Version of Windows

FP:
Nieuws:Intel: Windows op ARM biedt ons kansen en bedreigingen
Nieuws: 'Notebookmakers tonen weinig interesse in Atoms voor tablets'
CES: Nvidia komt met ARM-cpu's voor pc's en supercomputers
CES: Nieuwe Windows-versie ondersteunt ARM-architectuur
Totdat hun nieuwe ARM cpu af is blijft men geloven in Tegra2 (vooral in tablets en in wagens zo blijkt)
CES: BMW en Tesla gebruiken Nvidia Tegra-soc voor displays
CES: Cartech
CES: Hands-on Kwartet opvallende tablets van Asus
CES: Hands-on met Dells Streak 7: degelijkheid troef
CES: Hands-on Acers 10"-tablet met Android
CES: Hands-on Motorola Atrix: smartphone of netbook?
Eerste smarthphone met een dualcore Tegra2 chipset
CES: Hands on LG Optimus Speed met dualcore cpu

Licentiedeal met Intel
Na een enorm lange juridische strijd met Intel heeft nVidia eindelijk een licentiedeal kunnen sluiten met Intel.
Als voordeel hiervan krijgt nVidia een royale vergoeding voor het verliezen van de rechten voor chipsets te produceren voor de nieuwe CPU's van Intel.
Echter krijgt nVidia ook geen rechten om x86 cpu's of het x86 platform te emuleren (bv op een ARM processor).
Gevolgen: • De hoogst winstgevende chipsetdivisie van nVidia is nu defenitief verleden tijd, IGP's van nVidia voor intel en eigenlijk ook AMD zullen niet meer gefabriceerd worden. (Dit werd al vroeger aangekondigd door nVidia zelf).
• Project Denver zal dus bestaan uit ARM processors en nVidia zal op die platform niet de x86 instructieset mogen gebruiken of emuleren.
Intel pays NVIDIA $1.5b in patent truce, Apple still hurt
Anandtech: Intel Settles With NVIDIA: More Money, Fewer Problems, No x86
Intel Announces New Patent Cross License Agreement with NVIDIA

Drie van de top 4 supercomputers in de wereld halen een groot deel van hun rekenkracht van grafische processors.
China's Tianhe-1A crowned supercomputer king
De krachtigste ter wereld bevind zich nu in china en bevat 7,168 nVidia GPU's (naast 14,336 Intel CPUs, details :P)
China claims supercomputer crown

Anandtech: Intel Settles With the FTC

HotHardware: NVIDIA Unleashes Quadro 6000 and 5000 Series GPUs

http://lightdestroyer.dommel.be/picture_library/tweakers/GeruchtenIconC.PNG

GTX 560 (Ti)
Eind deze maand (januari 2011) zal vermoedelijk de GTX 560 gereleased worden.
De specs zijn al redelijk bekend (zie beetje hoger ;P) maar het recentelijkste gerucht gaat dat er weer net zoals bij de GTX 460 2 varianten gereleased zullen worden.
Opnieuw zal het geheugen het verschilpunt vormen, maar deze keer zal nVidia waarschijnlijk de benaming Ti willen gebruiken voor de snelste variant ipv enkel de hoeveelheid ram achter de benaming te plaatsen.

http://lightdestroyer.dommel.be/picture_library/tweakers/DriverIconC.PNG

Officiële (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software
Windows OS:Alternatieve OS:nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(30 juli 2010) zijn er geen nieuwere beta drivers uit die recenter zijn dan de WHQL's.
Er is wel een nieuwe beta driver uit voor OpenGL 4.1 te supporten
Let op:
7) What NVIDIA hardware will support OpenGL 4?

The new features in OpenGL 4 require a Fermi GPU. Thus OpenGL 4 is not supported on NV3x, NV4x, G7x, G8x nor GT2xx hardware. This means you need one of the following NVIDIA graphics accelerators to use OpenGL 4:

* Quadro Plex 7000, Quadro 6000, Quadro 5000, Quadro 5000M, Quadro 4000
* GeForce GTX 480, GeForce GTX 470, GeForce GTX 465, GeForce GTX 460
De allerlaatste Beta clients kan je natuurlijk steeds vinden door op deze site 'Beta' of 'all' aan te duiden in het laatste keuzeveld.

Register tweaks voor het enablen van het klassieke controle paneel
enableoldNV_CP.reg ( 1.46K )
Voor de veranderingen ongedaan te maken:
enablenewNV_CP.reg ( 1.46K )
enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP)


Officiële nVidia drivers voor Mobile GPU's
Windows OS:Een goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
Alternatieve OS:
Momenteel zijn deze drivers dezelfde als voor de desktop applicaties

nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.

http://tweakers.net/ext/f/40245977b9afbc674b15978a1b3f6f31/full.jpg

Reviews van de GeForce 9 reeks
Deze kan u vinden in Deel 36 van dit topic

Reviews GeForce G 210-240:
Deze kan u vinden in Deeltje 41 van dit topic

Reviews GeForce 400 serie
Deze kan u vinden in Deel 49 van dit topic

Reviews van de GeForce GTX 570:
Hardware.info
AnandTech
bit-tech
Guru3D
Guru3D (Palit)
HardwareCanucks
[H]ard|OCP
HardwareHaeven
Legit Reviews
techPowerUp
TechSpot
TechRadar
Tom's Hardware

Reviews van de GeForce GTX 580:
Hardware.info
AnandTech
bit-tech
Guru3D
HardwareCanucks
[H]ard|OCP
HardwareHeaven
HOTHardWare
Legit Reviews
Overclockers Club
PC Perpective
techPowerUp
TechRadar
The Tech Report
TechSpot
Tom's Hardware


Vorige Topics:Gebruikerservaring:
Het Nvidia GTX4xx series ervaringen topic
nVidia GTX470/GTX480 Levertijden Topique

[Ervaringen] Bakken grafische kaart
Het doodgaan van GeForce 8000 serie kaarten

Pricewatch
GeForce 200 serie in de Pricewatch
GeForce 400 serie in de Pricewatch
GeForce Qaudro in de Pricewatch
http://lightdestroyer.dommel.be/picture_library/tweakers/CudaIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/HybridIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/PhysXIconC.PNG


http://lightdestroyer.dommel.be/picture_library/tweakers/PureVideoIconC.PNG


Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum




Startpost: Jejking & biobak & RappieRappie
http://tweakers.net/ext/f/abd1b5b02d37e3d29d0172284de28e3b/full.jpg

*TODO*
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)
  • PV engine 4 bijvoegen
  • CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg
-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...

[Voor 180% gewijzigd door lightdestroyer op 25-01-2011 11:53]

Specs


  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 23-09 22:57
lightdestroyer schreef op vrijdag 14 januari 2011 @ 17:17:
Ook hebben de oude "echte" gpu reeksen een refresh gekregen, wss ten gevolge van de PR rond de miljardste GPU die gefabriceerd is geweest voor nvidia>
(de gpu's die niet onder nVidia naam werden verkocht worden hierbij niet meegeteld, riva TNT bv ..)
De Riva128 en Riva TNT werden weldegelijk onder de naam van nVidia uitgebracht. Dat was toen namelijk nog in het heetsts van de strijd tussen nV en 3Dfx!
Het zijn echter puur video-chips en geen GPU's. Zo werden ze pas genoemd sind de incorporatie van de hardware T&L engine.

Ze vieren nu dus de productie van de miljardste GPU, niet de miljardste GFX-chip. ;)

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 15-09 17:12
Puppetmaster schreef op vrijdag 14 januari 2011 @ 17:39:
[...]


De Riva128 en Riva TNT werden weldegelijk onder de naam van nVidia uitgebracht. Dat was toen namelijk nog in het heetsts van de strijd tussen nV en 3Dfx!
Klopt.

Vooral over de nVidia Riva TNT (zou heette de kaart voluit) was men destijds zeer te spreken. Ook omdat je toen een kaart had die zowel 2D als 3D aankon. Bij de eerste 3Dfx kaartjes had je destijds ook nog een 2D kaart nodig(?)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
"• Linken naar reviews zijn toegevoegd --> *O* Tweakers.net staat op de nvidia website *O* "

Dat snap ik even niet.

"En zeg nu nog eens dat Tegra2 en het Tegra platform geen succes kan worden, veel te veel links moeten bijvoegen over al die tablets die Tegra2 zouden gaan gebruiken :X"

Hoeveel Tegra2 design wins zijn er dan al ?

Anoniem: 245699

madmaxnl schreef op vrijdag 14 januari 2011 @ 19:31:
Hoeveel Tegra2 design wins zijn er dan al ?
Komt meneer negatief weer eens langs....

De links geven aan dat fabrikanten Tegra 2 wel gaan gebruiken en dat er dus redelijk wat producten aan zitten te komen. Er wordt puur gesteld dat Tegra 2 de potentie heeft om succesvol te worden, nergens dat ze er 'design wins' mee binnen gaan slepen...

[Voor 26% gewijzigd door Anoniem: 245699 op 15-01-2011 00:11]


  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 05-08 15:29
madmaxnl schreef op vrijdag 14 januari 2011 @ 19:31:
"• Linken naar reviews zijn toegevoegd --> *O* Tweakers.net staat op de nvidia website *O* "

Dat snap ik even niet.

"En zeg nu nog eens dat Tegra2 en het Tegra platform geen succes kan worden, veel te veel links moeten bijvoegen over al die tablets die Tegra2 zouden gaan gebruiken :X"

Hoeveel Tegra2 design wins zijn er dan al ?
Wat dacht je van minimaal 15 miljoen Tegra2 chips in 2011 en ze zijn vooral beperkt in productiecapaciteit, dus er lijkt meer vraag dan aanbod. En wil je nu dat geflame een keer laten, ik word er erg moe van.


EDIT: En voordat er naar bron wordt gevraagd, komt van DIGITIMES, die vorige week een stukje schreef met de zeer creatieve titel "CES 2011: Nvidia to ship at least 15 million Tegra series processors in 2011". Helaas nu alleen nog te lezen door subscribers, maar jullie mogen mijn woord geloven dat de titel de inhoud van het bericht netjes dekt ;)

[Voor 20% gewijzigd door Snoitkever op 15-01-2011 13:05]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het is niet onlogisch dat je niet gelijk mee kan met de gevestigde orde bij je 1e ontwerp, wat dat betreft ziet Tegra 2 er een stukken beter uit.
Dessalniettemin is de concurrentie in deze sector enorm en blijft het afwachten of nVidia vaste voet aan de grond kan krijgen want op zichzelf stelt 15mio wereldwijd bijna niks voor.
nVidia's kracht is natuurlijk dat zij zeer veel GPU kennis hebben wat naar mijn inschatting minder is bij de concurrentie. Dus als ze straks een enigzins goede ARM CPU maken gekoppelt met een top GPU bij een net verbruik dan zie ik het wel goed in voor nVidia.

Heb nu meer vertrouwen in een duurzame toekomst van nVidia gekregen door de berichten rond Tegra2 en hun ARM CPU strategie. Het moet echter allemaal nog wel bewezen worden. :)

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 05-08 15:29
Help!!!! schreef op zaterdag 15 januari 2011 @ 13:33:
Het is niet onlogisch dat je niet gelijk mee kan met de gevestigde orde bij je 1e ontwerp, wat dat betreft ziet Tegra 2 er een stukken beter uit.
Dessalniettemin is de concurrentie in deze sector enorm en blijft het afwachten of nVidia vaste voet aan de grond kan krijgen want op zichzelf stelt 15mio wereldwijd bijna niks voor.
nVidia's kracht is natuurlijk dat zij zeer veel GPU kennis hebben wat naar mijn inschatting minder is bij de concurrentie. Dus als ze straks een enigzins goede ARM CPU maken gekoppelt met een top GPU bij een net verbruik dan zie ik het wel goed in voor nVidia.

Heb nu meer vertrouwen in een duurzame toekomst van nVidia gekregen door de berichten rond Tegra2 en hun ARM CPU strategie. Het moet echter allemaal nog wel bewezen worden. :)
15 miljoen is best aardig lijkt me. De meerderheid van de chips zullen in tablets verschijnen, laten we zeggen minstens 10 miljoen? Nou zijn de verwachte verkopen van de iPad geloof ik 60-70 miljoen, maar binnen een factor 10 van de absolute koploper blijven is toch best netjes te noemen voor een nieuw product in een nieuwe markt lijkt me.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Al zouden er 10mio in tablets komen en vd Ipad er 60a70 mio verkocht zijn dan is dat wat mij betreft nog geen goede vergelijking aangezien het mij verdedigbaar lijkt dat het komend jaar de Tabletmarkt in zijn geheel veel groter zal worden dan die 60 a 70mio en je het daar tegenover moet zetten.

Verder is de tegra 2 bedoeld voor smartphones en tablets dus imo is 15mio dan nog erg weinig gezien de grootte van de smartphonemarkt.

Ook moet die 15mio nog gehaald worden wat denk ik ook nogal beinvloed zal worden door de uiteindelijke kwaliteit van de tabletOS'n (anders dan die van Apple)

Maar de Tegra 2 lijkt in ieder geval stukken beter te zijn / aan te slaan dan de doemstukken die we een tijd terug konden lezen op 1 vd gossipsites...
Ook zijn de previews positief dus ja ik heb er wel vertrouwen in dat dit een succes kan worden.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | ASUS RTX 3080 TUF OC | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair RM850x |


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Help!!!! schreef op zaterdag 15 januari 2011 @ 13:33:
nVidia's kracht is natuurlijk dat zij zeer veel GPU kennis hebben wat naar mijn inschatting minder is bij de concurrentie. Dus als ze straks een enigzins goede ARM CPU maken gekoppelt met een top GPU bij een net verbruik dan zie ik het wel goed in voor nVidia.
NVidia komt juist maar net kijken bij de ARM-industrie. Er zijn behoorlijk goede GPU's te krijgen van andere merken, die echt niet onder doen voor wat in Tegra2 zit. Als 1 van de sterkere opties is er IMG's PowerVR GPU. Daarnaast is een quad-Mali GPU van ARM ook een geen watje. NVidia zal met een Tegra3 toch weer een tandje extra bij moeten zetten om bij te kunnen blijven.
Heb nu meer vertrouwen in een duurzame toekomst van nVidia gekregen door de berichten rond Tegra2 en hun ARM CPU strategie. Het moet echter allemaal nog wel bewezen worden. :)
Er zijn redelijk wat tablets aangekondigd en een paar telefoons. Maar zolang ze niet officieel op de markt zijn, zijn het nog altijd aankondigingen. Daarnaast valt ook te bezien hoe dergelijke producten uiteindelijk verkopen. Een telefoon als de LG Optimus Speed klinkt als een heel mooi toestel, maar als de batterij binnen no-time leeg is, omdat de 2e core niet geheel uitgeschakeld kan worden, kon het nog wel eens uitgekakt worden door reviewers en dat kan zijn weerslag weer hebben op de verkopen.

Verder klinkt 15 miljoen veel, maar is het zoals hierboven al gezegd eigenlijk helemaal niet zo heel erg veel. Bovendien heeft nVidia vorig jaar de inkomsten aangaande Tegra(2) continu naar beneden bijgesteld. De opmerking dat ze 'gelimiteerd' zijn door de capaciteit van TSMC is ook een beetje uit de lucht gegrepen. TSMC heeft enerzijds al maar meer capaciteit gekregen voor 40nm producten, maar bovendien heeft nVidia zijn capaciteit die ze hadden ingekocht voor Tegra 2, zelf dichtgeknepen.

Als we 15 miljoen dan eens gaan vergelijken met een Hummingbird SoC van Samsung, dan heeft die laatste in iets meer dan een half jaar meer dan 10 miljoen verkochte chips gezien, in de vorm van Galaxy S en Galaxy Tab. Vanuit dat oogpunt kun je stellen dat 15 miljoen echt niet heel erg veel is.

De totale Tabletmarkt voor 2011 was overigens geraamd op ~60 miljoen tablets. De helft daarvan zou voor rekening van Apple komen, de andere helft mag de rest om vechten. Samsung heeft daar al een redelijk deel van gekaapt met de Galaxy Tab en zal ongetwijfeld de Tab2 binnenkort aankondigen. De kans dat daar Tegra2 in zit, zal vrij klein zijn, gezien Samsungs Orion dual-core SoC, die ook gebruiksklaar lijkt te zijn voor Samsung.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Ik vroeg alleen hoeveel design wins Tegra2 al had. Hoezo is dat dan een flame ? Ik vroeg i.i.g. niet naar de bekende weg. Ook zie ik totaal niet in hoe deze vraag iemand van streek kan maken.

Belachelijk dat ik me zelf moet verdedigen als ik een normale vraag stel.

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 05-08 15:29
dahakon schreef op zaterdag 15 januari 2011 @ 17:06:
[...]


NVidia komt juist maar net kijken bij de ARM-industrie. Er zijn behoorlijk goede GPU's te krijgen van andere merken, die echt niet onder doen voor wat in Tegra2 zit. Als 1 van de sterkere opties is er IMG's PowerVR GPU. Daarnaast is een quad-Mali GPU van ARM ook een geen watje. NVidia zal met een Tegra3 toch weer een tandje extra bij moeten zetten om bij te kunnen blijven.


[...]


Er zijn redelijk wat tablets aangekondigd en een paar telefoons. Maar zolang ze niet officieel op de markt zijn, zijn het nog altijd aankondigingen. Daarnaast valt ook te bezien hoe dergelijke producten uiteindelijk verkopen. Een telefoon als de LG Optimus Speed klinkt als een heel mooi toestel, maar als de batterij binnen no-time leeg is, omdat de 2e core niet geheel uitgeschakeld kan worden, kon het nog wel eens uitgekakt worden door reviewers en dat kan zijn weerslag weer hebben op de verkopen.

Verder klinkt 15 miljoen veel, maar is het zoals hierboven al gezegd eigenlijk helemaal niet zo heel erg veel. Bovendien heeft nVidia vorig jaar de inkomsten aangaande Tegra(2) continu naar beneden bijgesteld. De opmerking dat ze 'gelimiteerd' zijn door de capaciteit van TSMC is ook een beetje uit de lucht gegrepen. TSMC heeft enerzijds al maar meer capaciteit gekregen voor 40nm producten, maar bovendien heeft nVidia zijn capaciteit die ze hadden ingekocht voor Tegra 2, zelf dichtgeknepen.

Als we 15 miljoen dan eens gaan vergelijken met een Hummingbird SoC van Samsung, dan heeft die laatste in iets meer dan een half jaar meer dan 10 miljoen verkochte chips gezien, in de vorm van Galaxy S en Galaxy Tab. Vanuit dat oogpunt kun je stellen dat 15 miljoen echt niet heel erg veel is.

De totale Tabletmarkt voor 2011 was overigens geraamd op ~60 miljoen tablets. De helft daarvan zou voor rekening van Apple komen, de andere helft mag de rest om vechten. Samsung heeft daar al een redelijk deel van gekaapt met de Galaxy Tab en zal ongetwijfeld de Tab2 binnenkort aankondigen. De kans dat daar Tegra2 in zit, zal vrij klein zijn, gezien Samsungs Orion dual-core SoC, die ook gebruiksklaar lijkt te zijn voor Samsung.
Glas half vol of half leeg? Nee, NVIDIA is geen grote speler op de markt. Qualcomm en TI zullen ongetwijfeld snel 5-10 keer meer high-end ARM SoCs verkopen, als het niet meer is. Maar ik denk wel dat je kan zeggen dat NVIDIA ondertussen wel een kleinere speler in de markt is geworden en als ze zo door gaan ook het potentieel hebben om een grotere speler in de ARM markt te worden. Uiteraard allemaal met een heleboel mitsen en maren en het kan ook best fout gaan, maar het begin is er. Die negatieve verhalen die we tot nog geen half jaar geleden van mensen als Charlie kregen te horen over hoe Tegra2 een grote flop is zijn in ieder geval nu wel de wereld uit.

Wat betreft de capaciteit, ik meen het vorige week in een DIGITIMES artikel te hebben gelezen, maar aangezien ik geen abonnee ben kan ik het niet terug vinden, dus ik kan daar ook fout zitten :)

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Snoitkever schreef op zaterdag 15 januari 2011 @ 19:29:
Wat betreft de capaciteit, ik meen het vorige week in een DIGITIMES artikel te hebben gelezen, maar aangezien ik geen abonnee ben kan ik het niet terug vinden, dus ik kan daar ook fout zitten :)
Nvidia's hele range draait op TSMC's 40nm proces. Het is simpelweg een zaak van keuzes maken. Willen we een wafer met 100 GF110's, of willen we een wafer met ~600 Tegra2's? Gezien sommige wilde verhalen langs zijn gekomen dat nVidia ~80% van het 40nm proces zou hebben, zou het allemaal al helemaal geen probleem mogen zijn, met zelfs met behoorlijk minder capaciteit, komt het gewoonweg op keuzes aan. NVidia heeft bewust weinig capaciteit voor Tegra2 ingezet, omdat het al met al behoorlijk dure sleutelhangers zouden zijn geworden, als ze niet verkocht zouden worden.

De hamvraag nu is natuurlijk wat nVidia uiteindelijk ontvangt voor die chips. Zal het de vraagprijs van 40 dollar zijn? Of zullen het dumpprijzen zijn omdat andere SoCs nu eenmaal ook goedkoper te krijgen zijn?

Ik ben in ieder geval erg benieuwd naar de echte reviews van LG Optimus Speed, met een duidelijk kijk op batterijgebruik en duur.

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 11-09 09:59

Xenomorphh

Soep met Ballen

dahakon schreef op zaterdag 15 januari 2011 @ 19:56:
[...]


Nvidia's hele range draait op TSMC's 40nm proces. Het is simpelweg een zaak van keuzes maken. Willen we een wafer met 100 GF110's, of willen we een wafer met ~600 Tegra2's? Gezien sommige wilde verhalen langs zijn gekomen dat nVidia ~80% van het 40nm proces zou hebben, zou het allemaal al helemaal geen probleem mogen zijn, met zelfs met behoorlijk minder capaciteit, komt het gewoonweg op keuzes aan. NVidia heeft bewust weinig capaciteit voor Tegra2 ingezet, omdat het al met al behoorlijk dure sleutelhangers zouden zijn geworden, als ze niet verkocht zouden worden.

De hamvraag nu is natuurlijk wat nVidia uiteindelijk ontvangt voor die chips. Zal het de vraagprijs van 40 dollar zijn? Of zullen het dumpprijzen zijn omdat andere SoCs nu eenmaal ook goedkoper te krijgen zijn?

Ik ben in ieder geval erg benieuwd naar de echte reviews van LG Optimus Speed, met een duidelijk kijk op batterijgebruik en duur.
http://fudzilla.com/proce...akers-say-no-to-oak-trail
Als ik hier lees, beetje pro nVidia dan wel, hebben ze het er over dat de oak trail met 40 dollar 3x zo duur is als een tegra2.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Xenomorphh schreef op zaterdag 15 januari 2011 @ 22:04:
[...]

http://fudzilla.com/proce...akers-say-no-to-oak-trail
Als ik hier lees, beetje pro nVidia dan wel, hebben ze het er over dat de oak trail met 40 dollar 3x zo duur is als een tegra2.
En Oak Trail komt al van een behoorlijk hogere prijsstelling. Tegra 2 zal dus waarschijnlijk ook voor een veel lagere prijs verkocht worden dan het initieel de bedoeling was. Ze zijn zeker niet bij de ~15 dollar begonnen die Fud claimt als huidige verkoopprijs.

Overigens lijkt de Optimus Speed launch ondertussen ook al van januari, naar 21 februari, naar 21 maart te zijn verplaatst. Een engelse shop heeft die datum nu. De enige Nederlandse shop waar ik hem heb gezien heeft het over een levertijd van 8 weken, wat ook al ergens in maart is.

[Voor 19% gewijzigd door dahakon op 15-01-2011 22:34]


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Verkoopprijs van 15 dollar kan maar veel marge is er niet. Al helemaal niet als je R&D,TSMC, logistieke en administratieve kosten mee telt.



AMD Zacate APU is 75mm2 groot.
AMD Zacate APU is ~1,75 keer zo groot als nVidia Tegra.
nVidia Tegra is dus ~43mm2 groot

Aantal nVidia Tegras die uit een wafer kunnen komen in de "praktijk" is=
(π*((150-(√43))2)/43=~1500 nVidia Tegras uit één wafer van 300mm.
Een 300mm wafer kost ~5000 dollar.

5000/1500=~3,4 dollar per nVidia Tegra als yields 100% zijn.

Bij deze 3,4 dollar komt wel nog binning en packaging kosten.

[Voor 19% gewijzigd door madmaxnl op 15-01-2011 23:15]


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
[b][message=35372238,noline]
AMD Zacate APU is 75mm2 groot.
AMD Zacate APU is ~1,75 keer zo groot als nVidia Tegra.
nVidia Tegra is dus ~43mm2 groot

Aantal nVidia Tegras die uit een wafer kunnen komen in de "praktijk" is=
(π*((150-(√43))2)/43=~1500 nVidia Tegras uit één wafer van 300mm.
Een 300mm wafer kost ~5000 dollar.

5000/1500=~3,4 dollar per nVidia Tegra als yields 100% zijn.

Bij deze 3,4 dollar komt wel nog binning en packaging kosten.
Alleen is een zero-defect wafer net als een sprookje, het bestaat niet echt. Volgens een Fudzilla artikel van een paar dagen terug zijn yields verre van optimaal. Ik vroeg me overigens 1 ding af. Je gebruikt 43mm2 als diesize voor Tegra 2, maar tot nog toe ben ik altijd ~49mm2 tegengekomen (scheelt ~200 chips per wafer). Waar komt die 43mm2 vandaan?

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
43mm2 is een schatting, ik heb nog gezocht naar de echte die size maar die heb ik niet kunnen vinden.
Maar in het geval van 50mm2 zouden er ~1300 chips uit een wafer komen. Natuurlijk neemt de yieldrate af naarmate de grote van de chips toeneemt. Maar voor de chips van dergelijke groten mag je denk ik wel van een yieldrate van >89% spreken.

Ik denk dat in het beste geval kosten de dies ~3 dollar en in het slechtste geval ~5 dollar.

[Voor 14% gewijzigd door madmaxnl op 15-01-2011 23:56]


  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 05-08 15:29
Ik twijfel nogal aan die 5000 die je vaak rond ziet vliegen. Ook in het originele stuk waar de auteur AMD en Intel vergelijkt, terwijl Intel waarschijnlijk een stuk goedkoper uit is omdat ze alles in huis doen en niet uitbesteden naar GF. Daarnaast wordt ook vaak gezegd dat NVIDIA goedkoper kan produceren bij TSMC omdat ze goeie klant zijn en omdat TSMC dat graag zo wil houden. Daar komt bij dat oudere procedees stukken goedkoper zijn dan nieuwe cutting-edge procedees, dat een heleboel afhangt van de complexiteit van de chip die gebakken wordt en dat alles zorgt er voor dat ik het hele 5000 figuur waardeloos vind als basis voor het berekenen van chipprijzen.

EDIT: Iets dieper op dat laatste punt ingegaan: In een recent stuk over de HD6900 serie op (naar ik meen) Anandtech werd gesproken over kosten van een transistor op een procedee. 32nm zou in eerste instantie bijna dezelfde prijs/trans. hebben als 40nm. Of de 40nm wafers zijn dus goedkoper of de 32nm wafers zijn minstens 10.000, maar waarom werd 5000 dan geclaimd door Charlie vanaf de eerste NVIDIA 40nm chips?

[Voor 23% gewijzigd door Snoitkever op 16-01-2011 10:52]


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Ik denk niet dat TSMC welk bedrijf dan ook grote korting geeft, zolang ze genoeg klanten hebben voor het proces die de volle mep willen/kunnen betalen. Voor de rest is die 5000 dollar een prijs die gold tijdens de lancering van 40nm. Deze zou wellicht ondertussen wel wat gezakt kunnen zijn, maar aangezien 40nm nog altijd de 'cutting edge' is, zal het waarschijnlijk niet veel zijn. TSMC moet namelijk ook nog altijd geld verdienen om aandeelhouders blij te houden.

Het is ook daarom dat ik denk dat men moeilijk kan verkopen dat ze de helft van het 40nm proces voor een aanzienlijk lagere prijs verkopen aan nVidia, dan de andere helft aan de rest. Sowieso is dat een behoorlijk slechte bedrijfspolicy, want op die manier is de kans ook erg groot dat je je klanten naar Global Foundries jaagt, omdat ze daar wel een gelijkere behandeling zouden kunnen krijgen.

De prijs van een wafer zal verder niet echt afhangen van de complexiteit van een chip lijkt me. Het proces kan iets uitvoeren en het is aan de klant om chips te ontwerpen binnen dat kader. De wafer zelf doorloopt gewoon het proces en is klaar aan het eind van de lijn. Hoeveel werkende chips er op zitten, al dan niet afhankelijk van complexiteit, is gewoon een zaak voor de klant.

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 05-08 15:29
dahakon schreef op zondag 16 januari 2011 @ 10:58:
Ik denk niet dat TSMC welk bedrijf dan ook grote korting geeft, zolang ze genoeg klanten hebben voor het proces die de volle mep willen/kunnen betalen. Voor de rest is die 5000 dollar een prijs die gold tijdens de lancering van 40nm. Deze zou wellicht ondertussen wel wat gezakt kunnen zijn, maar aangezien 40nm nog altijd de 'cutting edge' is, zal het waarschijnlijk niet veel zijn. TSMC moet namelijk ook nog altijd geld verdienen om aandeelhouders blij te houden.
Hoe verklaar je het dan dat 32nm duurder is per transistor als 40nm? Of 40nm is heel flink in prijs gezakt, maar waarom hanteren we dan die 5000 nog, of 32nm is veel duurder, maar dat strookt niet met het feit dat elke nieuwe generatie chips ongeveer even groot is zonder duurder te worden.
This was due to the fact that before 32nm was even canceled, TSMC’s pricing was going to make 32nm more expensive per transistor than 40nm, a problem for a mid-range part where AMD has specific margins they’d like to hit. bron
dahakon schreef op zondag 16 januari 2011 @ 10:58:
Het is ook daarom dat ik denk dat men moeilijk kan verkopen dat ze de helft van het 40nm proces voor een aanzienlijk lagere prijs verkopen aan nVidia, dan de andere helft aan de rest. Sowieso is dat een behoorlijk slechte bedrijfspolicy, want op die manier is de kans ook erg groot dat je je klanten naar Global Foundries jaagt, omdat ze daar wel een gelijkere behandeling zouden kunnen krijgen.
Nou, NVIDIA krijgt in ieder geval voordeel bij allocatie:
White also acknowledged something that I've long assumed to be true: Nvidia receives "preferential allocation" on advanced process technology at TSMC. It's logical that Nvidia should get the red-carpet treatment, having been TSMC's best customer for many years, but I don't recall hearing Nvidia or TSMC put this fact on the record before. bron
Ik heb ook wel vaker gelezen dat NVIDIA lagere prijzen krijgt, maar daar kan ik zo gauw even geen bron van vinden. Ik meen dat Charlie het wel vaker heeft gezegd, maar ik geloof dat het ook wel op DIGITIMES en uiteraard op diverse fora stond. Ik heb geen bronnen dus ik kan niks bewijzen helaas.
dahakon schreef op zondag 16 januari 2011 @ 10:58:
De prijs van een wafer zal verder niet echt afhangen van de complexiteit van een chip lijkt me. Het proces kan iets uitvoeren en het is aan de klant om chips te ontwerpen binnen dat kader. De wafer zelf doorloopt gewoon het proces en is klaar aan het eind van de lijn. Hoeveel werkende chips er op zitten, al dan niet afhankelijk van complexiteit, is gewoon een zaak voor de klant.
Doorloopt gewoon het proces? Het maakt nogal even uit hoeveel layers je chip heeft hoe lang dat proces duurt hoor. En een chip als GF100 heeft veel meer layers dan een chip als Tegra, om maar wat te noemen.
Maar goed, als je mij niet gelooft mag je hier eens kijken naar kijken (ik heb de interessante zaken even vet gemaakt)
The Wafer Fabrication Pricing Report includes a written analysis of the survey results, a downloadable MS Access database of all aggregated results, and interactive online results showing rolling average wafer prices and average mask set prices for four consecutive quarters by:
Process Geometry
Process
Wafer Size
Company Type
Foundry Location
Metal Layers
Poly Layers
Mask Layers

Epitaxial
Development Stage
Volume of Wafers Purchased
Other Services Included in Price
Pricing by Leading Revenue-Producing Fabless Companies

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Snoitkever schreef op zondag 16 januari 2011 @ 12:26:
Hoe verklaar je het dan dat 32nm duurder is per transistor als 40nm? Of 40nm is heel flink in prijs gezakt, maar waarom hanteren we dan die 5000 nog, of 32nm is veel duurder, maar dat strookt niet met het feit dat elke nieuwe generatie chips ongeveer even groot is zonder duurder te worden.
TSMC brak met het gebruik van prijs/transistor. Niet alleen ten opzichte van 40nm, maar in zijn algemeen. Maar het zijn in deze geen absolute bedragen die besproken worden, dus is het lastig om er enige conclusie uit te trekken.
Nou, NVIDIA krijgt in ieder geval voordeel bij allocatie:
Het stukje dat je quote gaat over voorkeur om productiecapaciteit aan nVidia te verkopen, niet over hoeveel ze er voor betalen.
Ik heb ook wel vaker gelezen dat NVIDIA lagere prijzen krijgt, maar daar kan ik zo gauw even geen bron van vinden. Ik meen dat Charlie het wel vaker heeft gezegd, maar ik geloof dat het ook wel op DIGITIMES en uiteraard op diverse fora stond. Ik heb geen bronnen dus ik kan niks bewijzen helaas.
In het begin van de 40nm chips, en met name in de periode dat GF100 maar niet wilde lukken (procestechnisch) was er op den duur sprake van dat TSMC een minimale yield beloofde. Alles wat daaronder zou komen, zou voor rekening zijn van TSMC. Dat is de enige versie die ik als serieuze opmerking heb gezien waarom nVidia minder zou betalen. Ondertussen heeft Charlie al lang geleden op het forum van S|A ontkracht dat nVidia consequent voordeel krijgt en dat ze ook gewoon per wafer moeten betalen.
Doorloopt gewoon het proces? Het maakt nogal even uit hoeveel layers je chip heeft hoe lang dat proces duurt hoor. En een chip als GF100 heeft veel meer layers dan een chip als Tegra, om maar wat te noemen.
Maar goed, als je mij niet gelooft mag je hier eens kijken naar kijken (ik heb de interessante zaken even vet gemaakt)
Als je de pricing index in beschouwing neemt, is het eigenlijk logischer dat veel andere bedrijven een fors lagere prijs betalen per wafer, gezien de meeste chips minder complex zullen zijn dan GF100/110. De vraag zal alleen zijn hoeveel het scheelt. Hoeveel korter zal het proces zijn voor 'simpele' chips en hoeveel materiaalkosten zullen er afvallen.

Maar goed, het is vooral heel erg veel koffiedik kijken en officiele prijzen voor het 40nm proces zoals ze vandaag de dag gelden, zijn er nu eenmaal niet. Maar ze zullen echt nog niet gehalveerd zijn. Er zijn in ieder geval geen nieuwere prijzen te vinden, slechts de opmerkingen dat ze nog altijd capaciteits-belemmerd zijn als foundry. Dat geeft alleen maar meer aan dat ze niet erg waarschijnlijk met de prijzen gaan goochelen.

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16

Engadget:NVIDIA's faulty laptop GPU settlement starts paying out, file your repair and reimbursement claims now

*En kzal binnenkort eens de fouten uit de TS halen .. positieve noot is dat er toch een paar personen deze lezen ;)

Specs


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Snoitkever schreef op zondag 16 januari 2011 @ 12:26:

1. Hoe verklaar je het dan dat 32nm duurder is per transistor als 40nm? Of 40nm is heel flink in prijs gezakt, maar waarom hanteren we dan die 5000 nog, of 32nm is veel duurder, maar dat strookt niet met het feit dat elke nieuwe generatie chips ongeveer even groot is zonder duurder te worden.

2. Nou, NVIDIA krijgt in ieder geval voordeel bij allocatie:

3. Ik heb ook wel vaker gelezen dat NVIDIA lagere prijzen krijgt, maar daar kan ik zo gauw even geen bron van vinden. Ik meen dat Charlie het wel vaker heeft gezegd, maar ik geloof dat het ook wel op DIGITIMES en uiteraard op diverse fora stond. Ik heb geen bronnen dus ik kan niks bewijzen helaas.
1. Bron ? Want wellicht ben je hiermee verward:

"This time though, TSMC didn't follow the usual rule of thumb, they priced 32nm higher than 40nm, presumably to cover ever increasing costs. Fair enough. For a bleeding edge chip that can't be made on an older process, you have to use the new process, it simply can't be economically made on the older one. This may be because of die size, yield, power consumption, or board area constraints, but is is almost always the reason why high end GPUs must shrink."

Bron: http://www.semiaccurate.c...ed-amds-northern-islands/

2. Dat zal best, maar TSMC vergeet niet dat AMD een betere of gelijke regeling kan treffen met GF dan nVidia met TSMC. Dit komt omdat AMD direct voordeel heeft bij een hoge bezettingsgraad(1), winst(2) en omzet(3) omdat GF hun hoofd leverancier is. Doordat GF de 1,2 en 3 heeft als AMD meer laat produceren bij GF hebben ze:

1. Grotere kortingen omdat ze veel afnemen zoals nVidia dat heeft bij TSMC.
2. Indirect winst via aandelen die ze hebben in GF.
3. Investeren ze indirect in hun producent zodat deze sneller nieuwere productie procedés kan ontwikkelen waardoor AMD deze weer sneller kan gaan gebruiken.

Er wordt gezegd dat zodra GF 28nm heeft mits deze net zo interresant is als TSMC 28nm(dus met alle voordelen die GF over TSMC heeft mee gerekend) dat ze dan alles bij GF gaan produceren.

Alle Bobcat APUs op 28nm. Alle overige APUs op 32nm SOI+HKMG. Alle CPUs op 32nm SOI+HKMG. Alle andere CPUs op 45nm SOI. Alle chipsets op 28nm en alle GPUs op 28nm bij GF onderbregen i.p.v. een gedeelten bij TSMC kan GF en AMD veel voordeel opleveren. Genoeg productie voor GF mij dunkt.

Waarbij alle Bobcat APUs op 40nm. Alle chipsets op 55nm en alle GPUs nu op 40nm nu bij TSMC worden gebakken. Deze dingen is TSMC in de toekomst misschien kwijt.

M.a.w. TSMC is er alles aangelegen AMD als klant te houden al is het maar een gedeelten zoals de GPUs. Kortingen aan nVidia zijn dan niet echt iets dat gewaardeerd wordt.

3. nVidia krijgt natuurlijk lagere prijzen naarmate ze meer laten produceren. De vraag is hoe deze regeling in elkaar zit en of AMD niet een zelfde regeling heeft. AMD zou namelijk ook aardig wat compensatie hebben kunnen krijgen. Immers zijn ze de early adopters van het 55nm en 40nm productie procedé dit zal ongetwijfeld ook wel wat financiële voordelen met zich meebrengen ?

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Onder het motto beter laat dan nooit zeker. Maar helaas ook alleen maar Apple, Dell en HP, terwijl er toch heel wat meer fabrikanten waren en de desktop videokaarten hadden zeker geen probleem...

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
En dat voor maar 215 euro :)

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
"Het model op 900 MHz kloksnelheid is als pre-order verschenen in een Chinese webwinkel en kost daar omgerekend €215."

Bron: http://nl.hardware.info/n...60-ti-op-900-mhz-duikt-op

Ja de één op één valuta omrekening en andere BTW etc zal de prijs wel niet doen kloppen. Maar dit is ook nog eens de pre-order prijs. De prijs is dus hoger dan dat als er dadelijk daadwerkelijk kaarten beschikbaar gaan zijn.

[Voor 19% gewijzigd door madmaxnl op 17-01-2011 20:10]


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
madmaxnl schreef op maandag 17 januari 2011 @ 20:08:
"Het model op 900 MHz kloksnelheid is als pre-order verschenen in een Chinese webwinkel en kost daar omgerekend €215."

Bron: http://nl.hardware.info/n...60-ti-op-900-mhz-duikt-op
HWI is geen bron...

Daarnaast had ik het over een 1GHz model en geen 900MHz model en dan nog 215 euro zal ongeveer de prijs zijn van de goedkoopste GTX560 en niet van een OC model.
Een normale GTX560 moet dan ook concurreren met een HD6870 en niet een HD6950 zoals HWI zegt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Anoniem: 245699

HWI claimt ook niet dat zij het ontdekt hebben, zij refereren naar Tech Connect en die hebben het ook weer van een andere site...
Maar die omgerekende 215,- zegt natuurlijk nog niet zoveel, echter was de Gigabyte GTX460 1gb OC ook nooit overdreven duur en behoorde lange tijd bij één van de goedkoopste GTX460 1gb kaarten. Die GTX560 SOC versie zal echt wel veel duurder worden, denk dat die zeker richting de 250/260,- gaat.
Ik sta trouwens wel te kijken van de 1000Mhz als dat waar is.... Das echt behoorlijk!

De GTX560 zal wel wat sneller zijn dan de HD6870, maar zal het idd niet redden t.o.v. de HD6950, zeker niet in zwaardere DX11 titels...

[Voor 20% gewijzigd door Anoniem: 245699 op 17-01-2011 21:10]


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 245699 schreef op maandag 17 januari 2011 @ 21:06:
De GTX560 zal wel wat sneller zijn dan de HD6870, maar zal het idd niet redden t.o.v. de HD6950, zeker niet in zwaardere DX11 titels...
Met de zwaarste instellingen gaat een GTX560 alle moeite hebben of verliezen van een HD6870, HD6950 is sowieso niet aan de orde voor een normale GTX560.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Anoniem: 245699

-The_Mask- schreef op maandag 17 januari 2011 @ 21:22:
[...]

Met de zwaarste instellingen
En wat bedoel je daarmee? 2560x1600 + 8xAA? Daar koop je een dergelijke kaart niet voor...

Een GTX460 1gb @ 850Mhz is al ongeveer even snel als de HD6870... Nu komen er ook 48 shaders bij, dus de GTX560 zal de HD6870 denk ik wel verslaan (uitzondering per game daargelaten). Dat ie niet sneller gaat zijn dan de HD6950 zei ik zelf ook al meen ik.

  • karakedi
  • Registratie: Maart 2003
  • Laatst online: 12:02
@The Mask
Ik kan ook uitzonderlijke situaties bedenken waarin de gtx560 beter zal zijn. Bijvoorbeeld met Physx zal GTX560 sneller zijn dan de 6950. Relatief klein deel van de gamers gamen op 2560x1600. Het belangrijkste zij de prestaties op mainstreem resoluties. 1920x1080 of 1680x1050. met AA en AF

Het valt mij laatste tijd op dat in de Nvidia topic veel ATI hangers zijn, die bij elke positieve nieuwsbericht over Nvivia iets negatief bij halen. Ben zelf een ATI aanhanger, maar het begint irritant te worden. En het sfeer wordt een beetje verpest.

  • Anoniem: 390961
  • Registratie: Januari 2011
  • Niet online
Dat heb ik laatst dus ook al gezecht. Het draaid op tweakers voornamelijk om AMD. Ik vind dat wel een beetje jammer voor zo'n goede site.We moeten wel reël blijven met elkaar mannen en vrouwen.

Anoniem: 366114

Ik ben blij dat ik niet de enige ben die hier zo over denkt maar goed ... zelf zeer benieuwd naar die GTX560, lijkt me een mooie vervanger voor mijn huidige graka, eerst nog wel reviews afwachten.

Om toch ook wat nieuwswaarde toe te voegen, ik hoop nog niet gepost, is een opinie/prognose over nvidia door Jon Peddie : http://jonpeddie.com/blogs/comments/nvidia-looks-good/

[Voor 4% gewijzigd door Anoniem: 366114 op 18-01-2011 10:39]


  • 321370
  • Registratie: Oktober 2009
  • Laatst online: 01-03-2018
Ik vraag me af of toekomstige games voor 1920x1080 wel genoeg hebben aan 1 GB ram. en zeker bij 2560x1600 zal het een probleem worden. Als ik naar GTA IV kijk dan had je al 1,5GB nodig. En als je dan ook nog een keer AA flink hoog zet. qua gpu power zal deze kaart het makkelijk aan kunnen om alles op 1920x1080 te draaien. Alleen vraag ik me af of de kaar toch niet lekkerder in zijn vel zit met 2GB ram.

[Voor 4% gewijzigd door 321370 op 18-01-2011 11:47]


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 24-09 22:03

Deathchant

Don't intend. Do!

misschien kunnen we pro-ATi-praat even erbuiten houden en verder gaan met een dikke krijgen van nVidia kaarten, vooral de GTX560 SOC? In dit topic kickt de GTX560 gewoon default ATi's ass :P
Hey Naaitsab, volgens mij wordt dat ons nieuwe kaartje: GTX560 SOC :) Ik wilde al de GTX460 SOC kopen, maar wacht toch maar eventjes. Tijd zat, en het geld op de bank wordt alleen maar meer :)
Oh ik zie op techpowerup dat de GTX560 OC echt niet gaat lijken op de GTX460 OC.
Update (01/18): Gigabyte commented on this article. The company outright denied to have anything to do with whatever is in those pictures, and alleged it to be some kind of a "malicious attack" on it. In a statement, it said: "the information is false and the data is simulated from our old card. The picture is incorrect and was obviously photoshopped from our previous GTX460 model. The GTX560 card looks nothing like pictured on the article. We have good reason to believe this is a malicious attack."
Bron: http://www.techpowerup.co...aphics-Card-Pictured.html

[Voor 16% gewijzigd door Deathchant op 18-01-2011 11:56]

Canon: R6 | 16-35 | 70-200 II
Zeiss: 50MP | 100MP | 135 APO


  • vinom
  • Registratie: Augustus 2009
  • Laatst online: 16:51
Update (01/18): Gigabyte commented on this article. The company outright denied to have anything to do with whatever is in those pictures, and alleged it to be some kind of a "malicious attack" on it. In a statement, it said: "the information is false and the data is simulated from our old card. The picture is incorrect and was obviously photoshopped from our previous GTX460 model. The GTX560 card looks nothing like pictured on the article. We have good reason to believe this is a malicious attack."
:P

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 24-09 22:03

Deathchant

Don't intend. Do!

Check dit uit:

Wat een waardeloze fotosjopper. Neem dan even de moeite om het getal 460 even om te zetten naar 560....pffff

Canon: R6 | 16-35 | 70-200 II
Zeiss: 50MP | 100MP | 135 APO


  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 16-09 19:44
Met andere woorden, de kloksnelheden die Fudzilla noemt, zijn dus uit de lucht gegrepen. Nog maar eens een keer bevestiging dat Fudzilla geen enkele echte bron heeft en dus nooit vertrouwd kan worden...

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 24-09 22:03

Deathchant

Don't intend. Do!

de foto is zeer slecht gesjopt, maar dit zegt toch niets over de speeds?
Of bedoel je dat Fudzilla, net als de foto ook de speeds uit de lucht grijpt?
Hehe, in feite weten we nog niks over de foto's OF over de speeds, enkel dat de GTX560 SOC er gaat komen.

Canon: R6 | 16-35 | 70-200 II
Zeiss: 50MP | 100MP | 135 APO


Anoniem: 245699

Marc Rademaker schreef op dinsdag 18 januari 2011 @ 13:30:
Met andere woorden, de kloksnelheden die Fudzilla noemt, zijn dus uit de lucht gegrepen. Nog maar eens een keer bevestiging dat Fudzilla geen enkele echte bron heeft en dus nooit vertrouwd kan worden...
Die vorige afbeelding werd toch ook door tal van sites (o.a. Techpowerup) gecopy/pasted? Kan je al die sites ook gaan afzeiken... Fudzilla heeft die kloksnelheden ook gewoon daarvan overgenomen en niet zelf verzonnen. Ik ga niet beweren dat Fud. een goede site is ofzo (zeker niet) en dat op de afgebeelde kaart gewoon GTX460 staat maakt het nog knulliger, maar beetje onnodig om dit aan te grijpen om Fud. weer af te zeiken. Volgens mij weet iedereen nu wel dat ze daar vaak maar wat roepen en snel overnemen van andere sites. Maar zij verwijzen ook door naar een of andere chinese site, waar in principe 99% van de geruchten vandaan komt en hier op het forum gekwakt wordt.

[Voor 34% gewijzigd door Anoniem: 245699 op 18-01-2011 14:51]


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 22-09 16:57

Format-C

PSN (GT7) Vale46_NL

De meeste sites doen niks anders dan dingen overnemen van andere sites... Dát is nou internet. Een digitaal lopend vuurtje.

Add me @ PS id: Vale46_NL


  • Anoniem: 390961
  • Registratie: Januari 2011
  • Niet online
Nieuwe 266.58 WHQL drivers van nvidia.
Teveel verbeteringen om hier verder neer te zetten.
http://www.nvidia.co.uk/o...66.58-whql-driver-uk.html

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Deathchant schreef op dinsdag 18 januari 2011 @ 11:51:
In dit topic kickt de GTX560 gewoon default ATi's ass :P
We weten nog bijna niks zeker van de GTX560.

TDP ?
Overclockbaarheid ?
Prijs ?
Prestatie ?
Geluid ?

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
180W
Overclockbaarheid ?
Erg goed
Prijs ?
nVidia geeft hem dezelfde prijs mee als een GTX470
Prestatie ?
Ook ongeveer hetzelfde als de GTX470
Geluid ?
Ligt aan de koelert.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 16-09 19:44
Anoniem: 245699 schreef op dinsdag 18 januari 2011 @ 14:47:
[...]


Die vorige afbeelding werd toch ook door tal van sites (o.a. Techpowerup) gecopy/pasted? Kan je al die sites ook gaan afzeiken... Fudzilla heeft die kloksnelheden ook gewoon daarvan overgenomen en niet zelf verzonnen. Ik ga niet beweren dat Fud. een goede site is ofzo (zeker niet) en dat op de afgebeelde kaart gewoon GTX460 staat maakt het nog knulliger, maar beetje onnodig om dit aan te grijpen om Fud. weer af te zeiken. Volgens mij weet iedereen nu wel dat ze daar vaak maar wat roepen en snel overnemen van andere sites. Maar zij verwijzen ook door naar een of andere chinese site, waar in principe 99% van de geruchten vandaan komt en hier op het forum gekwakt wordt.
Staan er op die foto kloksnelheden? Ik dacht dat die er niet bij stonden, maar dat Fudzilla ze had 'verzonnen'. Verschillende websites hebben inderdaad die foto overgenomen, maar TPU melde bijvoorbeeld geen kloksnelheden.

Persoonlijk vond ik enkel de foto niet nieuwswaardig, plus dat er daarbij een GTX 460 opstond. Ik zei letterlijk op de redactie dat die Chinese site waarschijnlijk de eerdere gelekte specs heeft gebruikt en er een foto bij heeft gezet.

Anoniem: 245699

Nee, maar TechConnect bijv. wel en die waren eerder met dit 'nieuws' dan Fudzilla... Lijkt me zodoende sterk dat Fudzilla de clocksnelheden letterlijk uit hun duim zuigen.
Fudzilla komt vaak met onzin op de proppen of overdreven verhalen, maar hier vond ik de betichting niet helemaal op z'n plaats. ;)

EDIT: Het is echter wel weer jammer dat veel sites al dit soort nieuws gewoon klakkeloos overnemen zonder zelf ook maar iets te verifiëren. En een dag later blijkt het dus onzin te zijn...

[Voor 18% gewijzigd door Anoniem: 245699 op 18-01-2011 18:03]


  • Anoniem: 390961
  • Registratie: Januari 2011
  • Niet online
Ik wil ff mededelen dat de nieuwe WHQL drivers van nvidia ook eindelijk een sli profiel heeft voor 3dm 11.
Ik haal maar liefst nu zonder eenige oc van de gpu's en cpu op een lichte oc van 4ghz HT on een score van 10k+ screen komt zo.

[Voor 15% gewijzigd door Anoniem: 390961 op 19-01-2011 11:26]


  • Springstof
  • Registratie: Juli 2010
  • Niet online
Ja, 266.58 zorgt wel voor merkbaar betere prestaties. Althans... Tot nu toe heb ik wel alleen maar Bad Company 2 gespeeld, maar daar is t wel merkbaar. Mooi :)

[Voor 11% gewijzigd door Springstof op 19-01-2011 11:33]


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 22-09 16:57

Format-C

PSN (GT7) Vale46_NL

Gefeliciteerd.

Nu de graka's nog ff flink opvoeren....

[Voor 60% gewijzigd door Format-C op 19-01-2011 11:33]

Add me @ PS id: Vale46_NL


  • Anoniem: 390961
  • Registratie: Januari 2011
  • Niet online
Jah kan ik indd nog wel ff gaan doen. Helaas komen die van mij in sli niet verder dan 870mhz gpu core.
Maar goed. Scheeld wel weer 2000 punten ongeveer

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 22-09 16:57

Format-C

PSN (GT7) Vale46_NL

Om te gamen is stock toch snel zat. :) Voor een benchie is het wel ff leuk, maar goed. Deze kaarten zijn imho om flink mee te gamen. En dat kan er wel mee dacht ik. :)

Add me @ PS id: Vale46_NL


Anoniem: 245699

Dit lijkt me vrij duidelijk de reference kaart waarbij ze de koeler door de wat hogere TDP iets hebben uitgebreid t.o.v. de GTX460;




- http://nl.hardware.info/n...rce-gtx-560-ti-op-de-foto

[Voor 40% gewijzigd door Anoniem: 245699 op 20-01-2011 17:02]


  • epic_gram
  • Registratie: April 2010
  • Laatst online: 14:38

epic_gram

undercover moderator

nieuws: Nvidia's eerste gpu met arm-processor verschijnt in 2013

Wat ik me afvraag, hoe ziet nVidia dit voor zich? Kijk GPU in CPU is logisch, maar je kan toch niet je CPU aan een pci-e slot zetten? Of is dit dan weer alleen voor mobo chipsets oid?

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 13:50

superwashandje

grofheid alom

Anoniem: 245699 schreef op donderdag 20 januari 2011 @ 17:00:
Dit lijkt me vrij duidelijk de reference kaart waarbij ze de koeler door de wat hogere TDP iets hebben uitgebreid t.o.v. de GTX460;

[afbeelding]
[afbeelding]

- http://nl.hardware.info/n...rce-gtx-560-ti-op-de-foto
het plaatje op de koeler (1e foto) lijkt me wel gesoept. ziet er verder wel goed uit. wel een kleine fan op de koeler...net zoals altijd

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 24-09 22:03

Deathchant

Don't intend. Do!

ziet eruit als een lage cyclone koeler. Waar de GTX460 meestal voorzien was van 2 heatpipes (gainward, palit e.d.) heeft deze er 3. Hmmm het zijn wel 8mm dikke heatpipes en niet 6mm dik.
En er staat:
....terwijl de geheugenchips en de stroomvoorziening via een aparte koelplaat worden gekoeld
Betekent dit dan nou ein-de-lijk dat er VRm en MEM heatsinks komen?

Ik kijk vol spanning uit naar de Gigabyte SOC modellen! Laten we hopen dat Gainward zich weer eens wat meer inzet met een dikke koeler. Die op de GTX460 GS GLH was toch niet echt gainward-quality....

[Voor 20% gewijzigd door Deathchant op 20-01-2011 21:52]

Canon: R6 | 16-35 | 70-200 II
Zeiss: 50MP | 100MP | 135 APO


  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

Deathchant schreef op donderdag 20 januari 2011 @ 21:51:
En er staat:

[...]

Betekent dit dan nou ein-de-lijk dat er VRm en MEM heatsinks komen?
De 'koelplaat' is de heatsink voor de vrm en het mem. ;)

Goed dat Nvidia dit nu ook op de GTX560 zet, doorbuigende PCB's wil je immers niet.

avatar redux
specs


Anoniem: 245699

Ok, dus toch... Enorme overclock zeg, zelfs voor een overclockte kaart! Zal in het begin denk ik wel tegen de 300,- kosten ofzo.

Anoniem: 263922

Heel mooi dat de reference gtx560 een soortgelijke koelplaat krijgt als de hogere modellen, dat maakt hem weer net wat meer premium tov de gtx460. Zal ook goed zijn voor de overclockcapaciteit van de kaart, het lijkt alsof nvidia dit zelf al heeft gezien en een voldoende capabele koeler op heeft gezet om hogere clocks het hoofd te bieden.

Overclocken zal een sterk koopargument voor deze kaarten worden, het is zo kinderlijk eenvoudig om met msi afterburner een profile aan te maken, met een custom rom vast ook weer een hogere max Vcore zoals bij de gtx460 :9

I like, heb net een gtx460 maar dit is zeker een aanrader voor wie een gtx460 wou gaan kopen, of je tikt een gtx460 op de kop voor een uitverkoopprijs. _/-\o_
Er zullen ook gauw genoeg 2gb uitvoeringen komen, al hoop ik wel dat die higher density gddr5 chips gebruiken, zodat een reference design watercooling blok ook gaat passen O-)

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 24-09 22:03

Deathchant

Don't intend. Do!

ik denk niet dat die koelplaat iets te maken heeft met doorzakken van het pcb hoor ;) maar ik hoop dat die vrm-heatsink-perikelen nu eindelijk voorbij zijn.
Ben ik blij dat ik nog niet gegaan ben voor de GTX460SOC, want die GTX560 SOC is me wel een traktatie.
1GHZ op de core. Ik mag toch hopen dat hij onder de 300 euro zit. Voor 50/60 euro meer heb je een GTX570 Phantom van Gainward.
En voor 150 euro minder een GTX460.

Canon: R6 | 16-35 | 70-200 II
Zeiss: 50MP | 100MP | 135 APO


Anoniem: 245699

Anoniem: 263922 schreef op vrijdag 21 januari 2011 @ 02:12:
Heel mooi dat de reference gtx560 een soortgelijke koelplaat krijgt als de hogere modellen, dat maakt hem weer net wat meer premium tov de gtx460. Zal ook goed zijn voor de overclockcapaciteit van de kaart, het lijkt alsof nvidia dit zelf al heeft gezien en een voldoende capabele koeler op heeft gezet om hogere clocks het hoofd te bieden.
Feitelijk hebben ze een extra heatpipe aan het koelblok van de GTX460 toegevoegd, want de basis van het ontwerp is vrij gelijk;
GTX460;



GTX560;


Fan lijkt ook iets groter te zijn gemaakt, maarja, de TDP is natuurlijk ook weer omhoog gegaan. Al met al zal het denk ik prima werken, zeker als je je bedenk dat de EVGA GTX460 1gb FTW gewoon de stock koeler gebruikte terwijl de kaart op 850Mhz geclockt was.

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 24-09 22:03

Deathchant

Don't intend. Do!

tja, die external exhaust fans vind ik zelf niet echt een optie. maken meer lawaai en koelen minder door de radiale opstelling ipv axiaal.
De deadspot onder de basis van de fan (door de grootte van het motortje) vind ik wat kwalijker, daar mag echt eens wat aan gaan veranderen, want de warmte die onder die deadspot zit, wordt niet gekoeld. Misschien dat dit er gewoon wat groot uitziet op de foto, maar de fan is volgens mij gewoon hetzelfde hoor.

Canon: R6 | 16-35 | 70-200 II
Zeiss: 50MP | 100MP | 135 APO


  • Dura Ace
  • Registratie: Februari 2010
  • Laatst online: 20-10-2020
Gainward en Palit lanceren GTX 580 met 3 GB.

Het zou mooi zijn als er ook een 2,5GB 570 zou komen!

Core i7 930 @3500MHz | ASUS P6X58D Premium | Corsair Dominator 6G | eVGA 8800 GTS 512 KIA - RMA ---> HD6950 CFX | Dell U2711


  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 05-08 15:29
epic_gram schreef op donderdag 20 januari 2011 @ 18:11:
nieuws: Nvidia's eerste gpu met arm-processor verschijnt in 2013

Wat ik me afvraag, hoe ziet nVidia dit voor zich? Kijk GPU in CPU is logisch, maar je kan toch niet je CPU aan een pci-e slot zetten? Of is dit dan weer alleen voor mobo chipsets oid?
Ik verwacht niet dat we een CPU in de GPU zullen zien eerlijk gezegd, maar andersom, een ARM CPU met een ingebouwde NVIDIA (Maxwell) GPU. Maar ik kan me vergissen natuurlijk, misschien dat NVIDIA standaard een ARM CPU inbouwt in hun GPUs hoewel ik daar het nut veel minder van inzie.

Het doel van het Denver project is (lijkt?) in ieder geval om de CPU markt in te gaan en dat betekent dus gewoon een echte CPU met ingebouwde GPU (net zoals bij Sandy Bridge en Fusion) die je gewoon direct op een mobo plaatst en die ook Windows kan draaien.

Anoniem: 263922

Anoniem: 245699 schreef op vrijdag 21 januari 2011 @ 12:04:
[...]

Feitelijk hebben ze een extra heatpipe aan het koelblok van de GTX460 toegevoegd, want de basis van het ontwerp is vrij gelijk;
Ik doelde op de zwarte koelplaat welke het geheugen en de VRM's koelt, deze zat nog niet op de gtx 460, maar wel op de 470 en 480 (en de 570 en 580). Toch mooi dat die koelplaat ook naar de mid-end komt, heeft zijn nut in mijn ogen dik bewezen, en hoort eigenlijk standaard thuis op goed te overclocken kaartjes. >:)

Anoniem: 245699

Ow zo, ja, die pakt ook mooi de VRM's mee en dat was idd bij de GTX460 zeker niet het geval... ;)

  • epic_gram
  • Registratie: April 2010
  • Laatst online: 14:38

epic_gram

undercover moderator

Snoitkever schreef op vrijdag 21 januari 2011 @ 13:53:
Het doel van het Denver project is (lijkt?) in ieder geval om de CPU markt in te gaan en dat betekent dus gewoon een echte CPU met ingebouwde GPU (net zoals bij Sandy Bridge en Fusion) die je gewoon direct op een mobo plaatst en die ook Windows kan draaien.
maar dan dus wel de ARM versie van windows, want x86 kunnen ze dan niet. Met andere woorden je kan straks op zo'n nVidia systeem windows draaien maar een hele berg software draait niet omdat die niet ARM compitable is. (of ze moeten het hardwarematig gaan emuleren ofzo, of mogen ze dat niet omdat ze geen licentie hebben?)

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
epic_gram schreef op vrijdag 21 januari 2011 @ 20:01:
[...]

maar dan dus wel de ARM versie van windows, want x86 kunnen ze dan niet. Met andere woorden je kan straks op zo'n nVidia systeem windows draaien maar een hele berg software draait niet omdat die niet ARM compitable is. (of ze moeten het hardwarematig gaan emuleren ofzo, of mogen ze dat niet omdat ze geen licentie hebben?)
Mogen ze inderdaad niet. Alle op hardware niveau that is, als Windows plots een emulator integreerd ..
Anyway een programma dat geen rare dingen heeft gedaan kan in principe gewoon gehercompiled worden. Bv alles geprogrammeerd met behulp van de .NET omgeving zal al geen probleem geven dus een hele berg zal het allezinds niet zijn.
Daarbij als je al (een lichte versie) office en een gewone browser + mail client kan draaien zullen de meeste mensen al tevreden zijn, je moet geen high end CPU verwachten he, eerder iets in de trend van de huidige tablet/netbooks. Dus dat enkele specialistische professionele software niet zal werken is niet echt zo'n probleem.

Daarbij vele werkomgevingen schakelen al over naar webgebaseerde applicaties + het cloud thinking van google er zijn vele toepassingen waar de gebruiker eventueel geen zware cpu meer nodig heeft ...
Anyway we moeten nog altijd de eerste ARM cpu van nVidia te zien krijgen want zo eenvoudig is het allemaal weer niet he.

Specs


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 24-09 22:03

Deathchant

Don't intend. Do!

Dus we hebben nu de volgende GTX560 kaarten aangekondigd voor morgen:
Reference: 822MHz/4000MHz

Galaxy GC: 835MHz/4000MHz
Galaxy White: 950MHz/4400MHz
MSI TwinFrozr: 880MHz/4200MHz
Gigabyte OC: 900MHz/4000MHz
Gigabyte SOC: 1000MHz/4580MHz
eVGA Ti FPB: 882MHz/4000MHz

Nu nog even wachten op de Asus TOP, MSI HAWK (Talon Attack), en de Gainward GS GLH.
Op het neogaf forum spreken ze over de GAINWARD: GTX560, GTX560 GS, GTX560 GLH, GTX560 PHANTOM editions....spannend.

Canon: R6 | 16-35 | 70-200 II
Zeiss: 50MP | 100MP | 135 APO


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02

nVidia 28 nm GPU's in vierde kwartaal?

Erg laat i.v.m. t.o.v. AMD?

[Voor 4% gewijzigd door madmaxnl op 24-01-2011 16:28]


  • Anoniem: 390961
  • Registratie: Januari 2011
  • Niet online
Beter laat dan nooit. Maakt verder ook weining uit denk ik dat het iets later word, maar wel volgens de roadmap op tijd. Het is trouwens ook nog maar een gerucht.

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 16-09 19:44
Asus TOP, ik gok rond de 900MHz :P

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 16-09 19:44
Raar verhaal van hwi, meer chips per gpu-chip ? :P Meer chips uit een wafer, dus goedkoper? En ik betwijfel ten zeerste dat AMD nieuwe videokaarten in Q2 uitbrengt op 28nm...

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Marc Rademaker schreef op maandag 24 januari 2011 @ 15:57:
[...]

Raar verhaal van hwi, meer chips per gpu-chip ? :P Meer chips uit een wafer, dus goedkoper? En ik betwijfel ten zeerste dat AMD nieuwe videokaarten in Q2 uitbrengt op 28nm...
-The_Mask- in "CJ's Radeon Nieuwsdiscussietopic - Deel 121"

De 50% van de -The_Mask- is geen grapje ;)

[Voor 11% gewijzigd door madmaxnl op 24-01-2011 16:28]


Anoniem: 245699

Heb jij die kaart heel toevallig al liggen voor benchmarks?? ;) haha

En ik moet idd ook nog zien of AMD in Q2 al zover is... Daar is ook niet alles vlekkeloos verlopen volgens mij, dus denk dat dit zeker wel Q3 gaat worden.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Anoniem: 245699 schreef op maandag 24 januari 2011 @ 18:47:
En ik moet idd ook nog zien of AMD in Q2 al zover is... Daar is ook niet alles vlekkeloos verlopen volgens mij, dus denk dat dit zeker wel Q3 gaat worden.
Punt is dat zelfs Q3 wel heel erg optimistisch is voor 28nm, ongeacht welke chipontwerper. Als TSMC zijn zaakjes niet op orde heeft, kun je wel 10 designs heensturen, maar dat levert je nog steeds geen chips op.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Eind 2011, Q4 is idd het meest logische voor de 28nm videokaarten, maar misschien komt er wel een kaart zoals de HD4770 in Q3, maar Q2 mag je idd wel vergeten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Volgens mij is Q3 wel mogelijk.

Global Foundries is anders wel lekker bezig met zijn 28nm productie procedé ziet er naar uit dat alles op schema ligt en wellicht wat eerder komt dan ze ons willen doen geloven.

09-01-2010:
Waren waarschijnlijk ARM chips dus geen test SRAM chips. Dit is meer dan een jaar geleden.

Statement van GF zelf:

"28nm High Performance “Plus”

"GLOBALFOUNDRIES today introduced a new technology to address the growing market for smart mobile devices and high-performance processors requiring more than 2GHz of processing power. Scheduled to begin risk production in Q4 2011, the 28nm High Performance Plus (HPP) technology provides a performance boost of as much as 10% over the company’s current 28nm High Performance (HP) offering, as well as offering optional ultra-low leakage transistors and SRAMs that extend the application range from high performance into the low power range. Furthermore, a rich RF CMOS offering also is available, making this technology an ideal platform for the next generation of high-performance system-on-chip (SoC) designs with a broad addressable market ranging from low-power to high-performance devices."


Statement van TSMC in 08-24-09:
"The TSMC 28nm development and ramp-up has remained on track since the announcement made in September of 2008. The 28LP process is expected to enter risk production at the end of Q1 of 2010, followed closely by the 28HP risk production at the end of Q2 and the 28HPL risk production in Q3. "

Fudzilla maakt het er niet duidelijker, alhoewel er imo geen moer van klopt:

http://www.fudzilla.com/g...mc-for-its-28-nm-graphics

Aangezien AMD wel degelijk ook de mogelijk openhoud om bij GF 28nm te gaan gebruiken voor GPUs. AMD heeft er namelijk alle belang bij om te zorgen dat ze bij GF intrekken. De kosten voor een extra engineering team weerhoud ze daar echt niet van.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Punt is, dat als je voor TSMC 28nm ontwikkelt, je niet opeens je chipontwerp maar even naar GF kunt sturen om hem daar maar te laten bakken. Daarnaast zit er tussen risk production en daadwerkelijke production voor product-release al gauw 3-6 maand. Al met al, of je nu GF gaat of TSMC, zal er normaalgesproken niet voor het 4e kwartaal een echte kaart normaal voorradig in de winkels liggen op 28nm.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Misschien moet je eens solliciteren bij Fudzilla of HWI. :p


Gainward GTX 560 Ti standaard kloksnelheid


Gainward GTX 560 Ti Golden Sample 900/1800/4200 MHz

[Voor 90% gewijzigd door -The_Mask- op 24-01-2011 22:08]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
-The_Mask- schreef op maandag 24 januari 2011 @ 22:08:
[...]

Misschien moet je eens solliciteren bij Fudzilla of HWI. :p
Ik wil hun geloofwaardigheid niet nog meer in het geding brengen.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Ik vraag me overigens 1 ding af. NVidia wilde de benaming van kaarten eenvoudiger maken en haalde de suffix weg om datzelfde suffix als prefix te gebruiken. Grootste verschil was het wegvallen van 1 cijfer. Nu komen ze weer terug met een suffix, terwijl de prefix ook nog altijd aanwezig is. Dat plan om alles eenvoudiger en transparanter te maken is blijkbaar geheel in het water gevallen.

Heeft iemand uberhaupt een logische verklaring gezien waarom ze de Ti weer van stal hebben gehaald?

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08 16:02
Het plan om alles eenvoudiger en transparanter te maken is er volgens mijn nooit geweest en als het er wel is geweest vraag ik me af waarom ze überhaupt ooit een GT1xx en GT3xx serie hebben gelanceerd.

[Voor 11% gewijzigd door madmaxnl op 24-01-2011 22:23]


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
madmaxnl schreef op maandag 24 januari 2011 @ 22:23:
Het plan om alles eenvoudiger en transparanter te maken is er volgens mijn nooit geweest en als het er wel is geweest vraag ik me af waarom ze überhaupt ooit een GT1xx en GT3xx serie hebben gelanceerd.
Die is niet zo moeilijk
De GT1xx was om de boel transparanter te maken
De GT3xx om de OEMs te paaien veel chips af te nemen. Zonder die naamsverandering waren die verkopen namelijk waarschijnlijk naar AMD gegaan.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
dahakon schreef op maandag 24 januari 2011 @ 22:19:
Heeft iemand uberhaupt een logische verklaring gezien waarom ze de Ti weer van stal hebben gehaald?
Nummers te kort lijkt mij het meest logische, dat was ook de reden voor de GTX 460 SE naam volgens mij.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • PatrickH89
  • Registratie: November 2009
  • Laatst online: 15:49
-The_Mask- schreef op maandag 24 januari 2011 @ 22:08:
[...]

Misschien moet je eens solliciteren bij Fudzilla of HWI. :p

[afbeelding]
Gainward GTX 560 Ti standaard kloksnelheid

[afbeelding]
Gainward GTX 560 Ti Golden Sample 900/1800/4200 MHz
Ik snap niet dat iemand nog een kaart met die standaard Gainward koeler zou willen kopen... Wat een belachelijk geval.

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

-The_Mask- schreef op maandag 24 januari 2011 @ 22:26:
[...]

Nummers te kort lijkt mij het meest logische, dat was ook de reden voor de GTX 460 SE naam volgens mij.
GTS455? GTX 565?

Of denk ik nu te simpel? :P

[Voor 70% gewijzigd door bwerg op 24-01-2011 22:32]

Heeft geen speciale krachten en is daar erg boos over.


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
bwerg schreef op maandag 24 januari 2011 @ 22:32:
[...]

GTS455? GTX 565?

Of denk ik nu te simpel? :P
Ja :p

Met een GTS 455 zou je denken dat die gebaseert op een GF106 en een GTX 565 zou sneller moeten zijn dat een GTX 560 wat sowieso niet het geval is (en is geen GF114 natuurlijk). En als je GTX465 bedoelt die bestaat al en zou ook sneller moeten zijn dan een GTX460 wat ook niet het geval is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

-The_Mask- schreef op maandag 24 januari 2011 @ 22:36:
... en zou ook sneller moeten zijn dan een GTX460 wat ook niet het geval is.
Oftewel, het is nù al een zooitje. Gewoon rangschikken met verschillen van 5 of 10 tussen opvolgende nummers had prima gekund. Hadden ze wel even van tevoren moeten uitzoeken maar NVidia weet best welke GPU's er ongeveer op de planning staan, voor onzekerheden hou je een verschil van 10 zodat daar nog iets tussen kan.

Ik geloof niet dat het echt onmacht van NVidia is dat ze geen simpele nummertjes kunnen bedenken, dat is gewoon bewust gedaan. Ik vraag me wel af wat ze er aan hebben eigenlijk. Iemand die weet waar hij het over heeft let er toch niet op en iemand die het niet weet zal überhaupt niets in nummertjes zien.

[Voor 23% gewijzigd door bwerg op 24-01-2011 22:54]

Heeft geen speciale krachten en is daar erg boos over.


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08 16:30
Goed, dat zou dus kunnen betekenen dat er straks ook nog een GTX560 NON-Ti uitkomt, die minder SPU's heeft en wellicht een geknepen geheugenbus/TMU-aantal heeft?

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Dat zou heel goed kunnen ja, maar eerst blijft de GTX 460 nog even.

[Voor 52% gewijzigd door -The_Mask- op 24-01-2011 23:07]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • 321370
  • Registratie: Oktober 2009
  • Laatst online: 01-03-2018
Op Chiphell staat meer info over de asus gtx 560 ti

ASUS准备推出GeForce GTX 560 TI DCII显示卡

发布者: Sagitar2009 | 发布时间: 2011-1-25 00:53| 查看数: 522| 评论数: 4|帖子模式
ASUS ENGTX560-Ti-DCII/2DI/1GD5上架,加拿大的anitec网站已经摆上了,ENGTX560-Ti-DCII/2DI/1GD5的上架销售资讯,规格时脉为900/1800/4200,价格为$266.95加币(折合台币约7,800)




Google vertaler

ASUS bereidt zich voor GeForce GTX 560 TI DCII grafische kaart Geplaatst door lanceren: Sagitar2009 | Geplaatst: 2011-1-25 00:53 | De vrienden van nummer: 522 | Reacties: 4 | post-modus op ASUS ENGTX560-Ti-DCII/2DI/1GD5 vliegtuigen, de Canadese Anitec site is op, ENGTX560-Ti-DCII/2DI/1GD5 aan onze catalogus toegevoegd verkoop informatie, specificaties voor de 900/1800/4200 klok, de prijs is 266,95 dollar Canadese dollar (gelijk aan ongeveer 7.800 Taiwanese Dollars)

[Voor 33% gewijzigd door 321370 op 25-01-2011 00:09]


  • Sm0k3r
  • Registratie: Mei 2003
  • Laatst online: 19-01 13:07

Sm0k3r

cough...cough...

Ik vind het zo knap al die fotos en variaties op de GTX580 maar het mooie is is dat ze amper tot heel slecht verkrijgbaar zijn.

Dit is geen repsonse op de 560 fotos en variaties trouwens, dit is een reactie op al die speciale varianten op de GTX580 maar de normale (vanilla) is amper verkrijgbaar.

"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 24-05 07:16
nVidia heeft blijkbaar een roadmap getoond waarin de Tegra3 chip vermeld wordt (Ten vroegste voor in september ;))

Bright Side of News: Nvidia Thinks World Domination: Tegra 2 3D in February, Tegra 3 by Fall 2011



Specs


Anoniem: 366114

http://forums.hardwarezone.com.sg/showthread.php?p=52482702
(MSI N560GTX-Ti 1G TwinFrozrII 880MHz/1050MHz - bench data was beschikbaar maar verwijderd vanwege NDA wijziging, aldus volgens hem)
- TS : "@ 1070MHz core / 1200MHz mem ; beat a gtx570 OCed edition. hehehe... O.O"
- TS : "I wouldn't be surprised that some lucky ones even do 1100mhz core on the stock cooler"
- User "2fast2drive" : "OMG... the OC vantage result is nearly the same as my GTX460 SLI with 800/1600/4000....."
(!) Dit stelt nu uiteraard niet echt veel voor zonder pics ... en het is nog wachten op de echte reviews (Tweakers,Anand, etc) maar something tells me dat die GTX560 Ti een mooi kaartje zal worden <3 <3

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 22-09 15:27
Anoniem: 366114 schreef op dinsdag 25 januari 2011 @ 10:52:
http://forums.hardwarezone.com.sg/showthread.php?p=52482702
(MSI N560GTX-Ti 1G TwinFrozrII 880MHz/1050MHz - bench data was beschikbaar maar verwijderd vanwege NDA wijziging, aldus volgens hem)


[...]


(!) Dit stelt nu uiteraard niet echt veel voor zonder pics ... en het is nog wachten op de echte reviews (Tweakers,Anand, etc) maar something tells me dat die GTX560 Ti een mooi kaartje zal worden <3 <3
Klinkt als een nieuwe 8800GTS :)
Pagina: 1 2 3 ... 10 Laatste

Dit topic is gesloten.



Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee