In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter
Dit topic is vooral niét bedoeld om te posten dat:
jouw favoriete kaart niet leverbaar is bij een shop.
jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst!
Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2
Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 34
Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.
De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Alle informatie over deze kaarten kun je totaan deel 50 van dit topic terugvinden
Instap level
GT???
GPU: GF108
Release Date: Q2? 2010
Interface: PCI-E x16 2.0
Transistors: ??
Unified shaders: 32
Shader clock??
ROP's: ??
Core Clock:
Memory Clock:
Memory Bandwidth:
Memory Interface:
Memory:
Consumption:
Performantie:OEM/Dell only(indien 32)?
GT420 OEM
GPU: GF108
Release Date: Zomer 2010
Interface: PCI-E x16 2.0
Transistors: ??
Unified shaders:48
Shader clock: 1400 MHz
ROP's: ??
Core Clock: 700 MHz
Memory Clock: 900 MHz
Memory Bandwidth: 28.8 GB/sec
Memory Interface: 128 bit
Memory: 2048 MB DDR3
Consumption: max 50 Watt • Enkel OEM
Low End
GT 430
GPU: GF108
Release Date: 11/10/2010
Interface: PCI-E x16 2.0
Transistors: 585 Miljoen
Unified shaders:96
Shader clock: 1400 MHz
ROP's: 4
Core Clock: 700 Mhz
Memory Clock: 800 - 900Mhz (GDDR3)
Memory Bandwidth:25,6 - 28,8 GB/s
Memory Interface: 128 bit
Memory: 1024 MB
Texture Units: 16
Consumption: Officieel max 49 Watt
GTS 440
GPU: GF106
Release Date: oktober 2010
Interface: PCI-E x16 2.0
Transistors: ??
Unified shaders:144
Shader clock: 1189 MHz
ROP's: ??
Core Clock: 594 Mhz
Memory Clock: 800-900 Mhz (GDDR3)
Memory Bandwidth: 38.4-43.2 GB/s
Memory Interface: 192 bit
Memory: 1.5 - 3.0 GB
Texture Units: ??
Beperkte 2-sli (zelfde fabrikant vereist)
Enkel OEM
Consumption: max 56 Watt
Mid-End
GTS 450
GPU: GF106 (40nm)
Release Date: Q2 2010 Uitgesteld naar 13 september
Externe nieuwsberichten: Project Denver
nVidia heeft op CES hun nieuwste project betreffende het Tegra/ARM platform voorgesteld. Blijkbaar wil nVidia verder gaan dan dat ze tot nu toe met Tegra hebben bereikt. Momenteel houdt Tegra in dat een nVidia video chip wordt gecombineerd met 1 of meerdere aangekocht ARM chips om samen een platform te vormen.
nVidia toont blijkbaar nu ook de aspiratie om de ARM cpu chips zelf te ontwikkelen en te laten produceren (nVidia is nog steeds fabless). Door de licentiedeal met Intel en de bekomen licenties op de toekomstige ARM structuur is er juridisch geen hinderpaal meer voor nVidia. Daar ook Windows 8 compatibel wal worden met ARM hoopt nVidia hierdoor een concurrentieel platform te kunnen opbouwen dat op lange termijn zelf tegen de huidige x86 platformen kan komen te staan.
Dit vooral voor tablets/smartphones en andere toepassingen. Dat er in deze markt een serieuze groei wordt verwacht is duidelijk, zelf Intel wil een deel van de koek met hun atom cpu's (en dus de x86 instructieset)
nVidia:
• “Project Denver” Processor to Usher in New Era of Computing
CES:
• Microsoft Announces Support of System on a Chip Architectures From Intel, AMD, and ARM for Next Version of Windows
Licentiedeal met Intel
Na een enorm lange juridische strijd met Intel heeft nVidia eindelijk een licentiedeal kunnen sluiten met Intel.
Als voordeel hiervan krijgt nVidia een royale vergoeding voor het verliezen van de rechten voor chipsets te produceren voor de nieuwe CPU's van Intel.
Echter krijgt nVidia ook geen rechten om x86 cpu's of het x86 platform te emuleren (bv op een ARM processor).
Gevolgen: • De hoogst winstgevende chipsetdivisie van nVidia is nu defenitief verleden tijd, IGP's van nVidia voor intel en eigenlijk ook AMD zullen niet meer gefabriceerd worden. (Dit werd al vroeger aangekondigd door nVidia zelf).
• Project Denver zal dus bestaan uit ARM processors en nVidia zal op die platform niet de x86 instructieset mogen gebruiken of emuleren.
• Intel pays NVIDIA $1.5b in patent truce, Apple still hurt
• Anandtech: Intel Settles With NVIDIA: More Money, Fewer Problems, No x86
• Intel Announces New Patent Cross License Agreement with NVIDIA
Drie van de top 4 supercomputers in de wereld halen een groot deel van hun rekenkracht van grafische processors.
• China's Tianhe-1A crowned supercomputer king
De krachtigste ter wereld bevind zich nu in china en bevat 7,168 nVidia GPU's (naast 14,336 Intel CPUs, details )
• China claims supercomputer crown
GTX 560 (Ti)
Eind deze maand (januari 2011) zal vermoedelijk de GTX 560 gereleased worden.
De specs zijn al redelijk bekend (zie beetje hoger ;P) maar het recentelijkste gerucht gaat dat er weer net zoals bij de GTX 460 2 varianten gereleased zullen worden.
Opnieuw zal het geheugen het verschilpunt vormen, maar deze keer zal nVidia waarschijnlijk de benaming Ti willen gebruiken voor de snelste variant ipv enkel de hoeveelheid ram achter de benaming te plaatsen.
nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(30 juli 2010) zijn er geen nieuwere beta drivers uit die recenter zijn dan de WHQL's.
Er is wel een nieuwe beta driver uit voor OpenGL 4.1 te supporten
Let op:
7) What NVIDIA hardware will support OpenGL 4?
The new features in OpenGL 4 require a Fermi GPU. Thus OpenGL 4 is not supported on NV3x, NV4x, G7x, G8x nor GT2xx hardware. This means you need one of the following NVIDIA graphics accelerators to use OpenGL 4:
Een goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
• Alternatieve OS: Momenteel zijn deze drivers dezelfde als voor de desktop applicaties
nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.
*TODO*
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)
PV engine 4 bijvoegen
CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg
-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...
[Voor 180% gewijzigd door lightdestroyer op 25-01-2011 11:53]
lightdestroyer schreef op vrijdag 14 januari 2011 @ 17:17:
Ook hebben de oude "echte" gpu reeksen een refresh gekregen, wss ten gevolge van de PR rond de miljardste GPU die gefabriceerd is geweest voor nvidia>
(de gpu's die niet onder nVidia naam werden verkocht worden hierbij niet meegeteld, riva TNT bv ..)
De Riva128 en Riva TNT werden weldegelijk onder de naam van nVidia uitgebracht. Dat was toen namelijk nog in het heetsts van de strijd tussen nV en 3Dfx!
Het zijn echter puur video-chips en geen GPU's. Zo werden ze pas genoemd sind de incorporatie van de hardware T&L engine.
Ze vieren nu dus de productie van de miljardste GPU, niet de miljardste GFX-chip.
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
De Riva128 en Riva TNT werden weldegelijk onder de naam van nVidia uitgebracht. Dat was toen namelijk nog in het heetsts van de strijd tussen nV en 3Dfx!
Klopt.
Vooral over de nVidia Riva TNT (zou heette de kaart voluit) was men destijds zeer te spreken. Ook omdat je toen een kaart had die zowel 2D als 3D aankon. Bij de eerste 3Dfx kaartjes had je destijds ook nog een 2D kaart nodig(?)
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
"• Linken naar reviews zijn toegevoegd --> Tweakers.net staat op de nvidia website "
Dat snap ik even niet.
"En zeg nu nog eens dat Tegra2 en het Tegra platform geen succes kan worden, veel te veel links moeten bijvoegen over al die tablets die Tegra2 zouden gaan gebruiken :X"
De links geven aan dat fabrikanten Tegra 2 wel gaan gebruiken en dat er dus redelijk wat producten aan zitten te komen. Er wordt puur gesteld dat Tegra 2 de potentie heeft om succesvol te worden, nergens dat ze er 'design wins' mee binnen gaan slepen...
[Voor 26% gewijzigd door Anoniem: 245699 op 15-01-2011 00:11]
"En zeg nu nog eens dat Tegra2 en het Tegra platform geen succes kan worden, veel te veel links moeten bijvoegen over al die tablets die Tegra2 zouden gaan gebruiken :X"
Hoeveel Tegra2 design wins zijn er dan al ?
Wat dacht je van minimaal 15 miljoen Tegra2 chips in 2011 en ze zijn vooral beperkt in productiecapaciteit, dus er lijkt meer vraag dan aanbod. En wil je nu dat geflame een keer laten, ik word er erg moe van.
EDIT: En voordat er naar bron wordt gevraagd, komt van DIGITIMES, die vorige week een stukje schreef met de zeer creatieve titel "CES 2011: Nvidia to ship at least 15 million Tegra series processors in 2011". Helaas nu alleen nog te lezen door subscribers, maar jullie mogen mijn woord geloven dat de titel de inhoud van het bericht netjes dekt
[Voor 20% gewijzigd door Snoitkever op 15-01-2011 13:05]
Het is niet onlogisch dat je niet gelijk mee kan met de gevestigde orde bij je 1e ontwerp, wat dat betreft ziet Tegra 2 er een stukken beter uit.
Dessalniettemin is de concurrentie in deze sector enorm en blijft het afwachten of nVidia vaste voet aan de grond kan krijgen want op zichzelf stelt 15mio wereldwijd bijna niks voor.
nVidia's kracht is natuurlijk dat zij zeer veel GPU kennis hebben wat naar mijn inschatting minder is bij de concurrentie. Dus als ze straks een enigzins goede ARM CPU maken gekoppelt met een top GPU bij een net verbruik dan zie ik het wel goed in voor nVidia.
Heb nu meer vertrouwen in een duurzame toekomst van nVidia gekregen door de berichten rond Tegra2 en hun ARM CPU strategie. Het moet echter allemaal nog wel bewezen worden.
PC Specs Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Help!!!! schreef op zaterdag 15 januari 2011 @ 13:33:
Het is niet onlogisch dat je niet gelijk mee kan met de gevestigde orde bij je 1e ontwerp, wat dat betreft ziet Tegra 2 er een stukken beter uit.
Dessalniettemin is de concurrentie in deze sector enorm en blijft het afwachten of nVidia vaste voet aan de grond kan krijgen want op zichzelf stelt 15mio wereldwijd bijna niks voor.
nVidia's kracht is natuurlijk dat zij zeer veel GPU kennis hebben wat naar mijn inschatting minder is bij de concurrentie. Dus als ze straks een enigzins goede ARM CPU maken gekoppelt met een top GPU bij een net verbruik dan zie ik het wel goed in voor nVidia.
Heb nu meer vertrouwen in een duurzame toekomst van nVidia gekregen door de berichten rond Tegra2 en hun ARM CPU strategie. Het moet echter allemaal nog wel bewezen worden.
15 miljoen is best aardig lijkt me. De meerderheid van de chips zullen in tablets verschijnen, laten we zeggen minstens 10 miljoen? Nou zijn de verwachte verkopen van de iPad geloof ik 60-70 miljoen, maar binnen een factor 10 van de absolute koploper blijven is toch best netjes te noemen voor een nieuw product in een nieuwe markt lijkt me.
Al zouden er 10mio in tablets komen en vd Ipad er 60a70 mio verkocht zijn dan is dat wat mij betreft nog geen goede vergelijking aangezien het mij verdedigbaar lijkt dat het komend jaar de Tabletmarkt in zijn geheel veel groter zal worden dan die 60 a 70mio en je het daar tegenover moet zetten.
Verder is de tegra 2 bedoeld voor smartphones en tablets dus imo is 15mio dan nog erg weinig gezien de grootte van de smartphonemarkt.
Ook moet die 15mio nog gehaald worden wat denk ik ook nogal beinvloed zal worden door de uiteindelijke kwaliteit van de tabletOS'n (anders dan die van Apple)
Maar de Tegra 2 lijkt in ieder geval stukken beter te zijn / aan te slaan dan de doemstukken die we een tijd terug konden lezen op 1 vd gossipsites...
Ook zijn de previews positief dus ja ik heb er wel vertrouwen in dat dit een succes kan worden.
PC Specs Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Help!!!! schreef op zaterdag 15 januari 2011 @ 13:33:
nVidia's kracht is natuurlijk dat zij zeer veel GPU kennis hebben wat naar mijn inschatting minder is bij de concurrentie. Dus als ze straks een enigzins goede ARM CPU maken gekoppelt met een top GPU bij een net verbruik dan zie ik het wel goed in voor nVidia.
NVidia komt juist maar net kijken bij de ARM-industrie. Er zijn behoorlijk goede GPU's te krijgen van andere merken, die echt niet onder doen voor wat in Tegra2 zit. Als 1 van de sterkere opties is er IMG's PowerVR GPU. Daarnaast is een quad-Mali GPU van ARM ook een geen watje. NVidia zal met een Tegra3 toch weer een tandje extra bij moeten zetten om bij te kunnen blijven.
Heb nu meer vertrouwen in een duurzame toekomst van nVidia gekregen door de berichten rond Tegra2 en hun ARM CPU strategie. Het moet echter allemaal nog wel bewezen worden.
Er zijn redelijk wat tablets aangekondigd en een paar telefoons. Maar zolang ze niet officieel op de markt zijn, zijn het nog altijd aankondigingen. Daarnaast valt ook te bezien hoe dergelijke producten uiteindelijk verkopen. Een telefoon als de LG Optimus Speed klinkt als een heel mooi toestel, maar als de batterij binnen no-time leeg is, omdat de 2e core niet geheel uitgeschakeld kan worden, kon het nog wel eens uitgekakt worden door reviewers en dat kan zijn weerslag weer hebben op de verkopen.
Verder klinkt 15 miljoen veel, maar is het zoals hierboven al gezegd eigenlijk helemaal niet zo heel erg veel. Bovendien heeft nVidia vorig jaar de inkomsten aangaande Tegra(2) continu naar beneden bijgesteld. De opmerking dat ze 'gelimiteerd' zijn door de capaciteit van TSMC is ook een beetje uit de lucht gegrepen. TSMC heeft enerzijds al maar meer capaciteit gekregen voor 40nm producten, maar bovendien heeft nVidia zijn capaciteit die ze hadden ingekocht voor Tegra 2, zelf dichtgeknepen.
Als we 15 miljoen dan eens gaan vergelijken met een Hummingbird SoC van Samsung, dan heeft die laatste in iets meer dan een half jaar meer dan 10 miljoen verkochte chips gezien, in de vorm van Galaxy S en Galaxy Tab. Vanuit dat oogpunt kun je stellen dat 15 miljoen echt niet heel erg veel is.
De totale Tabletmarkt voor 2011 was overigens geraamd op ~60 miljoen tablets. De helft daarvan zou voor rekening van Apple komen, de andere helft mag de rest om vechten. Samsung heeft daar al een redelijk deel van gekaapt met de Galaxy Tab en zal ongetwijfeld de Tab2 binnenkort aankondigen. De kans dat daar Tegra2 in zit, zal vrij klein zijn, gezien Samsungs Orion dual-core SoC, die ook gebruiksklaar lijkt te zijn voor Samsung.
Ik vroeg alleen hoeveel design wins Tegra2 al had. Hoezo is dat dan een flame ? Ik vroeg i.i.g. niet naar de bekende weg. Ook zie ik totaal niet in hoe deze vraag iemand van streek kan maken.
Belachelijk dat ik me zelf moet verdedigen als ik een normale vraag stel.
NVidia komt juist maar net kijken bij de ARM-industrie. Er zijn behoorlijk goede GPU's te krijgen van andere merken, die echt niet onder doen voor wat in Tegra2 zit. Als 1 van de sterkere opties is er IMG's PowerVR GPU. Daarnaast is een quad-Mali GPU van ARM ook een geen watje. NVidia zal met een Tegra3 toch weer een tandje extra bij moeten zetten om bij te kunnen blijven.
[...]
Er zijn redelijk wat tablets aangekondigd en een paar telefoons. Maar zolang ze niet officieel op de markt zijn, zijn het nog altijd aankondigingen. Daarnaast valt ook te bezien hoe dergelijke producten uiteindelijk verkopen. Een telefoon als de LG Optimus Speed klinkt als een heel mooi toestel, maar als de batterij binnen no-time leeg is, omdat de 2e core niet geheel uitgeschakeld kan worden, kon het nog wel eens uitgekakt worden door reviewers en dat kan zijn weerslag weer hebben op de verkopen.
Verder klinkt 15 miljoen veel, maar is het zoals hierboven al gezegd eigenlijk helemaal niet zo heel erg veel. Bovendien heeft nVidia vorig jaar de inkomsten aangaande Tegra(2) continu naar beneden bijgesteld. De opmerking dat ze 'gelimiteerd' zijn door de capaciteit van TSMC is ook een beetje uit de lucht gegrepen. TSMC heeft enerzijds al maar meer capaciteit gekregen voor 40nm producten, maar bovendien heeft nVidia zijn capaciteit die ze hadden ingekocht voor Tegra 2, zelf dichtgeknepen.
Als we 15 miljoen dan eens gaan vergelijken met een Hummingbird SoC van Samsung, dan heeft die laatste in iets meer dan een half jaar meer dan 10 miljoen verkochte chips gezien, in de vorm van Galaxy S en Galaxy Tab. Vanuit dat oogpunt kun je stellen dat 15 miljoen echt niet heel erg veel is.
De totale Tabletmarkt voor 2011 was overigens geraamd op ~60 miljoen tablets. De helft daarvan zou voor rekening van Apple komen, de andere helft mag de rest om vechten. Samsung heeft daar al een redelijk deel van gekaapt met de Galaxy Tab en zal ongetwijfeld de Tab2 binnenkort aankondigen. De kans dat daar Tegra2 in zit, zal vrij klein zijn, gezien Samsungs Orion dual-core SoC, die ook gebruiksklaar lijkt te zijn voor Samsung.
Glas half vol of half leeg? Nee, NVIDIA is geen grote speler op de markt. Qualcomm en TI zullen ongetwijfeld snel 5-10 keer meer high-end ARM SoCs verkopen, als het niet meer is. Maar ik denk wel dat je kan zeggen dat NVIDIA ondertussen wel een kleinere speler in de markt is geworden en als ze zo door gaan ook het potentieel hebben om een grotere speler in de ARM markt te worden. Uiteraard allemaal met een heleboel mitsen en maren en het kan ook best fout gaan, maar het begin is er. Die negatieve verhalen die we tot nog geen half jaar geleden van mensen als Charlie kregen te horen over hoe Tegra2 een grote flop is zijn in ieder geval nu wel de wereld uit.
Wat betreft de capaciteit, ik meen het vorige week in een DIGITIMES artikel te hebben gelezen, maar aangezien ik geen abonnee ben kan ik het niet terug vinden, dus ik kan daar ook fout zitten
Snoitkever schreef op zaterdag 15 januari 2011 @ 19:29:
Wat betreft de capaciteit, ik meen het vorige week in een DIGITIMES artikel te hebben gelezen, maar aangezien ik geen abonnee ben kan ik het niet terug vinden, dus ik kan daar ook fout zitten
Nvidia's hele range draait op TSMC's 40nm proces. Het is simpelweg een zaak van keuzes maken. Willen we een wafer met 100 GF110's, of willen we een wafer met ~600 Tegra2's? Gezien sommige wilde verhalen langs zijn gekomen dat nVidia ~80% van het 40nm proces zou hebben, zou het allemaal al helemaal geen probleem mogen zijn, met zelfs met behoorlijk minder capaciteit, komt het gewoonweg op keuzes aan. NVidia heeft bewust weinig capaciteit voor Tegra2 ingezet, omdat het al met al behoorlijk dure sleutelhangers zouden zijn geworden, als ze niet verkocht zouden worden.
De hamvraag nu is natuurlijk wat nVidia uiteindelijk ontvangt voor die chips. Zal het de vraagprijs van 40 dollar zijn? Of zullen het dumpprijzen zijn omdat andere SoCs nu eenmaal ook goedkoper te krijgen zijn?
Ik ben in ieder geval erg benieuwd naar de echte reviews van LG Optimus Speed, met een duidelijk kijk op batterijgebruik en duur.
Nvidia's hele range draait op TSMC's 40nm proces. Het is simpelweg een zaak van keuzes maken. Willen we een wafer met 100 GF110's, of willen we een wafer met ~600 Tegra2's? Gezien sommige wilde verhalen langs zijn gekomen dat nVidia ~80% van het 40nm proces zou hebben, zou het allemaal al helemaal geen probleem mogen zijn, met zelfs met behoorlijk minder capaciteit, komt het gewoonweg op keuzes aan. NVidia heeft bewust weinig capaciteit voor Tegra2 ingezet, omdat het al met al behoorlijk dure sleutelhangers zouden zijn geworden, als ze niet verkocht zouden worden.
De hamvraag nu is natuurlijk wat nVidia uiteindelijk ontvangt voor die chips. Zal het de vraagprijs van 40 dollar zijn? Of zullen het dumpprijzen zijn omdat andere SoCs nu eenmaal ook goedkoper te krijgen zijn?
Ik ben in ieder geval erg benieuwd naar de echte reviews van LG Optimus Speed, met een duidelijk kijk op batterijgebruik en duur.
En Oak Trail komt al van een behoorlijk hogere prijsstelling. Tegra 2 zal dus waarschijnlijk ook voor een veel lagere prijs verkocht worden dan het initieel de bedoeling was. Ze zijn zeker niet bij de ~15 dollar begonnen die Fud claimt als huidige verkoopprijs.
Overigens lijkt de Optimus Speed launch ondertussen ook al van januari, naar 21 februari, naar 21 maart te zijn verplaatst. Een engelse shop heeft die datum nu. De enige Nederlandse shop waar ik hem heb gezien heeft het over een levertijd van 8 weken, wat ook al ergens in maart is.
[Voor 19% gewijzigd door dahakon op 15-01-2011 22:34]
Verkoopprijs van 15 dollar kan maar veel marge is er niet. Al helemaal niet als je R&D,TSMC, logistieke en administratieve kosten mee telt.
AMD Zacate APU is 75mm2 groot.
AMD Zacate APU is ~1,75 keer zo groot als nVidia Tegra.
nVidia Tegra is dus ~43mm2 groot
Aantal nVidia Tegras die uit een wafer kunnen komen in de "praktijk" is=
(π*((150-(√43))2)/43=~1500 nVidia Tegras uit één wafer van 300mm. Een 300mm wafer kost ~5000 dollar.
5000/1500=~3,4 dollar per nVidia Tegra als yields 100% zijn.
Bij deze 3,4 dollar komt wel nog binning en packaging kosten.
[Voor 19% gewijzigd door madmaxnl op 15-01-2011 23:15]
[b][message=35372238,noline]
AMD Zacate APU is 75mm2 groot.
AMD Zacate APU is ~1,75 keer zo groot als nVidia Tegra.
nVidia Tegra is dus ~43mm2 groot
Aantal nVidia Tegras die uit een wafer kunnen komen in de "praktijk" is=
(π*((150-(√43))2)/43=~1500 nVidia Tegras uit één wafer van 300mm. Een 300mm wafer kost ~5000 dollar.
5000/1500=~3,4 dollar per nVidia Tegra als yields 100% zijn.
Bij deze 3,4 dollar komt wel nog binning en packaging kosten.
Alleen is een zero-defect wafer net als een sprookje, het bestaat niet echt. Volgens een Fudzilla artikel van een paar dagen terug zijn yields verre van optimaal. Ik vroeg me overigens 1 ding af. Je gebruikt 43mm2 als diesize voor Tegra 2, maar tot nog toe ben ik altijd ~49mm2 tegengekomen (scheelt ~200 chips per wafer). Waar komt die 43mm2 vandaan?
43mm2 is een schatting, ik heb nog gezocht naar de echte die size maar die heb ik niet kunnen vinden.
Maar in het geval van 50mm2 zouden er ~1300 chips uit een wafer komen. Natuurlijk neemt de yieldrate af naarmate de grote van de chips toeneemt. Maar voor de chips van dergelijke groten mag je denk ik wel van een yieldrate van >89% spreken.
Ik denk dat in het beste geval kosten de dies ~3 dollar en in het slechtste geval ~5 dollar.
[Voor 14% gewijzigd door madmaxnl op 15-01-2011 23:56]
Ik twijfel nogal aan die 5000 die je vaak rond ziet vliegen. Ook in het originele stuk waar de auteur AMD en Intel vergelijkt, terwijl Intel waarschijnlijk een stuk goedkoper uit is omdat ze alles in huis doen en niet uitbesteden naar GF. Daarnaast wordt ook vaak gezegd dat NVIDIA goedkoper kan produceren bij TSMC omdat ze goeie klant zijn en omdat TSMC dat graag zo wil houden. Daar komt bij dat oudere procedees stukken goedkoper zijn dan nieuwe cutting-edge procedees, dat een heleboel afhangt van de complexiteit van de chip die gebakken wordt en dat alles zorgt er voor dat ik het hele 5000 figuur waardeloos vind als basis voor het berekenen van chipprijzen.
EDIT: Iets dieper op dat laatste punt ingegaan: In een recent stuk over de HD6900 serie op (naar ik meen) Anandtech werd gesproken over kosten van een transistor op een procedee. 32nm zou in eerste instantie bijna dezelfde prijs/trans. hebben als 40nm. Of de 40nm wafers zijn dus goedkoper of de 32nm wafers zijn minstens 10.000, maar waarom werd 5000 dan geclaimd door Charlie vanaf de eerste NVIDIA 40nm chips?
[Voor 23% gewijzigd door Snoitkever op 16-01-2011 10:52]
Ik denk niet dat TSMC welk bedrijf dan ook grote korting geeft, zolang ze genoeg klanten hebben voor het proces die de volle mep willen/kunnen betalen. Voor de rest is die 5000 dollar een prijs die gold tijdens de lancering van 40nm. Deze zou wellicht ondertussen wel wat gezakt kunnen zijn, maar aangezien 40nm nog altijd de 'cutting edge' is, zal het waarschijnlijk niet veel zijn. TSMC moet namelijk ook nog altijd geld verdienen om aandeelhouders blij te houden.
Het is ook daarom dat ik denk dat men moeilijk kan verkopen dat ze de helft van het 40nm proces voor een aanzienlijk lagere prijs verkopen aan nVidia, dan de andere helft aan de rest. Sowieso is dat een behoorlijk slechte bedrijfspolicy, want op die manier is de kans ook erg groot dat je je klanten naar Global Foundries jaagt, omdat ze daar wel een gelijkere behandeling zouden kunnen krijgen.
De prijs van een wafer zal verder niet echt afhangen van de complexiteit van een chip lijkt me. Het proces kan iets uitvoeren en het is aan de klant om chips te ontwerpen binnen dat kader. De wafer zelf doorloopt gewoon het proces en is klaar aan het eind van de lijn. Hoeveel werkende chips er op zitten, al dan niet afhankelijk van complexiteit, is gewoon een zaak voor de klant.
dahakon schreef op zondag 16 januari 2011 @ 10:58:
Ik denk niet dat TSMC welk bedrijf dan ook grote korting geeft, zolang ze genoeg klanten hebben voor het proces die de volle mep willen/kunnen betalen. Voor de rest is die 5000 dollar een prijs die gold tijdens de lancering van 40nm. Deze zou wellicht ondertussen wel wat gezakt kunnen zijn, maar aangezien 40nm nog altijd de 'cutting edge' is, zal het waarschijnlijk niet veel zijn. TSMC moet namelijk ook nog altijd geld verdienen om aandeelhouders blij te houden.
Hoe verklaar je het dan dat 32nm duurder is per transistor als 40nm? Of 40nm is heel flink in prijs gezakt, maar waarom hanteren we dan die 5000 nog, of 32nm is veel duurder, maar dat strookt niet met het feit dat elke nieuwe generatie chips ongeveer even groot is zonder duurder te worden.
This was due to the fact that before 32nm was even canceled, TSMC’s pricing was going to make 32nm more expensive per transistor than 40nm, a problem for a mid-range part where AMD has specific margins they’d like to hit. bron
dahakon schreef op zondag 16 januari 2011 @ 10:58:
Het is ook daarom dat ik denk dat men moeilijk kan verkopen dat ze de helft van het 40nm proces voor een aanzienlijk lagere prijs verkopen aan nVidia, dan de andere helft aan de rest. Sowieso is dat een behoorlijk slechte bedrijfspolicy, want op die manier is de kans ook erg groot dat je je klanten naar Global Foundries jaagt, omdat ze daar wel een gelijkere behandeling zouden kunnen krijgen.
Nou, NVIDIA krijgt in ieder geval voordeel bij allocatie:
White also acknowledged something that I've long assumed to be true: Nvidia receives "preferential allocation" on advanced process technology at TSMC. It's logical that Nvidia should get the red-carpet treatment, having been TSMC's best customer for many years, but I don't recall hearing Nvidia or TSMC put this fact on the record before. bron
Ik heb ook wel vaker gelezen dat NVIDIA lagere prijzen krijgt, maar daar kan ik zo gauw even geen bron van vinden. Ik meen dat Charlie het wel vaker heeft gezegd, maar ik geloof dat het ook wel op DIGITIMES en uiteraard op diverse fora stond. Ik heb geen bronnen dus ik kan niks bewijzen helaas.
dahakon schreef op zondag 16 januari 2011 @ 10:58:
De prijs van een wafer zal verder niet echt afhangen van de complexiteit van een chip lijkt me. Het proces kan iets uitvoeren en het is aan de klant om chips te ontwerpen binnen dat kader. De wafer zelf doorloopt gewoon het proces en is klaar aan het eind van de lijn. Hoeveel werkende chips er op zitten, al dan niet afhankelijk van complexiteit, is gewoon een zaak voor de klant.
Doorloopt gewoon het proces? Het maakt nogal even uit hoeveel layers je chip heeft hoe lang dat proces duurt hoor. En een chip als GF100 heeft veel meer layers dan een chip als Tegra, om maar wat te noemen.
Maar goed, als je mij niet gelooft mag je hier eens kijken naar kijken (ik heb de interessante zaken even vet gemaakt)
The Wafer Fabrication Pricing Report includes a written analysis of the survey results, a downloadable MS Access database of all aggregated results, and interactive online results showing rolling average wafer prices and average mask set prices for four consecutive quarters by:
Process Geometry Process
Wafer Size
Company Type
Foundry Location Metal Layers
Poly Layers
Mask Layers
Epitaxial
Development Stage Volume of Wafers Purchased
Other Services Included in Price
Pricing by Leading Revenue-Producing Fabless Companies
Snoitkever schreef op zondag 16 januari 2011 @ 12:26:
Hoe verklaar je het dan dat 32nm duurder is per transistor als 40nm? Of 40nm is heel flink in prijs gezakt, maar waarom hanteren we dan die 5000 nog, of 32nm is veel duurder, maar dat strookt niet met het feit dat elke nieuwe generatie chips ongeveer even groot is zonder duurder te worden.
TSMC brak met het gebruik van prijs/transistor. Niet alleen ten opzichte van 40nm, maar in zijn algemeen. Maar het zijn in deze geen absolute bedragen die besproken worden, dus is het lastig om er enige conclusie uit te trekken.
Nou, NVIDIA krijgt in ieder geval voordeel bij allocatie:
Het stukje dat je quote gaat over voorkeur om productiecapaciteit aan nVidia te verkopen, niet over hoeveel ze er voor betalen.
Ik heb ook wel vaker gelezen dat NVIDIA lagere prijzen krijgt, maar daar kan ik zo gauw even geen bron van vinden. Ik meen dat Charlie het wel vaker heeft gezegd, maar ik geloof dat het ook wel op DIGITIMES en uiteraard op diverse fora stond. Ik heb geen bronnen dus ik kan niks bewijzen helaas.
In het begin van de 40nm chips, en met name in de periode dat GF100 maar niet wilde lukken (procestechnisch) was er op den duur sprake van dat TSMC een minimale yield beloofde. Alles wat daaronder zou komen, zou voor rekening zijn van TSMC. Dat is de enige versie die ik als serieuze opmerking heb gezien waarom nVidia minder zou betalen. Ondertussen heeft Charlie al lang geleden op het forum van S|A ontkracht dat nVidia consequent voordeel krijgt en dat ze ook gewoon per wafer moeten betalen.
Doorloopt gewoon het proces? Het maakt nogal even uit hoeveel layers je chip heeft hoe lang dat proces duurt hoor. En een chip als GF100 heeft veel meer layers dan een chip als Tegra, om maar wat te noemen.
Maar goed, als je mij niet gelooft mag je hier eens kijken naar kijken (ik heb de interessante zaken even vet gemaakt)
Als je de pricing index in beschouwing neemt, is het eigenlijk logischer dat veel andere bedrijven een fors lagere prijs betalen per wafer, gezien de meeste chips minder complex zullen zijn dan GF100/110. De vraag zal alleen zijn hoeveel het scheelt. Hoeveel korter zal het proces zijn voor 'simpele' chips en hoeveel materiaalkosten zullen er afvallen.
Maar goed, het is vooral heel erg veel koffiedik kijken en officiele prijzen voor het 40nm proces zoals ze vandaag de dag gelden, zijn er nu eenmaal niet. Maar ze zullen echt nog niet gehalveerd zijn. Er zijn in ieder geval geen nieuwere prijzen te vinden, slechts de opmerkingen dat ze nog altijd capaciteits-belemmerd zijn als foundry. Dat geeft alleen maar meer aan dat ze niet erg waarschijnlijk met de prijzen gaan goochelen.
1. Hoe verklaar je het dan dat 32nm duurder is per transistor als 40nm? Of 40nm is heel flink in prijs gezakt, maar waarom hanteren we dan die 5000 nog, of 32nm is veel duurder, maar dat strookt niet met het feit dat elke nieuwe generatie chips ongeveer even groot is zonder duurder te worden.
2. Nou, NVIDIA krijgt in ieder geval voordeel bij allocatie:
3. Ik heb ook wel vaker gelezen dat NVIDIA lagere prijzen krijgt, maar daar kan ik zo gauw even geen bron van vinden. Ik meen dat Charlie het wel vaker heeft gezegd, maar ik geloof dat het ook wel op DIGITIMES en uiteraard op diverse fora stond. Ik heb geen bronnen dus ik kan niks bewijzen helaas.
1. Bron ? Want wellicht ben je hiermee verward:
"This time though, TSMC didn't follow the usual rule of thumb, they priced 32nm higher than 40nm, presumably to cover ever increasing costs. Fair enough. For a bleeding edge chip that can't be made on an older process, you have to use the new process, it simply can't be economically made on the older one. This may be because of die size, yield, power consumption, or board area constraints, but is is almost always the reason why high end GPUs must shrink."
2. Dat zal best, maar TSMC vergeet niet dat AMD een betere of gelijke regeling kan treffen met GF dan nVidia met TSMC. Dit komt omdat AMD direct voordeel heeft bij een hoge bezettingsgraad(1), winst(2) en omzet(3) omdat GF hun hoofd leverancier is. Doordat GF de 1,2 en 3 heeft als AMD meer laat produceren bij GF hebben ze:
1. Grotere kortingen omdat ze veel afnemen zoals nVidia dat heeft bij TSMC.
2. Indirect winst via aandelen die ze hebben in GF.
3. Investeren ze indirect in hun producent zodat deze sneller nieuwere productie procedés kan ontwikkelen waardoor AMD deze weer sneller kan gaan gebruiken.
Er wordt gezegd dat zodra GF 28nm heeft mits deze net zo interresant is als TSMC 28nm(dus met alle voordelen die GF over TSMC heeft mee gerekend) dat ze dan alles bij GF gaan produceren.
Alle Bobcat APUs op 28nm. Alle overige APUs op 32nm SOI+HKMG. Alle CPUs op 32nm SOI+HKMG. Alle andere CPUs op 45nm SOI. Alle chipsets op 28nm en alle GPUs op 28nm bij GF onderbregen i.p.v. een gedeelten bij TSMC kan GF en AMD veel voordeel opleveren. Genoeg productie voor GF mij dunkt.
Waarbij alle Bobcat APUs op 40nm. Alle chipsets op 55nm en alle GPUs nu op 40nm nu bij TSMC worden gebakken. Deze dingen is TSMC in de toekomst misschien kwijt.
M.a.w. TSMC is er alles aangelegen AMD als klant te houden al is het maar een gedeelten zoals de GPUs. Kortingen aan nVidia zijn dan niet echt iets dat gewaardeerd wordt.
3. nVidia krijgt natuurlijk lagere prijzen naarmate ze meer laten produceren. De vraag is hoe deze regeling in elkaar zit en of AMD niet een zelfde regeling heeft. AMD zou namelijk ook aardig wat compensatie hebben kunnen krijgen. Immers zijn ze de early adopters van het 55nm en 40nm productie procedé dit zal ongetwijfeld ook wel wat financiële voordelen met zich meebrengen ?
Onder het motto beter laat dan nooit zeker. Maar helaas ook alleen maar Apple, Dell en HP, terwijl er toch heel wat meer fabrikanten waren en de desktop videokaarten hadden zeker geen probleem...
Ja de één op één valuta omrekening en andere BTW etc zal de prijs wel niet doen kloppen. Maar dit is ook nog eens de pre-order prijs. De prijs is dus hoger dan dat als er dadelijk daadwerkelijk kaarten beschikbaar gaan zijn.
[Voor 19% gewijzigd door madmaxnl op 17-01-2011 20:10]
Daarnaast had ik het over een 1GHz model en geen 900MHz model en dan nog 215 euro zal ongeveer de prijs zijn van de goedkoopste GTX560 en niet van een OC model.
Een normale GTX560 moet dan ook concurreren met een HD6870 en niet een HD6950 zoals HWI zegt.
HWI claimt ook niet dat zij het ontdekt hebben, zij refereren naar Tech Connect en die hebben het ook weer van een andere site...
Maar die omgerekende 215,- zegt natuurlijk nog niet zoveel, echter was de Gigabyte GTX460 1gb OC ook nooit overdreven duur en behoorde lange tijd bij één van de goedkoopste GTX460 1gb kaarten. Die GTX560 SOC versie zal echt wel veel duurder worden, denk dat die zeker richting de 250/260,- gaat.
Ik sta trouwens wel te kijken van de 1000Mhz als dat waar is.... Das echt behoorlijk!
De GTX560 zal wel wat sneller zijn dan de HD6870, maar zal het idd niet redden t.o.v. de HD6950, zeker niet in zwaardere DX11 titels...
[Voor 20% gewijzigd door Anoniem: 245699 op 17-01-2011 21:10]
Met de zwaarste instellingen gaat een GTX560 alle moeite hebben of verliezen van een HD6870, HD6950 is sowieso niet aan de orde voor een normale GTX560.
En wat bedoel je daarmee? 2560x1600 + 8xAA? Daar koop je een dergelijke kaart niet voor...
Een GTX460 1gb @ 850Mhz is al ongeveer even snel als de HD6870... Nu komen er ook 48 shaders bij, dus de GTX560 zal de HD6870 denk ik wel verslaan (uitzondering per game daargelaten). Dat ie niet sneller gaat zijn dan de HD6950 zei ik zelf ook al meen ik.
@The Mask
Ik kan ook uitzonderlijke situaties bedenken waarin de gtx560 beter zal zijn. Bijvoorbeeld met Physx zal GTX560 sneller zijn dan de 6950. Relatief klein deel van de gamers gamen op 2560x1600. Het belangrijkste zij de prestaties op mainstreem resoluties. 1920x1080 of 1680x1050. met AA en AF
Het valt mij laatste tijd op dat in de Nvidia topic veel ATI hangers zijn, die bij elke positieve nieuwsbericht over Nvivia iets negatief bij halen. Ben zelf een ATI aanhanger, maar het begint irritant te worden. En het sfeer wordt een beetje verpest.
Dat heb ik laatst dus ook al gezecht. Het draaid op tweakers voornamelijk om AMD. Ik vind dat wel een beetje jammer voor zo'n goede site.We moeten wel reël blijven met elkaar mannen en vrouwen.
Ik ben blij dat ik niet de enige ben die hier zo over denkt maar goed ... zelf zeer benieuwd naar die GTX560, lijkt me een mooie vervanger voor mijn huidige graka, eerst nog wel reviews afwachten.
Ik vraag me af of toekomstige games voor 1920x1080 wel genoeg hebben aan 1 GB ram. en zeker bij 2560x1600 zal het een probleem worden. Als ik naar GTA IV kijk dan had je al 1,5GB nodig. En als je dan ook nog een keer AA flink hoog zet. qua gpu power zal deze kaart het makkelijk aan kunnen om alles op 1920x1080 te draaien. Alleen vraag ik me af of de kaar toch niet lekkerder in zijn vel zit met 2GB ram.
[Voor 4% gewijzigd door Anoniem: 321370 op 18-01-2011 11:47]
misschien kunnen we pro-ATi-praat even erbuiten houden en verder gaan met een dikke krijgen van nVidia kaarten, vooral de GTX560 SOC? In dit topic kickt de GTX560 gewoon default ATi's ass
Hey Naaitsab, volgens mij wordt dat ons nieuwe kaartje: GTX560 SOC Ik wilde al de GTX460 SOC kopen, maar wacht toch maar eventjes. Tijd zat, en het geld op de bank wordt alleen maar meer
Oh ik zie op techpowerup dat de GTX560 OC echt niet gaat lijken op de GTX460 OC.
Update (01/18): Gigabyte commented on this article. The company outright denied to have anything to do with whatever is in those pictures, and alleged it to be some kind of a "malicious attack" on it. In a statement, it said: "the information is false and the data is simulated from our old card. The picture is incorrect and was obviously photoshopped from our previous GTX460 model. The GTX560 card looks nothing like pictured on the article. We have good reason to believe this is a malicious attack."
Update (01/18): Gigabyte commented on this article. The company outright denied to have anything to do with whatever is in those pictures, and alleged it to be some kind of a "malicious attack" on it. In a statement, it said: "the information is false and the data is simulated from our old card. The picture is incorrect and was obviously photoshopped from our previous GTX460 model. The GTX560 card looks nothing like pictured on the article. We have good reason to believe this is a malicious attack."
Met andere woorden, de kloksnelheden die Fudzilla noemt, zijn dus uit de lucht gegrepen. Nog maar eens een keer bevestiging dat Fudzilla geen enkele echte bron heeft en dus nooit vertrouwd kan worden...
de foto is zeer slecht gesjopt, maar dit zegt toch niets over de speeds?
Of bedoel je dat Fudzilla, net als de foto ook de speeds uit de lucht grijpt?
Hehe, in feite weten we nog niks over de foto's OF over de speeds, enkel dat de GTX560 SOC er gaat komen.
Canon: R6 | 16-35 | 70-200 II Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR
Marc Rademaker schreef op dinsdag 18 januari 2011 @ 13:30:
Met andere woorden, de kloksnelheden die Fudzilla noemt, zijn dus uit de lucht gegrepen. Nog maar eens een keer bevestiging dat Fudzilla geen enkele echte bron heeft en dus nooit vertrouwd kan worden...
Die vorige afbeelding werd toch ook door tal van sites (o.a. Techpowerup) gecopy/pasted? Kan je al die sites ook gaan afzeiken... Fudzilla heeft die kloksnelheden ook gewoon daarvan overgenomen en niet zelf verzonnen. Ik ga niet beweren dat Fud. een goede site is ofzo (zeker niet) en dat op de afgebeelde kaart gewoon GTX460 staat maakt het nog knulliger, maar beetje onnodig om dit aan te grijpen om Fud. weer af te zeiken. Volgens mij weet iedereen nu wel dat ze daar vaak maar wat roepen en snel overnemen van andere sites. Maar zij verwijzen ook door naar een of andere chinese site, waar in principe 99% van de geruchten vandaan komt en hier op het forum gekwakt wordt.
[Voor 34% gewijzigd door Anoniem: 245699 op 18-01-2011 14:51]
Die vorige afbeelding werd toch ook door tal van sites (o.a. Techpowerup) gecopy/pasted? Kan je al die sites ook gaan afzeiken... Fudzilla heeft die kloksnelheden ook gewoon daarvan overgenomen en niet zelf verzonnen. Ik ga niet beweren dat Fud. een goede site is ofzo (zeker niet) en dat op de afgebeelde kaart gewoon GTX460 staat maakt het nog knulliger, maar beetje onnodig om dit aan te grijpen om Fud. weer af te zeiken. Volgens mij weet iedereen nu wel dat ze daar vaak maar wat roepen en snel overnemen van andere sites. Maar zij verwijzen ook door naar een of andere chinese site, waar in principe 99% van de geruchten vandaan komt en hier op het forum gekwakt wordt.
Staan er op die foto kloksnelheden? Ik dacht dat die er niet bij stonden, maar dat Fudzilla ze had 'verzonnen'. Verschillende websites hebben inderdaad die foto overgenomen, maar TPU melde bijvoorbeeld geen kloksnelheden.
Persoonlijk vond ik enkel de foto niet nieuwswaardig, plus dat er daarbij een GTX 460 opstond. Ik zei letterlijk op de redactie dat die Chinese site waarschijnlijk de eerdere gelekte specs heeft gebruikt en er een foto bij heeft gezet.
Nee, maar TechConnect bijv. wel en die waren eerder met dit 'nieuws' dan Fudzilla... Lijkt me zodoende sterk dat Fudzilla de clocksnelheden letterlijk uit hun duim zuigen.
Fudzilla komt vaak met onzin op de proppen of overdreven verhalen, maar hier vond ik de betichting niet helemaal op z'n plaats.
EDIT: Het is echter wel weer jammer dat veel sites al dit soort nieuws gewoon klakkeloos overnemen zonder zelf ook maar iets te verifiëren. En een dag later blijkt het dus onzin te zijn...
[Voor 18% gewijzigd door Anoniem: 245699 op 18-01-2011 18:03]
Ik wil ff mededelen dat de nieuwe WHQL drivers van nvidia ook eindelijk een sli profiel heeft voor 3dm 11.
Ik haal maar liefst nu zonder eenige oc van de gpu's en cpu op een lichte oc van 4ghz HT on een score van 10k+ screen komt zo.
[Voor 15% gewijzigd door Anoniem: 390961 op 19-01-2011 11:26]
Ja, 266.58 zorgt wel voor merkbaar betere prestaties. Althans... Tot nu toe heb ik wel alleen maar Bad Company 2 gespeeld, maar daar is t wel merkbaar. Mooi
[Voor 11% gewijzigd door Springstof op 19-01-2011 11:33]
Jah kan ik indd nog wel ff gaan doen. Helaas komen die van mij in sli niet verder dan 870mhz gpu core.
Maar goed. Scheeld wel weer 2000 punten ongeveer
Om te gamen is stock toch snel zat. Voor een benchie is het wel ff leuk, maar goed. Deze kaarten zijn imho om flink mee te gamen. En dat kan er wel mee dacht ik.
MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX
Wat ik me afvraag, hoe ziet nVidia dit voor zich? Kijk GPU in CPU is logisch, maar je kan toch niet je CPU aan een pci-e slot zetten? Of is dit dan weer alleen voor mobo chipsets oid?
Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████
ziet eruit als een lage cyclone koeler. Waar de GTX460 meestal voorzien was van 2 heatpipes (gainward, palit e.d.) heeft deze er 3. Hmmm het zijn wel 8mm dikke heatpipes en niet 6mm dik.
En er staat:
....terwijl de geheugenchips en de stroomvoorziening via een aparte koelplaat worden gekoeld
Betekent dit dan nou ein-de-lijk dat er VRm en MEM heatsinks komen?
Ik kijk vol spanning uit naar de Gigabyte SOC modellen! Laten we hopen dat Gainward zich weer eens wat meer inzet met een dikke koeler. Die op de GTX460 GS GLH was toch niet echt gainward-quality....
[Voor 20% gewijzigd door Deathchant op 20-01-2011 21:52]
Canon: R6 | 16-35 | 70-200 II Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR
Heel mooi dat de reference gtx560 een soortgelijke koelplaat krijgt als de hogere modellen, dat maakt hem weer net wat meer premium tov de gtx460. Zal ook goed zijn voor de overclockcapaciteit van de kaart, het lijkt alsof nvidia dit zelf al heeft gezien en een voldoende capabele koeler op heeft gezet om hogere clocks het hoofd te bieden.
Overclocken zal een sterk koopargument voor deze kaarten worden, het is zo kinderlijk eenvoudig om met msi afterburner een profile aan te maken, met een custom rom vast ook weer een hogere max Vcore zoals bij de gtx460
I like, heb net een gtx460 maar dit is zeker een aanrader voor wie een gtx460 wou gaan kopen, of je tikt een gtx460 op de kop voor een uitverkoopprijs.
Er zullen ook gauw genoeg 2gb uitvoeringen komen, al hoop ik wel dat die higher density gddr5 chips gebruiken, zodat een reference design watercooling blok ook gaat passen
ik denk niet dat die koelplaat iets te maken heeft met doorzakken van het pcb hoor maar ik hoop dat die vrm-heatsink-perikelen nu eindelijk voorbij zijn.
Ben ik blij dat ik nog niet gegaan ben voor de GTX460SOC, want die GTX560 SOC is me wel een traktatie.
1GHZ op de core. Ik mag toch hopen dat hij onder de 300 euro zit. Voor 50/60 euro meer heb je een GTX570 Phantom van Gainward.
En voor 150 euro minder een GTX460.
Canon: R6 | 16-35 | 70-200 II Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR
Anoniem: 263922 schreef op vrijdag 21 januari 2011 @ 02:12:
Heel mooi dat de reference gtx560 een soortgelijke koelplaat krijgt als de hogere modellen, dat maakt hem weer net wat meer premium tov de gtx460. Zal ook goed zijn voor de overclockcapaciteit van de kaart, het lijkt alsof nvidia dit zelf al heeft gezien en een voldoende capabele koeler op heeft gezet om hogere clocks het hoofd te bieden.
Feitelijk hebben ze een extra heatpipe aan het koelblok van de GTX460 toegevoegd, want de basis van het ontwerp is vrij gelijk;
GTX460;
GTX560;
Fan lijkt ook iets groter te zijn gemaakt, maarja, de TDP is natuurlijk ook weer omhoog gegaan. Al met al zal het denk ik prima werken, zeker als je je bedenk dat de EVGA GTX460 1gb FTW gewoon de stock koeler gebruikte terwijl de kaart op 850Mhz geclockt was.
tja, die external exhaust fans vind ik zelf niet echt een optie. maken meer lawaai en koelen minder door de radiale opstelling ipv axiaal.
De deadspot onder de basis van de fan (door de grootte van het motortje) vind ik wat kwalijker, daar mag echt eens wat aan gaan veranderen, want de warmte die onder die deadspot zit, wordt niet gekoeld. Misschien dat dit er gewoon wat groot uitziet op de foto, maar de fan is volgens mij gewoon hetzelfde hoor.
Canon: R6 | 16-35 | 70-200 II Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR
Wat ik me afvraag, hoe ziet nVidia dit voor zich? Kijk GPU in CPU is logisch, maar je kan toch niet je CPU aan een pci-e slot zetten? Of is dit dan weer alleen voor mobo chipsets oid?
Ik verwacht niet dat we een CPU in de GPU zullen zien eerlijk gezegd, maar andersom, een ARM CPU met een ingebouwde NVIDIA (Maxwell) GPU. Maar ik kan me vergissen natuurlijk, misschien dat NVIDIA standaard een ARM CPU inbouwt in hun GPUs hoewel ik daar het nut veel minder van inzie.
Het doel van het Denver project is (lijkt?) in ieder geval om de CPU markt in te gaan en dat betekent dus gewoon een echte CPU met ingebouwde GPU (net zoals bij Sandy Bridge en Fusion) die je gewoon direct op een mobo plaatst en die ook Windows kan draaien.
Feitelijk hebben ze een extra heatpipe aan het koelblok van de GTX460 toegevoegd, want de basis van het ontwerp is vrij gelijk;
Ik doelde op de zwarte koelplaat welke het geheugen en de VRM's koelt, deze zat nog niet op de gtx 460, maar wel op de 470 en 480 (en de 570 en 580). Toch mooi dat die koelplaat ook naar de mid-end komt, heeft zijn nut in mijn ogen dik bewezen, en hoort eigenlijk standaard thuis op goed te overclocken kaartjes.
Snoitkever schreef op vrijdag 21 januari 2011 @ 13:53:
Het doel van het Denver project is (lijkt?) in ieder geval om de CPU markt in te gaan en dat betekent dus gewoon een echte CPU met ingebouwde GPU (net zoals bij Sandy Bridge en Fusion) die je gewoon direct op een mobo plaatst en die ook Windows kan draaien.
maar dan dus wel de ARM versie van windows, want x86 kunnen ze dan niet. Met andere woorden je kan straks op zo'n nVidia systeem windows draaien maar een hele berg software draait niet omdat die niet ARM compitable is. (of ze moeten het hardwarematig gaan emuleren ofzo, of mogen ze dat niet omdat ze geen licentie hebben?)
Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████
maar dan dus wel de ARM versie van windows, want x86 kunnen ze dan niet. Met andere woorden je kan straks op zo'n nVidia systeem windows draaien maar een hele berg software draait niet omdat die niet ARM compitable is. (of ze moeten het hardwarematig gaan emuleren ofzo, of mogen ze dat niet omdat ze geen licentie hebben?)
Mogen ze inderdaad niet. Alle op hardware niveau that is, als Windows plots een emulator integreerd ..
Anyway een programma dat geen rare dingen heeft gedaan kan in principe gewoon gehercompiled worden. Bv alles geprogrammeerd met behulp van de .NET omgeving zal al geen probleem geven dus een hele berg zal het allezinds niet zijn.
Daarbij als je al (een lichte versie) office en een gewone browser + mail client kan draaien zullen de meeste mensen al tevreden zijn, je moet geen high end CPU verwachten he, eerder iets in de trend van de huidige tablet/netbooks. Dus dat enkele specialistische professionele software niet zal werken is niet echt zo'n probleem.
Daarbij vele werkomgevingen schakelen al over naar webgebaseerde applicaties + het cloud thinking van google er zijn vele toepassingen waar de gebruiker eventueel geen zware cpu meer nodig heeft ...
Anyway we moeten nog altijd de eerste ARM cpu van nVidia te zien krijgen want zo eenvoudig is het allemaal weer niet he.
Nu nog even wachten op de Asus TOP, MSI HAWK (Talon Attack), en de Gainward GS GLH.
Op het neogaf forum spreken ze over de GAINWARD: GTX560, GTX560 GS, GTX560 GLH, GTX560 PHANTOM editions....spannend.
Canon: R6 | 16-35 | 70-200 II Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR
Beter laat dan nooit. Maakt verder ook weining uit denk ik dat het iets later word, maar wel volgens de roadmap op tijd. Het is trouwens ook nog maar een gerucht.
Raar verhaal van hwi, meer chips per gpu-chip ? Meer chips uit een wafer, dus goedkoper? En ik betwijfel ten zeerste dat AMD nieuwe videokaarten in Q2 uitbrengt op 28nm...
Raar verhaal van hwi, meer chips per gpu-chip ? Meer chips uit een wafer, dus goedkoper? En ik betwijfel ten zeerste dat AMD nieuwe videokaarten in Q2 uitbrengt op 28nm...
Heb jij die kaart heel toevallig al liggen voor benchmarks?? haha
En ik moet idd ook nog zien of AMD in Q2 al zover is... Daar is ook niet alles vlekkeloos verlopen volgens mij, dus denk dat dit zeker wel Q3 gaat worden.
Punt is dat zelfs Q3 wel heel erg optimistisch is voor 28nm, ongeacht welke chipontwerper. Als TSMC zijn zaakjes niet op orde heeft, kun je wel 10 designs heensturen, maar dat levert je nog steeds geen chips op.
Eind 2011, Q4 is idd het meest logische voor de 28nm videokaarten, maar misschien komt er wel een kaart zoals de HD4770 in Q3, maar Q2 mag je idd wel vergeten.
Global Foundries is anders wel lekker bezig met zijn 28nm productie procedé ziet er naar uit dat alles op schema ligt en wellicht wat eerder komt dan ze ons willen doen geloven.
09-01-2010:
Waren waarschijnlijk ARM chips dus geen test SRAM chips. Dit is meer dan een jaar geleden.
Statement van GF zelf:
"28nm High Performance “Plus”
"GLOBALFOUNDRIES today introduced a new technology to address the growing market for smart mobile devices and high-performance processors requiring more than 2GHz of processing power. Scheduled to begin risk production in Q4 2011, the 28nm High Performance Plus (HPP) technology provides a performance boost of as much as 10% over the company’s current 28nm High Performance (HP) offering, as well as offering optional ultra-low leakage transistors and SRAMs that extend the application range from high performance into the low power range. Furthermore, a rich RF CMOS offering also is available, making this technology an ideal platform for the next generation of high-performance system-on-chip (SoC) designs with a broad addressable market ranging from low-power to high-performance devices."
Statement van TSMC in 08-24-09: "The TSMC 28nm development and ramp-up has remained on track since the announcement made in September of 2008. The 28LP process is expected to enter risk production at the end of Q1 of 2010, followed closely by the 28HP risk production at the end of Q2 and the 28HPL risk production in Q3. "
Fudzilla maakt het er niet duidelijker, alhoewel er imo geen moer van klopt:
Aangezien AMD wel degelijk ook de mogelijk openhoud om bij GF 28nm te gaan gebruiken voor GPUs. AMD heeft er namelijk alle belang bij om te zorgen dat ze bij GF intrekken. De kosten voor een extra engineering team weerhoud ze daar echt niet van.
Punt is, dat als je voor TSMC 28nm ontwikkelt, je niet opeens je chipontwerp maar even naar GF kunt sturen om hem daar maar te laten bakken. Daarnaast zit er tussen risk production en daadwerkelijke production voor product-release al gauw 3-6 maand. Al met al, of je nu GF gaat of TSMC, zal er normaalgesproken niet voor het 4e kwartaal een echte kaart normaal voorradig in de winkels liggen op 28nm.
Ik vraag me overigens 1 ding af. NVidia wilde de benaming van kaarten eenvoudiger maken en haalde de suffix weg om datzelfde suffix als prefix te gebruiken. Grootste verschil was het wegvallen van 1 cijfer. Nu komen ze weer terug met een suffix, terwijl de prefix ook nog altijd aanwezig is. Dat plan om alles eenvoudiger en transparanter te maken is blijkbaar geheel in het water gevallen.
Heeft iemand uberhaupt een logische verklaring gezien waarom ze de Ti weer van stal hebben gehaald?
Het plan om alles eenvoudiger en transparanter te maken is er volgens mijn nooit geweest en als het er wel is geweest vraag ik me af waarom ze überhaupt ooit een GT1xx en GT3xx serie hebben gelanceerd.
[Voor 11% gewijzigd door madmaxnl op 24-01-2011 22:23]
madmaxnl schreef op maandag 24 januari 2011 @ 22:23:
Het plan om alles eenvoudiger en transparanter te maken is er volgens mijn nooit geweest en als het er wel is geweest vraag ik me af waarom ze überhaupt ooit een GT1xx en GT3xx serie hebben gelanceerd.
Die is niet zo moeilijk
De GT1xx was om de boel transparanter te maken
De GT3xx om de OEMs te paaien veel chips af te nemen. Zonder die naamsverandering waren die verkopen namelijk waarschijnlijk naar AMD gegaan.
Met een GTS 455 zou je denken dat die gebaseert op een GF106 en een GTX 565 zou sneller moeten zijn dat een GTX 560 wat sowieso niet het geval is (en is geen GF114 natuurlijk). En als je GTX465 bedoelt die bestaat al en zou ook sneller moeten zijn dan een GTX460 wat ook niet het geval is.
Oftewel, het is nù al een zooitje. Gewoon rangschikken met verschillen van 5 of 10 tussen opvolgende nummers had prima gekund. Hadden ze wel even van tevoren moeten uitzoeken maar NVidia weet best welke GPU's er ongeveer op de planning staan, voor onzekerheden hou je een verschil van 10 zodat daar nog iets tussen kan.
Ik geloof niet dat het echt onmacht van NVidia is dat ze geen simpele nummertjes kunnen bedenken, dat is gewoon bewust gedaan. Ik vraag me wel af wat ze er aan hebben eigenlijk. Iemand die weet waar hij het over heeft let er toch niet op en iemand die het niet weet zal überhaupt niets in nummertjes zien.
[Voor 23% gewijzigd door bwerg op 24-01-2011 22:54]
Heeft geen speciale krachten en is daar erg boos over.
Goed, dat zou dus kunnen betekenen dat er straks ook nog een GTX560 NON-Ti uitkomt, die minder SPU's heeft en wellicht een geknepen geheugenbus/TMU-aantal heeft?
ASUS bereidt zich voor GeForce GTX 560 TI DCII grafische kaart Geplaatst door lanceren: Sagitar2009 | Geplaatst: 2011-1-25 00:53 | De vrienden van nummer: 522 | Reacties: 4 | post-modus op ASUS ENGTX560-Ti-DCII/2DI/1GD5 vliegtuigen, de Canadese Anitec site is op, ENGTX560-Ti-DCII/2DI/1GD5 aan onze catalogus toegevoegd verkoop informatie, specificaties voor de 900/1800/4200 klok, de prijs is 266,95 dollar Canadese dollar (gelijk aan ongeveer 7.800 Taiwanese Dollars)
[Voor 33% gewijzigd door Anoniem: 321370 op 25-01-2011 00:09]
Ik vind het zo knap al die fotos en variaties op de GTX580 maar het mooie is is dat ze amper tot heel slecht verkrijgbaar zijn.
Dit is geen repsonse op de 560 fotos en variaties trouwens, dit is een reactie op al die speciale varianten op de GTX580 maar de normale (vanilla) is amper verkrijgbaar.
"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."
- TS : "@ 1070MHz core / 1200MHz mem ; beat a gtx570 OCed edition. hehehe... O.O"
- TS : "I wouldn't be surprised that some lucky ones even do 1100mhz core on the stock cooler"
- User "2fast2drive" : "OMG... the OC vantage result is nearly the same as my GTX460 SLI with 800/1600/4000....."
(!) Dit stelt nu uiteraard niet echt veel voor zonder pics ... en het is nog wachten op de echte reviews (Tweakers,Anand, etc) maar something tells me dat die GTX560 Ti een mooi kaartje zal worden
(!) Dit stelt nu uiteraard niet echt veel voor zonder pics ... en het is nog wachten op de echte reviews (Tweakers,Anand, etc) maar something tells me dat die GTX560 Ti een mooi kaartje zal worden
Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.
Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.
Functioneel en analytisch
Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie.
Meer details
janee
Relevantere advertenties
Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht.
Meer details
Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.
Ingesloten content van derden
Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden.
Meer details