[Algemeen] nVidia Nieuws & Discussie Topic - Deel 41 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 ... 8 Laatste
Acties:
  • 45.115 views

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
dahakon schreef op woensdag 16 december 2009 @ 11:12:
Dit was behoorlijk anders met de HD4870X2 (bleef net binnen de 300Watt met dubbele HD4870 specs)
Een HD4870X2 bleef bij lange na niet binnen de 300 Watt (GTX295 ook niet trouwens), misschien zijn ze daar ook op gewezen en moesten ze zich daar nu wel aan houden. Dat zou ook de berichten van Fud verklaren dat ze niet binnen de 300 Watt bleven terwijl een HD5870 al zuiniger was dan een HD4870.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 20:26
Inderdaad, de 4870 X2 en de GTX 295 verbruiken inderdaad meer dan de 5970:

Hardware.info

Wat ik niet snap is dan een 5870 in crossfire ongeveer even veel verbruikt, maar een andere review pakken denk ik :P

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

Anoniem: 196662

StefanvanGelder schreef op woensdag 16 december 2009 @ 12:06:
Wat ik niet snap is dan een 5870 in crossfire ongeveer even veel verbruikt, maar een andere review pakken denk ik :P
Vermoedelijk is dat te verklaren door de extra PLX PCI-Express switch die natuurlijk ook wat verbruik voor z'n rekening neemt.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Dat het verbruik tussen een HD5970 en twee HD5870's zo klein is bij HWI, zegt meer over hun test methode dan over het echte verbruik van de videokaart.
Tijdens Furmark zit een HD5970 max zo rond de 300 Watt, erg netjes dus.
Twee HD5870's nemen echter bijna 400 Watt tijdens Furmark, een HD4870X2 overigens zo'n 375 Watt.
Dat HWI zo anders uitkomt komt waarschijnlijk omdat ze het verbruik van de hele PC meten en ook omdat ze de videokaart(en) lang niet 100% belasten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 263922

bwerg schreef op woensdag 16 december 2009 @ 11:27:
[...]


Ho eens!
GTX295:
Video Chip Snelheid 576MHz
Geheugen Snelheid 1242MHz

GTX275:
Video Chip Snelheid 633MHz
Geheugen Snelheid 1404MHz

Redelijk logisch dat 2x GTX275 in Sli sneller is dus ;) Net als bij de HD5970 nu. Ze zijn gewoon wat afgezwakt om het verbruik binnen de perken te houden. Dat is het nadeel van grotere chips voor high-end, je kan er niet meer zonder problemen meerdere van op één PCB knallen. (oke, het kan wel, en dan krijg je de Asus Mars. Dan weten we ook waarom NVidia en Ati zoiets zelf liever niet doen :P)
Die clocks kloppen dan niet, maar dan zou het ook weinig uitmaken t.o.v van de gtx260 216c, dat is dan mijn fout, had geen zin om het na te checken :P

De asus MARS was nog gebaseerd op de dual pcb gtx295, vandaar dat deze zo warm werd, de single pcb was stukken koeler, vandaar dat op een single pcb wel twee gtx285 chips hadden kunnen zitten, er is zelfs een enkele fabrikant die nog zo'n kaart uit wilde brengen, dus de mogelijkheid was er wel.

Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 20:26
-The_Mask- schreef op woensdag 16 december 2009 @ 14:52:
Dat het verbruik tussen een HD5970 en twee HD5870's zo klein is bij HWI, zegt meer over hun test methode dan over het echte verbruik van de videokaart.
Tijdens Furmark zit een HD5970 max zo rond de 300 Watt, erg netjes dus.
Twee HD5870's nemen echter bijna 400 Watt tijdens Furmark, een HD4870X2 overigens zo'n 375 Watt.
Dat HWI zo anders uitkomt komt waarschijnlijk omdat ze het verbruik van de hele PC meten en ook omdat ze de videokaart(en) lang niet 100% belasten.
Maar het geeft wel de verhoudingen weer lijkt me...

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Wat geeft goed de verhoudingen weer? Dat van HWI? Niet echt hè. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
-The_Mask- schreef op woensdag 16 december 2009 @ 14:52:
Dat het verbruik tussen een HD5970 en twee HD5870's zo klein is bij HWI, zegt meer over hun test methode dan over het echte verbruik van de videokaart.
Tijdens Furmark zit een HD5970 max zo rond de 300 Watt, erg netjes dus.
Twee HD5870's nemen echter bijna 400 Watt tijdens Furmark, een HD4870X2 overigens zo'n 375 Watt.
Dat HWI zo anders uitkomt komt waarschijnlijk omdat ze het verbruik van de hele PC meten en ook omdat ze de videokaart(en) lang niet 100% belasten.
Dit is denk ik betrouwbaarder:

Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/EAH5970/images/power_idle.gif Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/EAH5970/images/power_average.gif

Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/EAH5970/images/power_peak.gif Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/EAH5970/images/power_maximum.gif

En deze laat ook wel een mooi beeld zien:

http://www.computerbase.d...schnitt_leistungsaufnahme

En niet te vergeten Xbit:

Afbeeldingslocatie: http://www.xbitlabs.com/images/video/radeon-hd5970/5970_power.png Afbeeldingslocatie: http://www.xbitlabs.com/images/video/radeon-hd5970/5970_fur.png

[ Voor 19% gewijzigd door Astennu op 17-12-2009 09:54 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • udybees
  • Registratie: Juni 2007
  • Laatst online: 07-11-2024

http://www.pcworld.com/ar...nificant_nvidia_says.html

[ Voor 39% gewijzigd door udybees op 17-12-2009 12:33 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Zou ik ook zeggen als ik nVidia was. Dat zijden ze eerst ook van DX10.1. Als dat zo nutteloos is en niet nodig. Waarom dan toch nog chips met DX10.1 uitbrengen ? Juist omdat het wel nuttig is. En omdat klanten en oems je er op afrekenen. Maar omdat ze het nog niet hadden lul verhalen op lopen hangen en DX10.1 boycotten. DX10.1 patches terug laten draaien en dat soort praktijken.

En nu dit weer...... Beetje jammer. Ik hoop dat ze ooit wat sportiever worden. Ik had meer verwacht/gehoopt. Je kunt ook een keer erkennen dat je tegenstander in iets beter is geweest. Of houd helemaal je mond dicht. Mja dit zal het wel beter doen bij de aandeelhouders...

[ Voor 10% gewijzigd door Astennu op 17-12-2009 13:10 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 06-06 19:26
Astennu schreef op donderdag 17 december 2009 @ 13:08:
[...]


Zou ik ook zeggen als ik nVidia was.
Ik ook, omdat het ook niet erg onlogisch is om te zeggen in hun situatie. Leuk dat je nu een kaart kunt kopen die DX11 ondersteunt, heb ik ook gedaan, maar relevant is DX11 nog allesbehalve (OK, Dirt 2 ondersteunt het) dus ze kunnen dit wel roepen. DX10.1 hetzelfde verhaal, veel heeft het nooit voorgesteld door al die consoleports die gewoon DX9 zijn...
Ik vind het wel logisch dat ze dit in hun situatie aanhalen om hun achterstand goed te praten.
Patches uitbrengen om DX10.1 te saboteren is idd wel erg onsportief.

anathema


  • Sinester
  • Registratie: Januari 2006
  • Laatst online: 21-05 12:55

Sinester

Game Guru

anathema schreef op donderdag 17 december 2009 @ 15:38:
[...]

Ik ook, omdat het ook niet erg onlogisch is om te zeggen in hun situatie. Leuk dat je nu een kaart kunt kopen die DX11 ondersteunt, heb ik ook gedaan, maar relevant is DX11 nog allesbehalve (OK, Dirt 2 ondersteunt het) dus ze kunnen dit wel roepen. DX10.1 hetzelfde verhaal, veel heeft het nooit voorgesteld door al die consoleports die gewoon DX9 zijn...
Ik vind het wel logisch dat ze dit in hun situatie aanhalen om hun achterstand goed te praten.
Patches uitbrengen om DX10.1 te saboteren is idd wel erg onsportief.
Maar als ze zelf DX11 hadden gehad en ATI niet, dan zouden ze nu DX11 de hemel in prijzen.
Dat ze dit roepen heeft imo ook niks te maken met het feit dat er nog weinig DX11 games zijn, en heeft alles te maken dat ze het zelf nog niet hebben.

Hello there


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

En daarbij extreem hard roepen dat de concurrent het niet heeft. Het is marketing. Wat kunnen ze anders? Alleen er is 1 ding, hoe meer ze het doen... hoe ongeloofwaardiger het wordt.

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 06-06 19:26
Sinester schreef op donderdag 17 december 2009 @ 16:09:
[...]

Maar als ze zelf DX11 hadden gehad en ATI niet, dan zouden ze nu DX11 de hemel in prijzen.
Dat ze dit roepen heeft imo ook niks te maken met het feit dat er nog weinig DX11 games zijn, en heeft alles te maken dat ze het zelf nog niet hebben.
Klopt, maar het is niet helemaal onterecht dat ze dat argument gebruiken omdat er nou eenmaal niet veel DX11 games zijn. Dus dan ga je uiteraard van je eigen situatie uit. ATI had nu ook vast niet met DX11 geadverteerd als ze het niet hadden ;)

anathema


  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Jejking schreef op donderdag 17 december 2009 @ 16:23:
En daarbij extreem hard roepen dat de concurrent het niet heeft. Het is marketing. Wat kunnen ze anders? Alleen er is 1 ding, hoe meer ze het doen... hoe ongeloofwaardiger het wordt.
Het kan wel ongeloofwaardig zijn maar kan je ermee zitten? Het zijn allemaal praatjes waar je voorbij moet kijken. Als Nvidia straks met een kick ass kaart komt voor een betaalbare prijs(betwijfel het). Ga je niet terug denken aan die praatjes lijkt mij.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • Meekoh
  • Registratie: April 2005
  • Laatst online: 06-06 11:42
anathema schreef op donderdag 17 december 2009 @ 16:25:
[...]

Klopt, maar het is niet helemaal onterecht dat ze dat argument gebruiken omdat er nou eenmaal niet veel DX11 games zijn. Dus dan ga je uiteraard van je eigen situatie uit. ATI had nu ook vast niet met DX11 geadverteerd als ze het niet hadden ;)
DX11 games zijn niet vereist om een aantal van de voordelen van DX11 te kunnen gebruiken ;)

Computer says no


  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
Xenomorphh schreef op donderdag 17 december 2009 @ 16:26:
[...]


Het kan wel ongeloofwaardig zijn maar kan je ermee zitten? Het zijn allemaal praatjes waar je voorbij moet kijken. Als Nvidia straks met een kick ass kaart komt voor een betaalbare prijs(betwijfel het). Ga je niet terug denken aan die praatjes lijkt mij.
Die kaarten kunnen volgens mij gewoon niet goedkoop worden, ze zijn veelste complex en de yields zijn waarschijnlijk te laag.. Die kan nVidia denk ik niet echt goedkoop verkopen, zonder verlies.

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 20:30
Moshe85 schreef op donderdag 17 december 2009 @ 16:38:
[...]

DX11 games zijn niet vereist om een aantal van de voordelen van DX11 te kunnen gebruiken ;)
Geef eens een aantal voorbeelden dan?

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Als ik me niet vergis tessellation, wat ook in oudere games gebruikt kan worden.

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 20:30
Nee, dit kan alleen met een aanpassing van de engine naar DX11.......

Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 06-06 11:42
mdcobra schreef op donderdag 17 december 2009 @ 19:57:
[...]


Geef eens een aantal voorbeelden dan?
- Multi Threading support. De D3D11 API is nu zelf ook multi threaded. Hier zouden mensen met een DX9/10 kaart ook voordeel van moeten hebben.
- Compute Shaders. Deze zijn ook beschikbaar voor programmeurs op DX10 hardware. (Game moet hier wel voor geschreven zijn)

Een aantal van de nieuwe DX11 features uit Dirt 2 kunnen ook eigenlijk op DX10 hardware. Aangezien voor deze features de Compute shaders worden gebruikt. Maar dit zal wel in code op dx11 only gezet zijn.

En mocht je Win7 gebruiken met DX10 hardware, dan heb je een lager memory verbruik.
Maar dat komt meer door WDDM1.1 dan door DX11

edit:
@Spnk
Tesselation is inderdaad DX11 Hardware only!

[ Voor 6% gewijzigd door Meekoh op 18-12-2009 08:17 ]

Computer says no


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Moshe85 schreef op vrijdag 18 december 2009 @ 08:16:
[...]

- Multi Threading support. De D3D11 API is nu zelf ook multi threaded. Hier zouden mensen met een DX9/10 kaart ook voordeel van moeten hebben.
- Compute Shaders. Deze zijn ook beschikbaar voor programmeurs op DX10 hardware. (Game moet hier wel voor geschreven zijn)
Bij multi-threading support geldt net als bij Compute Shaders dat de game er wel voor geschreven moet zijn. De 3D engine moet namelijk volledig multithreaded zijn en dat vereist dat een game eigenlijk vanaf de basis voor DX11 geschreven moet zijn. En ja, mensen met een DX9/DX10 kaart die Vista of 7 draaien met DX11 hebben er dan ook voordeel bij, maar dat is verder dus weinig videokaart afhankelijk.

ComputeShaders zijn dan wel beschikbaar op DX10 (CS4.0) en DX10.1 (CS4.1) hardware, maar je zult wel begrijpen dat dit minder mogelijkheden heeft dan DX11 (CS5.0).
Een aantal van de nieuwe DX11 features uit Dirt 2 kunnen ook eigenlijk op DX10 hardware. Aangezien voor deze features de Compute shaders worden gebruikt. Maar dit zal wel in code op dx11 only gezet zijn.
Dirt 2 is DX9 of DX11. Dus je zou inderdaad kunnen zeggen dat het in code alleen op DX11 only gezet. Maar van wat ik gehoord heb zijn de ComputeShaders van DX10 en DX10.1 niet voldoende toereikend om de postprocessing effecten op goede snelheid te berekenen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
anathema schreef op donderdag 17 december 2009 @ 15:38:
[...]

Ik ook, omdat het ook niet erg onlogisch is om te zeggen in hun situatie. Leuk dat je nu een kaart kunt kopen die DX11 ondersteunt, heb ik ook gedaan, maar relevant is DX11 nog allesbehalve (OK, Dirt 2 ondersteunt het) dus ze kunnen dit wel roepen. DX10.1 hetzelfde verhaal, veel heeft het nooit voorgesteld door al die consoleports die gewoon DX9 zijn...
Ik vind het wel logisch dat ze dit in hun situatie aanhalen om hun achterstand goed te praten.
Patches uitbrengen om DX10.1 te saboteren is idd wel erg onsportief.
Er is meer dan alleen Dirt 2 zoals Stalker en binnenkort ook AVP. En Battlefordge heeft ook al een upgrade gehad naar DX11. Daar kreeg je een leuke speed boost.

Maar in die AVP game wordt BV best wat Tesselation toegepast. Ik kan niet wachten op die game. (vond de oude AVP games al nice en leuk om te spelen).

En natuurlijk is DX11 pas net uit. Als je het vergelijk met DX9 en DX10. Daar duurde het meer dan een half jaar duurde voordat er games waren die de hardware konden gebruiken. Ik vind het met DX11 snel gegaan in vergelijking tot voorgaande versies.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Nu het goede topic:

Tesla S2050 Release date is Q2 2010, S2070 is Q3 2010. Pre-Orders voor Fermi moeten betaald worden voor 31 Mei 2010 of 31 July 2010 afhankelijk van het model.

Vraag aan CJ, Komt Tesla nog steeds voor GeForce?

http://www.nvidia.com/object/mad_science_promo.html

[ Voor 15% gewijzigd door neliz op 20-12-2009 22:32 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Zo die core clock ligt wel erg hoog? Een flink eind boven de 1 Ghz.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Idd hoe wil je ooit hoge yields gaan halen...

Edit: Stom 8)7 :P

[ Voor 19% gewijzigd door -The_Mask- op 21-12-2009 21:48 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Da's niet de enige Fermi. Fermi heeft maximaal 512 shaders.

Edit: Over die kloksnelheid.... Ze hebben het over "Processor Cores" als ze het over de shaders/streamprocessors hebben. Die draaien dus op die snelheid... het staat er zelf... "Processor Core Clock".... dat wil niet zeggen dat de "echte" core (inclusief ROPs en Texture units) op die snelheid draait... Niks nieuws dus ten opzichte van de G80, GT200 architectuur...

[ Voor 75% gewijzigd door CJ op 21-12-2009 21:23 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 318799

Beetje vreemd dat er staat; "Tesla C2050 and C2070"

Je zou verwachten dat alleen C2050 uitgeschakelde shaders heeft. De C2070 komt later uit, dan mag je toch wat meer verwachten dan 448 shaders? of ze hebben heel veel twijfels over de "long term" yield.

Overigens vind ik de combinatie board power, spanning en hoeveelheid shader cores alles behalve geruststellend. Stel dat de uiteindelijke Geforce wél 512 shaders hebben, dan zal de 225W ook wat hoger uitvallen, laat staan hogere clocks/spanning. Volgens mij is 225W voor single chip al abnormaal hoog.

[ Voor 36% gewijzigd door Anoniem: 318799 op 21-12-2009 21:46 ]


Acties:
  • 0 Henk 'm!

Anoniem: 58485

Xenomorphh schreef op maandag 21 december 2009 @ 21:09:
Zo die core clock ligt wel erg hoog? Een flink eind boven de 1 Ghz.
Dat zijn inderdaad shader-snelheden, en niet core-snelheden zelf.

Knap staaltje marketing-techniek waarbij hoe hoger het aantal GHz hoe beter weer is.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Anoniem: 58485 schreef op maandag 21 december 2009 @ 21:41:
[...]


Dat zijn inderdaad shader-snelheden, en niet core-snelheden zelf.

Knap staaltje marketing-techniek waarbij hoe hoger het aantal GHz hoe beter weer is.
Nja in dit geval geef ik ze ook wel een beetje gelijk. Want dit is de Tesla serie die voor GPGPU is. En daar spelen de Shader units de belangrijkste rol. Die Main Core clock is dan gewoon minder belangrijk. Bij games is die in verhouding tot GPGPU belangrijker.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
Astennu schreef op maandag 21 december 2009 @ 22:25:
[...]


Nja in dit geval geef ik ze ook wel een beetje gelijk. Want dit is de Tesla serie die voor GPGPU is. En daar spelen de Shader units de belangrijkste rol. Die Main Core clock is dan gewoon minder belangrijk. Bij games is die in verhouding tot GPGPU belangrijker.
Ik vind het toch echt lijken op de Core clock hoor... Processor core clock..

[ Voor 12% gewijzigd door M4gick op 21-12-2009 22:32 ]


Acties:
  • 0 Henk 'm!

Anoniem: 58485

Ik vind het ook een beetje onzin om een chip te verkopen als '448 cores tellende GPU'.

Er zijn geen 448 cores aanwezig, maar eerder shader-cores. Dat is nog steeds wat anders dan een chip met echte 448 cores erop gebakken (denk aan een X2 of X4).

Natuurlijk is een groot deel stunned bij het lezen van '448 cores' en 1.25GHz per core etc, maar het is een beetje oneerlijke marketing als je het mij vraagt.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

CJ schreef op maandag 21 december 2009 @ 21:20:
Da's niet de enige Fermi. Fermi heeft maximaal 512 shaders.

Edit: Over die kloksnelheid.... Ze hebben het over "Processor Cores" als ze het over de shaders/streamprocessors hebben. Die draaien dus op die snelheid... het staat er zelf... "Processor Core Clock".... dat wil niet zeggen dat de "echte" core (inclusief ROPs en Texture units) op die snelheid draait... Niks nieuws dus ten opzichte van de G80, GT200 architectuur...
Maar was het niet zo dan Nvidia hun Shaders CUDA cores ging noemen.. Als ze het dan over processor CORE hebben denk ik toch echt aan de gewone core en niet de shaders..

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 15-11-2024
Alsof nVidia out of the blue een 1.4GHz 'echte' core speeds tevoorschijn kan toveren. Zomaar eventjes 2x hoger dan wat ze ooit gedaan hebben.

Komaan mensen, niet van marketingsaus proeven. :)

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Ze hanteren deze benaming processor core clock al een tijdje op hun site bij de technische details ...
Blijkbaar wil men er al lang de nadruk op leggen dat hun shaders bij GPGPU bekeken worden als aparte cores.
Hoewel je in mijn ogen waarschijnlijk deze CUDA cores beter gaat bekijken in aantal blokken bij Fermi. Daar elke block dedicated L1 cache krijgt van 16kb tot 48 kb (vrij in te stellen). Dus als ik het vergelijk met een intel CPU met de HT technologie waar de applicaties 8 cores zijn ipv de 4 fysieke core, zou een applicatie bij een Fermi GPu totaan 16 blokken van 32 CUDA cores beschikken met hun eigen L1 cache. Nu deze blokken draaien natuurlijk gewoon op dezelfde snelheid dan 1 enkele CUDA core dus zoveel maakt het niet uit.

En inderdaad voor mij is het ook steeds vloeken daar ik dan ook weer eens goed moet opletten dat ik de core clock niet verwissel met de shader clocks (die gelukkig vaak wel hoger ligger en dus imo logischerwijze meestal veel te hoog zijn voor de core clock) Want om het helemaal leuk te maken staat soms de core clock gewoon weg niet vermeld :/

PS een beetje verder lees ik gewoonweg:
Processor clock: 1.25 GHz to 1.4 GHz geen core meer in de naamgeving
Memory clock: 1.8 GHz to 2.0 GHz Ook wel best intressant dat de snelheid van het GDDR5 geheugen blijkbaar vast ligt voor de Tesla T20, dit in samenwerking met een 384 geheugenbandbreedte

Specs


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
lightdestroyer schreef op maandag 21 december 2009 @ 23:26:
Memory clock: 1.8 GHz to 2.0 GHz Ook wel best intressant dat de snelheid van het GDDR5 geheugen blijkbaar vast ligt voor de Tesla T20, dit in samenwerking met een 384 geheugenbandbreedte
En ook best bijzonder als je bedenkt dat Hynix pas in de tweede helft van 2010 1,75GHz GDDR5 in productie gaat brengen.
Dan vraag ik mij af wat voor geheugen ze er wel niet willen op drukken.

[ Voor 7% gewijzigd door -The_Mask- op 21-12-2009 23:34 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
-The_Mask- schreef op maandag 21 december 2009 @ 23:33:
[...]

En ook best bijzonder als je bedenkt dat Hynix pas in de tweede helft van 2010 1,75GHz GDDR5 in productie gaat brengen.
Dan vraag ik mij af wat voor geheugen ze er wel niet willen op drukken.
Het enige wat ik daarop kan antwoorden is het volgende:

Technische specificaties GT240:
1700 MHz GDDR5, 1000MHz (G)DDR3, 900MHz DDR3

maw ... dat je bij nVidia hun GDDR5 geheugen geen *4 moet doen (maar wel *2 bij hun (G)DDR2/GDDR3 geheugensnelheden, om het lekker 1-duidig en eenvoudig voor hun consumenten te maken XD)
Imo ben je dus beter of met (G)DDR3 geheugen op je GT240 dan GDDR5 buiten dat deze laatste wss zuiniger/koeler/ mss goedkoper is.
Misschien wouden ze dit verhullen door het op deze wijze te formuleren?

Wat er vooral opduid dat de GT240 als een (enorm uitgestelde) testkaart mag beschouwd worden zoals de 4770( welke wel als een succes beschouwd mag worden en tevens wel ruim op tijd gelanceerd kon worden)

*Edit* Bij nVidia moet je ook gewoon hun GDDR5 snelheden verdubbelen en dat is het.. --> 54.4 GB/s is voor het GDDR5 geheugen ... indien je GDDR3 gebruikt bij de GT240 heb je maar 32GB/s maximaal.

(Dit verklaart *edit* dus niet ook waarom de Fermi kaart geen 256/512-bit geheugenbus is maar een 384-bit gebruikt ( gelijk de 8800GTX :9 ).Maar dat wil dan wel zeggend dat de Tesla T20 stukken minder memory bandwith zal hebben dan de huidige GTX285 bv.
Aan de andere kant een Tesla kaart zal deze misschien minder hard nodig hebben dan een GeForce kaart?

De totale geheugen bandbreedte zal dus tegenover een GTX285 anderhalf keer zo groot zijn.
Bij 258 bit ging het gelijk gebleven zijn (en dus waarschijnlijk te weinig ?) en misschien was 512-bit weer een te duur pcb ? :X :X

[ Voor 13% gewijzigd door lightdestroyer op 22-12-2009 00:15 . Reden: Correctie van foute intpretatie van de GT240 data :x ]

Specs


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Het lijkt er volgens de specs uit lightdestroyers post dus op, dat de Tesla's eerst met (G)DDR3 geheugen worden uitgebracht, aangezien het me heel erg stug lijkt dat ze GDDR5 op 450-500MHz gaan klokken. De vraag zou dan nog zijn waarom ze dit doen (tenzij er nog steeds onoverkomelijke problemen zijn met de GDDR5 controller en er dus moet worden gewacht op voldoende 1700MHz GDDR5.).

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Er stond duidelijk in de pdf dat het 1700Mhz GDDR5 was dus geen GDDR3.
Welke in feite dus op 850 Mhz zal werken (3400 Mhz in totaal .. en blijkbaar deelt iedereen die snelheid door 4 ?)
quote: wikipedia
Unlike its predecessors, it (GDDR5) has two parallel DQ links which provide doubled I/O throughput when compared to GDDR4
Dusja vroeger was het steeds gedeeld door 2 (DDR) en nu vermoed ik met die 2 parallelle links verdubbeld men nog eens de bandbreedte? ==> Delen door 4 om de actuele snelheid op welke de geheugenchips werken te bekomen.

*Edit* Spijtig genoeg vermenigvuldigd nVidia de snelheid waarmee de geheugenchips werken al met 2, vermoedelijk om aan te duiden dat GDDR5 sneller werkt dan GDDR3 (je weet wel .. hoe hoger het getalletje hoe beter :p)
In principe kan je ze gelijk geven ... de chips gaan door die parallelle links twee keer zo snel werken maar twas voor mij nogal verwarrend. Je Moet nog steeds de snelheid verdubbelen omdat het DDR geheugen is maar de verdubbeling omdat het GDDR5 is doen ze wel al voor jouw .. (voordeel oude berekeningswijze om geheugen bandwith the berekenen bleef werken waardoor mijn TS correct bleek te zijn :D )
Conclusie: nVidia hun Mhz notatie moet je nog verdubbelen om de geheugenbandbreedte te berekenen en moet je delen door 2 indien je de snelheid van de geheugenchips wil weten.
Allé ik hoop dus echt dat ik deze keer het goed begrepen heb ...
quote: wikipedia
On May 10, 2008, Qimonda announced volume production of 512 Mib GDDR5 modules rated at 3.6 Gbit/s (900 MHz), 4.0 Gbit/s (1 GHz), and 4.5 Gbit/s (1.125 GHz).[3].
Maw de snelheid komt dus redelijk dicht bij die Qimonda modules (ietsje hoger gerate dan wat er daadwerkelijk gevraagd zal van worden, lijkt logisch ivm warmte .. mijn 9800GT geheugen chips zijn ook 100MHz hoger gerate (lekker handig voor je OC).

Mijn excuses voor voorgaande post. Ik was toen blijkbaar echt niet meer goed aan het opletten en had daardoor totaal de verkeerde conclusies getrokken ;(

Nu als die informatie op de technische spec pdf blijkt te kloppen en de core schaalt liniair (of beter ? :P ) mee met de geheugenbandbreedte dan hebben we een gpu vast die 1.5 keer zo snel zal zijn als een GTX285 :o

[ Voor 24% gewijzigd door lightdestroyer op 22-12-2009 10:08 ]

Specs


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 06-06 16:09
850Mhz GDDR5? Ik dacht dat ze megasnel GDDR5 nodig had voordat de geheugencontroller het zou slikken, maar dit euvel lijkt dus opgelost want dit is bepaald geen snel GDDR5..

@lightdestroyer:
Net zoals bij (G)DDR(3) is het bij GDDR5 gebruikelijk om onderscheid te maken tussen 2 snelheden:
- De kloksnelheden waar de geheugenchips daadwerkelijk op draaien (850Mhz dus in dit geval).
- De effectieve bandbreedte die dit oplevert. In het geval van (G)DDR(3) was dit altijd de kloksnelheid maal 2, in het geval van GDDR5 is dit de kloksnelheid maal 4.

Waarom NV ineens de 'kloksnelheid' gebruikt die daar precies tussenin ligt weet ik niet. Ze zijn in mijn ervaring de eerste die dit zo doen en ik kan enkel marketingtechnische redenen bedenken (maar als je het zo bekijkt is het weer onlogisch om niet de effectieve bandbreedte te gebruiken want die is dus 2x zo hoog, misschien zodat ze nu kunnen zeggen dat het niet te vergelijken is met Ati's getallen? Want die liggen effectief gezien toch echt wat hoger, afgezien van de geheugenbusbreedte).

Kan iemand anders dan mijzelf misschien vertellen of er een relatie is tussen package size en die size?
Want met 42,5x42,5mm package size kom ik op 1806,25mm2 package size, een getal dat mij zelfs voor NV begrippen er groot lijkt voor de die size :+

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

de die zelf zit op een package.. dus: die < package in dit geval 24x24 < 42x42

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
lightdestroyer schreef op dinsdag 22 december 2009 @ 10:00:
Er stond duidelijk in de pdf dat het 1700Mhz GDDR5 was dus geen GDDR3.
Welke in feite dus op 850 Mhz zal werken (3400 Mhz in totaal .. en blijkbaar deelt iedereen die snelheid door 4 ?)

[...]

Dusja vroeger was het steeds gedeeld door 2 (DDR) en nu vermoed ik met die 2 parallelle links verdubbeld men nog eens de bandbreedte? ==> Delen door 4 om de actuele snelheid op welke de geheugenchips werken te bekomen.
Dit slaat echt nergens op doe dan tenminste nog de effectieve snelheid (ook al slaat die kant nog wal*), maar iets er tussen in gaat gewoon nergens meer over. 8)7

* 900MHz GDDR5 mag dan wel de bandbreedte halen van 3600MHz SD-RAM, het blijft gewoon 900MHz :P

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Volledig mee eens. Zoals ik al eerder aanhaalde is het waarschijnlijk gedaan om dat het dan "duidelijk" te vergelijken is met de GDDR3 snelheden.
900Mhz GDDR5 tegenover 1000Mhz GDDR3 ... een leek zou denken dat GDDR3 sneller zou zijn ...
In Feite zouden ze de uiteindelijke snelheid moeten opgeven maar dat heeft tot nu toe nVidia nooit gedaan waardoor ze nu marketing technisch in een moeilijk parket zitten?
En dus maar hoppa het getalletje tussen in ... wel de verdubbeling voor de dubbele linken maar niet de verdubbeling die gemeenschappelijk is voor alle DDR geheugens, die ze vroeger ook niet doorrekende -___-

Anyway:
On topic het is dus 900Mhz tot 1000Mhz GDDR5 geheugen dat ze gaan gebruiken en das eigenlijk het belangrijkste ;):

Memory clock: 1.8 GHz to 2.0 GHz
quote: pdf bestand op nvidia site, gevonden door Neliz
Interface: 384-bit
● Tesla C2050
― 3 GB
― 24 pieces 32M × 32 GDDR5 136-pin BGA, SDRAM
● Tesla C2070
― 6GB
― 24 pieces 64M × 32 GDDR5 136-pin BGA, SDRAM
Buiten dat zou Samsung moeten afkomen met een stuk sneller GDDR5 geheugen rond het tijdstip dat Fermi gelanceerd zal worden .. dus een eventuele snellere versie (hogere core clocks, door een betere yield na een tijdje en hoger geheugen clocks) zit er vermoedelijk aan te komen. Maw ik verwacht niet dat de eerste Fermi direct de snelste uit de GT3xx generatie zal zijn.
Dit in tegenstelling met de 8800GTX generatie (als we effen de ultra buiten beschouwing houden)
Ofwel zal nVidia dan die snellere kaarten direct in een GT4xx naamgeving plaatsen, das ook goed mogelijk tegenwoordig :/


[Speculatie-modus]
En het probleem met lager geklokte GDDR5 geheugen, zou dat vooral niet een probleem geweest zijn wanneer de kaart gaat terugklokken in 2D modus? Ati heeft hiermee in het begin ook een paar kleine probleempjes meegehad.
[/speculatie-modus]

Overigens ik zie nog maar 1 reactie over het verbruik van die Tesla kaart, nml totaan 225Watt.. Hoe gaan ze in godsnaam met zo'n verbruik 2 gpu's sandwichen tot 1 SLi-kaart :?
Als Ati deze keer zich al veel strikter moest houden om niet boven de maximaal officiele toegelaten 300Watt te gaan ..
Dus hopelijk voor nVidia is dat verbruik veel te ruim genomen want anders mag hun extra core maar 75 watt meer gaan verbruiken :>

Specs


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Over de verkeerde notatie van de kloksnelheden: ach ja, het is sowieso een versimpeling. Dat is van een PR-afdeling te verwachten, die zijn er echt niet op uit om een technisch kloppend verhaal te maken en dat doen alle PR-afdelingen dus wat boeit het.

De slogan "een miljoen moleculen bescherming" van Rexona slaat toch ook nergens op. :P het zij zo.
Overigens ik zie nog maar 1 reactie over het verbruik van die Tesla kaart, nml totaan 225Watt.. Hoe gaan ze in godsnaam met zo'n verbruik 2 gpu's sandwichen tot 1 SLi-kaart
De GTX275 had ook een TDP van 216W en daar hebben ze (ongeveer) een GTX295 van gemaakt. Dat had met de GTX285 niet gekund, en ook niet op de gewone snelheden van de GTX275, dus ze zullen nu ook wel een sterk 'afgezwakte' chip gaan gebruiken. Al kom je dan weer niet veel verder dan je snelste single-GPU graka dus of die sneller gaat worden dan de HD5970 valt nog te bezien. Misschien komen ze wel weer ongeveer gelijk uit zoals bij de HD4870x2 en GTX295, waarom niet eigenlijk.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 05-06 21:32
Charlie zegt er natuurlijk ook het zijne van:

Nvidia castrates Fermi to 448SPs

Unmanufacturable, hot and slow

by Charlie Demerjian

December 21, 2009

IT LOOKS LIKE we were right about Fermi being too big, too hot, and too late, Nvidia just castrated it to 448SPs. Even at that, it is a 225 Watt part, slipping into the future.

The main point is from an Nvidia PDF first found here. On page 6, there are some interesting specs, 448 stream processors (SPs), not 512, 1.40GHz, slower than the G200's 1.476GHz, and the big 6GB GDDR5 variant is delayed until 2H 2010. To be charitable, the last one isn't Nvidia's fault, it needs 64x32GDDR5 to make it work, and that isn't coming until 2H 2010 now.

Afbeeldingslocatie: http://www.semiaccurate.com/static/uploads/2009/12_december/NV_Fermi_castration_PDF.png

Fermi - Now less than promised

The rest however is Nvidia's fault. It designed a chip that was more or less unmanufacturable, and we have been saying as much for more than six months now. It is big, 530mm^2 at the minimum, likely 10+mm^2 more, and way too hot. The 448 SP version is listed at 225W TDP, 190W 'typical', and that is with 14 of the 16 shader clusters clusters fused off. With them on, it would likely be well above 250W, far too hot for a single GPU card.

Then there is the whole problem of 512 SPs promised versus 448 SPs delivered. Fermi is arranged as 16 clusters of 32 shaders, and given that it is turning off 64 shaders, it looks like the minimum granularity it can fuse off is a single cluster of 32. This means it is having problems getting less than two unrecoverable errors per die, not a good sign.

Before you wonder if Nvidia is doing this on purpose, the Fermi based Tesla boards cost $2,499 and $3,999 for the small and large ones respectively. If there was ever a case to cherry pick the good parts, it is for low volume halo parts that sell for about 10 times what a gamer card goes for. Nvidia can not get enough yields for the cream of the crop, so how do you think the mainstream will fare? Look for a green spray-painted X800XTX-PE to not grace shelves before this is all said and done.

The architecture is broken, badly designed, and badly thought out. Nvidia does not understand the basics of modern semiconductor design, and is architecting its chips based on ego, not science. The era of massive GPUs is long over, but Nvidia (mis-)management doesn't seem to want to move their egos out of the way and do the right thing. Now the company is left with a flagship part it can't make.

If Nvidia has a saving grace, it is the upcoming 28nm process node from TSMC, but that is for all intents a 2011 process for any sort of volume. Given that ATI tends to beat Nvidia to any new process node, and does it better, that makes it likely that this "light at the end of the tunnel" will be ATI's Northern Islands chips running over it, rather than anything that fixes Nvidia's problems.

Unless Nvidia has a radical new part waiting in the wings for Q2, it really doesn't have much of a chance to win much of anything. Fermi based cards may beat Cypress by a little, but at a hugely higher TDP and a much higher cost. Architecturally speaking, this generation is basically lost, press stunts aside.

If you are waiting to see the fallout of such architectural snafus, look no further. 448 SPs at 225W TDP, massive yield problems from day 1, and an end result that will be barely manufacturable. Look for more backpedaling soon, count on it.S|A

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

whiteguy schreef op dinsdag 22 december 2009 @ 13:20:
Charlie zegt er natuurlijk ook het zijne van:
The era of massive GPUs is long over, but Nvidia (mis-)management doesn't seem to want to move their egos out of the way and do the right thing.
Dat vind ik toch wel een gevaarlijke zin. Omdat ATI voor de strategy van small die's gaat is de tijd van grote GPU's voorbij.. Dan kan iemand anders ook zeggen dat de tijd van kleine die's voorbij is omdat Nvidia grote maakt. Hun kiezen gewoon allebei een een strategie, die van ATI werkt beter dan die van Nvidia.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • BitchCrew
  • Registratie: Juni 2006
  • Laatst online: 23-05 21:57
Xenomorphh schreef op dinsdag 22 december 2009 @ 13:29:
[...]


Dat vind ik toch wel een gevaarlijke zin. Omdat ATI voor de strategy van small die's gaat is de tijd van grote GPU's voorbij.. Dan kan iemand anders ook zeggen dat de tijd van kleine die's voorbij is omdat Nvidia grote maakt. Hun kiezen gewoon allebei een een strategie, die van ATI werkt beter dan die van Nvidia.
Wel , tis eerder dat Ati heeft laten zien dat die grote kaarten niet persee nodig zijn dat het voorbij is :)
Waarom zou je een nVidia kaart kopen die groot, heet, veel verbruikt terwijl Ati hetzelfde biedt kleiner, minder warm, minder verbruik. ( niet dat ati kleine kaartjes heeft :) )

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

lightdestroyer schreef op dinsdag 22 december 2009 @ 12:49:
Overigens ik zie nog maar 1 reactie over het verbruik van die Tesla kaart, nml totaan 225Watt.. Hoe gaan ze in godsnaam met zo'n verbruik 2 gpu's sandwichen tot 1 SLi-kaart :?
Als Ati deze keer zich al veel strikter moest houden om niet boven de maximaal officiele toegelaten 300Watt te gaan ..
Dus hopelijk voor nVidia is dat verbruik veel te ruim genomen want anders mag hun extra core maar 75 watt meer gaan verbruiken :>
Wat dacht je van niet? Een lagergeklokte versie of een gecastreerde keer x2 zijn de enige opties die ze hebben maar van een originele Fermi x2 lijkt me geen sprake meer.

Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 20:07
Die 225 watt kan ook gewoon betekenen dat de PCB is uitgerust met 2 x 6 pins PCIe powerconnectors
PCIe slot = max 75 Watt
PCIe slot + 6pins = max 150 Watt
PCIe slot + 2 x 6pins = max 225 Watt
PCIe slot + 6pins + 8pins = max 300 Watt

Je kan dus ook zeggen dat Fermi minimaal 150 Watt nodig heeft

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Blastpe schreef op dinsdag 22 december 2009 @ 14:22:
Die 225 watt kan ook gewoon betekenen dat de PCB is uitgerust met 2 x 6 pins PCIe powerconnectors
PCIe slot = max 75 Watt
PCIe slot + 6pins = max 150 Watt
PCIe slot + 2 x 6pins = max 225 Watt
PCIe slot + 6pins + 8pins = max 300 Watt

Je kan dus ook zeggen dat Fermi minimaal 150 Watt nodig heeft
volgens de reference guide draait hij met PEG+6P niet in "full power mode" maar hij draait wel

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 126513

Volgens mij gaat dit wel wat worden. :D

Wat een onzin trouwens allemaal van die Charlie en gedoe. Uit welke bronnen komen zijn uitspraken?
Volgens mij heb ik maar een paar keer proberen duidelijk te maken dat dit al lang in de planning stond:

Tesla zou een afgeleide worden van Fermi, gewoon volgens plan, niks reductie vanwege yields.
Het was allang bekend, mss staat het zelfs in dit draadje, anders het voorgaande draadje, dat Tesla uitgerust zou worden met 448 Cuda cores ipv van de GPGPU versie genaamd Fermi met 512 Cuda cores.

Even een directe vergelijking met ATi's shadercores in Cypress, 320 x 5 = 1600 geadverteerde "shader" streamprocessors. Dus dat zijn er nog steeds aanzienlijk meer lijkt me zo.
De respectievelijk 160 shader cores in de HD48xx serie en de 320 shader cores in de HD5870 serie zijn zeker erg efficiënt, ATi heeft goed geleerd van R500 (Xbox360) als ik het goed heb.

De strategie is in ieder geval zeker verbeterd, van GPGPU stuff, GFX afleiden, AMD doet het een beetje samen, meteen richten op beide markten. Geloof mij maar dat deze Fermi variant echt wel kont gaat schoppen. En ik verwacht dat de Tesla C20xx serie ook revolutionair gaat zijn.
Want, niemand heeft nog wat gezegd over die flinke bak geheugen wat op de kaarten zit, 3 GB is al nice, maar 6 GB!
Dat betekent maar één ding, deze kaarten hebben het nodig, vooral de verdubbeling zegt erg veel. Deze kaarten gaan ownen in de combi van GFX en Physics, reken uit als een GFX kaart hebt, en een PhysiX kaart hebt/had, zit je ook zo op meer dan 1GB.

"ondertussen kijkt dreee op de site van nVidia zelf"

nVidia claimed ook meteen dat de clusters apart in te stellen zullen zijn voor meedere soorten taken zoals te gebruiken bij o.a cloud-computing (net gelezen kan het niet meer vinden, typisch nVidia). Ze weten het weer aardig door elkaar te gooien.
Ze claimen van de C20xx en S20xx series 8x snellere performance in double precision dan de C1060 . Gewoon oude GT200 serie.

520 GigaFlops - 620 GigaFlops voor de C20xx serie
Ook interessant, vind ik:
- Asynchronous Transfer
- NVIDIA Parallel DataCache technology
- NVIDIA GigaThread™ engine

Wat komt er nou? Ik snap er geen **** meer van ;)
ff van de site:
Available Tesla Products for Data Centers:
- Tesla S2050/S2070
- Tesla S1070
- Tesla M1060
http://www.nvidia.com/object/preconfigured_clusters.html

Available Tesla GPU Computing Processors:
- Tesla C2050/C2070
- Tesla C1060
http://www.nvidia.com/object/personal_supercomputing.html

Je kunt dus C1060 en S1070 1U kopen nu, tot eind januari, dan krijg je een zeer volledige upgrade van nVidia naar een echte Tesla C20xx GPU, weer typisch dat die dingen dan 240 Cuda (oude) cores herbergen. lekkere rebrand marketing uiteraard, good old nVidia style, laten we maar zeggen. Mss zegt dit wel wat over de release date. Hoewel nVidia aangeeft, Q2 voor de C2050 en Q3 voor C2070.

Dus er is wel een verschil tussen de 1U server versies en de desktop en workstation personal supercomuting versies, neem maar aan ook in de prijs, Charlie heeft het gewoon over 4 keer de C2070, wat dus 1 keer de S2070 zal worden, avec 24GB onthoudspul samen erop.
De hele scaling en programmeerbaarheid is gewoon nieuw! Echt bedoelt voor een zeer brede markt, met alvast algoritmes voor ook o.a raytracing, indien geen betere beschikbaar.
Ga er maar van uit dat dit één van de belangerijke redenen zal zijn waarom het zo lang duurt, ze hebben gewoon erg veel werk te verichten gehad, en nog steeds waarschijnlijk, GT200 Cuda GPU's en de hele API en Cuda librairy verhaal daarbij, is/was gewoon een aanloop, de programmeurs zijn al nu een beetje warm, nu gaat het echte werk beginnen.
Leuk he? :D

Nog wat pdf's:
-C2050/C2070 http://www.nvidia.com/doc...50_C2070_Final_lowres.pdf
-S2050/S2070 http://www.nvidia.com/doc...50_S2070_final_lowres.pdf
-C1060 old stuff in een nieuw jasje! http://www.nvidia.com/doc...US_Jun08_FINAL_LowRes.pdf

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Anoniem: 126513 schreef op woensdag 23 december 2009 @ 01:16:
Het was allang bekend, mss staat het zelfs in dit draadje, anders het voorgaande draadje, dat Tesla uitgerust zou worden met 448 Cuda cores ipv van de GPGPU versie genaamd Fermi met 512 Cuda cores.
Huh??? Is Tesla geen GPGPU product?
De strategie is in ieder geval zeker verbeterd, van GPGPU stuff, GFX afleiden, AMD doet het een beetje samen, meteen richten op beide markten. Geloof mij maar dat deze Fermi variant echt wel kont gaat schoppen. En ik verwacht dat de Tesla C20xx serie ook revolutionair gaat zijn.
Want, niemand heeft nog wat gezegd over die flinke bak geheugen wat op de kaarten zit, 3 GB is al nice, maar 6 GB!
Dat betekent maar één ding, deze kaarten hebben het nodig, vooral de verdubbeling zegt erg veel. Deze kaarten gaan ownen in de combi van GFX en Physics, reken uit als een GFX kaart hebt, en een PhysiX kaart hebt/had, zit je ook zo op meer dan 1GB.
Volgens mij staat er in de TS en in dit topic genoeg over de 3/6GB varianten (2,4 en 5,2 GB met ECC aan) Verwacht ECHT geen 3GB GF100 over een paar maandjes. voor Graphics of Phys ZONDER I X is dit niet relevant
Wat komt er nou? Ik snap er geen **** meer van ;)
ff van de site:
Available Tesla Products for Data Centers:
- Tesla S2050/S2070
- Tesla S1070
- Tesla M1060
http://www.nvidia.com/object/preconfigured_clusters.html

Available Tesla GPU Computing Processors:
- Tesla C2050/C2070
- Tesla C1060
http://www.nvidia.com/object/personal_supercomputing.html

Je kunt dus C1060 en S1070 1U kopen nu, tot eind januari, dan krijg je een zeer volledige upgrade van nVidia naar een echte Tesla C20xx GPU, weer typisch dat die dingen dan 240 Cuda (oude) cores herbergen. lekkere rebrand marketing uiteraard, good old nVidia style, laten we maar zeggen. Mss zegt dit wel wat over de release date. Hoewel nVidia aangeeft, Q2 voor de C2050 en Q3 voor C2070.
"oude spul in een nieuw jasje" ? De Tesla 1000 serie (GT200b) is vorig jaar Mei onthuld en sinds Q308 te koop, hier is weinig nieuws aan. Het zegt ook geen hol over de releasedate voor de consumenten aangeizen C2050/70 zitten te wachten op 2GB memory modules die er simpelweg nog niet zijn.
Dus er is wel een verschil tussen de 1U server versies en de desktop en workstation personal supercomuting versies, neem maar aan ook in de prijs, Charlie heeft het gewoon over 4 keer C2070, wat dus 1 x S2070 zal worden, avec 24GB onthoudspul samen erop.
Welk verschil dan? in de foto's die nvidia tot nu toe heeft laten zien hebben we een Tesla kaart gehad met 1 DVI aansluiting (fake) Tesla kaart met 1 DVI aansluiting (echt) en de Quadro kaarten, als je naar het PCB kijkt van de kaarten die in de S2070 zitten zie je dat de layout (DVI/HDMI) gelijk is aan de huidige Quadro kaarten, inclusief aansluitingen voor Power en Audio.

Ik durf op dit moment te beweren dat de eerste Consument gebaseerde Fermi niet sneller is dan op dit moment verkrijgbare producten van de concurrentie (pin me hier maar op vast.)

[ Voor 103% gewijzigd door neliz op 23-12-2009 01:36 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 126513

Ik heb ook zo mijn twijfels of ze puur voor de GFX + Physics markt 3 GB DDR5 kaarten gaan uitbrengen in het begin, maar later waarschijnlijk wel. Voor een goede combi van PhysiX en GFX heb je toch genoeg geheugen nodig en Fermi is dusdanig ontworpen dat deze zeer efficiënt met dat geheugen zal omspringen.

Verder zal er nog een kleinere processor komen met minder nieuwe Cuda cores aan boord, maar wel met Fermi architectuur, en dus wel betaalbaar. Hier kunnen ze dus weer midrange kaarten van afleiden. Dus de echte vervangers voor de oudere GTX2xx serie.

Ik doe maar een gokje, 16 x 20, dus 320 Cuda cores, of 16 x 16, dus 256 Cuda cores, iets in die richting verwacht ik wel.

AMD's Stream Computing heeft het niet slecht gedaan, supercomputer in China o.a.
nVidia snapt dat deze markt van wetenschap vele malen groter is dan die paar GT4 en Grid 2 spelers. Gewoon een bedrijfstechnische slimme en misschien ook nodige zet om te overleven en te groeien.

Acties:
  • 0 Henk 'm!

Anoniem: 58485

Omdat het meeste geld zit in extreem harde computing, de fermi zal eerder een kaart zijn speciaal bedoeld voor dit soort taken, en laat het gamers-gedeelte een beetje links liggen.

Aan de andere kant, de hele naive houding als AMD Insignificant noemen met als eerste DX11 kaarten op de markt (waarop nvidia ook geen antwoord voorlopig heeft), terwijl ze zelf een gigantisch dikke chip proberen te ontwerpen wat tot nu toe alleen maar leid tot dikke slechte yields en geknipte cores ivm een 250W+ stroomverbruik waarbij Sli nog niet eens mogelijk is.

Aan de andere kant zit het meeste geld in o.a 3D applicaties waarbij de Quaddro / FireGL van toepassing zijn. De kaarten zijn nagenoeg identiek aan elkaar (3D game kaarten / 3D render kaarten) maar de ondersteuning in drivers is veel meer dan maandelijks een game-drivertje alleen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 126513 schreef op woensdag 23 december 2009 @ 01:16:

Ze claimen van de C20xx en S20xx series 8x snellere performance in double precision dan de C1060 . Gewoon oude GT200 serie.

520 GigaFlops - 620 GigaFlops voor de C20xx serie
Ook interessant, vind ik:
- Asynchronous Transfer
- NVIDIA Parallel DataCache technology
- NVIDIA GigaThread™ engine
Het is ook niet zo heel erg gek dat ze tot 8 keer hogere performance in double precision hebben dan de G200b, want de G200(b) heeft, om het recht voor zijn raap te zeggen, een uitermate teleurstellende double precision performance. Het mag, voor een kaart die als gpgpu-gpu werd gebracht, gewoon geen naam hebben.

Daarbij heeft de HD5870 ook zo'n 520 GigaFlops aan double precision rekenkracht. Of die van Fermi uiteindelijk zoveel beter gaat zijn, moet nog bezien worden.

Verder, zoals Neliz al zei: Tesla = Fermi = GPGPU.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Ik denk niet dat dit nieuwsbericht al eerder is gepasseerd in dit topic.
Zodoende onder het motto beter laat dan nooit:

Nvidia's TechRadar UK: Fermi graphics architecture explained: Next-gen silicon 10 times as powerful as existing Nvidia chip

Specs


Acties:
  • 0 Henk 'm!

  • Da_DvD
  • Registratie: April 2004
  • Laatst online: 14-04 10:01
... in double precision floating point ja.. :z

En de gamertjes maar kwijlen nav dat nieuwsbericht :9

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Da_DvD schreef op woensdag 23 december 2009 @ 13:00:
... in double precision floating point ja.. :z

En de gamertjes maar kwijlen nav dat nieuwsbericht :9
Ja inderdaad. Die fout wordt heel veel gemaakt. Valt het straks alleen maar tegen als hij "maar" twee keer zo snel is als de GTX285. Terwijl dat geen slechte prestatie is.

[ Voor 5% gewijzigd door Astennu op 23-12-2009 16:13 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Astennu schreef op woensdag 23 december 2009 @ 16:13:
Valt het straks alleen maar tegen als hij "maar" twee keer zo snel is als de GTX285. Terwijl dat geen slechte prestatie is.
2x?


1.5

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Astennu schreef op woensdag 23 december 2009 @ 16:13:
[...]


Ja inderdaad. Die fout wordt heel veel gemaakt. Valt het straks alleen maar tegen als hij "maar" twee keer zo snel is als de GTX285. Terwijl dat geen slechte prestatie is.
Can you blame them...

Quote uit het artikel:
quote: Techradar
You might want to know exactly how fast a Fermi-based card is going to be. Nvidia wouldn't be drawn into anything other than fairly vague ideas. That's good enough for us. Apparently, it'll be a blast.

In theory it is eight times faster than the best GeForce, in practice what with other limiting factors, you'll see less than that, but it'll still destroy them.
Dat stukje leest meer als onbeschaamde PR... buiten dat ik niet geloof dat nVidia ooit zal roepen dat de GeForce variant van Fermi 8 maal zo snel zal zijn als zijn voorganger...
Maar als onwetende gamer die dat bericht gelezen heeft zal je zeker enorm ontgoocheld zijn als de performantie maar 1.5 keer zo hoog zal zijn (kijkend naar toename van de geheugenbandbreedte)

BTW: Nog ouder maar enigzinds onverwacht ..

(oud nieuws) FiringSquad: NVIDIA's 3D Vision: 9 Months Later

Ik had eerder verwacht dat die technologie een stille dood zou zijn gestorven nml door: te duur, nog steeds niet goed werkend.. zwaardere GPU's nodig in feite (kijk maar naar de gebenchmarkte resoluties...)
Maar blijkbaar blijft nVidia het ondersteunen, enigzinds omdat ze contractueel/PR verplicht waren?
Of zou het komen dat de Fermi gebaseerde kaarten plots wel deze technologie vlot gaan aankunnen (eventuele optimalisaties voor 2 frames tegelijkertijd te renderen ? daar meer floating point power hiervoor toch totaal geen nut voor heeft zou ik denken...)
Nu nVidia kan/kon ook gewoon rekenen op de brute power van hun volgende generatie kaarten :+ .
Maar in dat geval zal een full HD resolutie of hoger vermoedelijk nog steeds te hoog gegrepen zijn indien men ook AA wil enablen.

Specs


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 18:54

epo

neliz schreef op woensdag 23 december 2009 @ 01:23:

Ik durf op dit moment te beweren dat de eerste Consument gebaseerde Fermi niet sneller is dan op dit moment verkrijgbare producten van de concurrentie (pin me hier maar op vast.)
Fijn voor je, maar hou je negativiteit lekker voor jezelf. Noboy cares, nobody will.

Maar ik care wel over de wijze van discussieren. Trollen is niet gewenst.

[ Voor 10% gewijzigd door Edmin op 23-12-2009 20:41 ]


Acties:
  • 0 Henk 'm!

Anoniem: 59888

* Anoniem: 59888 cares

Dat je dat soort dingen niet wil horen betekent nog niet dat het niet gepost mag worden. :)

Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
epo schreef op woensdag 23 december 2009 @ 18:14:
[...]


Fijn voor je, maar hou je negativiteit lekker voor jezelf. Noboy cares, nobody will.
Waarom zou hij dat niet mogen zeggen? Mag je alleen maar als een fanboy roepen dat Fermi gehakt van de 5xxx serie van ATI gaat maken?

Ik hóóp voor ons en voor nVidia dat ze een beest van een kaart neerzetten en dat hij snel komt overigens. Ik wil keuze en concurrentie :P

Specs


Acties:
  • 0 Henk 'm!

Anoniem: 126513

Dit vond ik wel twee leuke stukjes uit het artikel:
The transistors are so teeny and carry such a small charge that they can easily be flipped by Alpha particles from space (seriously), or more likely electromagnetic interference, creating a soft error. The error correction covers the register files, shared memory, caches and main memory.
Zeer interessante uitspraak van nVidia:
Get this: we asked if it could ray-trace a 3D world fast enough for gaming in real time on a consumer machine. Nvidia said yes it could
32 threads engine en 128-bit double presicion floating point berekeningen? Of vloek ik nou? Het is natuurlijk wel voor de wetenschappelijke wereld die meer nauwkeurigheid kunnen gebruiken. Die integer berekeningen zullen ze niet zo naar omkijken.

Fermi is de architectuur, Tesla is de afgeleide van Fermi voor de wetenschappelijke wereld. Voor de rest dus blijkbaar GeForce en Quadro.

Oh ja 1,5x beter dan de (((G(T)200(b)))), en dat met een verbruik van 190W - 225W ... 8)7 (Waarschijnlijk wordt de GeForce zuiniger en ietsjes minder krachtig)
Anoniem: 59888 schreef op woensdag 23 december 2009 @ 18:33:
* Anoniem: 126513 cares

Dat je dat soort dingen niet wil horen betekent nog niet dat het niet gepost mag worden. :)
Volgens mij was het als advies bedoelt van Epo richting Neliz.

Acties:
  • 0 Henk 'm!

Anoniem: 287880

De Tesla GPU's zijn dezelfde als die voor de Geforce. Andere binning, ander geheugen, andere clocks maar het zijn dezelfde GPU's die gebakken worden ( of bijna dezelfde ). Als de Tesla's met 448 ipv 512 cores komen ( aka met 14 ipv 16 SM's ) dan is dat geen goed nieuws en ook niet erg logisch. Het lijkt mij dat je voor boards die zoveel kosten als de Teslas de beste GPU's gebruikt. De TDP van 225 Watt is ook al niet erg veelbelovend.

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 12:10

superwashandje

grofheid alom

Anoniem: 126513 schreef op woensdag 23 december 2009 @ 19:45:

Dit vond ik wel twee leuke stukjes uit het artikel:
[...]
door alpha particles? lijkt me heel erg sterk. Gamma of beta ok (ik zit er niet heel erg meer in) maar alpha lijkt me toch te weinig doordringend vermogen hebben (of zeik ik nu teveel offtopic :P)

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 18:54

epo

Naluh! schreef op woensdag 23 december 2009 @ 19:10:
[...]

Waarom zou hij dat niet mogen zeggen? Mag je alleen maar als een fanboy roepen dat Fermi gehakt van de 5xxx serie van ATI gaat maken?

Ik hóóp voor ons en voor nVidia dat ze een beest van een kaart neerzetten en dat hij snel komt overigens. Ik wil keuze en concurrentie :P
Nee, maar hij als ATI fanboy post alleen negatieve rotzooi, heb het echt gehad met die kerel en zijn manier van posten. Arrogantie op en top, snap niet dat hij die rommel kan blijven posten.

Dan maak je maar een TR aan. Dit is niet de manier om je ongenoegen te spuien.

[ Voor 7% gewijzigd door Edmin op 23-12-2009 20:43 ]


Acties:
  • 0 Henk 'm!

Anoniem: 126513

superwashandje schreef op woensdag 23 december 2009 @ 20:24:
door alpha particles? lijkt me heel erg sterk. Gamma of beta ok (ik zit er niet heel erg meer in) maar alpha lijkt me toch te weinig doordringend vermogen hebben (of zeik ik nu teveel offtopic :P)
Misschien dat de massa juist invloed heeft, beta deeltjes (elektronen, positronen) gaan er dwars door heen en gamma emissie al helemaal. Het lijkt mij ook erg onwaarschijnlijk maar het klinkt wel leuk, en daarnaast theoretisch gezien zal het altijd het geval zijn, als het al waar is lijkt het me sterk dat ze dat zonder een degelijk QM model het even via foutcorrectie rechtzetten, Heisenberg (uncertainty principle) zou achter zijn oren krabben denk ik zo.

Van dat zelfde stukje quote, vraag ik me toch serieus af wat "teeny" transistors eigenlijk zijn? Erg jeugdig en onzeker of een freudiaanse verspreking :P
The transistors are so teeny and carry such a small charge that they can easily be flipped by Alpha particles from space (seriously)

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

epo schreef op woensdag 23 december 2009 @ 20:36:
Arrogantie op en top, snap niet dat hij die rommel kan blijven posten.
Rommel? Ik geef een paar performance hints, als jij betrouwbaardere informatie hebt dat Fermi sneller wordt dan dat dan hoor ik het graag. Over een paar weken (hopelijk eerder) kan iedereen zelf beargumenteren of de informatie die in de huidige NV presentaties staat een goed beeld schetst van de situatie of dat deze bepaalde verwachtingspatronen gaat schepen die misschien niet stroken met de realiteit.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Officieel van NV (van hun Facebook pagina, eerder vandaag gepost):
NVIDIA: Happy Holidays GeForce fans! Fun fact: GF100 supports a brand new 32x anti-aliasing mode for ultra high-quality gaming!
Wooohooo. In ieder geval dus wel wat IQ verbeteringen. d:)b Nu hopen dat de performance snel genoeg is om dit aan te kunnen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • pino85
  • Registratie: Mei 2007
  • Laatst online: 05-06 00:37

pino85

Im just a Bird in the Sky

32* AA?
Misschien en noob opmerking maar heb je daar erg veel aan?
Of is het meer een gimmick?

Liefhebber van Tweakers


  • KneoK
  • Registratie: December 2001
  • Laatst online: 11:35

KneoK

Not in a million lightyears

pino22 schreef op donderdag 24 december 2009 @ 14:43:
32* AA?
Misschien en noob opmerking maar heb je daar erg veel aan?
Of is het meer een gimmick?
Ik denk niet dat je echt veel merkt als je AA hoger instelt dan 8x maar ze kunnen natuurlijk niet achter blijven op de concurrentie (die met 16xAA Wide Tent ook al 32xAA aanbiedt, wat mij ook onzin lijkt om te gebruiken).

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 05-06 00:37

pino85

Im just a Bird in the Sky

Mja ik had dat idee al omdat zelf ik het verschil ook niet kan zien tussen 8* en 16* ( maar dat kon ook aan mij liggen)
Maar je hebt gelijk, alles draait om cijfertjes en of het nu nodig is of niet, als het kan kun je niet achterblijven op je concurrent en dat zal de reden wel zijn

[ Voor 13% gewijzigd door pino85 op 24-12-2009 15:50 ]

Liefhebber van Tweakers


  • Naluh!
  • Registratie: Juni 2003
  • Niet online
pino22 schreef op donderdag 24 december 2009 @ 15:49:
Mja ik had dat idee al omdat zelf ik het verschil ook niet kan zien tussen 8* en 16* ( maar dat kon ook aan mij liggen)
Maar je hebt gelijk, alles draait om cijfertjes en of het nu nodig is of niet, als het kan kun je niet achterblijven op je concurrent en dat zal de reden wel zijn
Ik zie het ook niet op de resoluties en scherm waarop ik speel eerlijk gezegd maar dat geldt wel voor meer IQ-opties :)

Specs


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Zojuist een PM gekregen van een Product Manager, nVidia gaat Fermi lanceren vlak na de Cebit.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 05-06 00:37

pino85

Im just a Bird in the Sky

Als het juist is wat je zegt dan is het wel wat ik persoonlijk had verwacht.
Had gehoopt dat het eerder zou zijn maar ja anderzijds had het ook nog later kunnen zijn als alles NVIDIA nog meer tegen zat
Het lanceren houd dat in van dan liggen de kaarten bij de reviewers of mogen we verwachten dat ze volop verkrijgbaar gaan zijn vanaf de lancering dat jij weet neliz?
Bedankt iig voor je nieuwtje en ik wist niet dat jij zo'n goede bronnen had bij NVIDIA :P

[ Voor 24% gewijzigd door pino85 op 26-12-2009 13:28 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Volop verkrijgbaar mag je vergeten met zulke extreem lage yields.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
pino22 schreef op zaterdag 26 december 2009 @ 13:25:
Bedankt iig voor je nieuwtje en ik wist niet dat jij zo'n goede bronnen had bij NVIDIA :P
Denk je dat dit van NV komt? :')

[ Voor 106% gewijzigd door CJ op 26-12-2009 13:55 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 05-06 00:37

pino85

Im just a Bird in the Sky

Dat het nu niet is wat het moet zijn zien we ook wel bij ATI die problemen hebben
Echter over 3 maanden kan alles een wereld van verschil zijn en is in deze scene een lange tijd.
De chipbakker gaf toch al aan dat het nu beter zou gaan met hun issue's dus daarom tegen de tijd dat NVIDIA ze moet lanceren zijn we 3 maanden verder en ik mag och hopen dat men dan alle problemen achter de rug heeft of iig een grote verbetering in de yields heeft

[ Voor 5% gewijzigd door pino85 op 26-12-2009 14:00 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Heb het hier nog niet voorbij zien komen, maar check out de GTX 275 Lightning review op Madshrimps... Na de eerste versie van de review, hebben we Madshrimps gebeld en gevraagd waar de LN2 test was... want Lightning is gemaakt om te overklokken met LN2... en tadaaa... ze waren zo vriendelijk om het te updaten met een LN2 test.
When the sane review was posted on the front page, MSI called and asked where the LN2 overclocking results were as the Lightning series are designed to be used for extreme overclocking. Although the card was going to be tested on LN2 somewhere this month, having a vendor request LN2 tests is something extraordinary, especially for reviewing websites. So, instead of postponing the session, my colleague Leeghoofd and I decided to do it last Friday.
Dat geeft jullie misschien een indicatie wat je kan verwachten van R5870 Lightning :)

[ Voor 30% gewijzigd door CJ op 26-12-2009 13:57 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 05-06 00:37

pino85

Im just a Bird in the Sky

Dat word dan voor de oc diehard scene een leuk speeltje idd!
Wat een prestaties zeg

[ Voor 19% gewijzigd door pino85 op 26-12-2009 14:08 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

die neliz, die lelijke ati fanboy

Afbeeldingslocatie: http://i47.tinypic.com/302xg81.jpg

[ Voor 6% gewijzigd door neliz op 26-12-2009 16:53 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Zo daar is iemand wel heel erg positief bezig geweest.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Nou praat je jezelf wel een beetje tegen je vorige post staat dat fermi gelaunched wordt na Cebit maar naar mijn weten is Cebit in maart en volgens de roadmap is het eind januari begin februari..

CeBIT 2010
Tuesday 2 until Saturday 6 March 2010

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Tsja, ik weet dat die "Cebit" info van vandaag is en ik weet niet hoe oud dat plaatje is. Het kan best zijn dat dit één van de eerste GT300 slides was ergens uit Januari.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 263719

Nvidia delays Fermi to March 2010

Nvidia originally scheduled to launch Fermi in November 2009, but was delayed until CES in January 2010 due to defects, according to market rumors. However, the company recently notified graphics card makers that the official launch will now be in March 2010, the sources noted.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

pino22 schreef op zaterdag 26 december 2009 @ 13:55:
De chipbakker gaf toch al aan dat het nu beter zou gaan met hun issue's dus daarom tegen de tijd dat NVIDIA ze moet lanceren zijn we 3 maanden verder en ik mag och hopen dat men dan alle problemen achter de rug heeft of iig een grote verbetering in de yields heeft
Dat het goed gaat met de yields van merk X wil niet zeggen dat het ook goed gaat met de yields van merk Y he. Het kan wel maar het hoeft niet.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:08

XanderDrake

Build the future!

Misschien interessant voor mensen hier.
Zoals jullie allicht weten is Intel druk bezig met IGP's te integreren in hun CPU's. Dat wil zeggen dat bij de volgende generatie mainstream CPU's (zoals de Pentium G6950 bijv) ook meteen een nieuwe generatie IGP zitten. We hebben het dan over de H55 IGP serie, waarschijnlijk krijgt hij de naam X5500 HD of simpelweg GMA HD.
Wanneer vergeleken met de vrij oude nVidia 9300 IGP verliest de Intel chip alsnog, maar het is wel een mooie stap voorwaards vergeleken met de 4500 HD serie.

Afbeeldingslocatie: http://www.ocworkbench.com/wp/wp-content/uploads/2009/12/h55-gpu.jpg

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Hmmmm, dit is wel een nVidia topic, in het Intel topic zijn al heel wat reviews geplaatst. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

-The_Mask- schreef op dinsdag 29 december 2009 @ 18:44:
Hmmmm, dit is wel een nVidia topic, in het Intel topic zijn al heel wat reviews geplaatst. ;)
Wie zou er het meest gebaat zijn bij deze review? Online pakken ze dit met twee handen aan om te laten zien dat ze nog in leven zijn.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024

G215 komt naar de laptop

Het goede nieuws is, dat er een op de GT240 gebasseerde chip voor laptops op de markt komt.

Het slechte nieuws is, dat het blijkbaar een GTS360M wordt genoemd, met (logisch) lagere specs dan de GT240.

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 05-06 00:37

pino85

Im just a Bird in the Sky

Niets nieuws onder de zon lijkt me..
Dit doet NVIDIA toch al een langere tijd
Nu lijkt het alleen des te meer dat je een nieuwe en veel snellere en zelfs DX 11 graka aanschaft gezien de benaming die ze er aan hangen.
Je kan het smerig noemen maar het hoort gewoon bij hun strategie keuze.
Blijkbaar werkt deze strategie erg goed en levert het veel geld in het laatje anders zou men wel stoppen met dit soort marketing
Het zal gewoon weer gaan verkopen want de consument koppelt een hoger getal direct aan nieuwe en beter.

[ Voor 10% gewijzigd door pino85 op 30-12-2009 09:58 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 20:26
pino22 schreef op woensdag 30 december 2009 @ 09:57:
Blijkbaar werkt deze strategie erg goed en levert het veel geld in het laatje anders zou men wel stoppen met dit soort marketing
Dat het goed werkt is 1 ding wat zeker is... :/

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

Anoniem: 292676

dahakon schreef op woensdag 30 december 2009 @ 06:20:

G215 komt naar de laptop

Het goede nieuws is, dat er een op de GT240 gebasseerde chip voor laptops op de markt komt.

Het slechte nieuws is, dat het blijkbaar een GTS360M wordt genoemd, met (logisch) lagere specs dan de GT240.
wow die laptops is brol, kijk eens naar de specs
  • een rebrande gt240
  • een quadcore maar 1.7 ghz -_-
  • 15.6 inch full hd, is er een vergrootglas bij?
  • 8 gig geheugen maar geen 64 bit OS wtf

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

nvidia kan natuurlijk niet achter blijven met Batmobile coolers!

Meet the Zotac GT240

Afbeeldingslocatie: http://www.donanimhaber.com/image.aspx/images/haber/zotac_batmobilegt240_a_dh_fx57.jpg

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 06-06 11:42
neliz schreef op woensdag 30 december 2009 @ 17:50:
nvidia kan natuurlijk niet achter blijven met Batmobile coolers!

Meet the Zotac GT240

[afbeelding]
Ik kan mij niet voorstellen dat het met twee van die kleine fannetjes stil is...

Computer says no


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Anoniem: 292676 schreef op woensdag 30 december 2009 @ 17:05:
[...]


wow die laptops is brol, kijk eens naar de specs
  • een rebrande gt240
  • een quadcore maar 1.7 ghz -_-
  • 15.6 inch full hd, is er een vergrootglas bij?
  • 8 gig geheugen maar geen 64 bit OS wtf
Het is een I7 quadcore met turbo modes ver over de 2GHz. 2,6 GHz dacht ik. Verder ook niet echt interessant nee.

@ neliz

Wat een ontzettend gave koeler maar of het efficiënt is ik betwijfel het. Zal flink wat lawaai maken met die mini fans.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!

Pagina: 1 ... 5 ... 8 Laatste

Dit topic is gesloten.