Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hardware.info
Wat ik niet snap is dan een 5870 in crossfire ongeveer even veel verbruikt, maar een andere review pakken denk ik
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Anoniem: 196662
StefanvanGelder schreef op woensdag 16 december 2009 @ 12:06:
Wat ik niet snap is dan een 5870 in crossfire ongeveer even veel verbruikt, maar een andere review pakken denk ik![]()
Vermoedelijk is dat te verklaren door de extra PLX PCI-Express switch die natuurlijk ook wat verbruik voor z'n rekening neemt.
Tijdens Furmark zit een HD5970 max zo rond de 300 Watt, erg netjes dus.
Twee HD5870's nemen echter bijna 400 Watt tijdens Furmark, een HD4870X2 overigens zo'n 375 Watt.
Dat HWI zo anders uitkomt komt waarschijnlijk omdat ze het verbruik van de hele PC meten en ook omdat ze de videokaart(en) lang niet 100% belasten.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 263922
Die clocks kloppen dan niet, maar dan zou het ook weinig uitmaken t.o.v van de gtx260 216c, dat is dan mijn fout, had geen zin om het na te checkenbwerg schreef op woensdag 16 december 2009 @ 11:27:
[...]
Ho eens!
GTX295:
Video Chip Snelheid 576MHz
Geheugen Snelheid 1242MHz
GTX275:
Video Chip Snelheid 633MHz
Geheugen Snelheid 1404MHz
Redelijk logisch dat 2x GTX275 in Sli sneller is dusNet als bij de HD5970 nu. Ze zijn gewoon wat afgezwakt om het verbruik binnen de perken te houden. Dat is het nadeel van grotere chips voor high-end, je kan er niet meer zonder problemen meerdere van op één PCB knallen. (oke, het kan wel, en dan krijg je de Asus Mars. Dan weten we ook waarom NVidia en Ati zoiets zelf liever niet doen
)
De asus MARS was nog gebaseerd op de dual pcb gtx295, vandaar dat deze zo warm werd, de single pcb was stukken koeler, vandaar dat op een single pcb wel twee gtx285 chips hadden kunnen zitten, er is zelfs een enkele fabrikant die nog zo'n kaart uit wilde brengen, dus de mogelijkheid was er wel.
Maar het geeft wel de verhoudingen weer lijkt me...-The_Mask- schreef op woensdag 16 december 2009 @ 14:52:
Dat het verbruik tussen een HD5970 en twee HD5870's zo klein is bij HWI, zegt meer over hun test methode dan over het echte verbruik van de videokaart.
Tijdens Furmark zit een HD5970 max zo rond de 300 Watt, erg netjes dus.
Twee HD5870's nemen echter bijna 400 Watt tijdens Furmark, een HD4870X2 overigens zo'n 375 Watt.
Dat HWI zo anders uitkomt komt waarschijnlijk omdat ze het verbruik van de hele PC meten en ook omdat ze de videokaart(en) lang niet 100% belasten.
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dit is denk ik betrouwbaarder:-The_Mask- schreef op woensdag 16 december 2009 @ 14:52:
Dat het verbruik tussen een HD5970 en twee HD5870's zo klein is bij HWI, zegt meer over hun test methode dan over het echte verbruik van de videokaart.
Tijdens Furmark zit een HD5970 max zo rond de 300 Watt, erg netjes dus.
Twee HD5870's nemen echter bijna 400 Watt tijdens Furmark, een HD4870X2 overigens zo'n 375 Watt.
Dat HWI zo anders uitkomt komt waarschijnlijk omdat ze het verbruik van de hele PC meten en ook omdat ze de videokaart(en) lang niet 100% belasten.




En deze laat ook wel een mooi beeld zien:
http://www.computerbase.d...schnitt_leistungsaufnahme
En niet te vergeten Xbit:


[ Voor 19% gewijzigd door Astennu op 17-12-2009 09:54 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://www.pcworld.com/ar...nificant_nvidia_says.html
[ Voor 39% gewijzigd door udybees op 17-12-2009 12:33 ]
Zou ik ook zeggen als ik nVidia was. Dat zijden ze eerst ook van DX10.1. Als dat zo nutteloos is en niet nodig. Waarom dan toch nog chips met DX10.1 uitbrengen ? Juist omdat het wel nuttig is. En omdat klanten en oems je er op afrekenen. Maar omdat ze het nog niet hadden lul verhalen op lopen hangen en DX10.1 boycotten. DX10.1 patches terug laten draaien en dat soort praktijken.
En nu dit weer...... Beetje jammer. Ik hoop dat ze ooit wat sportiever worden. Ik had meer verwacht/gehoopt. Je kunt ook een keer erkennen dat je tegenstander in iets beter is geweest. Of houd helemaal je mond dicht. Mja dit zal het wel beter doen bij de aandeelhouders...
[ Voor 10% gewijzigd door Astennu op 17-12-2009 13:10 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik ook, omdat het ook niet erg onlogisch is om te zeggen in hun situatie. Leuk dat je nu een kaart kunt kopen die DX11 ondersteunt, heb ik ook gedaan, maar relevant is DX11 nog allesbehalve (OK, Dirt 2 ondersteunt het) dus ze kunnen dit wel roepen. DX10.1 hetzelfde verhaal, veel heeft het nooit voorgesteld door al die consoleports die gewoon DX9 zijn...
Ik vind het wel logisch dat ze dit in hun situatie aanhalen om hun achterstand goed te praten.
Patches uitbrengen om DX10.1 te saboteren is idd wel erg onsportief.
anathema
Maar als ze zelf DX11 hadden gehad en ATI niet, dan zouden ze nu DX11 de hemel in prijzen.anathema schreef op donderdag 17 december 2009 @ 15:38:
[...]
Ik ook, omdat het ook niet erg onlogisch is om te zeggen in hun situatie. Leuk dat je nu een kaart kunt kopen die DX11 ondersteunt, heb ik ook gedaan, maar relevant is DX11 nog allesbehalve (OK, Dirt 2 ondersteunt het) dus ze kunnen dit wel roepen. DX10.1 hetzelfde verhaal, veel heeft het nooit voorgesteld door al die consoleports die gewoon DX9 zijn...
Ik vind het wel logisch dat ze dit in hun situatie aanhalen om hun achterstand goed te praten.
Patches uitbrengen om DX10.1 te saboteren is idd wel erg onsportief.
Dat ze dit roepen heeft imo ook niks te maken met het feit dat er nog weinig DX11 games zijn, en heeft alles te maken dat ze het zelf nog niet hebben.
Hello there
Klopt, maar het is niet helemaal onterecht dat ze dat argument gebruiken omdat er nou eenmaal niet veel DX11 games zijn. Dus dan ga je uiteraard van je eigen situatie uit. ATI had nu ook vast niet met DX11 geadverteerd als ze het niet haddenSinester schreef op donderdag 17 december 2009 @ 16:09:
[...]
Maar als ze zelf DX11 hadden gehad en ATI niet, dan zouden ze nu DX11 de hemel in prijzen.
Dat ze dit roepen heeft imo ook niks te maken met het feit dat er nog weinig DX11 games zijn, en heeft alles te maken dat ze het zelf nog niet hebben.
anathema
Het kan wel ongeloofwaardig zijn maar kan je ermee zitten? Het zijn allemaal praatjes waar je voorbij moet kijken. Als Nvidia straks met een kick ass kaart komt voor een betaalbare prijs(betwijfel het). Ga je niet terug denken aan die praatjes lijkt mij.Jejking schreef op donderdag 17 december 2009 @ 16:23:
En daarbij extreem hard roepen dat de concurrent het niet heeft. Het is marketing. Wat kunnen ze anders? Alleen er is 1 ding, hoe meer ze het doen... hoe ongeloofwaardiger het wordt.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
DX11 games zijn niet vereist om een aantal van de voordelen van DX11 te kunnen gebruikenanathema schreef op donderdag 17 december 2009 @ 16:25:
[...]
Klopt, maar het is niet helemaal onterecht dat ze dat argument gebruiken omdat er nou eenmaal niet veel DX11 games zijn. Dus dan ga je uiteraard van je eigen situatie uit. ATI had nu ook vast niet met DX11 geadverteerd als ze het niet hadden
Computer says no
Die kaarten kunnen volgens mij gewoon niet goedkoop worden, ze zijn veelste complex en de yields zijn waarschijnlijk te laag.. Die kan nVidia denk ik niet echt goedkoop verkopen, zonder verlies.Xenomorphh schreef op donderdag 17 december 2009 @ 16:26:
[...]
Het kan wel ongeloofwaardig zijn maar kan je ermee zitten? Het zijn allemaal praatjes waar je voorbij moet kijken. Als Nvidia straks met een kick ass kaart komt voor een betaalbare prijs(betwijfel het). Ga je niet terug denken aan die praatjes lijkt mij.
Geef eens een aantal voorbeelden dan?Moshe85 schreef op donderdag 17 december 2009 @ 16:38:
[...]
DX11 games zijn niet vereist om een aantal van de voordelen van DX11 te kunnen gebruiken
- Multi Threading support. De D3D11 API is nu zelf ook multi threaded. Hier zouden mensen met een DX9/10 kaart ook voordeel van moeten hebben.
- Compute Shaders. Deze zijn ook beschikbaar voor programmeurs op DX10 hardware. (Game moet hier wel voor geschreven zijn)
Een aantal van de nieuwe DX11 features uit Dirt 2 kunnen ook eigenlijk op DX10 hardware. Aangezien voor deze features de Compute shaders worden gebruikt. Maar dit zal wel in code op dx11 only gezet zijn.
En mocht je Win7 gebruiken met DX10 hardware, dan heb je een lager memory verbruik.
Maar dat komt meer door WDDM1.1 dan door DX11
edit:
@Spnk
Tesselation is inderdaad DX11 Hardware only!
[ Voor 6% gewijzigd door Meekoh op 18-12-2009 08:17 ]
Computer says no
Bij multi-threading support geldt net als bij Compute Shaders dat de game er wel voor geschreven moet zijn. De 3D engine moet namelijk volledig multithreaded zijn en dat vereist dat een game eigenlijk vanaf de basis voor DX11 geschreven moet zijn. En ja, mensen met een DX9/DX10 kaart die Vista of 7 draaien met DX11 hebben er dan ook voordeel bij, maar dat is verder dus weinig videokaart afhankelijk.Moshe85 schreef op vrijdag 18 december 2009 @ 08:16:
[...]
- Multi Threading support. De D3D11 API is nu zelf ook multi threaded. Hier zouden mensen met een DX9/10 kaart ook voordeel van moeten hebben.
- Compute Shaders. Deze zijn ook beschikbaar voor programmeurs op DX10 hardware. (Game moet hier wel voor geschreven zijn)
ComputeShaders zijn dan wel beschikbaar op DX10 (CS4.0) en DX10.1 (CS4.1) hardware, maar je zult wel begrijpen dat dit minder mogelijkheden heeft dan DX11 (CS5.0).
Dirt 2 is DX9 of DX11. Dus je zou inderdaad kunnen zeggen dat het in code alleen op DX11 only gezet. Maar van wat ik gehoord heb zijn de ComputeShaders van DX10 en DX10.1 niet voldoende toereikend om de postprocessing effecten op goede snelheid te berekenen.Een aantal van de nieuwe DX11 features uit Dirt 2 kunnen ook eigenlijk op DX10 hardware. Aangezien voor deze features de Compute shaders worden gebruikt. Maar dit zal wel in code op dx11 only gezet zijn.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Er is meer dan alleen Dirt 2 zoals Stalker en binnenkort ook AVP. En Battlefordge heeft ook al een upgrade gehad naar DX11. Daar kreeg je een leuke speed boost.anathema schreef op donderdag 17 december 2009 @ 15:38:
[...]
Ik ook, omdat het ook niet erg onlogisch is om te zeggen in hun situatie. Leuk dat je nu een kaart kunt kopen die DX11 ondersteunt, heb ik ook gedaan, maar relevant is DX11 nog allesbehalve (OK, Dirt 2 ondersteunt het) dus ze kunnen dit wel roepen. DX10.1 hetzelfde verhaal, veel heeft het nooit voorgesteld door al die consoleports die gewoon DX9 zijn...
Ik vind het wel logisch dat ze dit in hun situatie aanhalen om hun achterstand goed te praten.
Patches uitbrengen om DX10.1 te saboteren is idd wel erg onsportief.
Maar in die AVP game wordt BV best wat Tesselation toegepast. Ik kan niet wachten op die game. (vond de oude AVP games al nice en leuk om te spelen).
En natuurlijk is DX11 pas net uit. Als je het vergelijk met DX9 en DX10. Daar duurde het meer dan een half jaar duurde voordat er games waren die de hardware konden gebruiken. Ik vind het met DX11 snel gegaan in vergelijking tot voorgaande versies.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Tesla S2050 Release date is Q2 2010, S2070 is Q3 2010. Pre-Orders voor Fermi moeten betaald worden voor 31 Mei 2010 of 31 July 2010 afhankelijk van het model.
Vraag aan CJ, Komt Tesla nog steeds voor GeForce?
http://www.nvidia.com/object/mad_science_promo.html
[ Voor 15% gewijzigd door neliz op 20-12-2009 22:32 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Pagina 6:
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf
http://www.hwupgrade.it/f...=30161869&postcount=11445

Miss you CJ....:'( en nee... ik kan niet aan samples komen
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Edit: Stom

[ Voor 19% gewijzigd door -The_Mask- op 21-12-2009 21:48 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Edit: Over die kloksnelheid.... Ze hebben het over "Processor Cores" als ze het over de shaders/streamprocessors hebben. Die draaien dus op die snelheid... het staat er zelf... "Processor Core Clock".... dat wil niet zeggen dat de "echte" core (inclusief ROPs en Texture units) op die snelheid draait... Niks nieuws dus ten opzichte van de G80, GT200 architectuur...
[ Voor 75% gewijzigd door CJ op 21-12-2009 21:23 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 318799
Je zou verwachten dat alleen C2050 uitgeschakelde shaders heeft. De C2070 komt later uit, dan mag je toch wat meer verwachten dan 448 shaders? of ze hebben heel veel twijfels over de "long term" yield.
Overigens vind ik de combinatie board power, spanning en hoeveelheid shader cores alles behalve geruststellend. Stel dat de uiteindelijke Geforce wél 512 shaders hebben, dan zal de 225W ook wat hoger uitvallen, laat staan hogere clocks/spanning. Volgens mij is 225W voor single chip al abnormaal hoog.
[ Voor 36% gewijzigd door Anoniem: 318799 op 21-12-2009 21:46 ]
Anoniem: 58485
Dat zijn inderdaad shader-snelheden, en niet core-snelheden zelf.Xenomorphh schreef op maandag 21 december 2009 @ 21:09:
Zo die core clock ligt wel erg hoog? Een flink eind boven de 1 Ghz.
Knap staaltje marketing-techniek waarbij hoe hoger het aantal GHz hoe beter weer is.
Nja in dit geval geef ik ze ook wel een beetje gelijk. Want dit is de Tesla serie die voor GPGPU is. En daar spelen de Shader units de belangrijkste rol. Die Main Core clock is dan gewoon minder belangrijk. Bij games is die in verhouding tot GPGPU belangrijker.Anoniem: 58485 schreef op maandag 21 december 2009 @ 21:41:
[...]
Dat zijn inderdaad shader-snelheden, en niet core-snelheden zelf.
Knap staaltje marketing-techniek waarbij hoe hoger het aantal GHz hoe beter weer is.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik vind het toch echt lijken op de Core clock hoor... Processor core clock..Astennu schreef op maandag 21 december 2009 @ 22:25:
[...]
Nja in dit geval geef ik ze ook wel een beetje gelijk. Want dit is de Tesla serie die voor GPGPU is. En daar spelen de Shader units de belangrijkste rol. Die Main Core clock is dan gewoon minder belangrijk. Bij games is die in verhouding tot GPGPU belangrijker.
[ Voor 12% gewijzigd door M4gick op 21-12-2009 22:32 ]
Anoniem: 58485
Er zijn geen 448 cores aanwezig, maar eerder shader-cores. Dat is nog steeds wat anders dan een chip met echte 448 cores erop gebakken (denk aan een X2 of X4).
Natuurlijk is een groot deel stunned bij het lezen van '448 cores' en 1.25GHz per core etc, maar het is een beetje oneerlijke marketing als je het mij vraagt.
Maar was het niet zo dan Nvidia hun Shaders CUDA cores ging noemen.. Als ze het dan over processor CORE hebben denk ik toch echt aan de gewone core en niet de shaders..CJ schreef op maandag 21 december 2009 @ 21:20:
Da's niet de enige Fermi. Fermi heeft maximaal 512 shaders.
Edit: Over die kloksnelheid.... Ze hebben het over "Processor Cores" als ze het over de shaders/streamprocessors hebben. Die draaien dus op die snelheid... het staat er zelf... "Processor Core Clock".... dat wil niet zeggen dat de "echte" core (inclusief ROPs en Texture units) op die snelheid draait... Niks nieuws dus ten opzichte van de G80, GT200 architectuur...
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Komaan mensen, niet van marketingsaus proeven.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Blijkbaar wil men er al lang de nadruk op leggen dat hun shaders bij GPGPU bekeken worden als aparte cores.
Hoewel je in mijn ogen waarschijnlijk deze CUDA cores beter gaat bekijken in aantal blokken bij Fermi. Daar elke block dedicated L1 cache krijgt van 16kb tot 48 kb (vrij in te stellen). Dus als ik het vergelijk met een intel CPU met de HT technologie waar de applicaties 8 cores zijn ipv de 4 fysieke core, zou een applicatie bij een Fermi GPu totaan 16 blokken van 32 CUDA cores beschikken met hun eigen L1 cache. Nu deze blokken draaien natuurlijk gewoon op dezelfde snelheid dan 1 enkele CUDA core dus zoveel maakt het niet uit.
En inderdaad voor mij is het ook steeds vloeken daar ik dan ook weer eens goed moet opletten dat ik de core clock niet verwissel met de shader clocks (die gelukkig vaak wel hoger ligger en dus imo logischerwijze meestal veel te hoog zijn voor de core clock) Want om het helemaal leuk te maken staat soms de core clock gewoon weg niet vermeld

PS een beetje verder lees ik gewoonweg:
Processor clock: 1.25 GHz to 1.4 GHz geen core meer in de naamgeving
Memory clock: 1.8 GHz to 2.0 GHz Ook wel best intressant dat de snelheid van het GDDR5 geheugen blijkbaar vast ligt voor de Tesla T20, dit in samenwerking met een 384 geheugenbandbreedte
En ook best bijzonder als je bedenkt dat Hynix pas in de tweede helft van 2010 1,75GHz GDDR5 in productie gaat brengen.lightdestroyer schreef op maandag 21 december 2009 @ 23:26:
Memory clock: 1.8 GHz to 2.0 GHz Ook wel best intressant dat de snelheid van het GDDR5 geheugen blijkbaar vast ligt voor de Tesla T20, dit in samenwerking met een 384 geheugenbandbreedte
Dan vraag ik mij af wat voor geheugen ze er wel niet willen op drukken.
[ Voor 7% gewijzigd door -The_Mask- op 21-12-2009 23:34 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Het enige wat ik daarop kan antwoorden is het volgende:-The_Mask- schreef op maandag 21 december 2009 @ 23:33:
[...]
En ook best bijzonder als je bedenkt dat Hynix pas in de tweede helft van 2010 1,75GHz GDDR5 in productie gaat brengen.
Dan vraag ik mij af wat voor geheugen ze er wel niet willen op drukken.
Technische specificaties GT240:
1700 MHz GDDR5, 1000MHz (G)DDR3, 900MHz DDR3
maw ... dat je bij nVidia hun GDDR5 geheugen geen *4 moet doen (maar wel *2 bij hun (G)DDR2/GDDR3 geheugensnelheden, om het lekker 1-duidig en eenvoudig voor hun consumenten te maken XD)
Imo ben je dus beter of met (G)DDR3 geheugen op je GT240 dan GDDR5 buiten dat deze laatste wss zuiniger/koeler/ mss goedkoper is.
Misschien wouden ze dit verhullen door het op deze wijze te formuleren?
Wat er vooral opduid dat de GT240 als een (enorm uitgestelde) testkaart mag beschouwd worden zoals de 4770( welke wel als een succes beschouwd mag worden en tevens wel ruim op tijd gelanceerd kon worden)
*Edit* Bij nVidia moet je ook gewoon hun GDDR5 snelheden verdubbelen en dat is het.. --> 54.4 GB/s is voor het GDDR5 geheugen ... indien je GDDR3 gebruikt bij de GT240 heb je maar 32GB/s maximaal.
(Dit verklaart *edit* dus niet ook waarom de Fermi kaart geen 256/512-bit geheugenbus is maar een 384-bit gebruikt ( gelijk de 8800GTX
Aan de andere kant een Tesla kaart zal deze misschien minder hard nodig hebben dan een GeForce kaart?
De totale geheugen bandbreedte zal dus tegenover een GTX285 anderhalf keer zo groot zijn.
Bij 258 bit ging het gelijk gebleven zijn (en dus waarschijnlijk te weinig ?) en misschien was 512-bit weer een te duur pcb ?


[ Voor 13% gewijzigd door lightdestroyer op 22-12-2009 00:15 . Reden: Correctie van foute intpretatie van de GT240 data :x ]
Welke in feite dus op 850 Mhz zal werken (3400 Mhz in totaal .. en blijkbaar deelt iedereen die snelheid door 4 ?)
Dusja vroeger was het steeds gedeeld door 2 (DDR) en nu vermoed ik met die 2 parallelle links verdubbeld men nog eens de bandbreedte? ==> Delen door 4 om de actuele snelheid op welke de geheugenchips werken te bekomen.quote: wikipediaUnlike its predecessors, it (GDDR5) has two parallel DQ links which provide doubled I/O throughput when compared to GDDR4
*Edit* Spijtig genoeg vermenigvuldigd nVidia de snelheid waarmee de geheugenchips werken al met 2, vermoedelijk om aan te duiden dat GDDR5 sneller werkt dan GDDR3 (je weet wel .. hoe hoger het getalletje hoe beter
In principe kan je ze gelijk geven ... de chips gaan door die parallelle links twee keer zo snel werken maar twas voor mij nogal verwarrend. Je Moet nog steeds de snelheid verdubbelen omdat het DDR geheugen is maar de verdubbeling omdat het GDDR5 is doen ze wel al voor jouw .. (voordeel oude berekeningswijze om geheugen bandwith the berekenen bleef werken waardoor mijn TS correct bleek te zijn
Conclusie: nVidia hun Mhz notatie moet je nog verdubbelen om de geheugenbandbreedte te berekenen en moet je delen door 2 indien je de snelheid van de geheugenchips wil weten.
Allé ik hoop dus echt dat ik deze keer het goed begrepen heb ...
Maw de snelheid komt dus redelijk dicht bij die Qimonda modules (ietsje hoger gerate dan wat er daadwerkelijk gevraagd zal van worden, lijkt logisch ivm warmte .. mijn 9800GT geheugen chips zijn ook 100MHz hoger gerate (lekker handig voor je OC).quote: wikipediaOn May 10, 2008, Qimonda announced volume production of 512 Mib GDDR5 modules rated at 3.6 Gbit/s (900 MHz), 4.0 Gbit/s (1 GHz), and 4.5 Gbit/s (1.125 GHz).[3].
Mijn excuses voor voorgaande post. Ik was toen blijkbaar echt niet meer goed aan het opletten en had daardoor totaal de verkeerde conclusies getrokken
Nu als die informatie op de technische spec pdf blijkt te kloppen en de core schaalt liniair (of beter ?
[ Voor 24% gewijzigd door lightdestroyer op 22-12-2009 10:08 ]
@lightdestroyer:
Net zoals bij (G)DDR(3) is het bij GDDR5 gebruikelijk om onderscheid te maken tussen 2 snelheden:
- De kloksnelheden waar de geheugenchips daadwerkelijk op draaien (850Mhz dus in dit geval).
- De effectieve bandbreedte die dit oplevert. In het geval van (G)DDR(3) was dit altijd de kloksnelheid maal 2, in het geval van GDDR5 is dit de kloksnelheid maal 4.
Waarom NV ineens de 'kloksnelheid' gebruikt die daar precies tussenin ligt weet ik niet. Ze zijn in mijn ervaring de eerste die dit zo doen en ik kan enkel marketingtechnische redenen bedenken (maar als je het zo bekijkt is het weer onlogisch om niet de effectieve bandbreedte te gebruiken want die is dus 2x zo hoog, misschien zodat ze nu kunnen zeggen dat het niet te vergelijken is met Ati's getallen? Want die liggen effectief gezien toch echt wat hoger, afgezien van de geheugenbusbreedte).
Kan iemand anders dan mijzelf misschien vertellen of er een relatie is tussen package size en die size?
Want met 42,5x42,5mm package size kom ik op 1806,25mm2 package size, een getal dat mij zelfs voor NV begrippen er groot lijkt voor de die size
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dit slaat echt nergens op doe dan tenminste nog de effectieve snelheid (ook al slaat die kant nog wal*), maar iets er tussen in gaat gewoon nergens meer over.lightdestroyer schreef op dinsdag 22 december 2009 @ 10:00:
Er stond duidelijk in de pdf dat het 1700Mhz GDDR5 was dus geen GDDR3.
Welke in feite dus op 850 Mhz zal werken (3400 Mhz in totaal .. en blijkbaar deelt iedereen die snelheid door 4 ?)
[...]
Dusja vroeger was het steeds gedeeld door 2 (DDR) en nu vermoed ik met die 2 parallelle links verdubbeld men nog eens de bandbreedte? ==> Delen door 4 om de actuele snelheid op welke de geheugenchips werken te bekomen.

* 900MHz GDDR5 mag dan wel de bandbreedte halen van 3600MHz SD-RAM, het blijft gewoon 900MHz
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
900Mhz GDDR5 tegenover 1000Mhz GDDR3 ... een leek zou denken dat GDDR3 sneller zou zijn ...
In Feite zouden ze de uiteindelijke snelheid moeten opgeven maar dat heeft tot nu toe nVidia nooit gedaan waardoor ze nu marketing technisch in een moeilijk parket zitten?
En dus maar hoppa het getalletje tussen in ... wel de verdubbeling voor de dubbele linken maar niet de verdubbeling die gemeenschappelijk is voor alle DDR geheugens, die ze vroeger ook niet doorrekende -___-
Anyway:
On topic het is dus 900Mhz tot 1000Mhz GDDR5 geheugen dat ze gaan gebruiken en das eigenlijk het belangrijkste ;):
Memory clock: 1.8 GHz to 2.0 GHz
Buiten dat zou Samsung moeten afkomen met een stuk sneller GDDR5 geheugen rond het tijdstip dat Fermi gelanceerd zal worden .. dus een eventuele snellere versie (hogere core clocks, door een betere yield na een tijdje en hoger geheugen clocks) zit er vermoedelijk aan te komen. Maw ik verwacht niet dat de eerste Fermi direct de snelste uit de GT3xx generatie zal zijn.quote: pdf bestand op nvidia site, gevonden door NelizInterface: 384-bit
● Tesla C2050
― 3 GB
― 24 pieces 32M × 32 GDDR5 136-pin BGA, SDRAM
● Tesla C2070
― 6GB
― 24 pieces 64M × 32 GDDR5 136-pin BGA, SDRAM
Dit in tegenstelling met de 8800GTX generatie (als we effen de ultra buiten beschouwing houden)
Ofwel zal nVidia dan die snellere kaarten direct in een GT4xx naamgeving plaatsen, das ook goed mogelijk tegenwoordig

[Speculatie-modus]
En het probleem met lager geklokte GDDR5 geheugen, zou dat vooral niet een probleem geweest zijn wanneer de kaart gaat terugklokken in 2D modus? Ati heeft hiermee in het begin ook een paar kleine probleempjes meegehad.
[/speculatie-modus]
Overigens ik zie nog maar 1 reactie over het verbruik van die Tesla kaart, nml totaan 225Watt.. Hoe gaan ze in godsnaam met zo'n verbruik 2 gpu's sandwichen tot 1 SLi-kaart
Als Ati deze keer zich al veel strikter moest houden om niet boven de maximaal officiele toegelaten 300Watt te gaan ..
Dus hopelijk voor nVidia is dat verbruik veel te ruim genomen want anders mag hun extra core maar 75 watt meer gaan verbruiken
De slogan "een miljoen moleculen bescherming" van Rexona slaat toch ook nergens op.
De GTX275 had ook een TDP van 216W en daar hebben ze (ongeveer) een GTX295 van gemaakt. Dat had met de GTX285 niet gekund, en ook niet op de gewone snelheden van de GTX275, dus ze zullen nu ook wel een sterk 'afgezwakte' chip gaan gebruiken. Al kom je dan weer niet veel verder dan je snelste single-GPU graka dus of die sneller gaat worden dan de HD5970 valt nog te bezien. Misschien komen ze wel weer ongeveer gelijk uit zoals bij de HD4870x2 en GTX295, waarom niet eigenlijk.Overigens ik zie nog maar 1 reactie over het verbruik van die Tesla kaart, nml totaan 225Watt.. Hoe gaan ze in godsnaam met zo'n verbruik 2 gpu's sandwichen tot 1 SLi-kaart
Heeft geen speciale krachten en is daar erg boos over.
Nvidia castrates Fermi to 448SPs
Unmanufacturable, hot and slow
by Charlie Demerjian
December 21, 2009
IT LOOKS LIKE we were right about Fermi being too big, too hot, and too late, Nvidia just castrated it to 448SPs. Even at that, it is a 225 Watt part, slipping into the future.
The main point is from an Nvidia PDF first found here. On page 6, there are some interesting specs, 448 stream processors (SPs), not 512, 1.40GHz, slower than the G200's 1.476GHz, and the big 6GB GDDR5 variant is delayed until 2H 2010. To be charitable, the last one isn't Nvidia's fault, it needs 64x32GDDR5 to make it work, and that isn't coming until 2H 2010 now.
Fermi - Now less than promised
The rest however is Nvidia's fault. It designed a chip that was more or less unmanufacturable, and we have been saying as much for more than six months now. It is big, 530mm^2 at the minimum, likely 10+mm^2 more, and way too hot. The 448 SP version is listed at 225W TDP, 190W 'typical', and that is with 14 of the 16 shader clusters clusters fused off. With them on, it would likely be well above 250W, far too hot for a single GPU card.
Then there is the whole problem of 512 SPs promised versus 448 SPs delivered. Fermi is arranged as 16 clusters of 32 shaders, and given that it is turning off 64 shaders, it looks like the minimum granularity it can fuse off is a single cluster of 32. This means it is having problems getting less than two unrecoverable errors per die, not a good sign.
Before you wonder if Nvidia is doing this on purpose, the Fermi based Tesla boards cost $2,499 and $3,999 for the small and large ones respectively. If there was ever a case to cherry pick the good parts, it is for low volume halo parts that sell for about 10 times what a gamer card goes for. Nvidia can not get enough yields for the cream of the crop, so how do you think the mainstream will fare? Look for a green spray-painted X800XTX-PE to not grace shelves before this is all said and done.
The architecture is broken, badly designed, and badly thought out. Nvidia does not understand the basics of modern semiconductor design, and is architecting its chips based on ego, not science. The era of massive GPUs is long over, but Nvidia (mis-)management doesn't seem to want to move their egos out of the way and do the right thing. Now the company is left with a flagship part it can't make.
If Nvidia has a saving grace, it is the upcoming 28nm process node from TSMC, but that is for all intents a 2011 process for any sort of volume. Given that ATI tends to beat Nvidia to any new process node, and does it better, that makes it likely that this "light at the end of the tunnel" will be ATI's Northern Islands chips running over it, rather than anything that fixes Nvidia's problems.
Unless Nvidia has a radical new part waiting in the wings for Q2, it really doesn't have much of a chance to win much of anything. Fermi based cards may beat Cypress by a little, but at a hugely higher TDP and a much higher cost. Architecturally speaking, this generation is basically lost, press stunts aside.
If you are waiting to see the fallout of such architectural snafus, look no further. 448 SPs at 225W TDP, massive yield problems from day 1, and an end result that will be barely manufacturable. Look for more backpedaling soon, count on it.S|A
Dat vind ik toch wel een gevaarlijke zin. Omdat ATI voor de strategy van small die's gaat is de tijd van grote GPU's voorbij.. Dan kan iemand anders ook zeggen dat de tijd van kleine die's voorbij is omdat Nvidia grote maakt. Hun kiezen gewoon allebei een een strategie, die van ATI werkt beter dan die van Nvidia.whiteguy schreef op dinsdag 22 december 2009 @ 13:20:
Charlie zegt er natuurlijk ook het zijne van:
The era of massive GPUs is long over, but Nvidia (mis-)management doesn't seem to want to move their egos out of the way and do the right thing.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Wel , tis eerder dat Ati heeft laten zien dat die grote kaarten niet persee nodig zijn dat het voorbij isXenomorphh schreef op dinsdag 22 december 2009 @ 13:29:
[...]
Dat vind ik toch wel een gevaarlijke zin. Omdat ATI voor de strategy van small die's gaat is de tijd van grote GPU's voorbij.. Dan kan iemand anders ook zeggen dat de tijd van kleine die's voorbij is omdat Nvidia grote maakt. Hun kiezen gewoon allebei een een strategie, die van ATI werkt beter dan die van Nvidia.
Waarom zou je een nVidia kaart kopen die groot, heet, veel verbruikt terwijl Ati hetzelfde biedt kleiner, minder warm, minder verbruik. ( niet dat ati kleine kaartjes heeft
Wat dacht je van niet? Een lagergeklokte versie of een gecastreerde keer x2 zijn de enige opties die ze hebben maar van een originele Fermi x2 lijkt me geen sprake meer.lightdestroyer schreef op dinsdag 22 december 2009 @ 12:49:
Overigens ik zie nog maar 1 reactie over het verbruik van die Tesla kaart, nml totaan 225Watt.. Hoe gaan ze in godsnaam met zo'n verbruik 2 gpu's sandwichen tot 1 SLi-kaart![]()
Als Ati deze keer zich al veel strikter moest houden om niet boven de maximaal officiele toegelaten 300Watt te gaan ..
Dus hopelijk voor nVidia is dat verbruik veel te ruim genomen want anders mag hun extra core maar 75 watt meer gaan verbruiken
PCIe slot = max 75 Watt
PCIe slot + 6pins = max 150 Watt
PCIe slot + 2 x 6pins = max 225 Watt
PCIe slot + 6pins + 8pins = max 300 Watt
Je kan dus ook zeggen dat Fermi minimaal 150 Watt nodig heeft
volgens de reference guide draait hij met PEG+6P niet in "full power mode" maar hij draait welBlastpe schreef op dinsdag 22 december 2009 @ 14:22:
Die 225 watt kan ook gewoon betekenen dat de PCB is uitgerust met 2 x 6 pins PCIe powerconnectors
PCIe slot = max 75 Watt
PCIe slot + 6pins = max 150 Watt
PCIe slot + 2 x 6pins = max 225 Watt
PCIe slot + 6pins + 8pins = max 300 Watt
Je kan dus ook zeggen dat Fermi minimaal 150 Watt nodig heeft
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 126513
Wat een onzin trouwens allemaal van die Charlie en gedoe. Uit welke bronnen komen zijn uitspraken?
Volgens mij heb ik maar een paar keer proberen duidelijk te maken dat dit al lang in de planning stond:
Tesla zou een afgeleide worden van Fermi, gewoon volgens plan, niks reductie vanwege yields.
Het was allang bekend, mss staat het zelfs in dit draadje, anders het voorgaande draadje, dat Tesla uitgerust zou worden met 448 Cuda cores ipv van de GPGPU versie genaamd Fermi met 512 Cuda cores.
Even een directe vergelijking met ATi's shadercores in Cypress, 320 x 5 = 1600 geadverteerde "shader" streamprocessors. Dus dat zijn er nog steeds aanzienlijk meer lijkt me zo.
De respectievelijk 160 shader cores in de HD48xx serie en de 320 shader cores in de HD5870 serie zijn zeker erg efficiënt, ATi heeft goed geleerd van R500 (Xbox360) als ik het goed heb.
De strategie is in ieder geval zeker verbeterd, van GPGPU stuff, GFX afleiden, AMD doet het een beetje samen, meteen richten op beide markten. Geloof mij maar dat deze Fermi variant echt wel kont gaat schoppen. En ik verwacht dat de Tesla C20xx serie ook revolutionair gaat zijn.
Want, niemand heeft nog wat gezegd over die flinke bak geheugen wat op de kaarten zit, 3 GB is al nice, maar 6 GB!
Dat betekent maar één ding, deze kaarten hebben het nodig, vooral de verdubbeling zegt erg veel. Deze kaarten gaan ownen in de combi van GFX en Physics, reken uit als een GFX kaart hebt, en een PhysiX kaart hebt/had, zit je ook zo op meer dan 1GB.
"ondertussen kijkt dreee op de site van nVidia zelf"
nVidia claimed ook meteen dat de clusters apart in te stellen zullen zijn voor meedere soorten taken zoals te gebruiken bij o.a cloud-computing (net gelezen kan het niet meer vinden, typisch nVidia). Ze weten het weer aardig door elkaar te gooien.
Ze claimen van de C20xx en S20xx series 8x snellere performance in double precision dan de C1060 . Gewoon oude GT200 serie.
520 GigaFlops - 620 GigaFlops voor de C20xx serie
Ook interessant, vind ik:
- Asynchronous Transfer
- NVIDIA Parallel DataCache technology
- NVIDIA GigaThread™ engine
Wat komt er nou? Ik snap er geen **** meer van
ff van de site:
Available Tesla Products for Data Centers:
- Tesla S2050/S2070
- Tesla S1070
- Tesla M1060
http://www.nvidia.com/object/preconfigured_clusters.html
Available Tesla GPU Computing Processors:
- Tesla C2050/C2070
- Tesla C1060
http://www.nvidia.com/object/personal_supercomputing.html
Je kunt dus C1060 en S1070 1U kopen nu, tot eind januari, dan krijg je een zeer volledige upgrade van nVidia naar een echte Tesla C20xx GPU, weer typisch dat die dingen dan 240 Cuda (oude) cores herbergen. lekkere rebrand marketing uiteraard, good old nVidia style, laten we maar zeggen. Mss zegt dit wel wat over de release date. Hoewel nVidia aangeeft, Q2 voor de C2050 en Q3 voor C2070.
Dus er is wel een verschil tussen de 1U server versies en de desktop en workstation personal supercomuting versies, neem maar aan ook in de prijs, Charlie heeft het gewoon over 4 keer de C2070, wat dus 1 keer de S2070 zal worden, avec 24GB onthoudspul samen erop.
De hele scaling en programmeerbaarheid is gewoon nieuw! Echt bedoelt voor een zeer brede markt, met alvast algoritmes voor ook o.a raytracing, indien geen betere beschikbaar.
Ga er maar van uit dat dit één van de belangerijke redenen zal zijn waarom het zo lang duurt, ze hebben gewoon erg veel werk te verichten gehad, en nog steeds waarschijnlijk, GT200 Cuda GPU's en de hele API en Cuda librairy verhaal daarbij, is/was gewoon een aanloop, de programmeurs zijn al nu een beetje warm, nu gaat het echte werk beginnen.
Leuk he?
Nog wat pdf's:
-C2050/C2070 http://www.nvidia.com/doc...50_C2070_Final_lowres.pdf
-S2050/S2070 http://www.nvidia.com/doc...50_S2070_final_lowres.pdf
-C1060 old stuff in een nieuw jasje! http://www.nvidia.com/doc...US_Jun08_FINAL_LowRes.pdf
Huh??? Is Tesla geen GPGPU product?Anoniem: 126513 schreef op woensdag 23 december 2009 @ 01:16:
Het was allang bekend, mss staat het zelfs in dit draadje, anders het voorgaande draadje, dat Tesla uitgerust zou worden met 448 Cuda cores ipv van de GPGPU versie genaamd Fermi met 512 Cuda cores.
Volgens mij staat er in de TS en in dit topic genoeg over de 3/6GB varianten (2,4 en 5,2 GB met ECC aan) Verwacht ECHT geen 3GB GF100 over een paar maandjes. voor Graphics of Phys ZONDER I X is dit niet relevantDe strategie is in ieder geval zeker verbeterd, van GPGPU stuff, GFX afleiden, AMD doet het een beetje samen, meteen richten op beide markten. Geloof mij maar dat deze Fermi variant echt wel kont gaat schoppen. En ik verwacht dat de Tesla C20xx serie ook revolutionair gaat zijn.
Want, niemand heeft nog wat gezegd over die flinke bak geheugen wat op de kaarten zit, 3 GB is al nice, maar 6 GB!
Dat betekent maar één ding, deze kaarten hebben het nodig, vooral de verdubbeling zegt erg veel. Deze kaarten gaan ownen in de combi van GFX en Physics, reken uit als een GFX kaart hebt, en een PhysiX kaart hebt/had, zit je ook zo op meer dan 1GB.
"oude spul in een nieuw jasje" ? De Tesla 1000 serie (GT200b) is vorig jaar Mei onthuld en sinds Q308 te koop, hier is weinig nieuws aan. Het zegt ook geen hol over de releasedate voor de consumenten aangeizen C2050/70 zitten te wachten op 2GB memory modules die er simpelweg nog niet zijn.Wat komt er nou? Ik snap er geen **** meer van
ff van de site:
Available Tesla Products for Data Centers:
- Tesla S2050/S2070
- Tesla S1070
- Tesla M1060
http://www.nvidia.com/object/preconfigured_clusters.html
Available Tesla GPU Computing Processors:
- Tesla C2050/C2070
- Tesla C1060
http://www.nvidia.com/object/personal_supercomputing.html
Je kunt dus C1060 en S1070 1U kopen nu, tot eind januari, dan krijg je een zeer volledige upgrade van nVidia naar een echte Tesla C20xx GPU, weer typisch dat die dingen dan 240 Cuda (oude) cores herbergen. lekkere rebrand marketing uiteraard, good old nVidia style, laten we maar zeggen. Mss zegt dit wel wat over de release date. Hoewel nVidia aangeeft, Q2 voor de C2050 en Q3 voor C2070.
Welk verschil dan? in de foto's die nvidia tot nu toe heeft laten zien hebben we een Tesla kaart gehad met 1 DVI aansluiting (fake) Tesla kaart met 1 DVI aansluiting (echt) en de Quadro kaarten, als je naar het PCB kijkt van de kaarten die in de S2070 zitten zie je dat de layout (DVI/HDMI) gelijk is aan de huidige Quadro kaarten, inclusief aansluitingen voor Power en Audio.Dus er is wel een verschil tussen de 1U server versies en de desktop en workstation personal supercomuting versies, neem maar aan ook in de prijs, Charlie heeft het gewoon over 4 keer C2070, wat dus 1 x S2070 zal worden, avec 24GB onthoudspul samen erop.
Ik durf op dit moment te beweren dat de eerste Consument gebaseerde Fermi niet sneller is dan op dit moment verkrijgbare producten van de concurrentie (pin me hier maar op vast.)
[ Voor 103% gewijzigd door neliz op 23-12-2009 01:36 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 126513
Verder zal er nog een kleinere processor komen met minder nieuwe Cuda cores aan boord, maar wel met Fermi architectuur, en dus wel betaalbaar. Hier kunnen ze dus weer midrange kaarten van afleiden. Dus de echte vervangers voor de oudere GTX2xx serie.
Ik doe maar een gokje, 16 x 20, dus 320 Cuda cores, of 16 x 16, dus 256 Cuda cores, iets in die richting verwacht ik wel.
AMD's Stream Computing heeft het niet slecht gedaan, supercomputer in China o.a.
nVidia snapt dat deze markt van wetenschap vele malen groter is dan die paar GT4 en Grid 2 spelers. Gewoon een bedrijfstechnische slimme en misschien ook nodige zet om te overleven en te groeien.
Anoniem: 58485
Aan de andere kant, de hele naive houding als AMD Insignificant noemen met als eerste DX11 kaarten op de markt (waarop nvidia ook geen antwoord voorlopig heeft), terwijl ze zelf een gigantisch dikke chip proberen te ontwerpen wat tot nu toe alleen maar leid tot dikke slechte yields en geknipte cores ivm een 250W+ stroomverbruik waarbij Sli nog niet eens mogelijk is.
Aan de andere kant zit het meeste geld in o.a 3D applicaties waarbij de Quaddro / FireGL van toepassing zijn. De kaarten zijn nagenoeg identiek aan elkaar (3D game kaarten / 3D render kaarten) maar de ondersteuning in drivers is veel meer dan maandelijks een game-drivertje alleen.
Het is ook niet zo heel erg gek dat ze tot 8 keer hogere performance in double precision hebben dan de G200b, want de G200(b) heeft, om het recht voor zijn raap te zeggen, een uitermate teleurstellende double precision performance. Het mag, voor een kaart die als gpgpu-gpu werd gebracht, gewoon geen naam hebben.Anoniem: 126513 schreef op woensdag 23 december 2009 @ 01:16:
Ze claimen van de C20xx en S20xx series 8x snellere performance in double precision dan de C1060 . Gewoon oude GT200 serie.
520 GigaFlops - 620 GigaFlops voor de C20xx serie
Ook interessant, vind ik:
- Asynchronous Transfer
- NVIDIA Parallel DataCache technology
- NVIDIA GigaThread™ engine
Daarbij heeft de HD5870 ook zo'n 520 GigaFlops aan double precision rekenkracht. Of die van Fermi uiteindelijk zoveel beter gaat zijn, moet nog bezien worden.
Verder, zoals Neliz al zei: Tesla = Fermi = GPGPU.
Zodoende onder het motto beter laat dan nooit:
Nvidia's TechRadar UK: Fermi graphics architecture explained: Next-gen silicon 10 times as powerful as existing Nvidia chip

En de gamertjes maar kwijlen nav dat nieuwsbericht
Ja inderdaad. Die fout wordt heel veel gemaakt. Valt het straks alleen maar tegen als hij "maar" twee keer zo snel is als de GTX285. Terwijl dat geen slechte prestatie is.Da_DvD schreef op woensdag 23 december 2009 @ 13:00:
... in double precision floating point ja..![]()
En de gamertjes maar kwijlen nav dat nieuwsbericht
[ Voor 5% gewijzigd door Astennu op 23-12-2009 16:13 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
2x?Astennu schreef op woensdag 23 december 2009 @ 16:13:
Valt het straks alleen maar tegen als hij "maar" twee keer zo snel is als de GTX285. Terwijl dat geen slechte prestatie is.
1.5
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Can you blame them...Astennu schreef op woensdag 23 december 2009 @ 16:13:
[...]
Ja inderdaad. Die fout wordt heel veel gemaakt. Valt het straks alleen maar tegen als hij "maar" twee keer zo snel is als de GTX285. Terwijl dat geen slechte prestatie is.
Quote uit het artikel:
Dat stukje leest meer als onbeschaamde PR... buiten dat ik niet geloof dat nVidia ooit zal roepen dat de GeForce variant van Fermi 8 maal zo snel zal zijn als zijn voorganger...quote: TechradarYou might want to know exactly how fast a Fermi-based card is going to be. Nvidia wouldn't be drawn into anything other than fairly vague ideas. That's good enough for us. Apparently, it'll be a blast.
In theory it is eight times faster than the best GeForce, in practice what with other limiting factors, you'll see less than that, but it'll still destroy them.
Maar als onwetende gamer die dat bericht gelezen heeft zal je zeker enorm ontgoocheld zijn als de performantie maar 1.5 keer zo hoog zal zijn (kijkend naar toename van de geheugenbandbreedte)
BTW: Nog ouder maar enigzinds onverwacht ..
(oud nieuws) FiringSquad: NVIDIA's 3D Vision: 9 Months Later
Ik had eerder verwacht dat die technologie een stille dood zou zijn gestorven nml door: te duur, nog steeds niet goed werkend.. zwaardere GPU's nodig in feite (kijk maar naar de gebenchmarkte resoluties...)Maar blijkbaar blijft nVidia het ondersteunen, enigzinds omdat ze contractueel/PR verplicht waren?
Of zou het komen dat de Fermi gebaseerde kaarten plots wel deze technologie vlot gaan aankunnen (eventuele optimalisaties voor 2 frames tegelijkertijd te renderen ? daar meer floating point power hiervoor toch totaal geen nut voor heeft zou ik denken...)
Nu nVidia kan/kon ook gewoon rekenen op de brute power van hun volgende generatie kaarten
Maar in dat geval zal een full HD resolutie of hoger vermoedelijk nog steeds te hoog gegrepen zijn indien men ook AA wil enablen.
Fijn voor je, maar hou je negativiteit lekker voor jezelf. Noboy cares, nobody will.neliz schreef op woensdag 23 december 2009 @ 01:23:
Ik durf op dit moment te beweren dat de eerste Consument gebaseerde Fermi niet sneller is dan op dit moment verkrijgbare producten van de concurrentie (pin me hier maar op vast.)
Maar ik care wel over de wijze van discussieren. Trollen is niet gewenst.
[ Voor 10% gewijzigd door Edmin op 23-12-2009 20:41 ]
Anoniem: 59888
Dat je dat soort dingen niet wil horen betekent nog niet dat het niet gepost mag worden.
Waarom zou hij dat niet mogen zeggen? Mag je alleen maar als een fanboy roepen dat Fermi gehakt van de 5xxx serie van ATI gaat maken?epo schreef op woensdag 23 december 2009 @ 18:14:
[...]
Fijn voor je, maar hou je negativiteit lekker voor jezelf. Noboy cares, nobody will.
Ik hóóp voor ons en voor nVidia dat ze een beest van een kaart neerzetten en dat hij snel komt overigens. Ik wil keuze en concurrentie
Anoniem: 126513
Dit vond ik wel twee leuke stukjes uit het artikel:lightdestroyer schreef op woensdag 23 december 2009 @ 11:03:
Ik denk niet dat dit nieuwsbericht al eerder is gepasseerd in dit topic.
Zodoende onder het motto beter laat dan nooit:Nvidia's TechRadar UK: Fermi graphics architecture explained: Next-gen silicon 10 times as powerful as existing Nvidia chip
Zeer interessante uitspraak van nVidia:The transistors are so teeny and carry such a small charge that they can easily be flipped by Alpha particles from space (seriously), or more likely electromagnetic interference, creating a soft error. The error correction covers the register files, shared memory, caches and main memory.
32 threads engine en 128-bit double presicion floating point berekeningen? Of vloek ik nou? Het is natuurlijk wel voor de wetenschappelijke wereld die meer nauwkeurigheid kunnen gebruiken. Die integer berekeningen zullen ze niet zo naar omkijken.Get this: we asked if it could ray-trace a 3D world fast enough for gaming in real time on a consumer machine. Nvidia said yes it could…
Fermi is de architectuur, Tesla is de afgeleide van Fermi voor de wetenschappelijke wereld. Voor de rest dus blijkbaar GeForce en Quadro.
Oh ja 1,5x beter dan de (((G(T)200(b)))), en dat met een verbruik van 190W - 225W ...

Volgens mij was het als advies bedoelt van Epo richting Neliz.Anoniem: 59888 schreef op woensdag 23 december 2009 @ 18:33:
* Anoniem: 126513 cares
Dat je dat soort dingen niet wil horen betekent nog niet dat het niet gepost mag worden.
Anoniem: 287880
door alpha particles? lijkt me heel erg sterk. Gamma of beta ok (ik zit er niet heel erg meer in) maar alpha lijkt me toch te weinig doordringend vermogen hebben (of zeik ik nu teveel offtopicAnoniem: 126513 schreef op woensdag 23 december 2009 @ 19:45:
Dit vond ik wel twee leuke stukjes uit het artikel:
[...]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Nee, maar hij als ATI fanboy post alleen negatieve rotzooi, heb het echt gehad met die kerel en zijn manier van posten. Arrogantie op en top, snap niet dat hij die rommel kan blijven posten.Naluh! schreef op woensdag 23 december 2009 @ 19:10:
[...]
Waarom zou hij dat niet mogen zeggen? Mag je alleen maar als een fanboy roepen dat Fermi gehakt van de 5xxx serie van ATI gaat maken?
Ik hóóp voor ons en voor nVidia dat ze een beest van een kaart neerzetten en dat hij snel komt overigens. Ik wil keuze en concurrentie
Dan maak je maar een TR aan. Dit is niet de manier om je ongenoegen te spuien.
[ Voor 7% gewijzigd door Edmin op 23-12-2009 20:43 ]
Anoniem: 126513
Misschien dat de massa juist invloed heeft, beta deeltjes (elektronen, positronen) gaan er dwars door heen en gamma emissie al helemaal. Het lijkt mij ook erg onwaarschijnlijk maar het klinkt wel leuk, en daarnaast theoretisch gezien zal het altijd het geval zijn, als het al waar is lijkt het me sterk dat ze dat zonder een degelijk QM model het even via foutcorrectie rechtzetten, Heisenberg (uncertainty principle) zou achter zijn oren krabben denk ik zo.superwashandje schreef op woensdag 23 december 2009 @ 20:24:
door alpha particles? lijkt me heel erg sterk. Gamma of beta ok (ik zit er niet heel erg meer in) maar alpha lijkt me toch te weinig doordringend vermogen hebben (of zeik ik nu teveel offtopic)
Van dat zelfde stukje quote, vraag ik me toch serieus af wat "teeny" transistors eigenlijk zijn? Erg jeugdig en onzeker of een freudiaanse verspreking
The transistors are so teeny and carry such a small charge that they can easily be flipped by Alpha particles from space (seriously)
Rommel? Ik geef een paar performance hints, als jij betrouwbaardere informatie hebt dat Fermi sneller wordt dan dat dan hoor ik het graag. Over een paar weken (hopelijk eerder) kan iedereen zelf beargumenteren of de informatie die in de huidige NV presentaties staat een goed beeld schetst van de situatie of dat deze bepaalde verwachtingspatronen gaat schepen die misschien niet stroken met de realiteit.epo schreef op woensdag 23 december 2009 @ 20:36:
Arrogantie op en top, snap niet dat hij die rommel kan blijven posten.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Wooohooo. In ieder geval dus wel wat IQ verbeteringen.NVIDIA: Happy Holidays GeForce fans! Fun fact: GF100 supports a brand new 32x anti-aliasing mode for ultra high-quality gaming!
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Misschien en noob opmerking maar heb je daar erg veel aan?
Of is het meer een gimmick?
Liefhebber van Tweakers
Ik denk niet dat je echt veel merkt als je AA hoger instelt dan 8x maar ze kunnen natuurlijk niet achter blijven op de concurrentie (die met 16xAA Wide Tent ook al 32xAA aanbiedt, wat mij ook onzin lijkt om te gebruiken).pino22 schreef op donderdag 24 december 2009 @ 14:43:
32* AA?
Misschien en noob opmerking maar heb je daar erg veel aan?
Of is het meer een gimmick?
Maar je hebt gelijk, alles draait om cijfertjes en of het nu nodig is of niet, als het kan kun je niet achterblijven op je concurrent en dat zal de reden wel zijn
[ Voor 13% gewijzigd door pino85 op 24-12-2009 15:50 ]
Liefhebber van Tweakers
Ik zie het ook niet op de resoluties en scherm waarop ik speel eerlijk gezegd maar dat geldt wel voor meer IQ-optiespino22 schreef op donderdag 24 december 2009 @ 15:49:
Mja ik had dat idee al omdat zelf ik het verschil ook niet kan zien tussen 8* en 16* ( maar dat kon ook aan mij liggen)
Maar je hebt gelijk, alles draait om cijfertjes en of het nu nodig is of niet, als het kan kun je niet achterblijven op je concurrent en dat zal de reden wel zijn
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Had gehoopt dat het eerder zou zijn maar ja anderzijds had het ook nog later kunnen zijn als alles NVIDIA nog meer tegen zat
Het lanceren houd dat in van dan liggen de kaarten bij de reviewers of mogen we verwachten dat ze volop verkrijgbaar gaan zijn vanaf de lancering dat jij weet neliz?
Bedankt iig voor je nieuwtje en ik wist niet dat jij zo'n goede bronnen had bij NVIDIA
[ Voor 24% gewijzigd door pino85 op 26-12-2009 13:28 ]
Liefhebber van Tweakers
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Denk je dat dit van NV komt?pino22 schreef op zaterdag 26 december 2009 @ 13:25:
Bedankt iig voor je nieuwtje en ik wist niet dat jij zo'n goede bronnen had bij NVIDIA
[ Voor 106% gewijzigd door CJ op 26-12-2009 13:55 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Echter over 3 maanden kan alles een wereld van verschil zijn en is in deze scene een lange tijd.
De chipbakker gaf toch al aan dat het nu beter zou gaan met hun issue's dus daarom tegen de tijd dat NVIDIA ze moet lanceren zijn we 3 maanden verder en ik mag och hopen dat men dan alle problemen achter de rug heeft of iig een grote verbetering in de yields heeft
[ Voor 5% gewijzigd door pino85 op 26-12-2009 14:00 ]
Liefhebber van Tweakers
Dat geeft jullie misschien een indicatie wat je kan verwachten van R5870 LightningWhen the sane review was posted on the front page, MSI called and asked where the LN2 overclocking results were as the Lightning series are designed to be used for extreme overclocking. Although the card was going to be tested on LN2 somewhere this month, having a vendor request LN2 tests is something extraordinary, especially for reviewing websites. So, instead of postponing the session, my colleague Leeghoofd and I decided to do it last Friday.
[ Voor 30% gewijzigd door CJ op 26-12-2009 13:57 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wat een prestaties zeg
[ Voor 19% gewijzigd door pino85 op 26-12-2009 14:08 ]
Liefhebber van Tweakers
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Nou praat je jezelf wel een beetje tegen je vorige post staat dat fermi gelaunched wordt na Cebit maar naar mijn weten is Cebit in maart en volgens de roadmap is het eind januari begin februari..
CeBIT 2010
Tuesday 2 until Saturday 6 March 2010
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 263719
Nvidia delays Fermi to March 2010
Nvidia originally scheduled to launch Fermi in November 2009, but was delayed until CES in January 2010 due to defects, according to market rumors. However, the company recently notified graphics card makers that the official launch will now be in March 2010, the sources noted.
Dat het goed gaat met de yields van merk X wil niet zeggen dat het ook goed gaat met de yields van merk Y he. Het kan wel maar het hoeft niet.pino22 schreef op zaterdag 26 december 2009 @ 13:55:
De chipbakker gaf toch al aan dat het nu beter zou gaan met hun issue's dus daarom tegen de tijd dat NVIDIA ze moet lanceren zijn we 3 maanden verder en ik mag och hopen dat men dan alle problemen achter de rug heeft of iig een grote verbetering in de yields heeft
Heeft geen speciale krachten en is daar erg boos over.
Zie mijn post van de 26e
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Zoals jullie allicht weten is Intel druk bezig met IGP's te integreren in hun CPU's. Dat wil zeggen dat bij de volgende generatie mainstream CPU's (zoals de Pentium G6950 bijv) ook meteen een nieuwe generatie IGP zitten. We hebben het dan over de H55 IGP serie, waarschijnlijk krijgt hij de naam X5500 HD of simpelweg GMA HD.
Wanneer vergeleken met de vrij oude nVidia 9300 IGP verliest de Intel chip alsnog, maar het is wel een mooie stap voorwaards vergeleken met de 4500 HD serie.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Wie zou er het meest gebaat zijn bij deze review? Online pakken ze dit met twee handen aan om te laten zien dat ze nog in leven zijn.-The_Mask- schreef op dinsdag 29 december 2009 @ 18:44:
Hmmmm, dit is wel een nVidia topic, in het Intel topic zijn al heel wat reviews geplaatst.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
G215 komt naar de laptop
Het goede nieuws is, dat er een op de GT240 gebasseerde chip voor laptops op de markt komt.Het slechte nieuws is, dat het blijkbaar een GTS360M wordt genoemd, met (logisch) lagere specs dan de GT240.
Dit doet NVIDIA toch al een langere tijd
Nu lijkt het alleen des te meer dat je een nieuwe en veel snellere en zelfs DX 11 graka aanschaft gezien de benaming die ze er aan hangen.
Je kan het smerig noemen maar het hoort gewoon bij hun strategie keuze.
Blijkbaar werkt deze strategie erg goed en levert het veel geld in het laatje anders zou men wel stoppen met dit soort marketing
Het zal gewoon weer gaan verkopen want de consument koppelt een hoger getal direct aan nieuwe en beter.
[ Voor 10% gewijzigd door pino85 op 30-12-2009 09:58 ]
Liefhebber van Tweakers
Dat het goed werkt is 1 ding wat zeker is...pino22 schreef op woensdag 30 december 2009 @ 09:57:
Blijkbaar werkt deze strategie erg goed en levert het veel geld in het laatje anders zou men wel stoppen met dit soort marketing

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Anoniem: 292676
wow die laptops is brol, kijk eens naar de specsdahakon schreef op woensdag 30 december 2009 @ 06:20:G215 komt naar de laptop
Het goede nieuws is, dat er een op de GT240 gebasseerde chip voor laptops op de markt komt.
Het slechte nieuws is, dat het blijkbaar een GTS360M wordt genoemd, met (logisch) lagere specs dan de GT240.
- een rebrande gt240
- een quadcore maar 1.7 ghz -_-
- 15.6 inch full hd, is er een vergrootglas bij?
- 8 gig geheugen maar geen 64 bit OS wtf
Meet the Zotac GT240

Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik kan mij niet voorstellen dat het met twee van die kleine fannetjes stil is...neliz schreef op woensdag 30 december 2009 @ 17:50:
nvidia kan natuurlijk niet achter blijven met Batmobile coolers!
Meet the Zotac GT240
[afbeelding]
Computer says no
Het is een I7 quadcore met turbo modes ver over de 2GHz. 2,6 GHz dacht ik. Verder ook niet echt interessant nee.Anoniem: 292676 schreef op woensdag 30 december 2009 @ 17:05:
[...]
wow die laptops is brol, kijk eens naar de specs
- een rebrande gt240
- een quadcore maar 1.7 ghz -_-
- 15.6 inch full hd, is er een vergrootglas bij?
- 8 gig geheugen maar geen 64 bit OS wtf
@ neliz
Wat een ontzettend gave koeler maar of het efficiënt is ik betwijfel het. Zal flink wat lawaai maken met die mini fans.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Dit topic is gesloten.