ik vraag me eigenlijk af hoe veel hij werkelijk sneller is dat de ATI. Er zit geen laptop cpu in die laptop maar een desktop. Vandaar het hoge stroom verbruik maar ook hoger prestaties. wachten tot een bench met een laptop met gelijke CPU.
Bij de nVidia desktop hebben we kunnen zien dat TDP bij hun ook niet een max waarde is.
De GTX480 gaat full load dik over het TDP heen. Ik denk dat het best wel eens mogelijk is dat de hele HD5870M minder dan de helft van de GTX480M verbruikt.
De GTX480 gaat full load dik over het TDP heen. Ik denk dat het best wel eens mogelijk is dat de hele HD5870M minder dan de helft van de GTX480M verbruikt.
[ Voor 10% gewijzigd door Astennu op 18-06-2010 11:06 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 263922
Het TDP van ati is ook niet waterdicht, en dus ook niet blind te vertrouwen...
Dat doet niet af dat nvidia natuurlijk wel een heel stuk onzuiniger is dan ati per geleverde performance
Dat doet niet af dat nvidia natuurlijk wel een heel stuk onzuiniger is dan ati per geleverde performance
[ Voor 40% gewijzigd door Anoniem: 263922 op 18-06-2010 13:48 ]
Nja ze hebben zichzelf met dit soort acties. Thermal Design Power geeft aan hoeveel watt de cooling moet aan kunnen. Als je er dus voor kiest die lager op te geven dan wat de chip echt gaat verstoken kan het dus zijn dat in die situatie de cooler niet meer zal voldoen en de kaart dus oververhit raakt.Anoniem: 263922 schreef op vrijdag 18 juni 2010 @ 13:47:
Het TDP van ati is ook niet waterdicht, en dus ook niet blind te vertrouwen...
Dat doet niet af dat nvidia natuurlijk wel een heel stuk onzuiniger is dan ati per geleverde performance
Als je een cooler maakt voor 100 watt en max load doe je 120 watt dan kan dat een probleem zijn. Average zal het wel goed komen. Maar stel je geeft em een leuke reken taak waar je dus langere tijd full load haalt tja dan kan het dus mis gaan.
TDP moet gewoon de max zijn. En je kunt dan een andere maat gebruiken voor het gemiddelde. BV wat AMD doet met ACP. (Average CPU Power).
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
zou dat de oorzaak van het G92 laptop debakel kunnen zijn? Ik weet niet of er een officele verklaring is gekomen?
[ Voor 59% gewijzigd door ArgantosNL op 18-06-2010 14:11 ]
Bij hardware.info hebben ze wat info over de gf104..
http://www.hardware.info/...mp_van_nVidias_GF104_GPU/
Hij is een stuk kleiner dan GF100.. ~1miljard transistoren minder TDP 150 watt.
http://www.hardware.info/...mp_van_nVidias_GF104_GPU/
Hij is een stuk kleiner dan GF100.. ~1miljard transistoren minder TDP 150 watt.

[ Voor 12% gewijzigd door Xenomorphh op 18-06-2010 14:28 ]
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Das een persoon geloof ik, wat ook in het HWI artikel te lezen is.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ziet er nogal photoshop uit.
- Rechthoekige chip/package, wtf?
- Die rechtse memory chips liggen veel te ver uit elkaar in vergelijking met de bovenste, er is precies een stuk uitgeknipt.
- PCB wazig gemaakt om het knip- en plakwerk te verhullen.
- Rechthoekige chip/package, wtf?
- Die rechtse memory chips liggen veel te ver uit elkaar in vergelijking met de bovenste, er is precies een stuk uitgeknipt.
- PCB wazig gemaakt om het knip- en plakwerk te verhullen.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Mee eens, en de GF104-30 blabla is totaal niet wazig en lijkt er gewoon op geplakt.Noel schreef op vrijdag 18 juni 2010 @ 16:09:
Ziet er nogal photoshop uit.
- Rechthoekige chip/package, wtf?
- Die rechtse memory chips liggen veel te ver uit elkaar in vergelijking met de bovenste, er is precies een stuk uitgeknipt.
- PCB wazig gemaakt om het knip- en plakwerk te verhullen.
Omdat GPU's bijna altijd square zijn. Of als ze toch rechthoekig zijn, dan zijn ze quasi vierkant ipv uitgesproken rechthoekig.
Om het bij nVidia te houden: G80, G84, G92, GT200, GT200b, GF100 allemaal square.
Dan gaan ze nu ff een rechthoekige maken? No way.
Om het bij nVidia te houden: G80, G84, G92, GT200, GT200b, GF100 allemaal square.
Dan gaan ze nu ff een rechthoekige maken? No way.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Precies, en dat wo ai AMD lijkt er ook opgeshopt. Zeker weten bewerkt!spNk schreef op vrijdag 18 juni 2010 @ 17:36:
[...]
Mee eens, en de GF104-30 blabla is totaal niet wazig en lijkt er gewoon op geplakt.
edit:
Vergeet de 9400M niet, die was zelfs perfect vierkant!Noel schreef op vrijdag 18 juni 2010 @ 17:43:
Omdat GPU's bijna altijd square zijn. Of als ze toch rechthoekig zijn, dan zijn ze quasi vierkant ipv uitgesproken rechthoekig.
Om het bij nVidia te houden: G80, G84, G92, GT200, GT200b, GF100 allemaal square.
Dan gaan ze nu ff een rechthoekige maken? No way.
Alhoewel?
/edit
Wat meer on topic:
New Fermi with 512 shaders possible
Speculeren kan je leren!
Het klinkt mij als onzin in de oren.
Vooral "The launch of such a card depends solely on ATI's next move." lijkt me stug, waarom zou je een chip ontwerpen om het vervolgens niet uit te brengen als de concurrentie niets doet?
En als ze hem pas ontwerpen wanneer ATI met een nieuwe chip komt zijn ze weer veel te laat.
[ Voor 90% gewijzigd door daan! op 18-06-2010 17:59 ]
Anoniem: 357365
Umm en trouwens.. We hebben het hier niet over het rechthoekig zijn van een chip, want dat zijn ze namelijk allemaal. Het gaat hier om het wel of niet zijn van een vierkant..
Ten eerste kun je met foto's soms behoorlijk vertekende beelden creeren, maar belangrijker, de heatspreader hoeft misschien niet vierkant te zijn, maar wat zegt dat over de chip die eronder zit. Daar kun je nog steeds relatief weinig over zeggen, tenzij de heatspreader weggesloopt wordt.
Je kan de heatspreader niet van de kaart afhalen zonder de chip mee te nemen. De chip en de heatspreader zitten namelijk aan elkaar vast.
Anoniem: 263922
Als je een koeler op een product zet die de energie niet kan verwerken, mag je de kaart bij wet niet leveren, dat hardware info bijvoorbeeld tests niet goed uitvoert en kaarten zo door hitte kan laten crashen (test met gtx480 tri-sli), levert voor veel mensen een vertekent beeld op, ja ze worden heet, maar in een goed geventileerde kast (realistische situatie) is er niks aan de hand, ik heb bij een hw member gelezen dat zijn 480 maximaal 84 graden was uit een gpu-z log-file, dat bewijst maar weer het tegendeel, al raadt nv bij tri-sli watercooling aan.Astennu schreef op vrijdag 18 juni 2010 @ 13:55:
[...]
Nja ze hebben zichzelf met dit soort acties. Thermal Design Power geeft aan hoeveel watt de cooling moet aan kunnen. Als je er dus voor kiest die lager op te geven dan wat de chip echt gaat verstoken kan het dus zijn dat in die situatie de cooler niet meer zal voldoen en de kaart dus oververhit raakt.
Als je een cooler maakt voor 100 watt en max load doe je 120 watt dan kan dat een probleem zijn. Average zal het wel goed komen. Maar stel je geeft em een leuke reken taak waar je dus langere tijd full load haalt tja dan kan het dus mis gaan.
TDP moet gewoon de max zijn. En je kunt dan een andere maat gebruiken voor het gemiddelde. BV wat AMD doet met ACP. (Average CPU Power).
En dat hele verhaal met die TDP was me wel bekend, waar ik op doelde is dat beide partijen waarden opgeven die realistisch voor normaal gebruik en niet max zijn, dat doet men bij cpu's ook, dat is een stukje slimme marketing waar onwetende mensen geen rekening mee houden, maar er verder toch nooit last van zullen hebben, hetzelfde zoals een 9400gt met 2gb geheugen, dat is ook iets waar sommige mensen voor kiezen in de overtuiging dat die kaart dan beter is dan een 9800gtx met 512mb.
Anoniem: 172410
Heatspreaders zijn wel los te krijgen, het is alleen een erg riskante onderneming. Het is mogelijk om de heatspreader werkend los te krijgen maar zelfs mocht je het slopen valt de chip uiteraard gewoon nog te zien. Hij werkt alleen niet meerThe_Ownman schreef op zaterdag 19 juni 2010 @ 00:52:
Je kan de heatspreader niet van de kaart afhalen zonder de chip mee te nemen. De chip en de heatspreader zitten namelijk aan elkaar vast.
Anoniem: 172410
Als ik mij het goed herinner mat Intel de tdp als de gemiddelde waarde als typical use, terwijl AMD bij z'n CPU's de tdp aangeeft als de absolute maximumwaarde die ooit gehaald zou kunnen worden. Daarom dat AMD ook ACP in het leven heeft geroepen (gemiddeld 'realistisch' verbruik). Maar het blijkt dus dat ook die meetmethodes aan de praktijk aangepast kunnen worden als andere waarden wat beter uitkomen of de huidige chipgeneratie toch wel wat veel stroom gebruikt. *kuch* nVidia *kuch*Anoniem: 263922 schreef op zaterdag 19 juni 2010 @ 03:08:
En dat hele verhaal met die TDP was me wel bekend, waar ik op doelde is dat beide partijen waarden opgeven die realistisch voor normaal gebruik en niet max zijn, dat doet men bij cpu's ook, dat is een stukje slimme marketing waar onwetende mensen geen rekening mee houden, maar er verder toch nooit last van zullen hebben, hetzelfde zoals een 9400gt met 2gb geheugen, dat is ook iets waar sommige mensen voor kiezen in de overtuiging dat die kaart dan beter is dan een 9800gtx met 512mb.
Edit: o noes, Camacha's e v e r y where
De GF100 heeft ook 512 Shaders. Maar de yield zijn zo laag dat er amper kaarten zijn waar er 512 werken. Die zullen ze nu wel binnen. Als AMD dan straks met een nieuwe kaart komt brengen ze die uit.daan! schreef op vrijdag 18 juni 2010 @ 17:45:
[...]
Precies, en dat wo ai AMD lijkt er ook opgeshopt. Zeker weten bewerkt!
edit:
[...]
Vergeet de 9400M niet, die was zelfs perfect vierkant!
Alhoewel?
/edit
Wat meer on topic:New Fermi with 512 shaders possible
Speculeren kan je leren!
Het klinkt mij als onzin in de oren.
Vooral "The launch of such a card depends solely on ATI's next move." lijkt me stug, waarom zou je een chip ontwerpen om het vervolgens niet uit te brengen als de concurrentie niets doet?
En als ze hem pas ontwerpen wanneer ATI met een nieuwe chip komt zijn ze weer veel te laat.
Zal wel een soort van 7800 GTX 512 launch worden. Met amper kaarten. Maar gewoon om te proberen AMD dwars te zitten. Of ze moeten inmiddels betere yield hebben zodat ze er wat meer hebben. Maar dat verwacht ik eerlijk gezegd niet.
Waar het om gaat is de Definitie van TDP. En dat is het Maximum wat een chip verbruikt. Dat nVidia dat nou aan zijn laars lapt verandert niets aan de Definitie. Ik zeg ook niet dat de cooler van de GTX480 aan exact het TDP voldoet. We weten dat de cooler van de HD5970 ook veel meer aan kan dan de kaart verbruikt. Die kan makkelijk 400watt pakken in combinatie met de fan die er bij zit.
3e party fabikanten die aan de max TDP voldoen maar niet veel meer kunnen daar in de problemen raken. Natuurlijk zijn die niet gek en testen die of de cooler het aan kan. Maar dan komen zij er achter dat het TDP niet klopt. En dat ze veel meer nodig hebben.
Dat is de rede dat AMD met ACP kwam. TDP bleef de echte max bij hun. Intel gaf lagere waardes op dan de max. Zo kon de i7 makkelijk boven de 130 watt stock. Maar toch 120 watt opgeven. Consument denkt dan even zuinig maar dat was niet zo.
Daarom kwam ACP er om te laten zien wat een AMD CPU normaal zou gebruiken. Bij full load kun je redelijk dicht op het TDP komen. Al zitten AMD cpu's er vaak wat onder. Alleen de top modellen in hun TDP range niet. Dit zitten er wel heel dicht tegen aan.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik reageerde vooral op de volgende zin uit het bericht:Astennu schreef op zaterdag 19 juni 2010 @ 11:27:
[...]
De GF100 heeft ook 512 Shaders. Maar de yield zijn zo laag dat er amper kaarten zijn waar er 512 werken. Die zullen ze nu wel binnen. Als AMD dan straks met een nieuwe kaart komt brengen ze die uit.
"The twist is that there is a big possibility that this card won’t be based on the GF100, Nvidia's original Fermi chip."
Waar hij dat vandaan haalt is mij een raadsel en het klinkt als grote onzin.
Dat lijkt mij ook waarschijnlijker.Zal wel een soort van 7800 GTX 512 launch worden. Met amper kaarten. Maar gewoon om te proberen AMD dwars te zitten. Of ze moeten inmiddels betere yield hebben zodat ze er wat meer hebben. Maar dat verwacht ik eerlijk gezegd niet.
Anoniem: 263922
Tja bij jou hebben intel en nvidia het altijd gedaan, en amd is altijd het zwarte schaap wat alles volgens de regeltjes doet.Astennu schreef op zaterdag 19 juni 2010 @ 11:27:
[...]
Waar het om gaat is de Definitie van TDP. En dat is het Maximum wat een chip verbruikt. Dat nVidia dat nou aan zijn laars lapt verandert niets aan de Definitie. Ik zeg ook niet dat de cooler van de GTX480 aan exact het TDP voldoet. We weten dat de cooler van de HD5970 ook veel meer aan kan dan de kaart verbruikt. Die kan makkelijk 400watt pakken in combinatie met de fan die er bij zit.
3e party fabikanten die aan de max TDP voldoen maar niet veel meer kunnen daar in de problemen raken. Natuurlijk zijn die niet gek en testen die of de cooler het aan kan. Maar dan komen zij er achter dat het TDP niet klopt. En dat ze veel meer nodig hebben.
Dat is de rede dat AMD met ACP kwam. TDP bleef de echte max bij hun. Intel gaf lagere waardes op dan de max. Zo kon de i7 makkelijk boven de 130 watt stock. Maar toch 120 watt opgeven. Consument denkt dan even zuinig maar dat was niet zo.
Daarom kwam ACP er om te laten zien wat een AMD CPU normaal zou gebruiken. Bij full load kun je redelijk dicht op het TDP komen. Al zitten AMD cpu's er vaak wat onder. Alleen de top modellen in hun TDP range niet. Dit zitten er wel heel dicht tegen aan.
http://ark.intel.com/Product.aspx?id=37147 staat toch echt 130watt bij TDP, als je iemand wil overtuigen van het "bedrog" van iemand anders, moet je zelf niet gaan lopen liegen
En hij legt precies uit waarom het woord TDP bij de ene fabrikant strak gehanteerd wordt terwijl de ander een iets lossere aanpak erop nahoudt. Intel kan over haar producten roepen wat het wilt, geloof jij het direct en ben jij een blinde consument? Wat wil je nou?
Als je die vraag met ja beantwoordt, dan vraag ik me daarnaast ook nog eens sterk af wat je hier op GoT doet.
Als je die vraag met ja beantwoordt, dan vraag ik me daarnaast ook nog eens sterk af wat je hier op GoT doet.
[ Voor 40% gewijzigd door Jejking op 19-06-2010 18:14 ]
Joh heb even een cijfertje verkeerd over genomenAnoniem: 263922 schreef op zaterdag 19 juni 2010 @ 15:40:
[...]
Tja bij jou hebben intel en nvidia het altijd gedaan, en amd is altijd het zwarte schaap wat alles volgens de regeltjes doet.
http://ark.intel.com/Product.aspx?id=37147 staat toch echt 130watt bij TDP, als je iemand wil overtuigen van het "bedrog" van iemand anders, moet je zelf niet gaan lopen liegen


Het ging in het begin over de 965. Deze zou over zijn TDP van 130 watt heen gaan. Ik kan alleen die specifieke test niet terug vinden maar hier een vergelijking:

De Phenom II 955 en de Core 2 Quad Q9770 zijn 120 watt. Natuurlijk heb je hier ook met moederbord en chipset te maken. daarom zou het mooier zijn als je een goed overzicht zou hebben van wat elk onderdeel verbruikt. Maar die kan ik even niet vinden. Ik vind het verschil wel erg groot voor alleen chipset en andere zaken. ook al gebruiken i7's 1 mem module meer.
[ Voor 16% gewijzigd door Astennu op 19-06-2010 18:16 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nou volgens mij gebruikt een mem module 20 watt oid? Dacht ik ergens gelezen te hebben, dus dan klopt het aardig toch?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
20W? Dat ding loopt op ongeveer 1,7V. Aangezien W = V*A zou dat ding 11,8A moeten trekken! 
Nee, het een DIMM trekt (afhankelijk van type) ongeveer 1W.
Nee, het een DIMM trekt (afhankelijk van type) ongeveer 1W.
Het is trouwens P=I*U en I=Q/t maar dat doet er niet zo toe volgens mij heb je wel gelijk. Het kan volgens mij ook zijn dat elke geheugenchip op een geheugen module 1,7V trekt de vraag die je dan moet stellen is of het een de geheugenchips parallel of serie geschakeld zijn. Ik denk dat de chips allemaal parallel geschakeld zijn waardoor ze allemaal 1.7V spanning hebben en een lage stroomsterkte hebben.Edmin schreef op zaterdag 19 juni 2010 @ 22:42:
20W? Dat ding loopt op ongeveer 1,7V. Aangezien W = V*A zou dat ding 11,8A moeten trekken!
Nee, het een DIMM trekt (afhankelijk van type) ongeveer 1W.
Anoniem: 263922
Het is natuurlijk een lastige vergelijking tussen i7 x58 en phenomII, mede door die extra geheugenmodule/bijbehorende tripple channel controller, dan zou je imo beter tussen p55/i7, i5 en phenomII 890x een vergelijking moeten trekken, die platforms liggen korter bij elkaar dan het x58 platform, denk dat intel daar dan iets zuiniger uit de bus komt, al krijg je bij beide goede performance per watt, bij p4 en pentium d lag dat heel anders.
Anoniem: 254444
Ik heb hier een gtx285 zonder heatspreader draaien, werkt nog steeds prima. De chip zelf zat niet aan de heatspreader vast. Wel zat de chip heel dik volgesmeerd met goedkope meuk. Ter vergelijk zonder heatspreader draai ik ca 5C koeler vergeleken met een identieke kaart en koeler wel in een andere kast.The_Ownman schreef op zaterdag 19 juni 2010 @ 00:52:
Je kan de heatspreader niet van de kaart afhalen zonder de chip mee te nemen. De chip en de heatspreader zitten namelijk aan elkaar vast.
De X48 Core 2 Duo staat er ook bij. En die vergelijking gaat niet op want de i7 965 ging boven zijn TDP uit. Dat hoeft voor de nieuwe cpu's niet zo te zijn. Die hebben een nieuwe stepping en kunnen waarschijnlijk op een lagere spanning werken. Dus zitten wel binnen het TDP.Anoniem: 263922 schreef op zondag 20 juni 2010 @ 00:35:
Het is natuurlijk een lastige vergelijking tussen i7 x58 en phenomII, mede door die extra geheugenmodule/bijbehorende tripple channel controller, dan zou je imo beter tussen p55/i7, i5 en phenomII 890x een vergelijking moeten trekken, die platforms liggen korter bij elkaar dan het x58 platform, denk dat intel daar dan iets zuiniger uit de bus komt, al krijg je bij beide goede performance per watt, bij p4 en pentium d lag dat heel anders.
Het ging mij er om dat het wel eens voorkomt dat er chips uitkomen die een hoger verbruik hebben dan het op gegeven TDP en dat je dan problemen kan krijgen als je een cooler koopt van 130 watt. Jij denkt dat je aan het TDP voldoet maar als je dan max load gaat draaien is de 130 watt cooler niet voldoende.
Zelfde geld voor video kaarten. (en het gaat vooral op bij het kopen van after market coolers.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
gerucht: "Fermi 2" zou drie GPUs behelzen, alle drie als "groot" aan te merken. Efficiëntie verbeteringen is het kernwoord hier en er zou niets spectaculairs te verwachten zijn. GF119 zou de eerste GPU zijn die weer nieuwe architectonische foefjes introduceert, het is blijkbaar een speerpunt van nV om die zo snel mogelijk de deur uit te krijgen, maar dat wordt ergens medio volgend jaar.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik neem aan dat ze de huidige generatie dan wel door laten gaan. Want anders is het wel erg laat voor low end chippies. AMD heeft tegen die tijd de hele HD6xxx lineup in de markt staan.neliz schreef op maandag 21 juni 2010 @ 13:34:
gerucht: "Fermi 2" zou drie GPUs behelzen, alle drie als "groot" aan te merken. Efficiëntie verbeteringen is het kernwoord hier en er zou niets spectaculairs te verwachten zijn. GF119 zou de eerste GPU zijn die weer nieuwe architectonische foefjes introduceert, het is blijkbaar een speerpunt van nV om die zo snel mogelijk de deur uit te krijgen, maar dat wordt ergens medio volgend jaar.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dan zitten we iig al op 28nm. Een goed nieuwtje maar hopen dat nV niet nog eens dezelfde fout maakt: running headless into a new fab process.
GF119 zou de performance moeten hebben van G92.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 245699
Uitgebreide 'real-life' temperatuur test van de GTX480;
http://www.bjorn3d.com/read.php?cID=1888&pageID=9214
http://www.bjorn3d.com/read.php?cID=1888&pageID=9214
[ Voor 6% gewijzigd door Anoniem: 245699 op 21-06-2010 19:08 ]
Nog even dit, pre-GF100 waren er een aantal mensen (nv Tools) die mij op het hart drukten dat GF100 dit ontwerp zou krijgen, 20x21 of 19x21 waren veelgehoorde afmetingen.Noel schreef op vrijdag 18 juni 2010 @ 17:43:
Omdat GPU's bijna altijd square zijn. Of als ze toch rechthoekig zijn, dan zijn ze quasi vierkant ipv uitgesproken rechthoekig.
Om het bij nVidia te houden: G80, G84, G92, GT200, GT200b, GF100 allemaal square.
Dan gaan ze nu ff een rechthoekige maken? No way.
Laten we voorop stellen dat wanneer je ontwerp beter uit de verf komt op een rechthoekige chip, je 'm vooral ook zo moet maken.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 251563
Een beetje jammer dat de enige test waarbij ze het vergelijken met andere chips Furmark is, terwijl ze zelf al zeggen datie niet representatief is.Anoniem: 245699 schreef op maandag 21 juni 2010 @ 19:06:
Uitgebreide 'real-life' temperatuur test van de GTX480;
http://www.bjorn3d.com/read.php?cID=1888&pageID=9214

[ Voor 39% gewijzigd door Anoniem: 251563 op 21-06-2010 19:28 ]
Anoniem: 360578
Beste mensen ik heb het internet afgezocht maar ik kan nergens iets vinden over de GeForce GT320
Uiteraard staan er wel wat leuke getalletjes op de nvidia website maar dat zegt mij allemaal zo weinig
.
Ik vroeg me dan ook af of iemand mij kon vertellen of dit een beetje een redelijke kaart is om wat op te gamen enzo
bij voorbaad dank
Uiteraard staan er wel wat leuke getalletjes op de nvidia website maar dat zegt mij allemaal zo weinig

Ik vroeg me dan ook af of iemand mij kon vertellen of dit een beetje een redelijke kaart is om wat op te gamen enzo
bij voorbaad dank

Dit is niet het topic daarvoor en het antwoord is nee.Anoniem: 360578 schreef op maandag 21 juni 2010 @ 20:41:
Beste mensen ik heb het internet afgezocht maar ik kan nergens iets vinden over de GeForce GT320
Uiteraard staan er wel wat leuke getalletjes op de nvidia website maar dat zegt mij allemaal zo weinig.
Ik vroeg me dan ook af of iemand mij kon vertellen of dit een beetje een redelijke kaart is om wat op te gamen enzo![]()
bij voorbaad dank
edit: gebruik Firefox en installeer een Nederlands woordenboek ervoor.
[ Voor 6% gewijzigd door neliz op 21-06-2010 20:59 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 357365
Nee, je kan niet gamen op een GT320. En ik vond die website zo biased. Hij wordt misschien niet extreem veel warmer, maar zeker wel het warmst van allen. En dat verschil is enkel nog zo klein omdat er een gigantische koeler met raketaandrijving op zit. Hij gebruikt gewoon extreem veel stroom, dat je dat op kan lossen met veel koper en een krachtige fan is niets knaps aan..
Niet echt het goede topic, maar GT 320 zuigt écht om op te gamen, niet aan beginnen.Anoniem: 360578 schreef op maandag 21 juni 2010 @ 20:41:
Beste mensen ik heb het internet afgezocht maar ik kan nergens iets vinden over de GeForce GT320
Uiteraard staan er wel wat leuke getalletjes op de nvidia website maar dat zegt mij allemaal zo weinig.
Ik vroeg me dan ook af of iemand mij kon vertellen of dit een beetje een redelijke kaart is om wat op te gamen enzo![]()
bij voorbaad dank
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 102124
Ik lees nu net over de aankondiging van de Zalman VF3000F cooler voor de GTX 480.
Iemand idee wanneer deze te koop zou zijn?
En hoe moeilijk is het om deze te monteren (en de oude cooler te verwijderen)
Ik heb hier namelijk geen ervaring mee
Momenteel heb ik een GTX 480 van Asus, die onder load rond de 80-83 graden draait (fan op 60%)
Met zo'n cooler erop zou ik het wel naar 65 graden kunnen krijgen denk ik
Iemand idee wanneer deze te koop zou zijn?
En hoe moeilijk is het om deze te monteren (en de oude cooler te verwijderen)
Ik heb hier namelijk geen ervaring mee
Momenteel heb ik een GTX 480 van Asus, die onder load rond de 80-83 graden draait (fan op 60%)
Met zo'n cooler erop zou ik het wel naar 65 graden kunnen krijgen denk ik
Hmm hebben we wat gemist?
It looks like the initial GF104s are going to have at least one block of 32 shaders disabled if not two. The 336 shader number is likely an artifact of the stats program not being fully aware of the new chip yet, but Nvidia might have added the ability to disable half a cluster. GF108s shown at Computex had 96 of 128 shaders active.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Redelijk veel? Deze dingen zouden uit moeten komen vlak voordat de Evergreen refresh in Oktober/November.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Mja nVidia heeft gewoon de peg dat TSMC zo hard faalt. AMD heeft er ook wel last van maar iets minder. 32 en 28nm zijn namelijk geen half nodes van 40nm. Dus dat is geen makkelijke shrink. Dus het is logisch dat nVidia wou wachten. Echter ging 32nm niet door en 28nm is nog iets te ver weg. Dat is meer wat voor halverwege volgend jaar.
Dus ze moeten iets. Want hun huidige lineup hebben ze al veel te lang staan. Dus deels hebben ze het aan zichzelf te danken maar een deel komt ook door TSMC.
Dus ze moeten iets. Want hun huidige lineup hebben ze al veel te lang staan. Dus deels hebben ze het aan zichzelf te danken maar een deel komt ook door TSMC.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Door als een kip zonder kop 40nm in te rennen met hun highend-product, zitten ze nu met de problemen. Mijn advies is dus: eerst checken of alles klopt en dan pas bakken. Dan ben je iig 50% van de problemen al voor. Als TSMC er voor de rest nog een zooitje van maakt met 32nm en 28nm, is dat buiten jouw macht. nVidia dacht er mee weg te komen op een dergelijke monsterchip maar dat ging dus blijkbaar verkeerd. De gevolgen kennen we allemaal.
Als ik het goed heb komt nV dus eerst met hun low-end product (GF119) op de 28nm Markt. Maar dit zou een tijdje na AMD's high end 28nm producten moeten zijn. Deze stond al in de planning en zou betekenen dat andere producten die op 32nm bedoeld waren misschien zijn weggevallen voor 28nm producten.Jejking schreef op dinsdag 22 juni 2010 @ 14:35:
Door als een kip zonder kop 40nm in te rennen met hun highend-product, zitten ze nu met de problemen. Mijn advies is dus: eerst checken of alles klopt en dan pas bakken. Dan ben je iig 50% van de problemen al voor. Als TSMC er voor de rest nog een zooitje van maakt met 32nm en 28nm, is dat buiten jouw macht. nVidia dacht er mee weg te komen op een dergelijke monsterchip maar dat ging dus blijkbaar verkeerd. De gevolgen kennen we allemaal.
[ Voor 9% gewijzigd door neliz op 22-06-2010 14:42 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dan hebben we 't sowieso over Q2/Q3 2011, gezien de huidige problematiek.
Alle ik heb dan eindelijk toch nog eens een nieuwe TS gemaakt:
Ter ere dat het forum er terug is ;p
-> Doordat mijn laatste klad versie alweer een week of ouder was zijn de hernieuwde drivers weeral verouderd (nieuwe 256 WHQL drivers zijn uit). Ik zal hiervoor thuis nog eens kijken, maar mij kennende ging het dan weer een paar dagen uitlopen .. vandaar dat ik nu toch de nieuwe TS gepost heb zonder eerst weer alle drivers te overlopen.
-> Geruchten en nieuws sectie zijn nogal leeg daar mijn nieuws berichten nogal oud waren .. de tweakers frontpage berichten heb ik er maar ingelaten ..
anyway nieuw deeltje nadat ik deze 250% uit zijn voegen liet lopen
Ter ere dat het forum er terug is ;p
-> Doordat mijn laatste klad versie alweer een week of ouder was zijn de hernieuwde drivers weeral verouderd (nieuwe 256 WHQL drivers zijn uit). Ik zal hiervoor thuis nog eens kijken, maar mij kennende ging het dan weer een paar dagen uitlopen .. vandaar dat ik nu toch de nieuwe TS gepost heb zonder eerst weer alle drivers te overlopen.
-> Geruchten en nieuws sectie zijn nogal leeg daar mijn nieuws berichten nogal oud waren .. de tweakers frontpage berichten heb ik er maar ingelaten ..
anyway nieuw deeltje nadat ik deze 250% uit zijn voegen liet lopen
[Algemeen] nVidia Nieuwdiscussie Topic - Deel 47
Dit topic is gesloten.