[Algemeen] nVidia Nieuwdiscussie Topic - Deel 46 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 12 13 Laatste
Acties:
  • 69.460 views

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

ArgantosNL schreef op dinsdag 15 juni 2010 @ 10:54:
Fermi had toch clusters van 32? dan zouden 240 en 336 wat in dat artiekel staat niet kunnen. (niet deelbaar door 32)
Niet alle 256 cores gaan gebruikt worden. en 256 is wel deelbaar door 32 das namelijk 8. zie ook: http://www.brightsideofne...i-for-back-to-school.aspx

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
ArgantosNL schreef op dinsdag 15 juni 2010 @ 10:54:
Fermi had toch clusters van 32? dan zouden 240 en 336 wat in dat artiekel staat niet kunnen. (niet deelbaar door 32)
Zoals je verder in die artikels kan lezen zijn deze kaarten gebaseerd op de GF104(of 2) GPU.
In deze hebben ze (hopelijk veel) overbodige elementen eruit gehaald en de clusters anders gegroepeerd. Dit houdt oa inderdaad in dat er geen clusters meer van 32 zijn . (maar 16 in de plaats)
Maw een GF 102 4 op volle kracht zal hierdoor 16 clusters van 16 shaders ter beschikking hebben.

Momenteel heeft nVidia voor de GTX 460GF104 beslist om 15 van de 16 clusters te gebruiken.
En voor de GTX 460 21 van de 24 beschikbare clusters.
Ik vermoed persoonlijk dat de GTS 455 waarvan sprake is een zwakkere 460 zal wezen waarbij 1 of 2 clusters extra disabled zulen zijn (naargelang hoe goed of hoe slecht de GF102 kan gebakken worden..)

De overstap naar 16 shaders van 32 komende is logisch daar als er een defect is nVidia niet direct de volle 32 shaders hoeft te disablen, maar "slechts" 16. Hoe kleiner hoe beter in dit geval zeker doordat er sprake is dat het cache geheugen eruit zou gehaald zijn? Als dat laatste waar blijkt te zijn dan heeft het minder nut om de shaders in grotere getallen te bundelen.
(met de cache bij de GTX 480/470/465 hebben de 32 shaders van 1 en dezelfde cluster hun eigen cache geheugen gemeenschappelijk dat enkel voor hun beschikbaar is)

edit:

Sorry ik had effen GF104 en GF 102 (GTX 460) door elkaar gewisselt
Xenomorphh schreef op dinsdag 15 juni 2010 @ 11:03:
[...]


Niet alle 256 cores gaan gebruikt worden. en 256 is wel deelbaar door 32 das namelijk 8. zie ook: http://www.brightsideofne...i-for-back-to-school.aspx
Ik moet leren sneller typen..

Anyway 256 is inderdaad mooi deelbaar door 32 maar de resulterende 240 shaders waarvan nu sprake is echter totaal niet. En je kan moeilijk een helft van een cluster uitschakelen en de andere helft blijven gebruiken (indien dit mogelijk was had nVidia dit al lang gedaan denk ik ;) )
Hierdoor is er een groot vermoeden dat er overgeschakeld is naar een clustergrootte van 16 shaders.

[ Voor 23% gewijzigd door lightdestroyer op 15-06-2010 11:12 ]

Specs


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 28-05 08:46
waar staat die overstap naar clusters van 16 eigenlijk, ik heb er niks van gelezen. Of het ik gewoon niet goed gelezen :P. Het zijn nog om geruchten dus het kan zijn dat gf104 clusters van 16 heeft maar kan net zo goed 32 zijn. Het wordt wachten of er meer lekt over de low en mainstream aanbod van NV.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
24 is ook nog goed mogelijk. Net zoals met GT200 dat had. En dan is een GF104 met dezelfde specs als GT212 goed mogelijk (16 clusters van 24 met maximaal 384 SP, waarvan er 2 uitgeschakeld zijn voor de eerste incarnatie GTX460 (336 SP), en een 256-bit memory interface met 1 uitgeschakelde unit om op 192-bit uit te komen)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Ik denk dat clusters van 16 ook wel logisch is. Dan kunnen ze kleinere parts maken. Als je bedenkt dat de Geforce 9400 IGP er nu 16 heeft en dan de kleinste 128 zou worden(4 clusters werd 1 graphic cluster, zoals ik het begreep) dan betekend dat nu 48 voor 16x4= een graphic cluster als kleinste.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Ah inderdaad ik had niet meteen aan 24 gedacht als mogelijke kanidaat. 240 is dan ook mooi 10 clusters (Enkel zouden de geruchten dat er maximaal 256 shaders aanwezig zijn op de core fout zijn .. maar das meer dan goed mogelijk natuurlijk, het zijn geruchten dat de ronde doen, niet de waarheid.)

De enige reden dat ik op 16 uitkwam is wss gedeeltelijk beroepsmisvorming (altijd denken in machten van 2 :9 ) en dat ze door 16 te kiezen enkel de huidige cluster grootte door 2 moesten delen. Ik dacht dat dit misschien eenvoudiger was dan direct alles te herdesignen, maarja daar heb ik toch totaal geen beeld op.

In de gelinkte artikels staat er niet expliciet 16 genoemd hoor, enkel de hint dat de clustergrootte mogelijkerwijze veranderd is in het artikel van hardware.info:
Eerdere geruchten gingen nog uit van 240 shaderunits, een aantal dat meer logisch lijkt gezien de opbouw van de GF100 GPU met clusters van 32 shaderunits elk. Als het aantal van 336 cores klopt heeft nVidia dus een aanpassing doorgevoerd in de opbouw van de clusters.
echter in vr-zone had men enkel 16 en 48 als mogelijkheden gegeven (vanwege de 240/256)
While previous rumours suggested GF104 will be 240/256 SP and GF106 will be 128-160 SP, the current rumours suggest GF104 will be a far more powerful chip. The reason for the odd SP count of 336 is that the 460 could be that it is based on GF104, which realters the nature of each SM. The GF104 SM, then, contains either 16 or 48 SP - and perhaps, with some disabled for the 460 part.
48 Zag ikzelf niet als een échte mogelijkheid.
Waarom je clusters nog groter maken als je al zoveel problemen hebt met defecte gpu's en deze kaarten zich niet gaan verkopen als CUDA fabriekjes (daarvoor heeft nVidia de Tesla lijn uitgevonden tenslotte) ..
Hence de 16 shaders per cluster waar ik toe kwam ...

Wat me nu opvalt is dat men allemaal spreekt over een "krachtiger" GF104 en een 240 shader variant terwijl ik nog (oa in de TS) een GF102 voor ogen had die volledig overeen komt met de krachtiger GF104 terwijl "mijn" GF104 overeen komt met de zwakkere GF 104 variant.
Zou ik hieruit mogen afleiden dat de GF102 niet meer bestaat?
Maar die twee gf104 varianten zijn toch echt andere GPU's zou ik dan denken (totaal ander maximaal aantal shaders bv..)
Ik ga er wel vanuit dat de GF102/104/106 en 108 architecturaal niet veel zullen verschillen. Waar de 102 en de 104 echt goed op elkaar gaan lijken (high en low mid-end kaarten) en de 106 en 108 echt op de low end en de budget kaartjes gaan richten(en vermoedelijk misschien nog meer zaken disabled hebben(een 128 bit memorybus?).
Een mogelijkheid is ook dat iedereen de GF102 ook GF104 noemt omdat ze niet van elkaar verschillen buiten het maximaal aantal clusters ..
Subtiele info vraag om mijn TS in orde te krijgen ;)

Specs


Acties:
  • 0 Henk 'm!

  • windwarrior
  • Registratie: Januari 2009
  • Laatst online: 12-07-2024

windwarrior

ʍıupʍɐɹɹıoɹ

Een GTX485 op komst? - Hardware.info

Dat lijkt me nog eens een mooie toevoeging aan de reeks!

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Was te verwachten maar: Introductie in het najaar? Dan is SI er ook al. Ben bang dat het dan weer to little to late is voor nvidia. Ben benieuwd wat het stroom verbruik gaat worden, toch de achilleshiel van de serie.

[ Voor 8% gewijzigd door Anoniem: 134818 op 15-06-2010 15:53 ]


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

http://techpowerup.com/12...21_WHQL_Driver_Suite.html

Nou de lang verwachte drivers ben benieuwd..

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 357365 schreef op dinsdag 15 juni 2010 @ 00:34:
Inderdaad. Dat was dus precies wat ik probeerde te zeggen. Pas als een moderator het me eens is, wordt ik een beetje serieus genomen. Ze kunnen geen geld meer verdienen, daardoor moeten ze in de kosten snijden en dus kleiner worden. Dit kan maar enkel zo lang doorgaan totdat ze zelfs het management moeten ontslaan. Dus is het nu zo gek dat ik voorspel dat nVidia failliet gaat? Elk bedrijf gaat ooit falliet dus je weet gewoon: op een gegeven moment houd het op. Dit zal zeker niet anders zijn voor nVidia. En als een bedrijf falliet gaat, dan gaat de aandoelkeers ook naar beneden. Dus ik raad zeker geen nVidia aandelen aan op het moment..
Een modje zegt dat het geen jij zei wellicht plausibel is en onderbouwt dit. Dat deed jij niet dit wil trouwens niet zeggen dat elke onderbouwing ook een goede onderbouwing is. Hoe kom je er eigenlijk bij dat elk bedrijf ooit failliet gaat ? Trouwens aandelen van nVidia zijn op dit moment helemaal geen slechte aankoop de enige reden waarom ik er nu geen van zou kopen is de slechte eurokoers.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 134818 schreef op dinsdag 15 juni 2010 @ 15:52:
Ben bang dat het dan weer to little to late is voor nvidia.
Denk zo dat er weinig little aan de videokaart zal zijn. :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Hoe zit het eigenlijk met de mobiele varianten van de 4xx lijn? daar heb ik tot nu toe nog niets over gehoord.
en fermi lijkt me nu ook niet echt geschrikt voor entry-level GPU's :X gezien de matige performance per watt.

Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 30-05 15:27

epo

Anoniem: 357365 schreef op maandag 14 juni 2010 @ 23:00:
Ik zeg gewoon dat nVidia failliet gaat. Ze kunnen niet meer meedoen met discrete GPUs en ze kunnen geen CPUs bouwen dus ze kunnen hier ook niet hun GPUs bij indouwen. En die CPU+GPU combo die nemen de lagere helft van de markt in. Dus nVidia heeft geen toekomst tenzij ze in een keer iets totaal anders gaan doen zoals auto's bouwen.
onnodig

[ Voor 6% gewijzigd door Edmin op 15-06-2010 22:36 ]


Acties:
  • 0 Henk 'm!

Anoniem: 303530

ik doelde op de mainstream modellen, ik heb liever geen 150w PSU in mijn rugzak zitten...

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Eerst maar eens mainstream modellen voor de desktop denk ik. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 357365

Volgens mij hadden ze beter de 9800GTX architectuur kunnen pakken en hier 5 van aan elkaar vast kunnen plakken. Die lijkt altijd nog beter te schalen dan deze Fermi chips.. GPGPU is leuk voor bisnismen, maar wij willen gamen! En daar is ie niet zo goed in. Dan kun je beter GTS250 in SLI zetten. Kost je minder en geeft meer performance en staat ook nog eens vet lauw in je kast.. Soms snap ik nVidia niet, naja ik zal wel weer de enigste zijn zoals gebruikelijk 8)7

Acties:
  • 0 Henk 'm!

Anoniem: 263922

GTS250 sli is nauwelijks sneller dan een gtx280/285, laat staan een gtx295 of gtx480, en als je 5 van die g92 die's in een die zou onderbrengen, krijg je ook ruim 4x zo hoog TDP, zelfs op 40nm zou deze de gtx480 ruim te boven gaan in verbruik, en dan heb je nog geeneens tesselation ondersteuning en DX11 er in zitten.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
GTS250 SLI is ongeveer 80% sneller dan een enkelen GTS250 en de GTX480 is weer meer dan 200% sneller dan de GTS250. Dus dan zou een GTS250 in Tri-SLI moeten hebben die perfect schalen om aan de performance van de GTX480 te kunnen tippen. Een GTS250 is 231mm2 groot en een GTS480 529mm2 dus de drie GTS250 hebben zelfs een lagere performance zelfs als ze perfect schalen. Toch zijn ze groter qua die size namelijk 693mm2. Let wel de GTS250 zijn op 55nm gebakken maar dat doet niks af van het feit dat de aanname dat je beter een GTS250 in SLI of Tri-SLI of wat dan ook kunt zetten slecht is. De architectuur die de GTS250 gebruikt gaat ook al sinds de G80 mee weliswaar hier en daar aangepast maar dit is echt marginaal.

Waarschijnlijk ben je dus zoals gebruikelijk de enigste ;)
Shiz Frietjemet was me voor :/

[ Voor 4% gewijzigd door madmaxnl op 15-06-2010 22:54 . Reden: iemand was me al voor ]


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
Anoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Nee klopt, maar tegenwoordig zijn de texture units en rops toch een stuk ondergeschikte geworden aan pure kracht van de SPU's.

We kunnen het gewoon extrapoleren. Ik weet dat het dan niet klopt gezien de texture unites en rops, maar het gaat om het idee.

Cypress:
334mm2 320 SPU's(SPU per mm2=~0,95)
GF100
576mm2 480/512 SPU's(SPU per mm2=~0,89)

Gelijke grote:
334mm2 betekend voor Nvidia betekend 297 SPU's(Omhoog afgerond)
576mm2 betekend voor ATI 552 SPU's(Omhoog afgerond)

Dus per mm2 kan ATI iets meer kwijt qua SPU's. Neem je dan theoretische kracht per mm2 mee(omdat we het over optimaliseren hebben, komen we dichter in de buurt van de theoretische max) betekend dat voor ATI alleen nog maar meer voordeel.

Cypress 2720=8.14 Flop per mm2 en 8.5 per SPU.
GF100 1344.96= 2.33 Flop per mm2 en (met 480 shaders) 2.8 per SPU.

En voor de leuk: Op gelijke grote
Hyper Cypress(552 SPU's) 4692 Flop
Mini Fermi (296) 831.6 Flop

Dus qua pure SPU kracht en vulling doet ATI het iets beter, maar idd niet alle performance hangt daar van af. ROPs, Texture unites en laten we de tesselator ook niet vergeten, tellen ook nog mee. Dan natuurlijk geheugen bandbreedte en efficientie(ander kan je de SPU's niet vullen) en de als laatste natuurlijk de utilisatie graat van de SPU's (als in, shader code die het nodig heeft) tellen allemaal mee. Al kan je dus met een console game daar veel meer richting de maxen optimaliseren. Ik vraag me, na dit allemaal getypt te hebben of de console bouwers überhaupt wel geïnteresseerd zijn in de meest krachtige grafische processor. Ik denk dat ze liever goedkoop hebben(en in het verlengede daarvan: koel=minder koper/alu om te koelen). Denk dat daar door de performance per mm2, SPU per mm2 en huidige situatie het er beter uit ziet voor ATI.
Je argument is interessant en ik denk dat je op zich een goed punt maakt, maar er is meer belangrijk dan pure perf/mm2. Het belangrijkste is zelfs geheugenbandbreedte denk ik. Alle huidige consoles hebben een 128 bit bus naar het geheugen. Dit gaat waarschijnlijk niet veranderen (in ieder geval niet grotere worden ;)) in de volgende generatie, om de simpele reden dat de console veel te duur zou worden. De vraag is dus welke architectuur het beste overweg kan met minder bandbreedte. Ik denk dat de kans groot is dat we net als bij de 360 de komende generatie weer een soort buffer EDRAM chip gaan zien die direct in de GPU zit of in de zelfde package zit. Slimme caching en snelheid tussen EDRAM en de SMs op de GPU zullen waarschijnlijk erg belangrijk zijn.

Daarnaast zou het me ook niet verbazen als de verhouding tussen "SP"'s en TMUs heel anders zal liggen dan in huidige GPU's. Je maakt zelf een berekening hoeveel SP's de verschillende architecturen per mm2 zouden hebben, maar die klopt niet meer als je naar puur de grootte van SMs/cores gaat kijken. Wat je ziet op de die-shots van de moderne GPU's is namelijk dat de cores maar een beperkt deel van de totale chip innemen. Bij G200 was dit maar 25-30% geloof ik, van Fermi en RV870 weet ik het zo niet. Volgens mij is het dus voor NVIDIA heel goedkoop om meer SP's toe te voegen aan de chip. Het probleem is balans. Waarschijnlijk heeft het weinig nut om meer cores toe te voegen aan het huidige ontwerp omdat de bottleneck dan ergens anders ligt. De vraag is dus in waar die bottlenecks zouden liggen in de toekomstige console. Ook interessant is de vraag hoe de verhouding tussen cores en TMU's zal liggen. Misschien dat MS/Sony het wel een goed idee vindt om de developer veel meer cores te geven. Ontwikkelaars zullen toch hun engines en shaders aan gaan passen aan de mogelijkheden van de GPU, waar PC ontwikkelaars nu zich ook gewoon moeten aanpassen aan andere hardware die nu op de markt is. Als een console ontwikkelaar rekenkracht over heeft gaat hij misschien complexere (maar niet bandbreedte intensieve) opdrachten hiermee uitvoeren.

Kortom, het lijkt me een beetje voorbarig om te zeggen hoeveel SP's per mm2 een bepaalde architectuur heeft als we niet weten hoe de console architectuur er uit gaat zien. Laten we dan eens kijken of we kunnen kijken hoe groot een core bij AMD en NVIDIA is, dat geeft pas echt voer voor leuke speculatie ;)
Anoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Oh kom op dit is echt een wassen neus. Er bestaat geen 28nm fermi, dus daar kan een console bouwer NU niet eens voor kiezen(het ging om nu he :P ). Dan moet je ook nog maar af wachten hoe die gaat uit vallen.
Nee als je een slimme consolebouwer bent en je wil nu met minimale (Ik kan me voorstellen dat als je specifiekere eisen hebt, zeker richting gpGPU, je liever naar Nvidia toe gaat) inspanningen een GPU hebben, dan ga je naar AMD.
Nou, volgens mij ging het om 2012, en in 2012 wil een consolebakker op z'n minst een 28nm chip. Er bestaat inderdaad nog geen 28nm Fermi, maar er bestaat nog net zo min een 28nm RV870. Een RV870 afgeleide is wellicht ietsjes minder risicovol, maar daar staat tegenover dat Fermi een "modernere" architectuur is die beter uit de voeten kan met GPGPU, wat volgens mij op de volgende generatie consoles een zeer belangrijke feature gaat worden, als het makkelijk binnen de rest van de game gebruikt en gecombineerd kan worden.
Anoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Want je fermi, is ook maar een 'op geschaalde G80 architectuur'. Dat Nvidia claimt dat het de beste en nieuwste architectuur is sinds gesneden brood, zou ik gewoon laten gaan.
Mja, dat ben ik dan weer niet met je eens.

RV870 is nog steeds een RV670 met meer clusters en wat kleine verbeteringen. Er is aan de basis van de architectuur heel weinig veranderd. De laatste grote verandering was R600->RV670, waar texturing en de ring-bus flink onderhanden genomen zijn. AMD heeft de laatste 2 generaties maar aan 1 ding besteed en dat is optimalisatie. RV670 maakte een competitieve GPU uit de R600 architectuur, RV770 maakte er een zwaar geoptimaliseerde chip van en RV870 is gewoon een monster (in positieve zin). Uiteindelijk allemaal hele slimme keuzes van AMD, want RV870 is ondanks de relatieve leeftijd van het onderliggende ontwerp nog steeds een fantastische chip.

Kijken we echter naar de aanpassingen die NVIDIA heeft gemaakt tussen G80/G92 (die niet heel veel verschilden) en G200 en GF100 dan zie je daar enorme aanpassingen. Alle onderdelen zijn in de tussentijd onder handen genomen, van de SIMD ALU's (volledige IEEE FP support, FMA), via de cores zelf (elke core bestaat nu uit 2 "pipelines", SFU en load/store zijn nu aparte onderdelen van de core), cache (volledig coherent, unified address space voor alle geheugen, ECC voor alle geheugen), scheduling (uitvoering van verschillende kernels tegelijk), en uiteraard de hele verbouwing van tesselation, rasterization, setup, etcetera. Het enige waar weinig aan is veranderd is texture filtering (die overigens wel aangepakt is tussen G80 en G92).
Daarnaast zijn er ook tal van kleinschaliger verbeteringen: vele malen snellere context switching, grotere cache, meer threads in flight, etcetera.
Sorry, maar je kan dan veel zeggen van Fermi, maar het is geen opgeschaalde G80. Ja, de achterliggende filosofie en de basisideeen zijn het zelfde, maar daarblijft het dan ook zo'n beetje bij.
Anoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Klopt, ik heb zelf ook een G80 gehad, klokten lekker, goeie stock koeler, werden niet super heet. Alleen het dood gaan vind ik minder. Je moet ook bedenken dat ATI een heel andere aanpak heeft gekozen. Die, nu we zo ver zijn, beter blijkt te werken. Vergelijk het met Intel. Het was altijd, langere pipes, hogere klok. P4 zou 5Ghz moeten halen. Die kwamen er toen achter dat ze wel -erg- heet werden. Nvidia merkt nu ook dat zon gigantische chip niet lekker is om te hebben. Daardoor staan ze nu tegen een concurrent met een veel kleiner product. We weten allebei ook dat productie kosten niet alles zijn, dat je vooral betaald voor je RnD, maar het betekend wel dat je minder uit je wafers kan halen en als de yields al slecht zijn(geld voor ATI ook) dan krijg je het wel moeilijk met je marges.
Weet je, ik denk dat ik tegenwoordig zowaar ook "om" ben. Ik denk inderdaad dat een kleinere chip beter werkt dan een monsterchip. Uiteraard is het goed mogelijk dat NVIDIA pech heeft gehad de laatste generaties, maar dan nog laat de huidige situatie zien dat als je pech hebt met een dergelijk grote chip je ook meteen heel veel pech hebt. Ik ben echter niet per se tegenstander van een grote chip en ik denk dan ook niet dat het probleem in de yields zit, ik geloof dergelijke verhalen nog steeds niet echt. Ik denk dat het probleem van de grote chip niet in de grootte zit maar in de complexiteit. NVIDIA moet een chip van 3 miljard transistoren ontwerpen en optimaliseren. Het kost ze gewoon veel meer tijd en energie dan bij de 2.1 miljard transistoren die AMD heeft. Dat is wat ze opbreekt op het moment dat het dan fout gaat, zoals bij G200 en GF100 het geval was. Die verhalen van 20% yield en chips verkopen onder kostprijs klinken mij in de oren als grote bullshit.
Anoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Nah, we zijn het ook wel eens, alleen is de vraag waar we de nuance graag op zien :p.

[...]

Dit is tenminste beter dan de welles nietes spelletjes waar ik soms in beland. :F
Haha, dat is waar, alleen jammer dat deze meer intelligente discussies zoveel meer tijd kosten dan welles nietes ;)


=================
madmaxnl schreef op maandag 14 juni 2010 @ 16:33:
1. De RROD's van de Xbox360 zijn niet te wijten aan de Xenos chip van ATI. Het is immers MS die de koeling van de chip bepaald en niet ATI, ATI geeft slecht de TDP aan MS op. Dat M$ vervolgens geen fatsoenlijke koeling inbouwt is niet ATI zijn schuld tevens zie je dat Xbox360 nog wel wat nalatiger was op gebied van kwaliteit zoals de DVD-drive die krassen maakten.
Nou, uiteraard is hier niets te bewijzen, welke kant dan ook op, maar de GPU in de 360 lijkt wel de grote boosdoener te zijn voor de RROD. Het kan inderdaad zijn dat MS niet genoeg koeling heeft gehad voor het aangegeven TDP. Het kan ook zijn dat ATI niet binnen het opgegeven TDP heeft kunnen blijven. Het kan ook in het midden liggen, en het kan zelfs nog geen van deze redenen zijn. Feit is wel dat MS waarschijnlijk niet helemaal gelukkig is geweest met de situatie, dus ik weet nog niet zomaar of AMD wel zomaar een nieuw contract krijgt. Misschien wel hoor, maar de situatie die jij eerder schetste was dat MS reuze blij zou zijn geweest met de GPU die ze van ATI kregen, waardoor ze zeker weten weer in zee zouden gaan met AMD. Dat weet ik nog niet zo zeker.
madmaxnl schreef op maandag 14 juni 2010 @ 16:33:
Heb je trouwens een bron dat de Gamecube en Wii zelfde hardware hebben en ze alleen verschillen in clocksnelheid ? Want ik lees namelijk dat het min of meer een door ontwikkeling is van de voorgang.
Geen directe bron, maar Wikipedia zegt: "The Hollywood GPU is reportedly based on the Nintendo GameCube's "Flipper" GPU and is clocked 50% higher at 243 MHz[2], though none of the clock rates have been confirmed by Nintendo, IBM, or ATI." Dat komt ook overeen met de specificaties en met de berichten over de Broadway CPU, waar ongeveer het zelfde voor geldt.
Nintendo heeft heel bewust gekozen om niet veel te laten veranderen aan de GPU, zodat BC makkelijk te realiseren is. Gewoon een kwestie van de clocks omlaag gooien en de Wii is opeens een GameCube.
madmaxnl schreef op maandag 14 juni 2010 @ 16:33:
Ik heb trouwens nog een voordeel gevonden dat ATI heeft om een console "wins" te krijgen namelijk de ervaring die ze hebben met MCM aangezien dit principe zowel in de Wii als Xbox360 wordt gebruikt kunnen we er denk ik wel vanuit gaan dat dit voordeel heeft. nVidia heeft dit in de PS3 niet en dit komt waarschijnlijk zoals jij zei omdat ze met een "last minute" oplossing moesten komen.
MCM heeft weinig expertise nodig. Het zijn gewoon twee chips die binnen de package zelf verbonden zijn omdat dit kosten bespaart en snelheid oplevert ten opzichte van losse chips verbinden. Het is niet alsof een MCM een ander chipontwerp inhoudt, het is alleen de verbinding tussen de 2 chips die iets anders werkt.

Acties:
  • 0 Henk 'm!

  • Allubz
  • Registratie: Februari 2006
  • Laatst online: 29-05 23:42
Anoniem: 357365 schreef op dinsdag 15 juni 2010 @ 22:19:
Volgens mij hadden ze beter de 9800GTX architectuur kunnen pakken en hier 5 van aan elkaar vast kunnen plakken Die lijkt altijd nog beter te schalen dan deze Fermi chips..
De '9800GTX architectuur' is niets meer dan de g92 architectuur, al gebruikt in de 8800GT. Verder gewoon een volslagen zinloze optie en niet haalbaar, spreek, rendabel op basis van huidige SLi architectuur.
GPGPU is leuk voor bisnismen, maar wij willen gamen! En daar is ie niet zo goed in.
'Wij' willen niet gamen, 'wij' willen de kwaliteit van nVidiaproducten en -nieuws beoordelen en bediscussiëren, betrokken op alle mogelijke features. Verder is de GX480 een prima kaart om te gamen, de prijs of hitteontwikkeling doen voor het 'gamen' op zich niet terzake.
Dan kun je beter GTS250 in SLI zetten. Kost je minder en geeft meer performance en staat ook nog eens vet lauw in je kast.. Soms snap ik nVidia niet, naja ik zal wel weer de enigste zijn zoals gebruikelijk 8)7
Dat kan je niet beter om o.a. de redenen dat het simpelweg niet 'sneller' is en een redelijk aantal features zijn geïmplementeerd in de GF100 wat ervoor zorgt dat de g92 architectuur simpelweg niet meer afdoende is, alleen al als je doel specifiek gamen is.


Het is al eerder gezegd, je roept erg veel dingen in de Nieuwsdiscussietopics zonder een onderbouwing van hetgeen je beweert. Het is niet mijn bedoeling je persoonlijk aan te vallen, maar op Tweakers.net is het wel handig als iedereen een beetje geïnformeerd deelneemt aan de discussie en niet zonder onderbouwing die mensen hier tegenspreekt die al iets langer in de 'bisnis' is. Op deze manier blijven de Nieuwsdiscussietopics een beetje op niveau en de moeite waard om te lezen.

[ Voor 3% gewijzigd door Allubz op 16-06-2010 13:06 ]

Interesse in een custom build workstation, voor gaming, wetenschappelijke toepassingen, of puur om de stijl? Contact @ https://vogd.design


Acties:
  • 0 Henk 'm!

Anoniem: 102124

Wat die grafische chips voor volgende generatie consoles betreft, als we zo verder gaan, dat veel in 3d gaat worden, dan zullen die grafische chips nog een stuk beter moeten zijn dan de GTX 480 / ATI 5870.
Want bij 3D games verlies je bijna de helft van je frames (120hz) als ik het zo lees in diverse reviews over 3d gaming.
M.a.w. bij een game als L4D 2, wat normaal met alle eyecandy aan op 1920x1080 draait aan 100-120fps, haal je amper nog 60fps in 3D.
Da's wel nog goed te doen, maar L4D is nog een vrij 'lichte' game qua hardware.
Vraag me trouwens af hoe soepel games nu gaan draaien op een ps3... De meeste games halen geen 60fps, als je dan nog eens een hoop frames verliest door 3D gaming zal het helemaal leuk gaan worden.

Dus vlot gamen in 3D lijkt me nog een tijdje weg, laat staan met mainstream grafische kaarten...

Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 10:43
Anoniem: 102124 schreef op woensdag 16 juni 2010 @ 10:13:
Wat die grafische chips voor volgende generatie consoles betreft, als we zo verder gaan, dat veel in 3d gaat worden, dan zullen die grafische chips nog een stuk beter moeten zijn dan de GTX 480 / ATI 5870.
Want bij 3D games verlies je bijna de helft van je frames (120hz) als ik het zo lees in diverse reviews over 3d gaming.
M.a.w. bij een game als L4D 2, wat normaal met alle eyecandy aan op 1920x1080 draait aan 100-120fps, haal je amper nog 60fps in 3D.
Da's wel nog goed te doen, maar L4D is nog een vrij 'lichte' game qua hardware.
Vraag me trouwens af hoe soepel games nu gaan draaien op een ps3... De meeste games halen geen 60fps, als je dan nog eens een hoop frames verliest door 3D gaming zal het helemaal leuk gaan worden.

Dus vlot gamen in 3D lijkt me nog een tijdje weg, laat staan met mainstream grafische kaarten...
Je vergeet dat consoles fps-caps hebben van 30fps. Verder heeft niet iedereen een 3d-tv staan. Misschien kiezen de developers er wel voor om her en der wat eyecandy uit te schakelen, als iemand in 3d wilt spelen.

Acties:
  • 0 Henk 'm!

Anoniem: 102124

denk dat her en der wat eyecandy uitschakelen inderdaad vrij veel zal worden gedaan
Waarschijnlijk nog minder AA/AF en VSYNC uit (hello screentearing)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

3D is nog lang niet ver genoeg als je het afzet tegen wat we gewend zijn in 2D.

Alleen ligt er nu wel veel focus bij de industrie om dit te pushen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 298195

Marc Rademaker schreef op woensdag 16 juni 2010 @ 10:39:
[...]

Je vergeet dat consoles fps-caps hebben van 30fps. Verder heeft niet iedereen een 3d-tv staan. Misschien kiezen de developers er wel voor om her en der wat eyecandy uit te schakelen, als iemand in 3d wilt spelen.
Ik meende dat de ps3 wel game's @ 60 fps had draaien.
namellijk Wipeout HD, Warhawk, resistance , ridge racer 7, ninja gaiden sigma en misschien nog een paar meer .

Voor de 360 weet ik het niet

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Snoitkever schreef op woensdag 16 juni 2010 @ 00:22:
[...]
MCM heeft weinig expertise nodig. Het zijn gewoon twee chips die binnen de package zelf verbonden zijn omdat dit kosten bespaart en snelheid oplevert ten opzichte van losse chips verbinden. Het is niet alsof een MCM een ander chipontwerp inhoudt, het is alleen de verbinding tussen de 2 chips die iets anders werkt.
Of er voor MCM weinig of veel expertise nodig is weet ik niet. Maar Intel heeft met de Q6xxx wel een MCM oplossingen gehad en hierbij hadden ze twee chips met een TDP van 65 watt weten te combineren tot een TDP van 105 watt. Alhoewel TDP niet voor stroomverbruik staat heeft het blijkbaar wel zo zijn positieve effect. De vraag is dan waarom AMD ten tijden van de Q6xxx ook niet met een soortgelijke oplossing kwam om een quadcore te maken uit twee dualcores. AMD kwam namelijk veel te laat zijn quadcore die ook nog eens slecht presteerde maar dat ter zeiden. Hier uit kun je stellen dat een MCM oplossing niet zo gemakkelijk gemaakt is alhoewel ik me dan zelf tegenspreek. Want de Q6xxx kwam vlak na de E6xxx en de Q6xxx is een MCM van twee E6xxx chips dit zou kunnen betekenen dat MCM zo gepiept, we hebben het hier dan wel over Intel. Tevens vind ik het dan raar dat CJ zegt dat ATI met MCM ontwerpen ervaring mee heeft terwijl jij zegt dat met MCM ontwerpen weinig expertise gemoeid is. Dan heeft het namelijk helemaal geen nut om te vermelden dat ATI er ervaring mee heeft want dit is dan triviaal en zou betekenen dat nVidia deze kennis ook heeft.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

http://www.fudzilla.com/content/view/19199/1/

Als dat waar is over de gtx 475 snap ik nVidia echt niet meer.. Dan heeft hij 64 shaders minder als de GTX470 maar hij wordt wel hoger geplaatst. Dan zou die GF104 chip erg veranderd moeten zijn tegen over de GF100. Zouden de geruchten dan toch waar kunnen zijn dat het de nieuwe 8800GT wordt?

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Tja als de clocks hoger zijn kan hij best sneller zijn. En wellicht zit er ergens anders een bottelnek en niet bij het aantal shaders?

Maar ik zie het ook nog wel gebeuren dat de GTX470 in sommige gevallen sneller is. Denk ook aan de 8800 GTX vs 9800 GTX.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Xenomorphh schreef op donderdag 17 juni 2010 @ 07:58:
http://www.fudzilla.com/content/view/19199/1/

Als dat waar is over de gtx 475 snap ik nVidia echt niet meer.. Dan heeft hij 64 shaders minder als de GTX470 maar hij wordt wel hoger geplaatst. Dan zou die GF104 chip erg veranderd moeten zijn tegen over de GF100. Zouden de geruchten dan toch waar kunnen zijn dat het de nieuwe 8800GT wordt?
Hehe. Ik had het hier laatst toevallig nog met Bobo (Slobodan) van Fudzilla over. Leuke discussie over gehad. Blijkbaar heeft hij meer bevestiging gekregen en durft hij het ook te posten. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • TheKillingBean
  • Registratie: Maart 2006
  • Laatst online: 24-12-2023
Ik heb de volgende systeem:
Processor: Intel Core 2 Duo, E6600, Socket 775, Boxed
Moederbord: GigaByte GA-965P-DS3, Retail
Videokaart: ECS Geforce 8800 GTS, 320 MB, DDR3, PCI Express x16
Geheugen: Kingston KVR667D2N5K2/2G, 2048 MB, DDR2, PC5300, 667 MHz, 2 x
Behuizing: Antec Sonata II, Zwart

Omdat ik mijn systeem wat wil verbeteren voor spellen (lees Starcraft 2 en Battlefield) is het voor mij een voorruit gang als ik een betere nVidia videokaart koop? Zo, ja welke nVidia raden jullie mij aan? Of is mijn processor de bottleneck.

[ Voor 8% gewijzigd door TheKillingBean op 17-06-2010 10:15 ]

PSN: http://psnprofiles.com/TheKillingBean | Xbox Live: https://www.xboxgamertag.com/search/TheKillingBean


Acties:
  • 0 Henk 'm!

Anoniem: 298195

Dit is een nvidia nieuws discussie topic...

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

12juli worden 2 GTX460's gelaunched. 1 Kaart met 1GB geheugen en 256 bit geheugen bus en 1 met 192bit geheugen bus en 768MB geheugen.

http://www.fudzilla.com/content/view/19206/1/

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • TheKillingBean
  • Registratie: Maart 2006
  • Laatst online: 24-12-2023
Anoniem: 298195 schreef op donderdag 17 juni 2010 @ 10:22:
Dit is een nvidia nieuws discussie topic...
Ok waarom staat er dan [Algemeen] ervoor. Ik wil ook wel een nieuwe topic starten, al lijkt me dat wat vervuiling.

PSN: http://psnprofiles.com/TheKillingBean | Xbox Live: https://www.xboxgamertag.com/search/TheKillingBean


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

TheKillingBean schreef op donderdag 17 juni 2010 @ 11:28:
[...]


Ok waarom staat er dan [Algemeen] ervoor. Ik wil ook wel een nieuwe topic starten, al lijkt me dat wat vervuiling.
Misschien omdat nVidia meer maakt dan enkel videokaarten? ;)

Nieuw topic heeft geen zin, gaat dicht. Reviews lezen gaat je meer helpen.

Acties:
  • 0 Henk 'm!

Anoniem: 134818

En anders naar de [BBG aanschaf] threads.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Xenomorphh schreef op donderdag 17 juni 2010 @ 07:58:
http://www.fudzilla.com/content/view/19199/1/

Als dat waar is over de gtx 475 snap ik nVidia echt niet meer.. Dan heeft hij 64 shaders minder als de GTX470 maar hij wordt wel hoger geplaatst. Dan zou die GF104 chip erg veranderd moeten zijn tegen over de GF100. Zouden de geruchten dan toch waar kunnen zijn dat het de nieuwe 8800GT wordt?
Wellicht dat de GTX475 wel ondanks dat die minder shaders heeft echt sneller is of andere voordelen bied die de naam rechtvaardigen. Voor het zelfde geld gaan ze lekker leuk doen met de namen en mensen voor de gek houden: GTX485 die sneller is dan de GTX480, GTX475 en de GTX465 die langzamer zijn dan de GTX470 en de GTX460 zijn heus wel mensen die er in kunnen trappen. Ik weet eigenlijk wel zeker dat ze dit niet zullen dan want het slaat nergens op.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Als ik dit artikel lees:

http://www.fudzilla.com/content/view/19194/1/

Zou het kunnen komen omdat ze het l2 cache eruit hebben gesloopt. Hier door kunnen ze hoge clocks halen. Misschien wel HD5870 achtige clocks? 800Mhz core?

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Haalt nVidia met zijn GF104 lekker yields ? Want het ziet er dus naar uit dat de GF104 dan een goed gebakken chip wordt met weinig fouten e.d waardoor hij dus goed zou overclocken en dus in de GTX475 variant zelfs zo hoog geclockt zou zijn dat hij boven de GTX470 uitkomt. De L2 cache en andere specifiek GPGPU gerichten dingen eruit gooien doet volgens mij wel weinig aan het stroomverbruik zo zal de L2 cache maar marginaal het stroomverbruik verhogen. Mits het stroomverbruik van L2 cache in een GPU relatief even veel verbruikt als de L2 cache in een CPU.

We zullen het zie.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Volgens de mensen met bronnen was de tapeout van de GF104 nog voordat A3 van GF100 terug kwam en dus voordat er het besef was dat er grondigere veranderingen nodig zijn voor goede yields. Dan moet je denken aan de zaken als dubbele Via's en inconsistente transistor-lengtes, dingen die AMD heeft ontdekt met de RV740.
Als nVidia de GF104 op dezelfde manier heeft ontworpen als de GF100, wat waarschijnlijk is, dan zullen die dubbele Via's e.d. dus niet aanwezig zijn, wat niet ten goede zal komen aan de yields. Dit is natuurlijk deels op te vangen door lagere clocks te hanteren, clusters uit te schakelen en voltages op te pompen. De vraag zal alleen zijn hoeveel bruikbare chips ze daarmee dan kunnen krijgen.

Acties:
  • 0 Henk 'm!

Anoniem: 357365

Als het al in de tijd van de RV740 duidelijk was dat dubbele via's nodig waren, waarom heeft nVidia deze er dan niet meteen ingedouwd?

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Omdat nVidia-chips misschien anders werken en ATi / AMD die informatie niet zomaar op straat gooien?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Als het aan OneOverPrime moet DAAMIT gewoon open kaartspelen . Ik geef hem groot gelijk want die stomme marketingafdeling had nVidia op de hoogten van de problemen met het 40nm productie procedé van TSMC moeten stellen. Dat is namelijk veel beter voor de consumenten :>

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

madmaxnl schreef op donderdag 17 juni 2010 @ 21:18:
Als het aan OneOverPrime moet DAAMIT gewoon open kaartspelen . Ik geef hem groot gelijk want die stomme marketingafdeling had nVidia op de hoogten van de problemen met het 40nm productie procedé van TSMC moeten attenderen. Dat is namelijk veel beter voor de consumenten :>
Het zal ongetwijfeld sarcasme zijn. Maar goed dat is natuurlijk niet zo goed voor ATI :+ Aangezien nVidia dan betere yields zou kunnen halen en dus hogere clock snelheden waar vervolgens een enkele Fermi dichter naar en HD5970 kan kruipen. Maar goed het zou idd wel beter zij voor de consument.. nVidia sneller op de markt ATI kaarten goedkoper, al is dat niet gekomen nu de nVidia kaarten op de markt zijn gekomen.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Anoniem: 303530

de eerste review van de 480M is binnen......

http://www.notebookcheck....-Clevo-D901F.32251.0.html

schrik niet, deze notebook heeft een maximum verbruik van 7(8)7 318w! 7(8)7
bijna het dubbele van ATI's mobiele krachtpaster (i7 740m, HD5870), al moet daarbij worden vermeld dat de nvidia tegenhanger een desktop CPU bezit (+70w?)

ik gok op een accuduur van minder de gemiddelde reclame :+


edit: vooral interessant vind ik het volgende plaatje:
Afbeeldingslocatie: http://i.imgur.com/gS90e.png
ondanks het veel lagere aantal transistoren scoort de 5870 ongeveer gelijk per watt

[ Voor 14% gewijzigd door Anoniem: 303530 op 17-06-2010 22:29 ]


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Anoniem: 303530 schreef op donderdag 17 juni 2010 @ 22:16:
de eerste review van de 480M is binnen......

http://www.notebookcheck....-Clevo-D901F.32251.0.html

schrik niet, deze notebook heeft een maximum verbruik van 7(8)7 318w! 7(8)7
bijna het dubbele van ATI's mobiele krachtpaster (i7 740m, HD5870), al moet daarbij worden vermeld dat de nvidia tegenhanger een desktop CPU bezit (+70w?)

ik gok op een accuduur van minder de gemiddelde reclame :+


edit: vooral interessant vind ik het volgende plaatje:
[afbeelding]
ondanks het veel lagere aantal transistoren scoort de 5870 ongeveer gelijk per watt
http://hothardware.com/Ar...Fastest-Notebook-GPU-Yet/
Hier nog 1. Ze zijn er wel over te spreken als je gebruik niet meetelt..

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 10:43
Anoniem: 303530 schreef op donderdag 17 juni 2010 @ 22:16:
de eerste review van de 480M is binnen......

http://www.notebookcheck....-Clevo-D901F.32251.0.html

schrik niet, deze notebook heeft een maximum verbruik van 7(8)7 318w! 7(8)7
bijna het dubbele van ATI's mobiele krachtpaster (i7 740m, HD5870), al moet daarbij worden vermeld dat de nvidia tegenhanger een desktop CPU bezit (+70w?)

ik gok op een accuduur van minder de gemiddelde reclame :+


edit: vooral interessant vind ik het volgende plaatje:
[afbeelding]
ondanks het veel lagere aantal transistoren scoort de 5870 ongeveer gelijk per watt
Wat bedoel je met scoort gelijk per watt? De GTX 480M heeft een tdp van 100W, de HD 5870 Mobility heeft een tdp van 50W. 1/3e aantal transistors, 30% lagere prestaties, helft van het verbruik?

Acties:
  • 0 Henk 'm!

Anoniem: 303530

volgens het artikel bevat de TDP van de ATI enkel de chip, niet het RAM en de andere zooi eromheen
...maar dat kan ook onzin zijn natuurlijk, feit blijft dat je TDP niet zomaar 1 op 1 kan vergelijken.

Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 28-05 08:46
ik vraag me eigenlijk af hoe veel hij werkelijk sneller is dat de ATI. Er zit geen laptop cpu in die laptop maar een desktop. Vandaar het hoge stroom verbruik maar ook hoger prestaties. wachten tot een bench met een laptop met gelijke CPU.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Bij de nVidia desktop hebben we kunnen zien dat TDP bij hun ook niet een max waarde is.

De GTX480 gaat full load dik over het TDP heen. Ik denk dat het best wel eens mogelijk is dat de hele HD5870M minder dan de helft van de GTX480M verbruikt.

[ Voor 10% gewijzigd door Astennu op 18-06-2010 11:06 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Het TDP van ati is ook niet waterdicht, en dus ook niet blind te vertrouwen...

Dat doet niet af dat nvidia natuurlijk wel een heel stuk onzuiniger is dan ati per geleverde performance

[ Voor 40% gewijzigd door Anoniem: 263922 op 18-06-2010 13:48 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Anoniem: 263922 schreef op vrijdag 18 juni 2010 @ 13:47:
Het TDP van ati is ook niet waterdicht, en dus ook niet blind te vertrouwen...

Dat doet niet af dat nvidia natuurlijk wel een heel stuk onzuiniger is dan ati per geleverde performance
Nja ze hebben zichzelf met dit soort acties. Thermal Design Power geeft aan hoeveel watt de cooling moet aan kunnen. Als je er dus voor kiest die lager op te geven dan wat de chip echt gaat verstoken kan het dus zijn dat in die situatie de cooler niet meer zal voldoen en de kaart dus oververhit raakt.

Als je een cooler maakt voor 100 watt en max load doe je 120 watt dan kan dat een probleem zijn. Average zal het wel goed komen. Maar stel je geeft em een leuke reken taak waar je dus langere tijd full load haalt tja dan kan het dus mis gaan.

TDP moet gewoon de max zijn. En je kunt dan een andere maat gebruiken voor het gemiddelde. BV wat AMD doet met ACP. (Average CPU Power).

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 28-05 08:46
zou dat de oorzaak van het G92 laptop debakel kunnen zijn? Ik weet niet of er een officele verklaring is gekomen?

[ Voor 59% gewijzigd door ArgantosNL op 18-06-2010 14:11 ]


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Bij hardware.info hebben ze wat info over de gf104..

http://www.hardware.info/...mp_van_nVidias_GF104_GPU/

Hij is een stuk kleiner dan GF100.. ~1miljard transistoren minder TDP 150 watt.

Afbeeldingslocatie: http://images.hardware.info/news/GF104.jpg

[ Voor 12% gewijzigd door Xenomorphh op 18-06-2010 14:28 ]

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 28-05 08:46
staat er op dat watermerk nou "amd" :)

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

ArgantosNL schreef op vrijdag 18 juni 2010 @ 14:42:
staat er op dat watermerk nou "amd" :)
Das een persoon geloof ik, wat ook in het HWI artikel te lezen is.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 15-11-2024
Ziet er nogal photoshop uit.

- Rechthoekige chip/package, wtf?
- Die rechtse memory chips liggen veel te ver uit elkaar in vergelijking met de bovenste, er is precies een stuk uitgeknipt.
- PCB wazig gemaakt om het knip- en plakwerk te verhullen.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Anoniem: 357365

Wat is er mis met een rechthoekige chip/ package? Dat hebben zoveel chips..

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Noel schreef op vrijdag 18 juni 2010 @ 16:09:
Ziet er nogal photoshop uit.

- Rechthoekige chip/package, wtf?
- Die rechtse memory chips liggen veel te ver uit elkaar in vergelijking met de bovenste, er is precies een stuk uitgeknipt.
- PCB wazig gemaakt om het knip- en plakwerk te verhullen.
Mee eens, en de GF104-30 blabla is totaal niet wazig en lijkt er gewoon op geplakt.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 15-11-2024
Omdat GPU's bijna altijd square zijn. Of als ze toch rechthoekig zijn, dan zijn ze quasi vierkant ipv uitgesproken rechthoekig.

Om het bij nVidia te houden: G80, G84, G92, GT200, GT200b, GF100 allemaal square.

Dan gaan ze nu ff een rechthoekige maken? No way.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
spNk schreef op vrijdag 18 juni 2010 @ 17:36:
[...]

Mee eens, en de GF104-30 blabla is totaal niet wazig en lijkt er gewoon op geplakt.
Precies, en dat wo ai AMD lijkt er ook opgeshopt. Zeker weten bewerkt!

edit:
Noel schreef op vrijdag 18 juni 2010 @ 17:43:
Omdat GPU's bijna altijd square zijn. Of als ze toch rechthoekig zijn, dan zijn ze quasi vierkant ipv uitgesproken rechthoekig.

Om het bij nVidia te houden: G80, G84, G92, GT200, GT200b, GF100 allemaal square.

Dan gaan ze nu ff een rechthoekige maken? No way.
Vergeet de 9400M niet, die was zelfs perfect vierkant!
Alhoewel?
/edit

Wat meer on topic:

New Fermi with 512 shaders possible



Speculeren kan je leren!

Het klinkt mij als onzin in de oren.
Vooral "The launch of such a card depends solely on ATI's next move." lijkt me stug, waarom zou je een chip ontwerpen om het vervolgens niet uit te brengen als de concurrentie niets doet?
En als ze hem pas ontwerpen wanneer ATI met een nieuwe chip komt zijn ze weer veel te laat. :?

[ Voor 90% gewijzigd door daan! op 18-06-2010 17:59 ]


Acties:
  • 0 Henk 'm!

Anoniem: 357365

Umm en trouwens.. We hebben het hier niet over het rechthoekig zijn van een chip, want dat zijn ze namelijk allemaal. Het gaat hier om het wel of niet zijn van een vierkant..

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ten eerste kun je met foto's soms behoorlijk vertekende beelden creeren, maar belangrijker, de heatspreader hoeft misschien niet vierkant te zijn, maar wat zegt dat over de chip die eronder zit. Daar kun je nog steeds relatief weinig over zeggen, tenzij de heatspreader weggesloopt wordt.

Acties:
  • 0 Henk 'm!

  • The_Ownman
  • Registratie: Juli 2007
  • Laatst online: 12-03 22:46
Je kan de heatspreader niet van de kaart afhalen zonder de chip mee te nemen. De chip en de heatspreader zitten namelijk aan elkaar vast.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Astennu schreef op vrijdag 18 juni 2010 @ 13:55:
[...]


Nja ze hebben zichzelf met dit soort acties. Thermal Design Power geeft aan hoeveel watt de cooling moet aan kunnen. Als je er dus voor kiest die lager op te geven dan wat de chip echt gaat verstoken kan het dus zijn dat in die situatie de cooler niet meer zal voldoen en de kaart dus oververhit raakt.

Als je een cooler maakt voor 100 watt en max load doe je 120 watt dan kan dat een probleem zijn. Average zal het wel goed komen. Maar stel je geeft em een leuke reken taak waar je dus langere tijd full load haalt tja dan kan het dus mis gaan.

TDP moet gewoon de max zijn. En je kunt dan een andere maat gebruiken voor het gemiddelde. BV wat AMD doet met ACP. (Average CPU Power).
Als je een koeler op een product zet die de energie niet kan verwerken, mag je de kaart bij wet niet leveren, dat hardware info bijvoorbeeld tests niet goed uitvoert en kaarten zo door hitte kan laten crashen (test met gtx480 tri-sli), levert voor veel mensen een vertekent beeld op, ja ze worden heet, maar in een goed geventileerde kast (realistische situatie) is er niks aan de hand, ik heb bij een hw member gelezen dat zijn 480 maximaal 84 graden was uit een gpu-z log-file, dat bewijst maar weer het tegendeel, al raadt nv bij tri-sli watercooling aan.

En dat hele verhaal met die TDP was me wel bekend, waar ik op doelde is dat beide partijen waarden opgeven die realistisch voor normaal gebruik en niet max zijn, dat doet men bij cpu's ook, dat is een stukje slimme marketing waar onwetende mensen geen rekening mee houden, maar er verder toch nooit last van zullen hebben, hetzelfde zoals een 9400gt met 2gb geheugen, dat is ook iets waar sommige mensen voor kiezen in de overtuiging dat die kaart dan beter is dan een 9800gtx met 512mb.

Acties:
  • 0 Henk 'm!

Anoniem: 172410

The_Ownman schreef op zaterdag 19 juni 2010 @ 00:52:
Je kan de heatspreader niet van de kaart afhalen zonder de chip mee te nemen. De chip en de heatspreader zitten namelijk aan elkaar vast.
Heatspreaders zijn wel los te krijgen, het is alleen een erg riskante onderneming. Het is mogelijk om de heatspreader werkend los te krijgen maar zelfs mocht je het slopen valt de chip uiteraard gewoon nog te zien. Hij werkt alleen niet meer :P

Acties:
  • 0 Henk 'm!

Anoniem: 172410

Anoniem: 263922 schreef op zaterdag 19 juni 2010 @ 03:08:
En dat hele verhaal met die TDP was me wel bekend, waar ik op doelde is dat beide partijen waarden opgeven die realistisch voor normaal gebruik en niet max zijn, dat doet men bij cpu's ook, dat is een stukje slimme marketing waar onwetende mensen geen rekening mee houden, maar er verder toch nooit last van zullen hebben, hetzelfde zoals een 9400gt met 2gb geheugen, dat is ook iets waar sommige mensen voor kiezen in de overtuiging dat die kaart dan beter is dan een 9800gtx met 512mb.
Als ik mij het goed herinner mat Intel de tdp als de gemiddelde waarde als typical use, terwijl AMD bij z'n CPU's de tdp aangeeft als de absolute maximumwaarde die ooit gehaald zou kunnen worden. Daarom dat AMD ook ACP in het leven heeft geroepen (gemiddeld 'realistisch' verbruik). Maar het blijkt dus dat ook die meetmethodes aan de praktijk aangepast kunnen worden als andere waarden wat beter uitkomen of de huidige chipgeneratie toch wel wat veel stroom gebruikt. *kuch* nVidia *kuch*

Edit: o noes, Camacha's e v e r y where

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
daan! schreef op vrijdag 18 juni 2010 @ 17:45:
[...]

Precies, en dat wo ai AMD lijkt er ook opgeshopt. Zeker weten bewerkt!

edit:

[...]

Vergeet de 9400M niet, die was zelfs perfect vierkant!
Alhoewel?
/edit

Wat meer on topic:

New Fermi with 512 shaders possible



Speculeren kan je leren!

Het klinkt mij als onzin in de oren.
Vooral "The launch of such a card depends solely on ATI's next move." lijkt me stug, waarom zou je een chip ontwerpen om het vervolgens niet uit te brengen als de concurrentie niets doet?
En als ze hem pas ontwerpen wanneer ATI met een nieuwe chip komt zijn ze weer veel te laat. :?
De GF100 heeft ook 512 Shaders. Maar de yield zijn zo laag dat er amper kaarten zijn waar er 512 werken. Die zullen ze nu wel binnen. Als AMD dan straks met een nieuwe kaart komt brengen ze die uit.

Zal wel een soort van 7800 GTX 512 launch worden. Met amper kaarten. Maar gewoon om te proberen AMD dwars te zitten. Of ze moeten inmiddels betere yield hebben zodat ze er wat meer hebben. Maar dat verwacht ik eerlijk gezegd niet.
Waar het om gaat is de Definitie van TDP. En dat is het Maximum wat een chip verbruikt. Dat nVidia dat nou aan zijn laars lapt verandert niets aan de Definitie. Ik zeg ook niet dat de cooler van de GTX480 aan exact het TDP voldoet. We weten dat de cooler van de HD5970 ook veel meer aan kan dan de kaart verbruikt. Die kan makkelijk 400watt pakken in combinatie met de fan die er bij zit.

3e party fabikanten die aan de max TDP voldoen maar niet veel meer kunnen daar in de problemen raken. Natuurlijk zijn die niet gek en testen die of de cooler het aan kan. Maar dan komen zij er achter dat het TDP niet klopt. En dat ze veel meer nodig hebben.

Dat is de rede dat AMD met ACP kwam. TDP bleef de echte max bij hun. Intel gaf lagere waardes op dan de max. Zo kon de i7 makkelijk boven de 130 watt stock. Maar toch 120 watt opgeven. Consument denkt dan even zuinig maar dat was niet zo.

Daarom kwam ACP er om te laten zien wat een AMD CPU normaal zou gebruiken. Bij full load kun je redelijk dicht op het TDP komen. Al zitten AMD cpu's er vaak wat onder. Alleen de top modellen in hun TDP range niet. Dit zitten er wel heel dicht tegen aan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 30-05 14:33
Astennu schreef op zaterdag 19 juni 2010 @ 11:27:
[...]


De GF100 heeft ook 512 Shaders. Maar de yield zijn zo laag dat er amper kaarten zijn waar er 512 werken. Die zullen ze nu wel binnen. Als AMD dan straks met een nieuwe kaart komt brengen ze die uit.
Ik reageerde vooral op de volgende zin uit het bericht:
"The twist is that there is a big possibility that this card won’t be based on the GF100, Nvidia's original Fermi chip."
Waar hij dat vandaan haalt is mij een raadsel en het klinkt als grote onzin.
Zal wel een soort van 7800 GTX 512 launch worden. Met amper kaarten. Maar gewoon om te proberen AMD dwars te zitten. Of ze moeten inmiddels betere yield hebben zodat ze er wat meer hebben. Maar dat verwacht ik eerlijk gezegd niet.
Dat lijkt mij ook waarschijnlijker.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Astennu schreef op zaterdag 19 juni 2010 @ 11:27:
[...]
Waar het om gaat is de Definitie van TDP. En dat is het Maximum wat een chip verbruikt. Dat nVidia dat nou aan zijn laars lapt verandert niets aan de Definitie. Ik zeg ook niet dat de cooler van de GTX480 aan exact het TDP voldoet. We weten dat de cooler van de HD5970 ook veel meer aan kan dan de kaart verbruikt. Die kan makkelijk 400watt pakken in combinatie met de fan die er bij zit.

3e party fabikanten die aan de max TDP voldoen maar niet veel meer kunnen daar in de problemen raken. Natuurlijk zijn die niet gek en testen die of de cooler het aan kan. Maar dan komen zij er achter dat het TDP niet klopt. En dat ze veel meer nodig hebben.

Dat is de rede dat AMD met ACP kwam. TDP bleef de echte max bij hun. Intel gaf lagere waardes op dan de max. Zo kon de i7 makkelijk boven de 130 watt stock. Maar toch 120 watt opgeven. Consument denkt dan even zuinig maar dat was niet zo.

Daarom kwam ACP er om te laten zien wat een AMD CPU normaal zou gebruiken. Bij full load kun je redelijk dicht op het TDP komen. Al zitten AMD cpu's er vaak wat onder. Alleen de top modellen in hun TDP range niet. Dit zitten er wel heel dicht tegen aan.
Tja bij jou hebben intel en nvidia het altijd gedaan, en amd is altijd het zwarte schaap wat alles volgens de regeltjes doet.

http://ark.intel.com/Product.aspx?id=37147 staat toch echt 130watt bij TDP, als je iemand wil overtuigen van het "bedrog" van iemand anders, moet je zelf niet gaan lopen liegen ;)

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

En hij legt precies uit waarom het woord TDP bij de ene fabrikant strak gehanteerd wordt terwijl de ander een iets lossere aanpak erop nahoudt. Intel kan over haar producten roepen wat het wilt, geloof jij het direct en ben jij een blinde consument? Wat wil je nou?

Als je die vraag met ja beantwoordt, dan vraag ik me daarnaast ook nog eens sterk af wat je hier op GoT doet.

[ Voor 40% gewijzigd door Jejking op 19-06-2010 18:14 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Anoniem: 263922 schreef op zaterdag 19 juni 2010 @ 15:40:
[...]


Tja bij jou hebben intel en nvidia het altijd gedaan, en amd is altijd het zwarte schaap wat alles volgens de regeltjes doet.

http://ark.intel.com/Product.aspx?id=37147 staat toch echt 130watt bij TDP, als je iemand wil overtuigen van het "bedrog" van iemand anders, moet je zelf niet gaan lopen liegen ;)
Joh heb even een cijfertje verkeerd over genomen 8)7 ;w

Het ging in het begin over de 965. Deze zou over zijn TDP van 130 watt heen gaan. Ik kan alleen die specifieke test niet terug vinden maar hier een vergelijking:

Afbeeldingslocatie: http://www.xbitlabs.com/images/cpu/core-i7-975-950/power-2.png

De Phenom II 955 en de Core 2 Quad Q9770 zijn 120 watt. Natuurlijk heb je hier ook met moederbord en chipset te maken. daarom zou het mooier zijn als je een goed overzicht zou hebben van wat elk onderdeel verbruikt. Maar die kan ik even niet vinden. Ik vind het verschil wel erg groot voor alleen chipset en andere zaken. ook al gebruiken i7's 1 mem module meer.

[ Voor 16% gewijzigd door Astennu op 19-06-2010 18:16 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Nou volgens mij gebruikt een mem module 20 watt oid? Dacht ik ergens gelezen te hebben, dus dan klopt het aardig toch?

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

20W? Dat ding loopt op ongeveer 1,7V. Aangezien W = V*A zou dat ding 11,8A moeten trekken! :o

Nee, het een DIMM trekt (afhankelijk van type) ongeveer 1W.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Edmin schreef op zaterdag 19 juni 2010 @ 22:42:
20W? Dat ding loopt op ongeveer 1,7V. Aangezien W = V*A zou dat ding 11,8A moeten trekken! :o

Nee, het een DIMM trekt (afhankelijk van type) ongeveer 1W.
Het is trouwens P=I*U en I=Q/t maar dat doet er niet zo toe volgens mij heb je wel gelijk. Het kan volgens mij ook zijn dat elke geheugenchip op een geheugen module 1,7V trekt de vraag die je dan moet stellen is of het een de geheugenchips parallel of serie geschakeld zijn. Ik denk dat de chips allemaal parallel geschakeld zijn waardoor ze allemaal 1.7V spanning hebben en een lage stroomsterkte hebben.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Het is natuurlijk een lastige vergelijking tussen i7 x58 en phenomII, mede door die extra geheugenmodule/bijbehorende tripple channel controller, dan zou je imo beter tussen p55/i7, i5 en phenomII 890x een vergelijking moeten trekken, die platforms liggen korter bij elkaar dan het x58 platform, denk dat intel daar dan iets zuiniger uit de bus komt, al krijg je bij beide goede performance per watt, bij p4 en pentium d lag dat heel anders.

Acties:
  • 0 Henk 'm!

Anoniem: 254444

The_Ownman schreef op zaterdag 19 juni 2010 @ 00:52:
Je kan de heatspreader niet van de kaart afhalen zonder de chip mee te nemen. De chip en de heatspreader zitten namelijk aan elkaar vast.
Ik heb hier een gtx285 zonder heatspreader draaien, werkt nog steeds prima. De chip zelf zat niet aan de heatspreader vast. Wel zat de chip heel dik volgesmeerd met goedkope meuk. Ter vergelijk zonder heatspreader draai ik ca 5C koeler vergeleken met een identieke kaart en koeler wel in een andere kast.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Anoniem: 263922 schreef op zondag 20 juni 2010 @ 00:35:
Het is natuurlijk een lastige vergelijking tussen i7 x58 en phenomII, mede door die extra geheugenmodule/bijbehorende tripple channel controller, dan zou je imo beter tussen p55/i7, i5 en phenomII 890x een vergelijking moeten trekken, die platforms liggen korter bij elkaar dan het x58 platform, denk dat intel daar dan iets zuiniger uit de bus komt, al krijg je bij beide goede performance per watt, bij p4 en pentium d lag dat heel anders.
De X48 Core 2 Duo staat er ook bij. En die vergelijking gaat niet op want de i7 965 ging boven zijn TDP uit. Dat hoeft voor de nieuwe cpu's niet zo te zijn. Die hebben een nieuwe stepping en kunnen waarschijnlijk op een lagere spanning werken. Dus zitten wel binnen het TDP.

Het ging mij er om dat het wel eens voorkomt dat er chips uitkomen die een hoger verbruik hebben dan het op gegeven TDP en dat je dan problemen kan krijgen als je een cooler koopt van 130 watt. Jij denkt dat je aan het TDP voldoet maar als je dan max load gaat draaien is de 130 watt cooler niet voldoende.

Zelfde geld voor video kaarten. (en het gaat vooral op bij het kopen van after market coolers.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

gerucht: "Fermi 2" zou drie GPUs behelzen, alle drie als "groot" aan te merken. Efficiëntie verbeteringen is het kernwoord hier en er zou niets spectaculairs te verwachten zijn. GF119 zou de eerste GPU zijn die weer nieuwe architectonische foefjes introduceert, het is blijkbaar een speerpunt van nV om die zo snel mogelijk de deur uit te krijgen, maar dat wordt ergens medio volgend jaar.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
neliz schreef op maandag 21 juni 2010 @ 13:34:
gerucht: "Fermi 2" zou drie GPUs behelzen, alle drie als "groot" aan te merken. Efficiëntie verbeteringen is het kernwoord hier en er zou niets spectaculairs te verwachten zijn. GF119 zou de eerste GPU zijn die weer nieuwe architectonische foefjes introduceert, het is blijkbaar een speerpunt van nV om die zo snel mogelijk de deur uit te krijgen, maar dat wordt ergens medio volgend jaar.
Ik neem aan dat ze de huidige generatie dan wel door laten gaan. Want anders is het wel erg laat voor low end chippies. AMD heeft tegen die tijd de hele HD6xxx lineup in de markt staan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Dan zitten we iig al op 28nm. Een goed nieuwtje maar hopen dat nV niet nog eens dezelfde fout maakt: running headless into a new fab process.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

GF119 zou de performance moeten hebben van G92.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Uitgebreide 'real-life' temperatuur test van de GTX480;
http://www.bjorn3d.com/read.php?cID=1888&pageID=9214

[ Voor 6% gewijzigd door Anoniem: 245699 op 21-06-2010 19:08 ]


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Noel schreef op vrijdag 18 juni 2010 @ 17:43:
Omdat GPU's bijna altijd square zijn. Of als ze toch rechthoekig zijn, dan zijn ze quasi vierkant ipv uitgesproken rechthoekig.

Om het bij nVidia te houden: G80, G84, G92, GT200, GT200b, GF100 allemaal square.

Dan gaan ze nu ff een rechthoekige maken? No way.
Nog even dit, pre-GF100 waren er een aantal mensen (nv Tools) die mij op het hart drukten dat GF100 dit ontwerp zou krijgen, 20x21 of 19x21 waren veelgehoorde afmetingen.

Laten we voorop stellen dat wanneer je ontwerp beter uit de verf komt op een rechthoekige chip, je 'm vooral ook zo moet maken.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 251563

Een beetje jammer dat de enige test waarbij ze het vergelijken met andere chips Furmark is, terwijl ze zelf al zeggen datie niet representatief is. :/ Een gemiste kans.

[ Voor 39% gewijzigd door Anoniem: 251563 op 21-06-2010 19:28 ]


Acties:
  • 0 Henk 'm!

Anoniem: 360578

Beste mensen ik heb het internet afgezocht maar ik kan nergens iets vinden over de GeForce GT320
Uiteraard staan er wel wat leuke getalletjes op de nvidia website maar dat zegt mij allemaal zo weinig 8)7 .
Ik vroeg me dan ook af of iemand mij kon vertellen of dit een beetje een redelijke kaart is om wat op te gamen enzo :>

bij voorbaad dank O-)

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Anoniem: 360578 schreef op maandag 21 juni 2010 @ 20:41:
Beste mensen ik heb het internet afgezocht maar ik kan nergens iets vinden over de GeForce GT320
Uiteraard staan er wel wat leuke getalletjes op de nvidia website maar dat zegt mij allemaal zo weinig 8)7 .
Ik vroeg me dan ook af of iemand mij kon vertellen of dit een beetje een redelijke kaart is om wat op te gamen enzo :>

bij voorbaad dank O-)
Dit is niet het topic daarvoor en het antwoord is nee.

edit: gebruik Firefox en installeer een Nederlands woordenboek ervoor.

[ Voor 6% gewijzigd door neliz op 21-06-2010 20:59 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 357365

Nee, je kan niet gamen op een GT320. En ik vond die website zo biased. Hij wordt misschien niet extreem veel warmer, maar zeker wel het warmst van allen. En dat verschil is enkel nog zo klein omdat er een gigantische koeler met raketaandrijving op zit. Hij gebruikt gewoon extreem veel stroom, dat je dat op kan lossen met veel koper en een krachtige fan is niets knaps aan..

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
Anoniem: 360578 schreef op maandag 21 juni 2010 @ 20:41:
Beste mensen ik heb het internet afgezocht maar ik kan nergens iets vinden over de GeForce GT320
Uiteraard staan er wel wat leuke getalletjes op de nvidia website maar dat zegt mij allemaal zo weinig 8)7 .
Ik vroeg me dan ook af of iemand mij kon vertellen of dit een beetje een redelijke kaart is om wat op te gamen enzo :>

bij voorbaad dank O-)
Niet echt het goede topic, maar GT 320 zuigt écht om op te gamen, niet aan beginnen.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 102124

Ik lees nu net over de aankondiging van de Zalman VF3000F cooler voor de GTX 480.
Iemand idee wanneer deze te koop zou zijn?
En hoe moeilijk is het om deze te monteren (en de oude cooler te verwijderen)
Ik heb hier namelijk geen ervaring mee
Momenteel heb ik een GTX 480 van Asus, die onder load rond de 80-83 graden draait (fan op 60%)

Met zo'n cooler erop zou ik het wel naar 65 graden kunnen krijgen denk ik

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Hmm hebben we wat gemist?
It looks like the initial GF104s are going to have at least one block of 32 shaders disabled if not two. The 336 shader number is likely an artifact of the stats program not being fully aware of the new chip yet, but Nvidia might have added the ability to disable half a cluster. GF108s shown at Computex had 96 of 128 shaders active.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Xenomorphh schreef op dinsdag 22 juni 2010 @ 09:51:
[...]


Hmm hebben we wat gemist?


[...]
Redelijk veel? Deze dingen zouden uit moeten komen vlak voordat de Evergreen refresh in Oktober/November.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Mja nVidia heeft gewoon de peg dat TSMC zo hard faalt. AMD heeft er ook wel last van maar iets minder. 32 en 28nm zijn namelijk geen half nodes van 40nm. Dus dat is geen makkelijke shrink. Dus het is logisch dat nVidia wou wachten. Echter ging 32nm niet door en 28nm is nog iets te ver weg. Dat is meer wat voor halverwege volgend jaar.

Dus ze moeten iets. Want hun huidige lineup hebben ze al veel te lang staan. Dus deels hebben ze het aan zichzelf te danken maar een deel komt ook door TSMC.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Door als een kip zonder kop 40nm in te rennen met hun highend-product, zitten ze nu met de problemen. Mijn advies is dus: eerst checken of alles klopt en dan pas bakken. Dan ben je iig 50% van de problemen al voor. Als TSMC er voor de rest nog een zooitje van maakt met 32nm en 28nm, is dat buiten jouw macht. nVidia dacht er mee weg te komen op een dergelijke monsterchip maar dat ging dus blijkbaar verkeerd. De gevolgen kennen we allemaal.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Jejking schreef op dinsdag 22 juni 2010 @ 14:35:
Door als een kip zonder kop 40nm in te rennen met hun highend-product, zitten ze nu met de problemen. Mijn advies is dus: eerst checken of alles klopt en dan pas bakken. Dan ben je iig 50% van de problemen al voor. Als TSMC er voor de rest nog een zooitje van maakt met 32nm en 28nm, is dat buiten jouw macht. nVidia dacht er mee weg te komen op een dergelijke monsterchip maar dat ging dus blijkbaar verkeerd. De gevolgen kennen we allemaal.
Als ik het goed heb komt nV dus eerst met hun low-end product (GF119) op de 28nm Markt. Maar dit zou een tijdje na AMD's high end 28nm producten moeten zijn. Deze stond al in de planning en zou betekenen dat andere producten die op 32nm bedoeld waren misschien zijn weggevallen voor 28nm producten.

[ Voor 9% gewijzigd door neliz op 22-06-2010 14:42 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Dan hebben we 't sowieso over Q2/Q3 2011, gezien de huidige problematiek.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Alle ik heb dan eindelijk toch nog eens een nieuwe TS gemaakt:
Ter ere dat het forum er terug is ;p

-> Doordat mijn laatste klad versie alweer een week of ouder was zijn de hernieuwde drivers weeral verouderd (nieuwe 256 WHQL drivers zijn uit). Ik zal hiervoor thuis nog eens kijken, maar mij kennende ging het dan weer een paar dagen uitlopen .. vandaar dat ik nu toch de nieuwe TS gepost heb zonder eerst weer alle drivers te overlopen.

-> Geruchten en nieuws sectie zijn nogal leeg daar mijn nieuws berichten nogal oud waren .. de tweakers frontpage berichten heb ik er maar ingelaten ..

anyway nieuw deeltje nadat ik deze 250% uit zijn voegen liet lopen :(

[Algemeen] nVidia Nieuwdiscussie Topic - Deel 47

Specs


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

En dicht :)
Pagina: 1 ... 12 13 Laatste

Dit topic is gesloten.