There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Zoals je verder in die artikels kan lezen zijn deze kaarten gebaseerd op de GF104(of 2) GPU.ArgantosNL schreef op dinsdag 15 juni 2010 @ 10:54:
Fermi had toch clusters van 32? dan zouden 240 en 336 wat in dat artiekel staat niet kunnen. (niet deelbaar door 32)
In deze hebben ze (hopelijk veel) overbodige elementen eruit gehaald en de clusters anders gegroepeerd. Dit houdt oa inderdaad in dat er geen clusters meer van 32 zijn . (maar 16 in de plaats)
Maw een GF 102 4 op volle kracht zal hierdoor 16 clusters van 16 shaders ter beschikking hebben.
Momenteel heeft nVidia voor de GTX 460GF104 beslist om 15 van de 16 clusters te gebruiken.
En voor de GTX 460 21 van de 24 beschikbare clusters.
Ik vermoed persoonlijk dat de GTS 455 waarvan sprake is een zwakkere 460 zal wezen waarbij 1 of 2 clusters extra disabled zulen zijn (naargelang hoe goed of hoe slecht de GF102 kan gebakken worden..)
De overstap naar 16 shaders van 32 komende is logisch daar als er een defect is nVidia niet direct de volle 32 shaders hoeft te disablen, maar "slechts" 16. Hoe kleiner hoe beter in dit geval zeker doordat er sprake is dat het cache geheugen eruit zou gehaald zijn? Als dat laatste waar blijkt te zijn dan heeft het minder nut om de shaders in grotere getallen te bundelen.
(met de cache bij de GTX 480/470/465 hebben de 32 shaders van 1 en dezelfde cluster hun eigen cache geheugen gemeenschappelijk dat enkel voor hun beschikbaar is)
Sorry ik had effen GF104 en GF 102 (GTX 460) door elkaar gewisselt
Ik moet leren sneller typen..Xenomorphh schreef op dinsdag 15 juni 2010 @ 11:03:
[...]
Niet alle 256 cores gaan gebruikt worden. en 256 is wel deelbaar door 32 das namelijk 8. zie ook: http://www.brightsideofne...i-for-back-to-school.aspx
Anyway 256 is inderdaad mooi deelbaar door 32 maar de resulterende 240 shaders waarvan nu sprake is echter totaal niet. En je kan moeilijk een helft van een cluster uitschakelen en de andere helft blijven gebruiken (indien dit mogelijk was had nVidia dit al lang gedaan denk ik
Hierdoor is er een groot vermoeden dat er overgeschakeld is naar een clustergrootte van 16 shaders.
[ Voor 23% gewijzigd door lightdestroyer op 15-06-2010 11:12 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 134818
De enige reden dat ik op 16 uitkwam is wss gedeeltelijk beroepsmisvorming (altijd denken in machten van 2
In de gelinkte artikels staat er niet expliciet 16 genoemd hoor, enkel de hint dat de clustergrootte mogelijkerwijze veranderd is in het artikel van hardware.info:
echter in vr-zone had men enkel 16 en 48 als mogelijkheden gegeven (vanwege de 240/256)quote: http://hardware.infoEerdere geruchten gingen nog uit van 240 shaderunits, een aantal dat meer logisch lijkt gezien de opbouw van de GF100 GPU met clusters van 32 shaderunits elk. Als het aantal van 336 cores klopt heeft nVidia dus een aanpassing doorgevoerd in de opbouw van de clusters.
48 Zag ikzelf niet als een échte mogelijkheid.While previous rumours suggested GF104 will be 240/256 SP and GF106 will be 128-160 SP, the current rumours suggest GF104 will be a far more powerful chip. The reason for the odd SP count of 336 is that the 460 could be that it is based on GF104, which realters the nature of each SM. The GF104 SM, then, contains either 16 or 48 SP - and perhaps, with some disabled for the 460 part.
Waarom je clusters nog groter maken als je al zoveel problemen hebt met defecte gpu's en deze kaarten zich niet gaan verkopen als CUDA fabriekjes (daarvoor heeft nVidia de Tesla lijn uitgevonden tenslotte) ..
Hence de 16 shaders per cluster waar ik toe kwam ...
Wat me nu opvalt is dat men allemaal spreekt over een "krachtiger" GF104 en een 240 shader variant terwijl ik nog (oa in de TS) een GF102 voor ogen had die volledig overeen komt met de krachtiger GF104 terwijl "mijn" GF104 overeen komt met de zwakkere GF 104 variant.
Zou ik hieruit mogen afleiden dat de GF102 niet meer bestaat?
Maar die twee gf104 varianten zijn toch echt andere GPU's zou ik dan denken (totaal ander maximaal aantal shaders bv..)
Ik ga er wel vanuit dat de GF102/104/106 en 108 architecturaal niet veel zullen verschillen. Waar de 102 en de 104 echt goed op elkaar gaan lijken (high en low mid-end kaarten) en de 106 en 108 echt op de low end en de budget kaartjes gaan richten(en vermoedelijk misschien nog meer zaken disabled hebben(een 128 bit memorybus?).
Een mogelijkheid is ook dat iedereen de GF102 ook GF104 noemt omdat ze niet van elkaar verschillen buiten het maximaal aantal clusters ..
Subtiele info vraag om mijn TS in orde te krijgen
Een GTX485 op komst? - Hardware.info
Dat lijkt me nog eens een mooie toevoeging aan de reeks!Anoniem: 134818
Was te verwachten maar: Introductie in het najaar? Dan is SI er ook al. Ben bang dat het dan weer to little to late is voor nvidia. Ben benieuwd wat het stroom verbruik gaat worden, toch de achilleshiel van de serie.windwarrior schreef op dinsdag 15 juni 2010 @ 14:58:Een GTX485 op komst? - Hardware.info
Dat lijkt me nog eens een mooie toevoeging aan de reeks!
[ Voor 8% gewijzigd door Anoniem: 134818 op 15-06-2010 15:53 ]
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Een modje zegt dat het geen jij zei wellicht plausibel is en onderbouwt dit. Dat deed jij niet dit wil trouwens niet zeggen dat elke onderbouwing ook een goede onderbouwing is. Hoe kom je er eigenlijk bij dat elk bedrijf ooit failliet gaat ? Trouwens aandelen van nVidia zijn op dit moment helemaal geen slechte aankoop de enige reden waarom ik er nu geen van zou kopen is de slechte eurokoers.Anoniem: 357365 schreef op dinsdag 15 juni 2010 @ 00:34:
Inderdaad. Dat was dus precies wat ik probeerde te zeggen. Pas als een moderator het me eens is, wordt ik een beetje serieus genomen. Ze kunnen geen geld meer verdienen, daardoor moeten ze in de kosten snijden en dus kleiner worden. Dit kan maar enkel zo lang doorgaan totdat ze zelfs het management moeten ontslaan. Dus is het nu zo gek dat ik voorspel dat nVidia failliet gaat? Elk bedrijf gaat ooit falliet dus je weet gewoon: op een gegeven moment houd het op. Dit zal zeker niet anders zijn voor nVidia. En als een bedrijf falliet gaat, dan gaat de aandoelkeers ook naar beneden. Dus ik raad zeker geen nVidia aandelen aan op het moment..
Denk zo dat er weinig little aan de videokaart zal zijn.Anoniem: 134818 schreef op dinsdag 15 juni 2010 @ 15:52:
Ben bang dat het dan weer to little to late is voor nvidia.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 303530
en fermi lijkt me nu ook niet echt geschrikt voor entry-level GPU's

onnodigAnoniem: 357365 schreef op maandag 14 juni 2010 @ 23:00:
Ik zeg gewoon dat nVidia failliet gaat. Ze kunnen niet meer meedoen met discrete GPUs en ze kunnen geen CPUs bouwen dus ze kunnen hier ook niet hun GPUs bij indouwen. En die CPU+GPU combo die nemen de lagere helft van de markt in. Dus nVidia heeft geen toekomst tenzij ze in een keer iets totaal anders gaan doen zoals auto's bouwen.
[ Voor 6% gewijzigd door Edmin op 15-06-2010 22:36 ]
Anoniem: 303530
ik doelde op de mainstream modellen, ik heb liever geen 150w PSU in mijn rugzak zitten...
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 357365

Anoniem: 263922
Waarschijnlijk ben je dus zoals gebruikelijk de enigste
Shiz Frietjemet was me voor

[ Voor 4% gewijzigd door madmaxnl op 15-06-2010 22:54 . Reden: iemand was me al voor ]
Je argument is interessant en ik denk dat je op zich een goed punt maakt, maar er is meer belangrijk dan pure perf/mm2. Het belangrijkste is zelfs geheugenbandbreedte denk ik. Alle huidige consoles hebben een 128 bit bus naar het geheugen. Dit gaat waarschijnlijk niet veranderen (in ieder geval niet grotere wordenAnoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Nee klopt, maar tegenwoordig zijn de texture units en rops toch een stuk ondergeschikte geworden aan pure kracht van de SPU's.
We kunnen het gewoon extrapoleren. Ik weet dat het dan niet klopt gezien de texture unites en rops, maar het gaat om het idee.
Cypress:
334mm2 320 SPU's(SPU per mm2=~0,95)
GF100
576mm2 480/512 SPU's(SPU per mm2=~0,89)
Gelijke grote:
334mm2 betekend voor Nvidia betekend 297 SPU's(Omhoog afgerond)
576mm2 betekend voor ATI 552 SPU's(Omhoog afgerond)
Dus per mm2 kan ATI iets meer kwijt qua SPU's. Neem je dan theoretische kracht per mm2 mee(omdat we het over optimaliseren hebben, komen we dichter in de buurt van de theoretische max) betekend dat voor ATI alleen nog maar meer voordeel.
Cypress 2720=8.14 Flop per mm2 en 8.5 per SPU.
GF100 1344.96= 2.33 Flop per mm2 en (met 480 shaders) 2.8 per SPU.
En voor de leuk: Op gelijke grote
Hyper Cypress(552 SPU's) 4692 Flop
Mini Fermi (296) 831.6 Flop
Dus qua pure SPU kracht en vulling doet ATI het iets beter, maar idd niet alle performance hangt daar van af. ROPs, Texture unites en laten we de tesselator ook niet vergeten, tellen ook nog mee. Dan natuurlijk geheugen bandbreedte en efficientie(ander kan je de SPU's niet vullen) en de als laatste natuurlijk de utilisatie graat van de SPU's (als in, shader code die het nodig heeft) tellen allemaal mee. Al kan je dus met een console game daar veel meer richting de maxen optimaliseren. Ik vraag me, na dit allemaal getypt te hebben of de console bouwers überhaupt wel geïnteresseerd zijn in de meest krachtige grafische processor. Ik denk dat ze liever goedkoop hebben(en in het verlengede daarvan: koel=minder koper/alu om te koelen). Denk dat daar door de performance per mm2, SPU per mm2 en huidige situatie het er beter uit ziet voor ATI.
Daarnaast zou het me ook niet verbazen als de verhouding tussen "SP"'s en TMUs heel anders zal liggen dan in huidige GPU's. Je maakt zelf een berekening hoeveel SP's de verschillende architecturen per mm2 zouden hebben, maar die klopt niet meer als je naar puur de grootte van SMs/cores gaat kijken. Wat je ziet op de die-shots van de moderne GPU's is namelijk dat de cores maar een beperkt deel van de totale chip innemen. Bij G200 was dit maar 25-30% geloof ik, van Fermi en RV870 weet ik het zo niet. Volgens mij is het dus voor NVIDIA heel goedkoop om meer SP's toe te voegen aan de chip. Het probleem is balans. Waarschijnlijk heeft het weinig nut om meer cores toe te voegen aan het huidige ontwerp omdat de bottleneck dan ergens anders ligt. De vraag is dus in waar die bottlenecks zouden liggen in de toekomstige console. Ook interessant is de vraag hoe de verhouding tussen cores en TMU's zal liggen. Misschien dat MS/Sony het wel een goed idee vindt om de developer veel meer cores te geven. Ontwikkelaars zullen toch hun engines en shaders aan gaan passen aan de mogelijkheden van de GPU, waar PC ontwikkelaars nu zich ook gewoon moeten aanpassen aan andere hardware die nu op de markt is. Als een console ontwikkelaar rekenkracht over heeft gaat hij misschien complexere (maar niet bandbreedte intensieve) opdrachten hiermee uitvoeren.
Kortom, het lijkt me een beetje voorbarig om te zeggen hoeveel SP's per mm2 een bepaalde architectuur heeft als we niet weten hoe de console architectuur er uit gaat zien. Laten we dan eens kijken of we kunnen kijken hoe groot een core bij AMD en NVIDIA is, dat geeft pas echt voer voor leuke speculatie
Nou, volgens mij ging het om 2012, en in 2012 wil een consolebakker op z'n minst een 28nm chip. Er bestaat inderdaad nog geen 28nm Fermi, maar er bestaat nog net zo min een 28nm RV870. Een RV870 afgeleide is wellicht ietsjes minder risicovol, maar daar staat tegenover dat Fermi een "modernere" architectuur is die beter uit de voeten kan met GPGPU, wat volgens mij op de volgende generatie consoles een zeer belangrijke feature gaat worden, als het makkelijk binnen de rest van de game gebruikt en gecombineerd kan worden.Anoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Oh kom op dit is echt een wassen neus. Er bestaat geen 28nm fermi, dus daar kan een console bouwer NU niet eens voor kiezen(het ging om nu he). Dan moet je ook nog maar af wachten hoe die gaat uit vallen.
Nee als je een slimme consolebouwer bent en je wil nu met minimale (Ik kan me voorstellen dat als je specifiekere eisen hebt, zeker richting gpGPU, je liever naar Nvidia toe gaat) inspanningen een GPU hebben, dan ga je naar AMD.
Mja, dat ben ik dan weer niet met je eens.Anoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Want je fermi, is ook maar een 'op geschaalde G80 architectuur'. Dat Nvidia claimt dat het de beste en nieuwste architectuur is sinds gesneden brood, zou ik gewoon laten gaan.
RV870 is nog steeds een RV670 met meer clusters en wat kleine verbeteringen. Er is aan de basis van de architectuur heel weinig veranderd. De laatste grote verandering was R600->RV670, waar texturing en de ring-bus flink onderhanden genomen zijn. AMD heeft de laatste 2 generaties maar aan 1 ding besteed en dat is optimalisatie. RV670 maakte een competitieve GPU uit de R600 architectuur, RV770 maakte er een zwaar geoptimaliseerde chip van en RV870 is gewoon een monster (in positieve zin). Uiteindelijk allemaal hele slimme keuzes van AMD, want RV870 is ondanks de relatieve leeftijd van het onderliggende ontwerp nog steeds een fantastische chip.
Kijken we echter naar de aanpassingen die NVIDIA heeft gemaakt tussen G80/G92 (die niet heel veel verschilden) en G200 en GF100 dan zie je daar enorme aanpassingen. Alle onderdelen zijn in de tussentijd onder handen genomen, van de SIMD ALU's (volledige IEEE FP support, FMA), via de cores zelf (elke core bestaat nu uit 2 "pipelines", SFU en load/store zijn nu aparte onderdelen van de core), cache (volledig coherent, unified address space voor alle geheugen, ECC voor alle geheugen), scheduling (uitvoering van verschillende kernels tegelijk), en uiteraard de hele verbouwing van tesselation, rasterization, setup, etcetera. Het enige waar weinig aan is veranderd is texture filtering (die overigens wel aangepakt is tussen G80 en G92).
Daarnaast zijn er ook tal van kleinschaliger verbeteringen: vele malen snellere context switching, grotere cache, meer threads in flight, etcetera.
Sorry, maar je kan dan veel zeggen van Fermi, maar het is geen opgeschaalde G80. Ja, de achterliggende filosofie en de basisideeen zijn het zelfde, maar daarblijft het dan ook zo'n beetje bij.
Weet je, ik denk dat ik tegenwoordig zowaar ook "om" ben. Ik denk inderdaad dat een kleinere chip beter werkt dan een monsterchip. Uiteraard is het goed mogelijk dat NVIDIA pech heeft gehad de laatste generaties, maar dan nog laat de huidige situatie zien dat als je pech hebt met een dergelijk grote chip je ook meteen heel veel pech hebt. Ik ben echter niet per se tegenstander van een grote chip en ik denk dan ook niet dat het probleem in de yields zit, ik geloof dergelijke verhalen nog steeds niet echt. Ik denk dat het probleem van de grote chip niet in de grootte zit maar in de complexiteit. NVIDIA moet een chip van 3 miljard transistoren ontwerpen en optimaliseren. Het kost ze gewoon veel meer tijd en energie dan bij de 2.1 miljard transistoren die AMD heeft. Dat is wat ze opbreekt op het moment dat het dan fout gaat, zoals bij G200 en GF100 het geval was. Die verhalen van 20% yield en chips verkopen onder kostprijs klinken mij in de oren als grote bullshit.Anoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Klopt, ik heb zelf ook een G80 gehad, klokten lekker, goeie stock koeler, werden niet super heet. Alleen het dood gaan vind ik minder. Je moet ook bedenken dat ATI een heel andere aanpak heeft gekozen. Die, nu we zo ver zijn, beter blijkt te werken. Vergelijk het met Intel. Het was altijd, langere pipes, hogere klok. P4 zou 5Ghz moeten halen. Die kwamen er toen achter dat ze wel -erg- heet werden. Nvidia merkt nu ook dat zon gigantische chip niet lekker is om te hebben. Daardoor staan ze nu tegen een concurrent met een veel kleiner product. We weten allebei ook dat productie kosten niet alles zijn, dat je vooral betaald voor je RnD, maar het betekend wel dat je minder uit je wafers kan halen en als de yields al slecht zijn(geld voor ATI ook) dan krijg je het wel moeilijk met je marges.
Haha, dat is waar, alleen jammer dat deze meer intelligente discussies zoveel meer tijd kosten dan welles nietesAnoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Nah, we zijn het ook wel eens, alleen is de vraag waar we de nuance graag op zien.
[...]
Dit is tenminste beter dan de welles nietes spelletjes waar ik soms in beland.
=================
Nou, uiteraard is hier niets te bewijzen, welke kant dan ook op, maar de GPU in de 360 lijkt wel de grote boosdoener te zijn voor de RROD. Het kan inderdaad zijn dat MS niet genoeg koeling heeft gehad voor het aangegeven TDP. Het kan ook zijn dat ATI niet binnen het opgegeven TDP heeft kunnen blijven. Het kan ook in het midden liggen, en het kan zelfs nog geen van deze redenen zijn. Feit is wel dat MS waarschijnlijk niet helemaal gelukkig is geweest met de situatie, dus ik weet nog niet zomaar of AMD wel zomaar een nieuw contract krijgt. Misschien wel hoor, maar de situatie die jij eerder schetste was dat MS reuze blij zou zijn geweest met de GPU die ze van ATI kregen, waardoor ze zeker weten weer in zee zouden gaan met AMD. Dat weet ik nog niet zo zeker.madmaxnl schreef op maandag 14 juni 2010 @ 16:33:
1. De RROD's van de Xbox360 zijn niet te wijten aan de Xenos chip van ATI. Het is immers MS die de koeling van de chip bepaald en niet ATI, ATI geeft slecht de TDP aan MS op. Dat M$ vervolgens geen fatsoenlijke koeling inbouwt is niet ATI zijn schuld tevens zie je dat Xbox360 nog wel wat nalatiger was op gebied van kwaliteit zoals de DVD-drive die krassen maakten.
Geen directe bron, maar Wikipedia zegt: "The Hollywood GPU is reportedly based on the Nintendo GameCube's "Flipper" GPU and is clocked 50% higher at 243 MHz[2], though none of the clock rates have been confirmed by Nintendo, IBM, or ATI." Dat komt ook overeen met de specificaties en met de berichten over de Broadway CPU, waar ongeveer het zelfde voor geldt.madmaxnl schreef op maandag 14 juni 2010 @ 16:33:
Heb je trouwens een bron dat de Gamecube en Wii zelfde hardware hebben en ze alleen verschillen in clocksnelheid ? Want ik lees namelijk dat het min of meer een door ontwikkeling is van de voorgang.
Nintendo heeft heel bewust gekozen om niet veel te laten veranderen aan de GPU, zodat BC makkelijk te realiseren is. Gewoon een kwestie van de clocks omlaag gooien en de Wii is opeens een GameCube.
MCM heeft weinig expertise nodig. Het zijn gewoon twee chips die binnen de package zelf verbonden zijn omdat dit kosten bespaart en snelheid oplevert ten opzichte van losse chips verbinden. Het is niet alsof een MCM een ander chipontwerp inhoudt, het is alleen de verbinding tussen de 2 chips die iets anders werkt.madmaxnl schreef op maandag 14 juni 2010 @ 16:33:
Ik heb trouwens nog een voordeel gevonden dat ATI heeft om een console "wins" te krijgen namelijk de ervaring die ze hebben met MCM aangezien dit principe zowel in de Wii als Xbox360 wordt gebruikt kunnen we er denk ik wel vanuit gaan dat dit voordeel heeft. nVidia heeft dit in de PS3 niet en dit komt waarschijnlijk zoals jij zei omdat ze met een "last minute" oplossing moesten komen.
De '9800GTX architectuur' is niets meer dan de g92 architectuur, al gebruikt in de 8800GT. Verder gewoon een volslagen zinloze optie en niet haalbaar, spreek, rendabel op basis van huidige SLi architectuur.Anoniem: 357365 schreef op dinsdag 15 juni 2010 @ 22:19:
Volgens mij hadden ze beter de 9800GTX architectuur kunnen pakken en hier 5 van aan elkaar vast kunnen plakken Die lijkt altijd nog beter te schalen dan deze Fermi chips..
'Wij' willen niet gamen, 'wij' willen de kwaliteit van nVidiaproducten en -nieuws beoordelen en bediscussiëren, betrokken op alle mogelijke features. Verder is de GX480 een prima kaart om te gamen, de prijs of hitteontwikkeling doen voor het 'gamen' op zich niet terzake.GPGPU is leuk voor bisnismen, maar wij willen gamen! En daar is ie niet zo goed in.
Dat kan je niet beter om o.a. de redenen dat het simpelweg niet 'sneller' is en een redelijk aantal features zijn geïmplementeerd in de GF100 wat ervoor zorgt dat de g92 architectuur simpelweg niet meer afdoende is, alleen al als je doel specifiek gamen is.Dan kun je beter GTS250 in SLI zetten. Kost je minder en geeft meer performance en staat ook nog eens vet lauw in je kast.. Soms snap ik nVidia niet, naja ik zal wel weer de enigste zijn zoals gebruikelijk
Het is al eerder gezegd, je roept erg veel dingen in de Nieuwsdiscussietopics zonder een onderbouwing van hetgeen je beweert. Het is niet mijn bedoeling je persoonlijk aan te vallen, maar op Tweakers.net is het wel handig als iedereen een beetje geïnformeerd deelneemt aan de discussie en niet zonder onderbouwing die mensen hier tegenspreekt die al iets langer in de 'bisnis' is. Op deze manier blijven de Nieuwsdiscussietopics een beetje op niveau en de moeite waard om te lezen.
[ Voor 3% gewijzigd door Allubz op 16-06-2010 13:06 ]
Interesse in een custom build workstation, voor gaming, wetenschappelijke toepassingen, of puur om de stijl? Contact @ https://vogd.design
Anoniem: 102124
Want bij 3D games verlies je bijna de helft van je frames (120hz) als ik het zo lees in diverse reviews over 3d gaming.
M.a.w. bij een game als L4D 2, wat normaal met alle eyecandy aan op 1920x1080 draait aan 100-120fps, haal je amper nog 60fps in 3D.
Da's wel nog goed te doen, maar L4D is nog een vrij 'lichte' game qua hardware.
Vraag me trouwens af hoe soepel games nu gaan draaien op een ps3... De meeste games halen geen 60fps, als je dan nog eens een hoop frames verliest door 3D gaming zal het helemaal leuk gaan worden.
Dus vlot gamen in 3D lijkt me nog een tijdje weg, laat staan met mainstream grafische kaarten...
Je vergeet dat consoles fps-caps hebben van 30fps. Verder heeft niet iedereen een 3d-tv staan. Misschien kiezen de developers er wel voor om her en der wat eyecandy uit te schakelen, als iemand in 3d wilt spelen.Anoniem: 102124 schreef op woensdag 16 juni 2010 @ 10:13:
Wat die grafische chips voor volgende generatie consoles betreft, als we zo verder gaan, dat veel in 3d gaat worden, dan zullen die grafische chips nog een stuk beter moeten zijn dan de GTX 480 / ATI 5870.
Want bij 3D games verlies je bijna de helft van je frames (120hz) als ik het zo lees in diverse reviews over 3d gaming.
M.a.w. bij een game als L4D 2, wat normaal met alle eyecandy aan op 1920x1080 draait aan 100-120fps, haal je amper nog 60fps in 3D.
Da's wel nog goed te doen, maar L4D is nog een vrij 'lichte' game qua hardware.
Vraag me trouwens af hoe soepel games nu gaan draaien op een ps3... De meeste games halen geen 60fps, als je dan nog eens een hoop frames verliest door 3D gaming zal het helemaal leuk gaan worden.
Dus vlot gamen in 3D lijkt me nog een tijdje weg, laat staan met mainstream grafische kaarten...
Anoniem: 102124
Waarschijnlijk nog minder AA/AF en VSYNC uit (hello screentearing)
Alleen ligt er nu wel veel focus bij de industrie om dit te pushen.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 298195
Ik meende dat de ps3 wel game's @ 60 fps had draaien.Marc Rademaker schreef op woensdag 16 juni 2010 @ 10:39:
[...]
Je vergeet dat consoles fps-caps hebben van 30fps. Verder heeft niet iedereen een 3d-tv staan. Misschien kiezen de developers er wel voor om her en der wat eyecandy uit te schakelen, als iemand in 3d wilt spelen.
namellijk Wipeout HD, Warhawk, resistance , ridge racer 7, ninja gaiden sigma en misschien nog een paar meer .
Voor de 360 weet ik het niet
Of er voor MCM weinig of veel expertise nodig is weet ik niet. Maar Intel heeft met de Q6xxx wel een MCM oplossingen gehad en hierbij hadden ze twee chips met een TDP van 65 watt weten te combineren tot een TDP van 105 watt. Alhoewel TDP niet voor stroomverbruik staat heeft het blijkbaar wel zo zijn positieve effect. De vraag is dan waarom AMD ten tijden van de Q6xxx ook niet met een soortgelijke oplossing kwam om een quadcore te maken uit twee dualcores. AMD kwam namelijk veel te laat zijn quadcore die ook nog eens slecht presteerde maar dat ter zeiden. Hier uit kun je stellen dat een MCM oplossing niet zo gemakkelijk gemaakt is alhoewel ik me dan zelf tegenspreek. Want de Q6xxx kwam vlak na de E6xxx en de Q6xxx is een MCM van twee E6xxx chips dit zou kunnen betekenen dat MCM zo gepiept, we hebben het hier dan wel over Intel. Tevens vind ik het dan raar dat CJ zegt dat ATI met MCM ontwerpen ervaring mee heeft terwijl jij zegt dat met MCM ontwerpen weinig expertise gemoeid is. Dan heeft het namelijk helemaal geen nut om te vermelden dat ATI er ervaring mee heeft want dit is dan triviaal en zou betekenen dat nVidia deze kennis ook heeft.Snoitkever schreef op woensdag 16 juni 2010 @ 00:22:
[...]
MCM heeft weinig expertise nodig. Het zijn gewoon twee chips die binnen de package zelf verbonden zijn omdat dit kosten bespaart en snelheid oplevert ten opzichte van losse chips verbinden. Het is niet alsof een MCM een ander chipontwerp inhoudt, het is alleen de verbinding tussen de 2 chips die iets anders werkt.
Als dat waar is over de gtx 475 snap ik nVidia echt niet meer.. Dan heeft hij 64 shaders minder als de GTX470 maar hij wordt wel hoger geplaatst. Dan zou die GF104 chip erg veranderd moeten zijn tegen over de GF100. Zouden de geruchten dan toch waar kunnen zijn dat het de nieuwe 8800GT wordt?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Maar ik zie het ook nog wel gebeuren dat de GTX470 in sommige gevallen sneller is. Denk ook aan de 8800 GTX vs 9800 GTX.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Hehe. Ik had het hier laatst toevallig nog met Bobo (Slobodan) van Fudzilla over. Leuke discussie over gehad. Blijkbaar heeft hij meer bevestiging gekregen en durft hij het ook te posten.Xenomorphh schreef op donderdag 17 juni 2010 @ 07:58:
http://www.fudzilla.com/content/view/19199/1/
Als dat waar is over de gtx 475 snap ik nVidia echt niet meer.. Dan heeft hij 64 shaders minder als de GTX470 maar hij wordt wel hoger geplaatst. Dan zou die GF104 chip erg veranderd moeten zijn tegen over de GF100. Zouden de geruchten dan toch waar kunnen zijn dat het de nieuwe 8800GT wordt?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Processor: Intel Core 2 Duo, E6600, Socket 775, Boxed
Moederbord: GigaByte GA-965P-DS3, Retail
Videokaart: ECS Geforce 8800 GTS, 320 MB, DDR3, PCI Express x16
Geheugen: Kingston KVR667D2N5K2/2G, 2048 MB, DDR2, PC5300, 667 MHz, 2 x
Behuizing: Antec Sonata II, Zwart
Omdat ik mijn systeem wat wil verbeteren voor spellen (lees Starcraft 2 en Battlefield) is het voor mij een voorruit gang als ik een betere nVidia videokaart koop? Zo, ja welke nVidia raden jullie mij aan? Of is mijn processor de bottleneck.
[ Voor 8% gewijzigd door TheKillingBean op 17-06-2010 10:15 ]
PSN: http://psnprofiles.com/TheKillingBean | Xbox Live: https://www.xboxgamertag.com/search/TheKillingBean
http://www.fudzilla.com/content/view/19206/1/
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ok waarom staat er dan [Algemeen] ervoor. Ik wil ook wel een nieuwe topic starten, al lijkt me dat wat vervuiling.Anoniem: 298195 schreef op donderdag 17 juni 2010 @ 10:22:
Dit is een nvidia nieuws discussie topic...
PSN: http://psnprofiles.com/TheKillingBean | Xbox Live: https://www.xboxgamertag.com/search/TheKillingBean
Misschien omdat nVidia meer maakt dan enkel videokaarten?TheKillingBean schreef op donderdag 17 juni 2010 @ 11:28:
[...]
Ok waarom staat er dan [Algemeen] ervoor. Ik wil ook wel een nieuwe topic starten, al lijkt me dat wat vervuiling.
Nieuw topic heeft geen zin, gaat dicht. Reviews lezen gaat je meer helpen.
Wellicht dat de GTX475 wel ondanks dat die minder shaders heeft echt sneller is of andere voordelen bied die de naam rechtvaardigen. Voor het zelfde geld gaan ze lekker leuk doen met de namen en mensen voor de gek houden: GTX485 die sneller is dan de GTX480, GTX475 en de GTX465 die langzamer zijn dan de GTX470 en de GTX460 zijn heus wel mensen die er in kunnen trappen. Ik weet eigenlijk wel zeker dat ze dit niet zullen dan want het slaat nergens op.Xenomorphh schreef op donderdag 17 juni 2010 @ 07:58:
http://www.fudzilla.com/content/view/19199/1/
Als dat waar is over de gtx 475 snap ik nVidia echt niet meer.. Dan heeft hij 64 shaders minder als de GTX470 maar hij wordt wel hoger geplaatst. Dan zou die GF104 chip erg veranderd moeten zijn tegen over de GF100. Zouden de geruchten dan toch waar kunnen zijn dat het de nieuwe 8800GT wordt?
http://www.fudzilla.com/content/view/19194/1/
Zou het kunnen komen omdat ze het l2 cache eruit hebben gesloopt. Hier door kunnen ze hoge clocks halen. Misschien wel HD5870 achtige clocks? 800Mhz core?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
We zullen het zie.
Als nVidia de GF104 op dezelfde manier heeft ontworpen als de GF100, wat waarschijnlijk is, dan zullen die dubbele Via's e.d. dus niet aanwezig zijn, wat niet ten goede zal komen aan de yields. Dit is natuurlijk deels op te vangen door lagere clocks te hanteren, clusters uit te schakelen en voltages op te pompen. De vraag zal alleen zijn hoeveel bruikbare chips ze daarmee dan kunnen krijgen.
Anoniem: 357365
Het zal ongetwijfeld sarcasme zijn. Maar goed dat is natuurlijk niet zo goed voor ATImadmaxnl schreef op donderdag 17 juni 2010 @ 21:18:
Als het aan OneOverPrime moet DAAMIT gewoon open kaartspelen . Ik geef hem groot gelijk want die stomme marketingafdeling had nVidia op de hoogten van de problemen met het 40nm productie procedé van TSMC moeten attenderen. Dat is namelijk veel beter voor de consumenten
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Anoniem: 303530
http://www.notebookcheck....-Clevo-D901F.32251.0.html
schrik niet, deze notebook heeft een maximum verbruik van


bijna het dubbele van ATI's mobiele krachtpaster (i7 740m, HD5870), al moet daarbij worden vermeld dat de nvidia tegenhanger een desktop CPU bezit (+70w?)
ik gok op een accuduur van minder de gemiddelde reclame
edit: vooral interessant vind ik het volgende plaatje:

ondanks het veel lagere aantal transistoren scoort de 5870 ongeveer gelijk per watt
[ Voor 14% gewijzigd door Anoniem: 303530 op 17-06-2010 22:29 ]
http://hothardware.com/Ar...Fastest-Notebook-GPU-Yet/Anoniem: 303530 schreef op donderdag 17 juni 2010 @ 22:16:
de eerste review van de 480M is binnen......
http://www.notebookcheck....-Clevo-D901F.32251.0.html
schrik niet, deze notebook heeft een maximum verbruik van318w!
bijna het dubbele van ATI's mobiele krachtpaster (i7 740m, HD5870), al moet daarbij worden vermeld dat de nvidia tegenhanger een desktop CPU bezit (+70w?)
ik gok op een accuduur van minder de gemiddelde reclame
edit: vooral interessant vind ik het volgende plaatje:
[afbeelding]
ondanks het veel lagere aantal transistoren scoort de 5870 ongeveer gelijk per watt
Hier nog 1. Ze zijn er wel over te spreken als je gebruik niet meetelt..
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Wat bedoel je met scoort gelijk per watt? De GTX 480M heeft een tdp van 100W, de HD 5870 Mobility heeft een tdp van 50W. 1/3e aantal transistors, 30% lagere prestaties, helft van het verbruik?Anoniem: 303530 schreef op donderdag 17 juni 2010 @ 22:16:
de eerste review van de 480M is binnen......
http://www.notebookcheck....-Clevo-D901F.32251.0.html
schrik niet, deze notebook heeft een maximum verbruik van318w!
bijna het dubbele van ATI's mobiele krachtpaster (i7 740m, HD5870), al moet daarbij worden vermeld dat de nvidia tegenhanger een desktop CPU bezit (+70w?)
ik gok op een accuduur van minder de gemiddelde reclame
edit: vooral interessant vind ik het volgende plaatje:
[afbeelding]
ondanks het veel lagere aantal transistoren scoort de 5870 ongeveer gelijk per watt
Anoniem: 303530
...maar dat kan ook onzin zijn natuurlijk, feit blijft dat je TDP niet zomaar 1 op 1 kan vergelijken.
De GTX480 gaat full load dik over het TDP heen. Ik denk dat het best wel eens mogelijk is dat de hele HD5870M minder dan de helft van de GTX480M verbruikt.
[ Voor 10% gewijzigd door Astennu op 18-06-2010 11:06 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 263922
Dat doet niet af dat nvidia natuurlijk wel een heel stuk onzuiniger is dan ati per geleverde performance
[ Voor 40% gewijzigd door Anoniem: 263922 op 18-06-2010 13:48 ]
Nja ze hebben zichzelf met dit soort acties. Thermal Design Power geeft aan hoeveel watt de cooling moet aan kunnen. Als je er dus voor kiest die lager op te geven dan wat de chip echt gaat verstoken kan het dus zijn dat in die situatie de cooler niet meer zal voldoen en de kaart dus oververhit raakt.Anoniem: 263922 schreef op vrijdag 18 juni 2010 @ 13:47:
Het TDP van ati is ook niet waterdicht, en dus ook niet blind te vertrouwen...
Dat doet niet af dat nvidia natuurlijk wel een heel stuk onzuiniger is dan ati per geleverde performance
Als je een cooler maakt voor 100 watt en max load doe je 120 watt dan kan dat een probleem zijn. Average zal het wel goed komen. Maar stel je geeft em een leuke reken taak waar je dus langere tijd full load haalt tja dan kan het dus mis gaan.
TDP moet gewoon de max zijn. En je kunt dan een andere maat gebruiken voor het gemiddelde. BV wat AMD doet met ACP. (Average CPU Power).
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
[ Voor 59% gewijzigd door ArgantosNL op 18-06-2010 14:11 ]
http://www.hardware.info/...mp_van_nVidias_GF104_GPU/
Hij is een stuk kleiner dan GF100.. ~1miljard transistoren minder TDP 150 watt.

[ Voor 12% gewijzigd door Xenomorphh op 18-06-2010 14:28 ]
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Das een persoon geloof ik, wat ook in het HWI artikel te lezen is.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
- Rechthoekige chip/package, wtf?
- Die rechtse memory chips liggen veel te ver uit elkaar in vergelijking met de bovenste, er is precies een stuk uitgeknipt.
- PCB wazig gemaakt om het knip- en plakwerk te verhullen.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Mee eens, en de GF104-30 blabla is totaal niet wazig en lijkt er gewoon op geplakt.Noel schreef op vrijdag 18 juni 2010 @ 16:09:
Ziet er nogal photoshop uit.
- Rechthoekige chip/package, wtf?
- Die rechtse memory chips liggen veel te ver uit elkaar in vergelijking met de bovenste, er is precies een stuk uitgeknipt.
- PCB wazig gemaakt om het knip- en plakwerk te verhullen.
Om het bij nVidia te houden: G80, G84, G92, GT200, GT200b, GF100 allemaal square.
Dan gaan ze nu ff een rechthoekige maken? No way.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Precies, en dat wo ai AMD lijkt er ook opgeshopt. Zeker weten bewerkt!spNk schreef op vrijdag 18 juni 2010 @ 17:36:
[...]
Mee eens, en de GF104-30 blabla is totaal niet wazig en lijkt er gewoon op geplakt.
edit:
Vergeet de 9400M niet, die was zelfs perfect vierkant!Noel schreef op vrijdag 18 juni 2010 @ 17:43:
Omdat GPU's bijna altijd square zijn. Of als ze toch rechthoekig zijn, dan zijn ze quasi vierkant ipv uitgesproken rechthoekig.
Om het bij nVidia te houden: G80, G84, G92, GT200, GT200b, GF100 allemaal square.
Dan gaan ze nu ff een rechthoekige maken? No way.
Alhoewel?
/edit
Wat meer on topic:
New Fermi with 512 shaders possible
Speculeren kan je leren!
Het klinkt mij als onzin in de oren.
Vooral "The launch of such a card depends solely on ATI's next move." lijkt me stug, waarom zou je een chip ontwerpen om het vervolgens niet uit te brengen als de concurrentie niets doet?
En als ze hem pas ontwerpen wanneer ATI met een nieuwe chip komt zijn ze weer veel te laat.
[ Voor 90% gewijzigd door daan! op 18-06-2010 17:59 ]
Anoniem: 357365
Anoniem: 263922
Als je een koeler op een product zet die de energie niet kan verwerken, mag je de kaart bij wet niet leveren, dat hardware info bijvoorbeeld tests niet goed uitvoert en kaarten zo door hitte kan laten crashen (test met gtx480 tri-sli), levert voor veel mensen een vertekent beeld op, ja ze worden heet, maar in een goed geventileerde kast (realistische situatie) is er niks aan de hand, ik heb bij een hw member gelezen dat zijn 480 maximaal 84 graden was uit een gpu-z log-file, dat bewijst maar weer het tegendeel, al raadt nv bij tri-sli watercooling aan.Astennu schreef op vrijdag 18 juni 2010 @ 13:55:
[...]
Nja ze hebben zichzelf met dit soort acties. Thermal Design Power geeft aan hoeveel watt de cooling moet aan kunnen. Als je er dus voor kiest die lager op te geven dan wat de chip echt gaat verstoken kan het dus zijn dat in die situatie de cooler niet meer zal voldoen en de kaart dus oververhit raakt.
Als je een cooler maakt voor 100 watt en max load doe je 120 watt dan kan dat een probleem zijn. Average zal het wel goed komen. Maar stel je geeft em een leuke reken taak waar je dus langere tijd full load haalt tja dan kan het dus mis gaan.
TDP moet gewoon de max zijn. En je kunt dan een andere maat gebruiken voor het gemiddelde. BV wat AMD doet met ACP. (Average CPU Power).
En dat hele verhaal met die TDP was me wel bekend, waar ik op doelde is dat beide partijen waarden opgeven die realistisch voor normaal gebruik en niet max zijn, dat doet men bij cpu's ook, dat is een stukje slimme marketing waar onwetende mensen geen rekening mee houden, maar er verder toch nooit last van zullen hebben, hetzelfde zoals een 9400gt met 2gb geheugen, dat is ook iets waar sommige mensen voor kiezen in de overtuiging dat die kaart dan beter is dan een 9800gtx met 512mb.
Anoniem: 172410
Heatspreaders zijn wel los te krijgen, het is alleen een erg riskante onderneming. Het is mogelijk om de heatspreader werkend los te krijgen maar zelfs mocht je het slopen valt de chip uiteraard gewoon nog te zien. Hij werkt alleen niet meerThe_Ownman schreef op zaterdag 19 juni 2010 @ 00:52:
Je kan de heatspreader niet van de kaart afhalen zonder de chip mee te nemen. De chip en de heatspreader zitten namelijk aan elkaar vast.
Anoniem: 172410
Als ik mij het goed herinner mat Intel de tdp als de gemiddelde waarde als typical use, terwijl AMD bij z'n CPU's de tdp aangeeft als de absolute maximumwaarde die ooit gehaald zou kunnen worden. Daarom dat AMD ook ACP in het leven heeft geroepen (gemiddeld 'realistisch' verbruik). Maar het blijkt dus dat ook die meetmethodes aan de praktijk aangepast kunnen worden als andere waarden wat beter uitkomen of de huidige chipgeneratie toch wel wat veel stroom gebruikt. *kuch* nVidia *kuch*Anoniem: 263922 schreef op zaterdag 19 juni 2010 @ 03:08:
En dat hele verhaal met die TDP was me wel bekend, waar ik op doelde is dat beide partijen waarden opgeven die realistisch voor normaal gebruik en niet max zijn, dat doet men bij cpu's ook, dat is een stukje slimme marketing waar onwetende mensen geen rekening mee houden, maar er verder toch nooit last van zullen hebben, hetzelfde zoals een 9400gt met 2gb geheugen, dat is ook iets waar sommige mensen voor kiezen in de overtuiging dat die kaart dan beter is dan een 9800gtx met 512mb.
Edit: o noes, Camacha's e v e r y where
De GF100 heeft ook 512 Shaders. Maar de yield zijn zo laag dat er amper kaarten zijn waar er 512 werken. Die zullen ze nu wel binnen. Als AMD dan straks met een nieuwe kaart komt brengen ze die uit.daan! schreef op vrijdag 18 juni 2010 @ 17:45:
[...]
Precies, en dat wo ai AMD lijkt er ook opgeshopt. Zeker weten bewerkt!
edit:
[...]
Vergeet de 9400M niet, die was zelfs perfect vierkant!
Alhoewel?
/edit
Wat meer on topic:New Fermi with 512 shaders possible
Speculeren kan je leren!
Het klinkt mij als onzin in de oren.
Vooral "The launch of such a card depends solely on ATI's next move." lijkt me stug, waarom zou je een chip ontwerpen om het vervolgens niet uit te brengen als de concurrentie niets doet?
En als ze hem pas ontwerpen wanneer ATI met een nieuwe chip komt zijn ze weer veel te laat.
Zal wel een soort van 7800 GTX 512 launch worden. Met amper kaarten. Maar gewoon om te proberen AMD dwars te zitten. Of ze moeten inmiddels betere yield hebben zodat ze er wat meer hebben. Maar dat verwacht ik eerlijk gezegd niet.
Waar het om gaat is de Definitie van TDP. En dat is het Maximum wat een chip verbruikt. Dat nVidia dat nou aan zijn laars lapt verandert niets aan de Definitie. Ik zeg ook niet dat de cooler van de GTX480 aan exact het TDP voldoet. We weten dat de cooler van de HD5970 ook veel meer aan kan dan de kaart verbruikt. Die kan makkelijk 400watt pakken in combinatie met de fan die er bij zit.
3e party fabikanten die aan de max TDP voldoen maar niet veel meer kunnen daar in de problemen raken. Natuurlijk zijn die niet gek en testen die of de cooler het aan kan. Maar dan komen zij er achter dat het TDP niet klopt. En dat ze veel meer nodig hebben.
Dat is de rede dat AMD met ACP kwam. TDP bleef de echte max bij hun. Intel gaf lagere waardes op dan de max. Zo kon de i7 makkelijk boven de 130 watt stock. Maar toch 120 watt opgeven. Consument denkt dan even zuinig maar dat was niet zo.
Daarom kwam ACP er om te laten zien wat een AMD CPU normaal zou gebruiken. Bij full load kun je redelijk dicht op het TDP komen. Al zitten AMD cpu's er vaak wat onder. Alleen de top modellen in hun TDP range niet. Dit zitten er wel heel dicht tegen aan.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik reageerde vooral op de volgende zin uit het bericht:Astennu schreef op zaterdag 19 juni 2010 @ 11:27:
[...]
De GF100 heeft ook 512 Shaders. Maar de yield zijn zo laag dat er amper kaarten zijn waar er 512 werken. Die zullen ze nu wel binnen. Als AMD dan straks met een nieuwe kaart komt brengen ze die uit.
"The twist is that there is a big possibility that this card won’t be based on the GF100, Nvidia's original Fermi chip."
Waar hij dat vandaan haalt is mij een raadsel en het klinkt als grote onzin.
Dat lijkt mij ook waarschijnlijker.Zal wel een soort van 7800 GTX 512 launch worden. Met amper kaarten. Maar gewoon om te proberen AMD dwars te zitten. Of ze moeten inmiddels betere yield hebben zodat ze er wat meer hebben. Maar dat verwacht ik eerlijk gezegd niet.
Anoniem: 263922
Tja bij jou hebben intel en nvidia het altijd gedaan, en amd is altijd het zwarte schaap wat alles volgens de regeltjes doet.Astennu schreef op zaterdag 19 juni 2010 @ 11:27:
[...]
Waar het om gaat is de Definitie van TDP. En dat is het Maximum wat een chip verbruikt. Dat nVidia dat nou aan zijn laars lapt verandert niets aan de Definitie. Ik zeg ook niet dat de cooler van de GTX480 aan exact het TDP voldoet. We weten dat de cooler van de HD5970 ook veel meer aan kan dan de kaart verbruikt. Die kan makkelijk 400watt pakken in combinatie met de fan die er bij zit.
3e party fabikanten die aan de max TDP voldoen maar niet veel meer kunnen daar in de problemen raken. Natuurlijk zijn die niet gek en testen die of de cooler het aan kan. Maar dan komen zij er achter dat het TDP niet klopt. En dat ze veel meer nodig hebben.
Dat is de rede dat AMD met ACP kwam. TDP bleef de echte max bij hun. Intel gaf lagere waardes op dan de max. Zo kon de i7 makkelijk boven de 130 watt stock. Maar toch 120 watt opgeven. Consument denkt dan even zuinig maar dat was niet zo.
Daarom kwam ACP er om te laten zien wat een AMD CPU normaal zou gebruiken. Bij full load kun je redelijk dicht op het TDP komen. Al zitten AMD cpu's er vaak wat onder. Alleen de top modellen in hun TDP range niet. Dit zitten er wel heel dicht tegen aan.
http://ark.intel.com/Product.aspx?id=37147 staat toch echt 130watt bij TDP, als je iemand wil overtuigen van het "bedrog" van iemand anders, moet je zelf niet gaan lopen liegen
Als je die vraag met ja beantwoordt, dan vraag ik me daarnaast ook nog eens sterk af wat je hier op GoT doet.
[ Voor 40% gewijzigd door Jejking op 19-06-2010 18:14 ]
Joh heb even een cijfertje verkeerd over genomenAnoniem: 263922 schreef op zaterdag 19 juni 2010 @ 15:40:
[...]
Tja bij jou hebben intel en nvidia het altijd gedaan, en amd is altijd het zwarte schaap wat alles volgens de regeltjes doet.
http://ark.intel.com/Product.aspx?id=37147 staat toch echt 130watt bij TDP, als je iemand wil overtuigen van het "bedrog" van iemand anders, moet je zelf niet gaan lopen liegen


Het ging in het begin over de 965. Deze zou over zijn TDP van 130 watt heen gaan. Ik kan alleen die specifieke test niet terug vinden maar hier een vergelijking:

De Phenom II 955 en de Core 2 Quad Q9770 zijn 120 watt. Natuurlijk heb je hier ook met moederbord en chipset te maken. daarom zou het mooier zijn als je een goed overzicht zou hebben van wat elk onderdeel verbruikt. Maar die kan ik even niet vinden. Ik vind het verschil wel erg groot voor alleen chipset en andere zaken. ook al gebruiken i7's 1 mem module meer.
[ Voor 16% gewijzigd door Astennu op 19-06-2010 18:16 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Nee, het een DIMM trekt (afhankelijk van type) ongeveer 1W.
Het is trouwens P=I*U en I=Q/t maar dat doet er niet zo toe volgens mij heb je wel gelijk. Het kan volgens mij ook zijn dat elke geheugenchip op een geheugen module 1,7V trekt de vraag die je dan moet stellen is of het een de geheugenchips parallel of serie geschakeld zijn. Ik denk dat de chips allemaal parallel geschakeld zijn waardoor ze allemaal 1.7V spanning hebben en een lage stroomsterkte hebben.Edmin schreef op zaterdag 19 juni 2010 @ 22:42:
20W? Dat ding loopt op ongeveer 1,7V. Aangezien W = V*A zou dat ding 11,8A moeten trekken!
Nee, het een DIMM trekt (afhankelijk van type) ongeveer 1W.
Anoniem: 263922
Anoniem: 254444
Ik heb hier een gtx285 zonder heatspreader draaien, werkt nog steeds prima. De chip zelf zat niet aan de heatspreader vast. Wel zat de chip heel dik volgesmeerd met goedkope meuk. Ter vergelijk zonder heatspreader draai ik ca 5C koeler vergeleken met een identieke kaart en koeler wel in een andere kast.The_Ownman schreef op zaterdag 19 juni 2010 @ 00:52:
Je kan de heatspreader niet van de kaart afhalen zonder de chip mee te nemen. De chip en de heatspreader zitten namelijk aan elkaar vast.
De X48 Core 2 Duo staat er ook bij. En die vergelijking gaat niet op want de i7 965 ging boven zijn TDP uit. Dat hoeft voor de nieuwe cpu's niet zo te zijn. Die hebben een nieuwe stepping en kunnen waarschijnlijk op een lagere spanning werken. Dus zitten wel binnen het TDP.Anoniem: 263922 schreef op zondag 20 juni 2010 @ 00:35:
Het is natuurlijk een lastige vergelijking tussen i7 x58 en phenomII, mede door die extra geheugenmodule/bijbehorende tripple channel controller, dan zou je imo beter tussen p55/i7, i5 en phenomII 890x een vergelijking moeten trekken, die platforms liggen korter bij elkaar dan het x58 platform, denk dat intel daar dan iets zuiniger uit de bus komt, al krijg je bij beide goede performance per watt, bij p4 en pentium d lag dat heel anders.
Het ging mij er om dat het wel eens voorkomt dat er chips uitkomen die een hoger verbruik hebben dan het op gegeven TDP en dat je dan problemen kan krijgen als je een cooler koopt van 130 watt. Jij denkt dat je aan het TDP voldoet maar als je dan max load gaat draaien is de 130 watt cooler niet voldoende.
Zelfde geld voor video kaarten. (en het gaat vooral op bij het kopen van after market coolers.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik neem aan dat ze de huidige generatie dan wel door laten gaan. Want anders is het wel erg laat voor low end chippies. AMD heeft tegen die tijd de hele HD6xxx lineup in de markt staan.neliz schreef op maandag 21 juni 2010 @ 13:34:
gerucht: "Fermi 2" zou drie GPUs behelzen, alle drie als "groot" aan te merken. Efficiëntie verbeteringen is het kernwoord hier en er zou niets spectaculairs te verwachten zijn. GF119 zou de eerste GPU zijn die weer nieuwe architectonische foefjes introduceert, het is blijkbaar een speerpunt van nV om die zo snel mogelijk de deur uit te krijgen, maar dat wordt ergens medio volgend jaar.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 245699
http://www.bjorn3d.com/read.php?cID=1888&pageID=9214
[ Voor 6% gewijzigd door Anoniem: 245699 op 21-06-2010 19:08 ]
Nog even dit, pre-GF100 waren er een aantal mensen (nv Tools) die mij op het hart drukten dat GF100 dit ontwerp zou krijgen, 20x21 of 19x21 waren veelgehoorde afmetingen.Noel schreef op vrijdag 18 juni 2010 @ 17:43:
Omdat GPU's bijna altijd square zijn. Of als ze toch rechthoekig zijn, dan zijn ze quasi vierkant ipv uitgesproken rechthoekig.
Om het bij nVidia te houden: G80, G84, G92, GT200, GT200b, GF100 allemaal square.
Dan gaan ze nu ff een rechthoekige maken? No way.
Laten we voorop stellen dat wanneer je ontwerp beter uit de verf komt op een rechthoekige chip, je 'm vooral ook zo moet maken.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 251563
Een beetje jammer dat de enige test waarbij ze het vergelijken met andere chips Furmark is, terwijl ze zelf al zeggen datie niet representatief is.Anoniem: 245699 schreef op maandag 21 juni 2010 @ 19:06:
Uitgebreide 'real-life' temperatuur test van de GTX480;
http://www.bjorn3d.com/read.php?cID=1888&pageID=9214

[ Voor 39% gewijzigd door Anoniem: 251563 op 21-06-2010 19:28 ]
Anoniem: 360578
Uiteraard staan er wel wat leuke getalletjes op de nvidia website maar dat zegt mij allemaal zo weinig

Ik vroeg me dan ook af of iemand mij kon vertellen of dit een beetje een redelijke kaart is om wat op te gamen enzo
bij voorbaad dank

Dit is niet het topic daarvoor en het antwoord is nee.Anoniem: 360578 schreef op maandag 21 juni 2010 @ 20:41:
Beste mensen ik heb het internet afgezocht maar ik kan nergens iets vinden over de GeForce GT320
Uiteraard staan er wel wat leuke getalletjes op de nvidia website maar dat zegt mij allemaal zo weinig.
Ik vroeg me dan ook af of iemand mij kon vertellen of dit een beetje een redelijke kaart is om wat op te gamen enzo![]()
bij voorbaad dank
edit: gebruik Firefox en installeer een Nederlands woordenboek ervoor.
[ Voor 6% gewijzigd door neliz op 21-06-2010 20:59 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 357365
Niet echt het goede topic, maar GT 320 zuigt écht om op te gamen, niet aan beginnen.Anoniem: 360578 schreef op maandag 21 juni 2010 @ 20:41:
Beste mensen ik heb het internet afgezocht maar ik kan nergens iets vinden over de GeForce GT320
Uiteraard staan er wel wat leuke getalletjes op de nvidia website maar dat zegt mij allemaal zo weinig.
Ik vroeg me dan ook af of iemand mij kon vertellen of dit een beetje een redelijke kaart is om wat op te gamen enzo![]()
bij voorbaad dank
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 102124
Iemand idee wanneer deze te koop zou zijn?
En hoe moeilijk is het om deze te monteren (en de oude cooler te verwijderen)
Ik heb hier namelijk geen ervaring mee
Momenteel heb ik een GTX 480 van Asus, die onder load rond de 80-83 graden draait (fan op 60%)
Met zo'n cooler erop zou ik het wel naar 65 graden kunnen krijgen denk ik
Hmm hebben we wat gemist?
It looks like the initial GF104s are going to have at least one block of 32 shaders disabled if not two. The 336 shader number is likely an artifact of the stats program not being fully aware of the new chip yet, but Nvidia might have added the ability to disable half a cluster. GF108s shown at Computex had 96 of 128 shaders active.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Redelijk veel? Deze dingen zouden uit moeten komen vlak voordat de Evergreen refresh in Oktober/November.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dus ze moeten iets. Want hun huidige lineup hebben ze al veel te lang staan. Dus deels hebben ze het aan zichzelf te danken maar een deel komt ook door TSMC.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Als ik het goed heb komt nV dus eerst met hun low-end product (GF119) op de 28nm Markt. Maar dit zou een tijdje na AMD's high end 28nm producten moeten zijn. Deze stond al in de planning en zou betekenen dat andere producten die op 32nm bedoeld waren misschien zijn weggevallen voor 28nm producten.Jejking schreef op dinsdag 22 juni 2010 @ 14:35:
Door als een kip zonder kop 40nm in te rennen met hun highend-product, zitten ze nu met de problemen. Mijn advies is dus: eerst checken of alles klopt en dan pas bakken. Dan ben je iig 50% van de problemen al voor. Als TSMC er voor de rest nog een zooitje van maakt met 32nm en 28nm, is dat buiten jouw macht. nVidia dacht er mee weg te komen op een dergelijke monsterchip maar dat ging dus blijkbaar verkeerd. De gevolgen kennen we allemaal.
[ Voor 9% gewijzigd door neliz op 22-06-2010 14:42 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ter ere dat het forum er terug is ;p
-> Doordat mijn laatste klad versie alweer een week of ouder was zijn de hernieuwde drivers weeral verouderd (nieuwe 256 WHQL drivers zijn uit). Ik zal hiervoor thuis nog eens kijken, maar mij kennende ging het dan weer een paar dagen uitlopen .. vandaar dat ik nu toch de nieuwe TS gepost heb zonder eerst weer alle drivers te overlopen.
-> Geruchten en nieuws sectie zijn nogal leeg daar mijn nieuws berichten nogal oud waren .. de tweakers frontpage berichten heb ik er maar ingelaten ..
anyway nieuw deeltje nadat ik deze 250% uit zijn voegen liet lopen
[Algemeen] nVidia Nieuwdiscussie Topic - Deel 47
Dit topic is gesloten.