In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter
Dit topic is vooral niét bedoeld om te posten dat:
jouw favoriete kaart niet leverbaar is bij een shop.
jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst!
Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2
Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 34
Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.
De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.
G 210 en GT 220 (eindelijk directX10.1)
GeForce 210/310
GPU: GT218 (40nm)
Release Date: 12/10/2009
Interface: PCI-E 2.0 x16
Transistors: 260 million
Unified shaders: 16
Shader clock: 1450 MHz
ROP's: 8
Core Clock: 675 MHz
Memory Clock: 400 MHz (DDR2)
Memory Bandwidth: 8.0 GB/sec (DDR2)
Memory Interface: 64 bit
Memory: 512 MB
OpenGL: 3.2
Consumption: 30 watt (max)
Power Connectors: geen
DirectX: 10.1
GeForce GT 220
GPU: GT216 (40nm)
Release Date: 12/10/2009
Interface: PCI-E 2.0 x16
Transistors: 486 million
Unified shaders: 16
Shader clock: 1360 MHz
ROP's: 8
Core Clock: 625 MHz
Memory Clock: 900 MHz (GDDR3)
Memory Bandwidth: 25.0 GB/sec (DDR2)
Memory Interface: 128 bit
Memory: 1024 MB (max)
OpenGL: 3.2
Consumption: 58 watt (max)
Power Connectors: geen
DirectX: 10.1
GTS 240 en GT 240 (Eindelijk GDDR5 )
GeForce GT 240
GPU: GT215 (40nm)
Release Date: 17/12/2009
Interface: PCI-E 2.0 x16
Transistors: 727 million
Unified shaders: 96
Shader clock: 1340 MHz
ROP's: 8
Core Clock: 550 MHz
Memory Clock: 900/1000 MHz (GDDR3) of 1700 Mhz GDDR5
Externe nieuwsberichten: Drie van de top 4 supercomputers in de wereld halen een groot deel van hun rekenkracht van grafische processors.
• China's Tianhe-1A crowned supercomputer king
De krachtigste ter wereld bevind zich nu in china en bevat 7,168 nVidia GPU's (naast 14,336 Intel CPUs, details )
• China claims supercomputer crown
GTX 580
De gerucht doen de ronde dat nVidia "binnenkort"(pas volgend jaar) de nieuwe serie zal lanceren beginnende met de high-end kaart de GTX 580.
Echter zijn er 2 mogelijkheden:
• Een B1 versie van de huidige GTX480 fermi kaart waarbij het leakage probleem eindelijk onder controle gebracht is waardoor de clocks naar de oorspronkelijk beoogde snelheden gebracht kunnen worden.
Dit in samenwerking met het activeren van alle shaders (of CUDA cores genoemd).
• Een minder aanneembare optie, namelijk een nieuw "monsterchip" met het dubbel aantal Tmu's een 512bit brede databus (hoewel het vooral de memorycontroller was dat fermi1 parten speelde niet de bus zelf ..).
Ook deze zou hogere clocksnelheden moeten kunnen bereiken + over 512 shaders beschikken.
In beide gevallen zou de snelheidswinst een 20% zijn tegenover de huidige GTX 480 wat niet min is rekening houdende dat men blijft gebruik maken van dezelfde productieprocédé.
*update*: Het is de eerste optie geworden
GTX570
De volgende high-end kaart die nVidia zal lanceren in de in de GTX500 reeks zal de GTX570 worden, vermoedelijk met evenveel cuda cores dan de huidige GTX480 (welke EOL is verklaard) én hoger geklokt.
Dit zou moeten bereikt worden door dezelfde optimalisaties die eerder zijn toegepast om de GTX580 te produceren (Mogelijk dezelfde chip maar met een cluster aan CUDA cores disabled?)
nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(30 juli 2010) zijn er geen nieuwere beta drivers uit die recenter zijn dan de WHQL's.
Er is wel een nieuwe beta driver uit voor OpenGL 4.1 te supporten
Let op:
7) What NVIDIA hardware will support OpenGL 4?
The new features in OpenGL 4 require a Fermi GPU. Thus OpenGL 4 is not supported on NV3x, NV4x, G7x, G8x nor GT2xx hardware. This means you need one of the following NVIDIA graphics accelerators to use OpenGL 4:
Een goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
• Alternatieve OS: Momenteel zijn deze drivers dezelfde als voor de desktop applicaties
nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.
*TODO*
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)
PV engine 4 bijvoegen
CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg
-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...
[Voor 9% gewijzigd door lightdestroyer op 17-11-2010 13:33. Reden: toevoegen correcte info GTX580 + GTX460 SE]
Ik zie niets staan over 3D vision in de TS, wellicht interessant om iets over toe te voegen? Dit begint toch wel interessanter te worden met steeds meer positieve reviews. Hier een recente (hoewel op zich een monitor review): http://benchmarkreviews.c...d=68&limit=1&limitstart=5
Uh zeker indien deze apart vermeld staat op de nvidia site zou deze in de TS moeten gestaan hebben... echter ben ik zelf door de naamgeving beetgenomen
Vanaf dat ik nog eens wat tijd heb zal ik proberen de GTS450 OEM en de GT 420 toe te voegen (blijkbaar is de GT 430 OEM dan toch nog gelijk met diegene voor particulieren...)
De kans lijkt mij groter dan 0,35% als het 20 september 2011 is ?
Uh dat zijn oude geruchten inderdaad, ik moet nog de geruchten en nieuwstopic updaten. Wat ook weer iets zal zijn voor het weekend. Bekijk het azo, de 0.35% zat dicht bij de 0%
Het spijt me maar de vroegere technologie uitbreidingen werden na een tijdje aanzien als de TS overladen vandaar dat ik er mij nog niet aan gewaagd heb. Indien het gewild is wil ik er wel eens een korte samenvatting in elkaar boxen.
[Voor 46% gewijzigd door lightdestroyer op 28-10-2010 00:50]
NV hoopt dat de GTX580 sneller wordt dan de HD6950 en stellen hiervoor de echte beschikbaarheid uit to na de launch van Cayman.
Je impliceert dat de GTX580 rond het prijspunt van de HD 6970 komt te liggen, met prestaties vergelijkbaar met de HD 6950. Het had natuurlijk een stuk slechter gekund, maar dat lijkt me eerlijk gezegd niet direct reden om de vlag uit te hangen...
De geruchten zijn ook dat Cayman in November komt. Mag ik begrijpen dat de Groenen dan ook in November komen met hun nieuwe kampioen?
Helixes schreef op donderdag 28 oktober 2010 @ 10:28:
[...]
Je impliceert dat de GTX580 rond het prijspunt van de HD 6970 komt te liggen, met prestaties vergelijkbaar met de HD 6950. Het had natuurlijk een stuk slechter gekund, maar dat lijkt me eerlijk gezegd niet direct reden om de vlag uit te hangen...
De geruchten zijn ook dat Cayman in November komt. Mag ik begrijpen dat de Groenen dan ook in November komen met hun nieuwe kampioen?
het heet "Steal the Thunder"
Herrinert iedereen zich de spontane release van de 7800 GTX 512 op het moment dat de concurrent met misschien een betere kaart kwam?
het heet "Steal the Thunder"
Herrinert iedereen zich de spontane release van de 7800 GTX 512 op het moment dat de concurrent met misschien een betere kaart kwam?
Ja... Dus nu ook weer een paperlaunch? Impliceer je dat?
Zover ik weet was de 8800GT zeker GEEN paperlaunch, daar zijn er zelfs behoorlijk veel van verkocht.
De 7800GTX 512MB, die Neliz noemt, was zkr wel een paperlaunch.
edit: even voor de duidelijkheid, met paperlaunch bedoel ik eigenlijk een launch met maar enkele duizenden kaarten OOIT verkrijgbaar, zoals de 7800GTX 512MB dus.
Paperlaunch is eigenlijk natuurlijk een launch waarbij de beschikbaarheid nog moet volgen, maar wel ooit komt.
[Voor 27% gewijzigd door Gurneyhck op 28-10-2010 12:06]
Die koeler zit zo ongeveer op elke kaart van nVidia. En behalve dat, er is nu in paint een tekstje opgezet , ik denk dat deze nep is, ook omdat de GTX480 twee heatpipes uit het plastic had steken, en een metalen roostertje had, en deze kaart nou niet schrikbarend minder gaat gebruiken.
@hierboven, super!
edit: die kaart is met 99,998 procent zekerheid nep
edti: waarom staat in te TS bij zowel de GTX470 als GTX480 een plaatje van de XFX variant, die nooit is uitgekomen?
[Voor 25% gewijzigd door windwarrior op 28-10-2010 13:32]
Temperatuur maakt toch niks uit? Van mij mag mijn videokaart ook wel 150 graden zijn als die daar tegen kan is het voor mij niet echt een probleem. Zou die ook nog eens stiller zijn koeler hoeft immers minder hard te draaien.
Inderdaad temperatuur maakt niks uit, mits de warmte uit de kast wordt geblazen, de kaart er tegen kan en er weinig geluid productie is. Bij de HD4870 waren er een hoop mensen die vond dat deze een te hogen idle temperatuur had (60a70 graden Celsius). Daar in tegen was hij wel "heel erg stil" maar dat was blijkbaar niet relevant ook begreep men toen niet dat de warmte van de GPU geen ruk uit maakt zolang de GPU er maar tegen kan. Maar goed dat ter zeiden.
GTX580 twee keer DVI en HDMI en stroom aansluitingen zijn 6+8 pins PCI-e.
Performance is zo'n 20% hoger als een GTX480 zonder dat het stroomverbruik dat ook is.
Hmm als ik de achterkant van de kaart bekijk zeg maar het PCB lijkt de kaart mij wel ontzettend lang. Maar goed 20% meer prestaties tegen hetzelfde stroom verbruik, ik vind het knap. En ook knap dat ze dat beest uiteindelijk toch nog geproduceerd krijgen op 40nm Mits de yields goed zijn natuurlijk..
Grappig trouwens dat de post van Antilles wel klopt, koeler etc dan
[Voor 4% gewijzigd door Xenomorphh op 28-10-2010 15:42]
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Inderdaad temperatuur maakt niks uit, mits de warmte uit de kast wordt geblazen, de kaart er tegen kan en er weinig geluid productie is. Bij de HD4870 waren er een hoop mensen die vond dat deze een te hogen idle temperatuur had (60a70 graden Celsius). Daar in tegen was hij wel "heel erg stil" maar dat was blijkbaar niet relevant ook begreep men toen niet dat de warmte van de GPU geen ruk uit maakt zolang de GPU er maar tegen kan. Maar goed dat ter zeiden.
Ik kan je met 100% zekerheid zeggen dat de hd4870 niet stil was, integendeel, dat ding maakte hetzelfde geluid als een 2200 watt stofzuiger. Na het booten kon je de kaart ook niet meer aanraken zonder een blaar er aan over te houden, gelukkig zat er wel een waarschuwings sticker op
En ik kan het weten, heb zelf een 1gb versie gehad, verder goede performance en hij heeft heel even op 900mhz gedraaid. (toen lieten de drivers dat nog toe) Heb hem eigenlijk alleen maar onder waterkoeling gedraaid, net voor de verkoop met de stock koeler nog bij een vriend gedraaid om zijn server te testen. Kan je wel zeggen dat die 60 a 70 graden idle meer regel dan uitzondering was, damn wat werd dat ding heet, daar kon je toch zeker een ei op bakken (vreemd dat niemand dat met een hd4870 heeft geprobeerd trouwens)
Ben wel benieuwd hoever nvidia de lekstroom in die giga-chip heeft weten te beperken, die eerste plaatjes geven enige hoop, een ECHTE max tdp van 250watt is wel wenselijk, al voorspellen die 6+8 pins dan weer minder goed...
Zover ik weet was de 8800GT zeker GEEN paperlaunch, daar zijn er zelfs behoorlijk veel van verkocht.
De 7800GTX 512MB, die Neliz noemt, was zkr wel een paperlaunch.
edit: even voor de duidelijkheid, met paperlaunch bedoel ik eigenlijk een launch met maar enkele duizenden kaarten OOIT verkrijgbaar, zoals de 7800GTX 512MB dus.
Paperlaunch is eigenlijk natuurlijk een launch waarbij de beschikbaarheid nog moet volgen, maar wel ooit komt.
Och sorry, ik doelde meer op 'counter' launches om klanten bij de concurrentie weg te kapen, my bad
Die 7800gtx 512mb heb ik jaren terug tweedehands gekocht, wist niet dat dat ding zo relatief zeldzaam was...
Performance is zo'n 20% hoger als een GTX480 zonder dat het stroomverbruik dat ook is.
Dus de extra cores zijn nu wel ingeschakeld en de frequentie is waarschijnlijk opgehoogd? Of zijn er misschien nog meer optimalisaties doorgevoerd om die 20% snelheidswinst te behalen t.o.v. de GTX480?
Of is die 20% alleen in speciale benchmarks? (Ja ik wordt cynisch van NVidia + marketing)
wat ik een beetje raar vind is dat de onderste foto geen datum bevat, lijkt mij door de zelfde persoon geschoten,
en de datum op foto 2 verschild ook vergeleken de eerste..
-The_Mask- schreef op donderdag 28 oktober 2010 @ 15:26:
Temperatuur maakt toch niks uit? Van mij mag mijn videokaart ook wel 150 graden zijn als die daar tegen kan is het voor mij niet echt een probleem. Zou die ook nog eens stiller zijn koeler hoeft immers minder hard te draaien.
Maar dat is juist het hele probleem met de huidige GTX480... Wordt zo warm dat de fan erg hard moet werken. Wat ik dus bedoelde is dat zodra de temps lager uitvallen de fan ook minder werk hoeft te verzetten -> minder herrie...
Anoniem: 263922 schreef op donderdag 28 oktober 2010 @ 16:14:
[...]Ben wel benieuwd hoever nvidia de lekstroom in die giga-chip heeft weten te beperken, die eerste plaatjes geven enige hoop, een ECHTE max tdp van 250watt is wel wenselijk, al voorspellen die 6+8 pins dan weer minder goed...
Nouja, alle kaarten met een TDP van boven de 225watt krijgen sowieso een 6+8 pins, dus dat is niet zo'n probleem. Probleem is idd dat heel veel stroom weg 'lekt' en overbodige warmte op levert die afgevoerd moet worden. Neem de GTX280, die heeft een TDP van ~236watt en stond niet bekend als 'belachelijk' heet en luid.
Dus als de TDP van de GTX580 ECHT 250watt is, zijn we al een heel eind!
[Voor 39% gewijzigd door Anoniem: 245699 op 28-10-2010 17:51]
Anoniem: 245699 schreef op donderdag 28 oktober 2010 @ 17:45:
Maar dat is juist het hele probleem met de huidige GTX480... Wordt zo warm dat de fan erg hard moet werken. Wat ik dus bedoelde is dat zodra de temps lager uitvallen de fan ook minder werk hoeft te verzetten -> minder herrie...
Je bedoelt waarschijnlijk: minder warmteproductie -> lagere fanspeeds. De temperatuur is juist afhankelijk van de fanspeed (en ook warmteproductie), niet andersom...
Heeft geen speciale krachten en is daar erg boos over.
Ik kan je met 100% zekerheid zeggen dat de hd4870 niet stil was, integendeel, dat ding maakte hetzelfde geluid als een 2200 watt stofzuiger. Na het booten kon je de kaart ook niet meer aanraken zonder een blaar er aan over te houden, gelukkig zat er wel een waarschuwings sticker op
En ik kan het weten, heb zelf een 1gb versie gehad, verder goede performance en hij heeft heel even op 900mhz gedraaid. (toen lieten de drivers dat nog toe) Heb hem eigenlijk alleen maar onder waterkoeling gedraaid, net voor de verkoop met de stock koeler nog bij een vriend gedraaid om zijn server te testen. Kan je wel zeggen dat die 60 a 70 graden idle meer regel dan uitzondering was, damn wat werd dat ding heet, daar kon je toch zeker een ei op bakken (vreemd dat niemand dat met een hd4870 heeft geprobeerd trouwens)
Ben wel benieuwd hoever nvidia de lekstroom in die giga-chip heeft weten te beperken, die eerste plaatjes geven enige hoop, een ECHTE max tdp van 250watt is wel wenselijk, al voorspellen die 6+8 pins dan weer minder goed...
Kan ik je met 100% zekerheid zeggen dat die idle wel stil is.
Zelfs load is die stil.
Dit is eerder regel dan uitzondering daar ik bewijs heb en jij slechts je eigen ervaring hebt met een wellicht slecht exemplaar.
Kun je wel heel stoer zo'n smiley erbij zetten, maar dat maakt je pleidooi niet sterker. Eerste link die ik aanklik (die ik dus ook gequote heb), temperatuur idle: 75graden C, onder load: 87graden C
Dus frietjemet heeft wel zkr een punt!
edit: qua geluid ziet je bewijs er beter uit Maar dat is natuurlijk ook wel een beetje een subjectief iets. Voor de één is geluid harder dan voor de ander...
[Voor 12% gewijzigd door Gurneyhck op 28-10-2010 19:12]
Kun je wel heel stoer zo'n smiley erbij zetten, maar dat maakt je pleidooi niet sterker. Eerste link die ik aanklik (die ik dus ook gequote heb), temperatuur idle: 75graden C, onder load: 87graden C
Dus frietjemet heeft wel zkr een punt!
Wat heeft hoge temp te maken met lawaaiige videokaart?
Kan je wel zeggen dat die 60 a 70 graden idle meer regel dan uitzondering was, damn wat werd dat ding heet, daar kon je toch zeker een ei op bakken (vreemd dat niemand dat met een hd4870 heeft geprobeerd trouwens)
Tja ik weet dan niet wat jij als bewijs aanhaalt, als jouw 'bewijs' op een aantal subjectieve reviews is gebaseerd zegt dat nog steeds erg weinig. Als ze op computerbase zeggen dat jij van een dak moet springen doe je dat dus zomaar?
Dan is mijn ervaring natuurlijk ook niet zoveel zeggend, als ik de kaart nog had had ik graag het geluid voor je opgenomen van een afstand van 2 meter, ik had dan zelfs mijn vinger 5 seconden lang op de kaart gelegd, en 5 minuten later de blaar getoond (filmpje uiteraard met datum/tijd).
Vervolgens had ik dan een vergelijking kunnen trekken met mijn gtx295, vergeleken met die hd4870 is dat een zwiffer wat geluid aangaat, en ik kan mijn vinger er langer ophouden dan 5 seconden (zit dan wel een backplate op is niet geheel eerlijk )
Nogmaals, geen slechte kaart, maar die stock koeler van ati uit was gewoon niet berekend op zijn taak.
Kun je wel heel stoer zo'n smiley erbij zetten, maar dat maakt je pleidooi niet sterker. Eerste link die ik aanklik (die ik dus ook gequote heb), temperatuur idle: 75graden C, onder load: 87graden C
Dus frietjemet heeft wel zkr een punt!
edit: qua geluid ziet je bewijs er beter uit Maar dat is natuurlijk ook wel een beetje een subjectief iets. Voor de één is geluid harder dan voor de ander...
De kaart wordt in idle abnormaal warm maar dat is geen enkel probleem, de warme lucht wordt toch buiten de kast geblazen en de kaart heeft er niet onder te lijden. Het geluid idle is heel erg weinig omdat de fan niet hard draait en omdat de fan niet hard draait wordt de kaart warm. Ik heb liever een stille kaart dan een lawaaierige kaart, alle anderen punten beschouwing gelaten omdat deze hiervoor niet relevant zijn.
Load wordt de kaart niet warmer dan andere kaarten en het geluid dat hij produceert is meestal lager. Dat Frietjemet een kaart heeft gehad waar dit blijkbaar allemaal niet het geval was is raar. Maar ik zou eerder conclusies verbinden aan de reviews dan aan een individuele gebruiker. Daar de reviewers met keiharde cijfers c.q. feiten komen. Dit betekend trouwens niet dat ik Frietjemet niet geloof of vertrouw.
Ik denk trouwens dat we beter ontopic kunnen gaan, nVidia nieuws met discussie over nVidia spul.
PS alle kaarten die warmer worden dan 75 graden Celsius zouden in theorie een ei op gebakken kunnen worden.
[Voor 3% gewijzigd door madmaxnl op 28-10-2010 22:41]
Ik heb zelf een Gigabyte GTX480 maar heb totaal geen last van kabaal van de koeler.
Ik geloof best wel dat als de fan boven de 70% komt , dat de buren gaan klagen over geluidsoverlast
Maar ja , dat zal met vele andere kaarten niet anders zijn (had een HD4890 , maar maakte meer kabaal dan mijn GTX480 nu).
Ik ben blijkbaar 1 van de weinige tevreden met de GTX480
Hopelijk overtreft de GTX 580 de GTX 480 kaart wat betreft performance/watt & performance/warmte.... zou ik persoonlijk belangrijker vinden.
Surround met 2 GTX 480s (kan immers niet met 1 kaart zoals ik het nu heb met Eyefinity) & 3 schermen is gewoon meer dan 700 watt voor het grafische deel alleen, dat is meer dan mijn totale PC op het moment, vandaar.
-- , thanks.
[Voor 27% gewijzigd door Paprika op 29-10-2010 01:58]
Nouja, ik heb wel meerdere keren in forum's gehoord dat het geluidsnivea in de praktijk best meevalt, simpelweg omdat je thuis niet voor de grap constant Furmark aan het draaien bent... Met een beetje gamen zal de fanspeed niet gelijk veel harder draaien dan 60-70% en dan is het nog wel redelijk te doen volgens mij. Stroomverbruik blijft voor sommigen natuurlijk nog wel een issue.
Zag het ook met de GTX280 (OC) die ik zelf heb, idle rond de 40-44 graden en op load (tijdens gamen) komt ie niet echt boven de 75 graden met ~65% fanspeed. Bij een minder intensieve game als MW2 blijven de temps zelf onder de 70 graden met ~60% fanspeed. Daar is trouwens wel enige airflow voor nodig...
[Voor 19% gewijzigd door Anoniem: 245699 op 29-10-2010 01:49]
dus afgezien van de gaten in het PCB dezelfde kaart? ik zie er met mijn leken ogen weinig verschil in. Ook al lijkt de 580 dan wel koeler door de afwezigheid van de gaten en de 4 dikke heatpipes. ziet er dus al wel beter uit! (misschien word het wel een concurrent voor de 5870 )
edit: dit is natuurlijk ook een uitnodiging voor de professionals onder ons om ff uit te leggen wat jullie er precies aan zien/uit opmaken
[Voor 19% gewijzigd door superwashandje op 29-10-2010 11:28]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Ziet er naar uit dat de GTX580 pin compitable is met de GTX480, of in ieder geval bijna, wat er voor zorgt dat fabrikanten snel met de nieuwe kaart op de markt kunnen komen.
Veder lijkt het erop dat (geziende het aantal geheugen chips) het een 384-bit gehuegen bus betreft, met wederom 1,5GB ram.
Concluisie, dit word de GTX480-512, maar dan met een met hetzelfde stroom verbruik als een GTX480-480, waarschijnlijk ook een beetje hogere clocks en sneller geheugen.
superwashandje schreef op vrijdag 29 oktober 2010 @ 09:53:
dus afgezien van de gaten in het PCB dezelfde kaart? ik zie er met mijn leken ogen weinig verschil in. Ook al lijkt de 580 dan wel koeler door de afwezigheid van de gaten en de 4 dikke heatpipes. ziet er dus al wel beter uit! (misschien word het wel een concurrent voor de 5870
Kan net als de eerste Fermis een lager geklokt model zijn.
zou kunnen maar lijkt me toch niet want dan gaan de prestaties hard achteruit en ze willen juist boven de 480 uitkomen. Misschien dat de chip wel in zoverre geoptimaliseerd is dat ze nu dus alles kunnen unlocken en dezelfde of hogere snelheden aan kunnen houden met een lager voltage. en door het lagere voltage minder warmteontwikkeling en dus een "mindere" koeling nodig?
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Toettoetdaan schreef op vrijdag 29 oktober 2010 @ 10:36:
[...]
Concluisie, dit word de GTX480-512, maar dan met een met hetzelfde stroom verbruik als een GTX480-480, waarschijnlijk ook een beetje hogere clocks en sneller geheugen.
It does not compute.
Aangenomen dat het het zelfde silicium is, dan zullen meer transistors meer stroom gebruiken, net als hogere kloksnelheden, tenzij het voltage naar beneden wordt gehaald (of, theoretisch, de chip koeler draait). Om het zelfde verbruikprofiel aan te houden is er dus naar alle waarschijnlijkheid een nieuwe iteratie van het silicium nodig. En of dat dan toch de GF100 B0 of B1 is (ik weet niet hoe nVidia telt) - of toch een gemodificeerde lay-out is het grote raadsel
Blijf wel nieuwschierig wat ze met het aantal texture unit's gaan doen, want met alleen een verhoging van de coreclock/memoryclock en 512 shaders ipv 480 gaan ze geen 20% performance winnen...
Er is toch nog helemaal geen sluitende info over de wijzigingen in de architectuur? (ROP's/Texture Unit's/enz.)
Nu al concluderen dat de kaart niet veel sneller wordt dan een 480 lijkt me wat te snel... Als blijkt dat hier geen verbeteringen in zitten zal het idd wel flink tegenvallen.
Nee dat is waar, maar in grote lijnen wel, zelfde geheugen bandbreedte: zelfde aantal CUDA cores, 1 cluster meer. Wat meer MHz, NVidia kennende zal dat het wel wezen. Even een nieuw "ontwerpje" er doorheen drukken is er niet bij met deze complexe ontwerpen........ even afgaande op Mask zijn overzichtje dan.
Hij word niet zuiniger, wel sneller
Nvidia had met de GF100 enorm veel last van stroom lekkage in het silicium, hierdoor steeg het verbruik enorm als ze het voltage iets verhoogde voor meer stabiliteit.
Ze beweren dat ze dit probleem nu opgelost hebben, wat inhoud dat de vernieuwde chip zal worden opgeclockt tot het verbruik van de GTX480, dit i.c.m meer shader, sneller geheugen en misschien nog wat architectuur optimalisaties kan makkelijk in 20% winst resulteren. Kijk ook eens naar het verschil van de HD4870 en HD4890, de HD4890 is een geoptimaliseerde verzie van de HD4870, en dat terwijl de HD4870 al goed was.
Anoniem: 245699 schreef op vrijdag 29 oktober 2010 @ 13:59:
Blijf wel nieuwschierig wat ze met het aantal texture unit's gaan doen, want met alleen een verhoging van de coreclock/memoryclock en 512 shaders ipv 480 gaan ze geen 20% performance winnen...
Nee, 17,3333% om precies te zijn.
Jammer genoeg zit een beast in de vorm van 768 streamprocessors, 128 TMU's als (supersamplingmonster) en 512 bits mem niet in.
[Voor 15% gewijzigd door edward2 op 29-10-2010 16:36]
Nou dat is toch best wel bekend hoor, zou het topic nog maar even doorlopen en onzin berichten eruit filteren natuurlijk, zoals een 512bit bus...
Volgens mij is daar juist nogal wat onduidelijkheid over. Ik heb mensen zien suggereren dat Nvidia nu alsnog de chip met 120 TMU's uitbrengen die ze in eerste instantie hadden willen maken (GF110). De laatste posts suggereren weer meer enkel een shader cluster unlock en hogere clocks (GF100b). En er zijn idd nog minder waarschijnlijk opties met 512 bits bus. Maar wat het nou wordt.., of heb ik een zeer betrouwbare bron met de te verwachten specs gemist?
Omdat die plaatjes de eerste plaatjes waren waarover ik toendertijd beschikking had toen ik de TS in elkaar aan het flansen was
Altijd laten staan wegens eens "een andere look" dan de standaard koelers als het hinderd verander ik ze wel eens ..
Enkel de GTS 450 OEM moet nog bijgevoegd worden in de TS, maar das voor de volgende update (ergens in het weekend ofzo)
PS de mankerende GT 420 (die nog allemaal met vraagtekens ingevuld was) heeft een whopping 2 gig aan DDR3 geheugen met een 128 bit databus .
Als zware, niet gamende, photoshopper kan je momenteel niet klagen over een keuzegebrek
Nou dat is toch best wel bekend hoor, zou het topic nog maar even doorlopen en onzin berichten eruit filteren natuurlijk, zoals een 512bit bus...
Nee, dat is het niet, want ook al filter je de 512bit bus eruit (wat ik al gedaan had), dan is het nog niet duidelijk of er iets verandert is in het aantal TU's (los van 4 stuks door het inschakelen van de laatste cluster). Ook heb ik elders gelezen dat er een wijziging zou zitten in de werkwijze van de shaders, dus iets verder geoptimaliseerd. Er zijn gewoon nog teveel onduidelijkheden om hier een sluitend oordeel over te kunnen geven.
Of je mag een link geven naar een betrouwbare bron waar de uiteindelijke specs zijn gegeven en hoeveel sneller deze kaart wordt t.o.v. de GTX480.
EDIT: Laat ik het anders ook zo stellen, als het alleen een toevoeging is van 32 shaders en ~75Hhz hogere coreclock en wat hogere memory, dan ben ik teleurgesteld!
[Voor 11% gewijzigd door Anoniem: 245699 op 29-10-2010 19:14]
Nee, dat is het niet, want ook al filter je de 512bit bus eruit (wat ik al gedaan had), dan is het nog niet duidelijk of er iets verandert is in het aantal TU's (los van 4 stuks door het inschakelen van de laatste cluster). Ook heb ik elders gelezen dat er een wijziging zou zitten in de werkwijze van de shaders, dus iets verder geoptimaliseerd. Er zijn gewoon nog teveel onduidelijkheden om hier een sluitend oordeel over te kunnen geven.
Of je mag een link geven naar een betrouwbare bron waar de uiteindelijke specs zijn gegeven en hoeveel sneller deze kaart wordt t.o.v. de GTX480.
EDIT: Laat ik het anders ook zo stellen, als het alleen een toevoeging is van 32 shaders en ~75Hhz hogere coreclock en wat hogere memory, dan ben ik teleurgesteld!
Als je die 75 in 200Mhz verandert zit je aardig in de buurt denk ik.
Als je die 75 in 200Mhz verandert zit je aardig in de buurt denk ik.
Ik mag toch niet hopen dat de performance verbeteringen tov de GTX480 voornamelijk gaan komen doordat ze de maximale clockspeed eruit gaan persen. Dat beloof weinig voor de overclockbaarheid die ik wel zwaar vind wegen. De GTX480 gaat simpel van 700 naar 800 Mhz wat al een 14% verbetering is en met nog een beetje meer voltage zit er nog meer in.
Bij een 900 mhz GTX580 zie ik zulke verbeteringen niet gebeuren. Nu lijkt zo'n clockspeed verbetering me ook nogal onwaarschijnlijk, 775 mhz klinkt me wel logisch in de oren, overige architectuur optimalisaties gaan bepalen of dit een succes wordt of teleurstelling..
Ik mag toch niet hopen dat de performance verbeteringen tov de GTX480 voornamelijk gaan komen doordat ze de maximale clockspeed eruit gaan persen. Dat beloof weinig voor de overclockbaarheid die ik wel zwaar vind wegen. De GTX480 gaat simpel van 700 naar 800 Mhz wat al een 14% verbetering is en met nog een beetje meer voltage zit er nog meer in.
Bij een 900 mhz GTX580 zie ik zulke verbeteringen niet gebeuren. Nu lijkt zo'n clockspeed verbetering me ook nogal onwaarschijnlijk, 775 mhz klinkt me wel logisch in de oren, overige architectuur optimalisaties gaan bepalen of dit een succes wordt of teleurstelling..
Tja, de originele GF100 moest 850mHz gaan lopen, maar dat lukte niet binnen het gestelde stroomverbruik.
Vind het toch wel een indrukwekkende score, zo'n 40% sneller dan een stock GTX480.
Hm, een GTX480 met 512 shaders op 900 Mhz zou 37% sneller dan een standaard GTX480 zijn als ik het goed bereken. Misschien toch die 900 Mhz core die net genoemd werd voor de GTX580?...
Hm, een GTX480 met 512 shaders op 900 Mhz zou 37% sneller dan een standaard GTX480 zijn als ik het goed bereken. Misschien toch die 900 Mhz core die net genoemd werd voor de GTX580?...
Een nieuwe naam is volgens mij alleen verantwoord als de architectuur veranderd of als het productieproces veranderd. Volgens mij is van beide geen sprake dus een naamsverandering is niet te rechtvaardigen.
Denk dat dat al niet meer een geldig argument is sinds de 8800GT -> 9800GTX/9800GT .
En nee, hopelijk wordt het geen 6900 killer (overigens ook niet andersom), maar eerder erg close en wordt het uitgevochten op prijs.... Vind ik belangrijker, vooral gezien nVidia surround nodig heeft voor 3 schermen en dan hebben we het dus over 800 euro of meer aan gpu kracht & 750 watt of meer aan stroom aan het grafische deel alleen (2x 300 watt + 3x 50 watt voor de monitoren).
StefanvanGelder schreef op zaterdag 30 oktober 2010 @ 17:53:
Een nieuwe naam is volgens mij alleen verantwoord als de architectuur veranderd of als het productieproces veranderd. Volgens mij is van beide geen sprake dus een naamsverandering is niet te rechtvaardigen.
NVIDIA gaat binnen één jaar van 200 naar 500 en de fanboys smullen ervan
GTX580 heeft geen schijn van kans tegen de HD6900 serie. Als je weet dat de HD6950 z'n +/- 30% sneller is dan de HD5870 dan weet je genoeg. De HD6970 zal z'n +/- 50% sneller zijn dan de HD5870.
De 580 wellicht ook. Daarnaast heeft AMD buitengewoon veel moeite met PhysX en tesselation. Als de 580 qua prestatie ongeveer even snel is als AMD's snelste GPU zijn dat twee hele goede redenen om de 580 te prefereren.
[Voor 4% gewijzigd door Springstof op 30-10-2010 19:13]
NVIDIA gaat binnen één jaar van 200 naar 500 en de fanboys smullen ervan
Hoezo, wie zou dat nou leuk vinden? Mocht je Nvidia fan zijn dan zie je toch ook wel dat dat nergens over gaat. Veel ATI fans waren ook niet bepaald blij met de HD68xx benaming van Barts.
madmaxnl schreef op zaterdag 30 oktober 2010 @ 18:35:
GTX580 heeft geen schijn van kans tegen de HD6900 serie. Als je weet dat de HD6950 z'n +/- 30% sneller is dan de HD5870 dan weet je genoeg. De HD6970 zal z'n +/- 50% sneller zijn dan de HD5870.
Dat weet je nog niet. Een paar posts boven werd nog 40% sneller dan de GTX480 gesuggereerd. Dat is dus zeker 50% sneller dan de HD5870... Ik kan me zelf ook niet voorstellen dan de GTX580 met enkel een extra shader cluster sneller gaat zijn dan Cayman (900+ mhz wat daar waarschijnlijk noor nodig is, is nogal wat), maar wellicht hebben zog wel een architectuur-optimalisatie om tot die 40% te komen.
Physx wordt zelfs helemaal niet ondersteund, dus "veel moeite" is een understatement en wat tesselation betreft, ze doen het schijnbaar beter dan met de 5xxx serie, maar met nVidia's methode offer je geen/minder ruimte op de chip op om tesselation te ondersteunen, bovendien heb je in zware tesselation situaties veel meer power beschikbaar.
Dat gezegd hebbende, hardware Physx in (goede) spellen is extreem zeldzaam en zal er niet beter op worden als OpenCl van de grond komt en betere beeldkwaliteit met tesselation heb ik nog niet gezien in die mate dat ik de performance hit zou overwegen en het aan zou zetten.
Al met al gaat het mij gewoon om de snelste kaart in de wat oudere, huidige en toekomstige topgames en dat betekent gewoon rauwe power tegen een leuke prijs. Ondersteuning voor leuke technieken is een verre tweede, tenzij het bruikbaar is in veel oudere en nieuwe spellen zonder al te veel poespas, zoals Eyefinity.
De 580 wellicht ook. Daarnaast heeft AMD buitengewoon veel moeite met PhysX en tesselation. Als de 580 qua prestatie ongeveer even snel is als AMD's snelste GPU zijn dat twee hele goede redenen om de 580 te preferenen.
Hoezo AMD heeft moeite met PhysX? AMD heeft geen PhysX dus ik zie niet in hoe ze er moeite mee zouden hebben. Verder zijn er bitter weinig games die GPU PhysX gebruiken. En het eerste spel waar PhysX ook werkelijk iets nuttigs toevoegt moet nog gemaakt worden (if ever). Nee, het is IMHO nu wel duidelijk dat het een marketing gimmick is die nergens heen gaat en waarschijnlijk gedoemd is in the long run.
Ook heeft AMD niet echt moeite met tesselation in games. In ieder geval niet met HD 68xx. Als de GTX 580 straks even snel is als de HD 69xx dan staan ze er nog slechter voor dan nu want nu hebben ze nog de snelste single GPU kaart. Vergeet niet dat het zéér waarschijnlijk is dat de 69xx goedkoper en zuiniger zal zijn dan de 580. Dus als ze even snel zijn zijn er maar weinig redenen om als consument voor de 580 gaan denk ik .
Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD
De 580 wellicht ook. Daarnaast heeft AMD buitengewoon veel moeite met PhysX en tesselation. Als de 580 qua prestatie ongeveer even snel is als AMD's snelste GPU zijn dat twee hele goede redenen om de 580 te prefereren.
PhysX is niet relevant, lees je eens in op hoe het werkt en hoe het ook zou kunnen. Denk aan Havok en de physics in Crysis. Allemaal door de CPU en je komt niks te kort t.o.v. PhysX.
Tesselation is ook niet alles, want op een gegeven moment heeft meer tesselation geen toegevoegde waarden meer. Want tesselation maakt gewoon meer driehoeken aan aan de hand van de gegeven driehoeken. Hierdoor krijg je mooiere en gelijklopende rondingen etc. Maar op een gegeven moment zijn er al zoveel driehoeken gerenderd dat meer driehoeken geen nut meer hebben. Want je kunt het niet meer onderscheiden. De enige benchmark waarin je duidelijk ziet dat nVidia beter is met zijn tesselation is Heavens. Er is nog geen game die een dergelijke verhouding tussen ATI en nVidia laat zien.
Daarbij komt ook nog eens dat Cayman wellicht eens een verbeterde tesselator krijgt en of een andere methode van tesselation berekenen.
Tel daar bij op dat Cayman ook nog eens een kleinere die size heeft en dus waarschijnlijk goedkoper, zuiniger en stiller is. We zullen het zien he, nog maar een paar weken en dan is het zover.
Als programmeur houd ik van open standaarden en zal dus nooit PhysX promoten, verder heb ik nog geen enkel spel gezien met PhysX waar ik het miste toen ik het niet meer had, dus niet echt.
Alles maar draaien, zodat het maar in je/jullie straatje past. Ik had niet anders verwacht, maar dat jij vindt dat PhysX en tesselation niet genoeg meerwaarde hebben is uiteraard een subjectief oordeel en dus is het niet vreemd dat iemand anders daar simpelgezegd anders over denkt
[Voor 3% gewijzigd door Springstof op 30-10-2010 19:36]
Je kan natuurlijk ook alles draaien en keren zodat nVidia de beste keuze lijk . Maar goed, iedereen heeft zijn eigen mening en voorkeuren, niets mis mee . Maar als we kijken naar het DirectX 11 marktaandeel van beiden kan ik toch niet anders dan vaststellen dat de verreweg de meeste mensen er zo over denken.
Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD
Wat is hier nu zo verkeerd aan, alles wat met huidige normalen Physics engines die vooral gebruik maken van CPU kunnen net zoveel als PhysX. Alleen is bij PhysX alles dus danig dat de berekening gewoon onnodig zwaar worden gemaakt. Zoals ik al zei, lees je eens in.
Klopt. Maar het feit is dat na de release van de GTX 4xx AMD kaarten over het algemeen een stuk beter verkopen door de hierboven genoemde redenen, ondanks het feit dat op puur performance vlak de nVidia kaarten het iets beter doen dan AMD's 5800 serie.
Dus als ze straks zelf die performance voorsprong ook nog eens kwijtraken (of wie weet, achterstand krijgen) dan denk ik dat de GTX 5xx nog slechter zal verkopen vrees ik. Nuja, de tijd zal het uitwijzen. Ik ben alvast benieuwd naar het resultaat van beiden.
Ik denk dat dat precies is wat nVidia wil . Als ze Bullet of Havok hadden gebruikt dan was het wél mogelijk. In het geval van Bullet Physics kunnen de GPU (zowel AMD als nV) én CPU zelf tegelijk gebruikt worden.
[Voor 42% gewijzigd door Hyperz op 30-10-2010 20:12]
Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD
Daarom werkt het sinds maart 2009 ook op de GPU en is 't open source....
Version 1.0 of the Havok SDK was unveiled at the Game Developers Conference (GDC) in 2000. The current release, Havok Version 7.1, released in December 2009, is known to work on Microsoft Windows, Xbox and Xbox 360; Nintendo's GameCube and Wii; Sony's PlayStation 2, PlayStation 3, and PlayStation Portable; Linux; and on Mac OS X. Licensees are given access to most of the C/C++ source-code, giving them the freedom to customize the engine's features, or port it to different platforms although some libraries are only provided in binary format.
Is meteen compatible met Consoles en dus vele malen beter.
[Voor 50% gewijzigd door Paprika op 30-10-2010 20:08]
Omdat nVidia de makers van het spel daarvoor een zak geld gaf. Er zijn best wel benchmarks geweest welke lieten zien dat een normale quadcore CPU beter was in Physics dan een een high-end nVidia videokaart.
[Voor 36% gewijzigd door -The_Mask- op 30-10-2010 20:13]
Wat is hier nu zo verkeerd aan, alles wat met huidige normalen Physics engines die vooral gebruik maken van CPU kunnen net zoveel als PhysX. Alleen is bij PhysX alles dus danig dat de berekening gewoon onnodig zwaar worden gemaakt. Zoals ik al zei, lees je eens in.
Ik weet of je hier GPU physics in het algemeen bedoeld, maar het idee daarvan is natuurlijk wel dat de GPU complexere berekeningen uit kan voeren. En dan bedoel ik wel wat anders dan het in 4 stukken uiteen vallen van een watermeloen
De Physx implementatie is niet echt optimaal uiteraard, ook logisch als je bedenkt dat er geen games om PC technieken meer heen gebouwd worden. Ik denk dat OpenCL daar weinig aan zou veranderen. Pas als consoles GPU physics aan kunnen..over 2 jaar misschien
Ik weet of je hier GPU physics in het algemeen bedoeld, maar het idee daarvan is natuurlijk wel dat de GPU complexere berekeningen uit kan voeren. En dan bedoel ik wel wat anders dan het in 4 stukken uiteen vallen van een watermeloen
De Physx implementatie is niet echt optimaal uiteraard, ook logisch als je bedenkt dat er geen games om PC technieken meer heen gebouwd worden. Ik denk dat OpenCL daar weinig aan zou veranderen. Pas als consoles GPU physics aan kunnen..over 2 jaar misschien
Inderdaad daar heb je gelijk in, GPU PhysX laten ramen in miljarden stukjes vallen zoals in Mirrors Edge maar dat ziet er echt retarded uit. Maar als het een realistischer aantal stukjes was zou een CPU het dus ook kunnen berekenen en dat is precies wat nVidia niet wil dus die maken de berekeningen te pas en te onpas dusdanig dat het niet kan.
Er is helemaal geen noodzaak voor GPU physics want ze kunnen ook op de CPU dus maakt nVidia de physics zo dat ze alleen nog maar op een GPU kunnen. Met anderen woorden ze komen met een oplossing voor een probleem dat er helemaal niet is, zo zie ik het.
PhysX van nVidia werkt ook op consoles volgens mij maar daar gebruikt (bijna)niemand het want een PS3 heeft een sterke CPU en een Xbox 360 en Wii hebben beiden een ATI GPU. Dat kan dus nog wel eens voor problemen zorgen als ATI alle GPU console designs wint waar het er op dit moment wel naar uit ziet. Aan de anderen kant kan het ook weer vies tegenvallen als nVidia ze wint. Iets dat zei zelf met verlies zullen doen al is het maar om PhysX op die manier indirect populair te maken op de PC.
Laat dat nu exact de reden zijn waarom de Maffia II physics niet goed op een CPU kan draaien. Niet omdat het technisch niet mogelijk is, maar omdat het TWIMTBP totaal zinloos zou maken.
Inderdaad daar heb je gelijk in, GPU PhysX laten ramen in miljarden stukjes vallen zoals in Mirrors Edge maar dat ziet er echt retarded uit.
Wat is jou probleem tegen PhysX zelf als ik vragen mag? Zag namelijk ook al in een post eerder van je dat PhysX niet relevant IS, maar daar bedoel je denk ik ook vind? Ik vind het namelijk iets heel moois, maar de manier waarop stoot mij tegen het been.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Xenomorphh schreef op zondag 31 oktober 2010 @ 08:18:
Wat is jou probleem tegen PhysX zelf als ik vragen mag? Zag namelijk ook al in een post eerder van je dat PhysX niet relevant IS, maar daar bedoel je denk ik ook vind? Ik vind het namelijk iets heel moois, maar de manier waarop stoot mij tegen het been.
Ik denk dat je het verschil moet zien tussen physics and PhysX. Aangezien PhysX voor cpu-gebruik (wanneer er gebruik gemaakt wordt van de GPU-PhysX in een game) met opzet kreupel gemaakt is, kun je stellen dat het niet zo relevant is als bijvoorbeeld physics van Bullet of Havok, die prima draaien op CPU en in sommige gevallen ook al op GPU.
Maar goed, even een 'nieuwtje' om het toch wat meer ontopic te houden.
"A fully working GF100, a first for Nvidia's desktop Fermi/GF1x0 line, would have 512 shaders and get about a 7% speed increase over GTX480. Another 6% comes from the clock speed, a generous assessment would say bug fixes add a little more. All told, 20% net speed increase over GTX480 isn't out of the question, nor is a pretty decent lowering of power."
Feitenlijk claimt Charlie dat het dus inderdaad gewoon een base layer respin zou zijn, een B1 revisie dus van de GF100, met een nieuwe naam voor investeerders en consumenten.
Die Charlie toch hé ... wat eigenlijk positief nieuws is laat ie uitschijnen als iets negatiefs. Hun site staat overigens vol met ATI banners ... u begrijpt Paper launch tot daar toe, dat hadden we allemaal wel verwacht denk ik maar de GTX580 is dus wel degelijk een serieuze stap voorwaarts in vergelijking met de 480, naamsverandering is gerechtvaardigd, soon we'll see
Overigens, spijtig dat niemand screenshot heeft genomen van mijn vorige post
[Voor 12% gewijzigd door Anoniem: 381187 op 31-10-2010 10:30]
Je vergeet dat ik gewoon je post terug kan zien? Onderbouw die stelling maar eens. Wat was je bron?
edit:
anders gezegd: Met een post history van wel 3 stuks heb je nog niet voldoende reputatie opgebouwd om dat soort beweringen van jou zomaar voor waar aan te nemen. Schijnbaar ben je nogal zeker van je zaak. Waar haal jij je info vandaan?
[Voor 55% gewijzigd door Ed_L op 31-10-2010 11:02]
Volgens mij was het iets in de trant van.. Dat de prestaties van de 580 nog beter zouden zijn dan de 40% sneller dan de 480 in 3dmark vantage, die eerder in dit topic is geplaatst en dat de 580 dat voorelkaar gaat krijgen met ongeveer 80% van het stroomverbruik van de 480.
Wat ik overigens wel erg mooi zou vinden, maar wat mij wel vrij stug lijkt en ik ben dus ook wel benieuwd waar het vandaan komt.
[Voor 27% gewijzigd door Springstof op 31-10-2010 11:11]
Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.
Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.
Functioneel en analytisch
Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie.
Meer details
janee
Relevantere advertenties
Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht.
Meer details
Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.
Ingesloten content van derden
Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden.
Meer details