[Algemeen] nVidia Nieuwdiscussie Topic - Deel 46 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 10 ... 13 Laatste
Acties:
  • 69.618 views

Acties:
  • 0 Henk 'm!

Verwijderd

Stroom kost een stuk meer voor een Joule dan gas, dus da's juist niet aantrekkelijk!

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 02 juni 2010 @ 14:56:
Stroom kost een stuk meer voor een Joule dan gas, dus da's juist niet aantrekkelijk!
Afbeeldingslocatie: http://image.made-in-china.com/2f0j00RMbQiZrGvLqg/5kW-Gas-LPG-Generator-Set-DF6500G-DF6500EG-.jpg

Acties:
  • 0 Henk 'm!

Verwijderd

Wat bedoel je hiermee? Je kunt wel gas inkopen en deze gebruiken om stroom op te wekken, maar hierbij verlies je erg veel. Zo veel, dat het goedkoper is om stroom uit de muur te gebruiken. Mijn punt was gewoon, dat je een stuk beter de verwarming aan kan zetten dan een dure videokaart te kopen om die je kamer laten verwarmen. Omdat voor verwarming, gas een stuk kostenefficienter is. Stroom wordt over het algemeen opgewekt door gas te verbranden. Hierbij verlies je veel. Als je dus electriciteit gebruikt om te verwarmen ben je inefficient bezig. Als je gewoon gas verbrandt om te verwarmen heb je 100% efficientie.

Acties:
  • 0 Henk 'm!

Verwijderd

Ze hebben trouwens 8 geheugen chips per GPU, dat betekend iig dat de geheugenbus kleiner is en neerkomt op 256bit zodat ze gewoon gebruikt maken van 2 keer 1gb, ipv 2 keer 1280mb zoals op de GTX470. Hiermee kunnen ze weer wat stroom besparen. Daarnaast waarschijnlijk de clocks nog wat omlaag en je kan 'm binnen de 375watt houden. Ben benieuwd hoe ze dat gaan koelen, want dit;
Afbeeldingslocatie: http://voz.vn/dev/wp-content/uploads/2009/05/GeForce_GTX_295_single-PCB_10.jpg
(zoals op de GTX295 single PCB) gaat natuurlijk niet genoeg zijn!

Nvidia zal er trouwens wel koste wat kost voor zorgen dat ie de 5970 zal verslaan, anders heeft het uitbrengen van de kaart uberhaupt geen nut.

[ Voor 3% gewijzigd door Verwijderd op 02-06-2010 15:35 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 02 juni 2010 @ 15:29:
Wat bedoel je hiermee? Je kunt wel gas inkopen en deze gebruiken om stroom op te wekken, maar hierbij verlies je erg veel. Zo veel, dat het goedkoper is om stroom uit de muur te gebruiken. Mijn punt was gewoon, dat je een stuk beter de verwarming aan kan zetten dan een dure videokaart te kopen om die je kamer laten verwarmen. Omdat voor verwarming, gas een stuk kostenefficienter is. Stroom wordt over het algemeen opgewekt door gas te verbranden. Hierbij verlies je veel. Als je dus electriciteit gebruikt om te verwarmen ben je inefficient bezig. Als je gewoon gas verbrandt om te verwarmen heb je 100% efficientie.
Lekker offtopic, maar veel studenten betalen all-in. Als je dan naast de crappy radiator kan bijstoken met je rig wordt het in de winter lekker warm. Ik weet dat mijn P4 op load wel een paar graden scheelde :)

Jammer dat het net zomer wordt.

Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 11-09 16:54
Verwijderd schreef op woensdag 02 juni 2010 @ 15:33:
Nvidia zal er trouwens wel koste wat kost voor zorgen dat ie de 5970 zal verslaan, anders heeft het uitbrengen van de kaart uberhaupt geen nut.
ze zullen heel hard hun best moeten doen om dat voor elkaar te krijgen. ati heeft van het begin al min stroom nodig per chip 180 voor de HD5870 dacht ik.

tijd voor klein rekensommetje
voor de HD5970:
180 x 2 = 360 dat is 60 meer dan het pci-e standaard
60 / 360 = 0.175 = 17.5% moet er van het stroom verbuik af

voor de GTX470 Dual
216 x 2 = 432 dat is 132 meer dan het pci-e standaard
132 / 432 = 0.305 = 30.5% moet er van het stroom verbruik af.

Dit is behoorlijk, er moet dus flink gesneden en naarbeneden geklokt worden om dit ding in leven te houden.
Ben benieuwd naar reviews en wat voor prijskaart hier aan gehangen wordt.

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-09 09:15

Darkasantion

Just keep swimming!

ArgantosNL schreef op woensdag 02 juni 2010 @ 16:24:
[...]

ze zullen heel hard hun best moeten doen om dat voor elkaar te krijgen. ati heeft van het begin al min stroom nodig per chip 180 voor de HD5870 dacht ik.

tijd voor klein rekensommetje
voor de HD5970:
180 x 2 = 360 dat is 60 meer dan het pci-e standaard
60 / 360 = 0.175 = 17.5% moet er van het stroom verbuik af

voor de GTX470 Dual
216 x 2 = 432 dat is 132 meer dan het pci-e standaard
132 / 432 = 0.305 = 30.5% moet er van het stroom verbruik af.

Dit is behoorlijk, er moet dus flink gesneden en naarbeneden geklokt worden om dit ding in leven te houden.
Ben benieuwd naar reviews en wat voor prijskaart hier aan gehangen wordt.
Je kunt maximaal 375Watt trekken om binnen PCI-E specs te blijven.
2x8pins=2x150 Watt + 1x75Watt =375Watt totaal. 57 Watt teveel dus

Dus dan moet je ~13,2% besparen op je totale verbruik van je kaart. Ze verlagen de bus al naar 256 bit met minder geheugen, dus dat zal ~30Watt schelen, als je dan cherry picked cores hebt kun je dan nog eens 2x15 Watt eraf halen en dan zit je ineens onder de 375Watt grens.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Pykow
  • Registratie: Augustus 2007
  • Laatst online: 09-09 17:25

Pykow

Angelo OTR

Iemand enige idee wanneer firmware 257.15 whql certificaat krijgt ?
Want als goed is werken de source games nog niet 100% met deze Nvidia Firmware.

Ik hoor goede berichten over performance en hopelijk haal ik net iets meer uit mijn GT320 ;)

Angelo NL / Global Cargo VTC


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 11-09 16:54
Darkasantion schreef op woensdag 02 juni 2010 @ 16:29:
[...]

Je kunt maximaal 375Watt trekken om binnen PCI-E specs te blijven.
2x8pins=2x150 Watt + 1x75Watt =375Watt totaal. 57 Watt teveel dus

Dus dan moet je ~13,2% besparen op je totale verbruik van je kaart. Ze verlagen de bus al naar 256 bit met minder geheugen, dus dat zal ~30Watt schelen, als je dan cherry picked cores hebt kun je dan nog eens 2x15 Watt eraf halen en dan zit je ineens onder de 375Watt grens.
wat dat ding werkelijk weg kan trekken als je kijkt naar de aansluitingen is inderdaad 375 watt maar dat in niet het pci-e standaard dat op 300 ligt. het is dus de vraag wordt dit een kaart voor de normale verkoop zoals de hd5970 dan zullen ze het verbruik toch tot 300 moeten inperken. anders krijg je limited versies zoals de ASUS ARES. De extra prik is dan voor overklokkers daar zal deze kaart dan op gericht zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

Mag ik iedereen der op wijzen dat een GTX470 in SLI waarschijnlijk nog niet genoeg is? De GTX470 is namelijk minder krachtig dan een HD5870. De HD5970 loopt dan wel op iets lagere clocks, maar de GTX470X2 zal minstens net zo hard moeten snijden in de clocks om onder de 300 watt te blijven. Even aangenomen dat Crossfire en SLI vergelijkbaar schalen naar 2 kaarten is er geen kans voor de GTX470X2 om in de buurt van de HD5970 te komen.

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-09 09:15

Darkasantion

Just keep swimming!

ArgantosNL schreef op woensdag 02 juni 2010 @ 16:40:
[...]


wat dat ding werkelijk weg kan trekken als je kijkt naar de aansluitingen is inderdaad 375 watt maar dat in niet het pci-e standaard dat op 300 ligt. het is dus de vraag wordt dit een kaart voor de normale verkoop zoals de hd5970 dan zullen ze het verbruik toch tot 300 moeten inperken. anders krijg je limited versies zoals de ASUS ARES. De extra prik is dan voor overklokkers daar zal deze kaart dan op gericht zijn.
Nou, ze kunnen hem ook gewoon zo terug schroeven dat hij maar 300 Watt verbruikt, maar er wel een programma bijleveren zoals Asus SmartDoctor of Gigabyte EasyTune die voor jouw een "gratis" overclock doet van 10~15% die hem dan naar de 375Watt tilt :P Voldoe je mooi aan de PCI-E Standaard, maar kun je ook gewoon die 375Watt "gebruiken".

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

Verwijderd

Precies, die ATX specs zal ze echt niet tegenhouden, ze zullen wel een trucje verzinnen om het gebied daarboven ook nog in de benchmarks mee te krijgen.

Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 11-09 16:54
dus nog even afwachten, het is nog een prototype en die halen het niet allemaal.

Ik denk niet dat die koeler 375 watt aan hitte kan wegwerken zonder op te stijgen.

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-09 09:15

Darkasantion

Just keep swimming!

ArgantosNL schreef op woensdag 02 juni 2010 @ 17:27:
dus nog even afwachten, het is nog een prototype en die halen het niet allemaal.

Ik denk niet dat die koeler 375 watt aan hitte kan wegwerken zonder op te stijgen.
Kan wel hoor, HD5970 heeft ook een koeler die erop ontworpen is om een TPD van 400Watt weg te werken. Of het handig is zoveel warmte met lucht te koelen is een andere vraag, maar het kan zeker wel zonder op te stijgen :P .

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

Verwijderd

Hoeveel kost 375 watt gedurende 1 jaar?

1 watt = 1 joule/ 1 seconde
375 watt = 375 joule/ 1 seconde
375 watt * 60 seconde = 375 joule * 60 seconde/ seconde = 375 * 60 joule = 22500 joule
375 watt * 60 * 60 seconde = 22500 joule * 60 = 1350000 joule
375 watt * 60 * 60 * 24 seconde = 1350000 joule * 24 = 32400000 joule
375 watt * 365,25 * 60 * 60 * 24 = 32400000 joule * 365,25 = 11834100000 joule

Oke. We weten nu hoeveel joule dit kost. Maar hoeveel geld kost 1 joule?
Het kost 35 eurocent voor 1000 * 60 * 60 joule.
1000 * 60 * 60 joule = 3600000 joule = 35 eurocent

Hoeveel keer moet je 35 eurocent betalen om 1 jaar lang 375 watt te gebruiken?
11834100000 joule/ 3600000 joule = 3287.25

Hoeveel kost dit dus?
3287.25 * 35 eurocent = 115053.75 eurocent
115053.75 eurocent = 115053.75 euro/ 100 = 1150.5375 euro

Dus als je die videokaart 1 jaar lang zo zwaar belast dat deze ongestopt 375 watt trekt, dan kost dit jou 1150,54 euro (tenzij je bij de Nederlandsche Energie Maatschappij zit).

Acties:
  • 0 Henk 'm!

Verwijderd

De vuist regel is ongeveer 2 euro per watt per jaar, bij 24/7 gebruik.

Acties:
  • 0 Henk 'm!

Verwijderd

Maargoed, een overgeclockte 5970 haalt dat ook met gemak. 24/7 voor een heel jaar is niet echt realistisch imho. Bovendien, als je zoveel overhebt voor een videokaart en zoveel speelt dan zullen die stroomkosten je ook aan je reet roesten.

Al mag justitie wel even gaan controleren waar die verdiensten vandaan komen :P

[ Voor 50% gewijzigd door Verwijderd op 02-06-2010 17:48 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Hehe hoe bedoel je? Omdat je zoveel stroom gebruikt dan denken ze dat je wiet groeit?

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Verwijderd schreef op woensdag 02 juni 2010 @ 17:40:
Hoeveel kost 375 watt gedurende 1 jaar?

1 watt = 1 joule/ 1 seconde
375 watt = 375 joule/ 1 seconde
375 watt * 60 seconde = 375 joule * 60 seconde/ seconde = 375 * 60 joule = 22500 joule
375 watt * 60 * 60 seconde = 22500 joule * 60 = 1350000 joule
375 watt * 60 * 60 * 24 seconde = 1350000 joule * 24 = 32400000 joule
375 watt * 365,25 * 60 * 60 * 24 = 32400000 joule * 365,25 = 11834100000 joule

Oke. We weten nu hoeveel joule dit kost. Maar hoeveel geld kost 1 joule?
Het kost 35 eurocent voor 1000 * 60 * 60 joule.
1000 * 60 * 60 joule = 3600000 joule = 35 eurocent

Hoeveel keer moet je 35 eurocent betalen om 1 jaar lang 375 watt te gebruiken?
11834100000 joule/ 3600000 joule = 3287.25

Hoeveel kost dit dus?
3287.25 * 35 eurocent = 115053.75 eurocent
115053.75 eurocent = 115053.75 euro/ 100 = 1150.5375 euro

Dus als je die videokaart 1 jaar lang zo zwaar belast dat deze ongestopt 375 watt trekt, dan kost dit jou 1150,54 euro (tenzij je bij de Nederlandsche Energie Maatschappij zit).
Waarom reken je niet gewoon in KwH?

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Omdat ik anti-kwH ben. Watt is energie/ tijd en dan vermenigvuldig je weer met tijd 8)7
Een kwH is dus gewoon een aantal joules, waarom noemen we dan niet gewoon het aantal joules? Dit vind ik een stuk netter. Gewoon kiloJoule of megaJoule dus! Da's veel beter!

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Volgens mij klopt je berekening met Joule's niet lijkt mij namelijk veel te hoog. Ik heb geen idee hoe ik t uit moet rekenen hoor nou ja klein beetje dan. Maar daar heb ik weinig zin in :+

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 02 juni 2010 @ 17:50:
Hehe hoe bedoel je? Omdat je zoveel stroom gebruikt dan denken ze dat je wiet groeit?
Nee, dat als je tijd genoeg hebt om 24/7 met zulke dure apparatuur te spelen je blijkbaar je geld uit minder legale bronnen haalt, want ik ken geen werkgevers waarbij je dat lukt.
Verwijderd schreef op woensdag 02 juni 2010 @ 18:01:
Omdat ik anti-kwH ben. Watt is energie/ tijd en dan vermenigvuldig je weer met tijd 8)7
Een kwH is dus gewoon een aantal joules, waarom noemen we dan niet gewoon het aantal joules? Dit vind ik een stuk netter. Gewoon kiloJoule of megaJoule dus! Da's veel beter!
Je zet een hoeveelheid energie per tijdseenheid uit. Als je vijf van die tijdseenheden neemt moet je dus die eerste uitkomst per vijf doen. Dus niet tijd x tijd maar gewoon (5xtijd)xenergie.

Aan joules zitten weer allemaal andere haken en ogen, bovendien komen er geen joules uit het stopcontact (strikt genomen uiteraard wel). Sowieso is het handiger het over watt te hebben, want dan weet iedereen dat het over stroom gaat. Met joules zou je zomaar ook in Marsrepen bij de supermarkt kunnen gaan rekenen.

[ Voor 8% gewijzigd door Verwijderd op 02-06-2010 18:20 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nvidia GTX495: Fueled by Afbeeldingslocatie: http://www.that-thing-called-success.com/wp-content/uploads/2009/09/mars_candy.jpg

Acties:
  • 0 Henk 'm!

Verwijderd

De berekening klopt wel hoor. Een joule is niet zoveel. Dit is de energie die het kost om 1 meter tegen 1 Newton kracht in te verplaatsen. Een kiloWatt (1000 joules per seconde, een uur lang) is al heel erg veel: 3,6 miljoen Joule. Doe dit keer een jaar en 375 en je hebt 't!

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Verwijderd schreef op woensdag 02 juni 2010 @ 17:47:
24/7 voor een heel jaar is niet echt realistisch imho.
DPC of F@H farm via cuda? ;)

Daarbij is OneOverPrime wel correct met zijn berekeningen, en ik ben persoonlijk ook voor het aanduiden van grootheden met hun SI-eenheid en niks anders. Joules komen inderdaad zowel uit het stopcontact als uit een mars-reep, en het is toch heel leuk om te zeggen dat een gemiddelde mars-reep meer dan twee megajoules bevat, nietwaar? Calorieën zijn voor losers, en kilowattuur eveneens, omdat ze geen zin hebben om een SI-prefix te gebruiken. ;) Het kan natuurlijk ook zijn dat ze veel te exotische prefixen gaan moeten gebruiken, zoals tera of peta, maar dat vind ik nu net het leukste: weten welke prefixen er zijn en die dan gebruiken.

Maar ik dwaal.

edit: disclaimer: ik noem zulke mensen losers, en dat is de soort onverwachtse en bijna-niet-te-onderscheiden-van-een-echte-rant soort humor die ik af en toe graag bezig. Niet teveel over denken, ik doe het alvast niet. Ook trouwens iets wat ik graag doe.

[ Voor 13% gewijzigd door RuddyMysterious op 02-06-2010 18:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 02 juni 2010 @ 17:03:
Mag ik iedereen der op wijzen dat een GTX470 in SLI waarschijnlijk nog niet genoeg is? De GTX470 is namelijk minder krachtig dan een HD5870. De HD5970 loopt dan wel op iets lagere clocks, maar de GTX470X2 zal minstens net zo hard moeten snijden in de clocks om onder de 300 watt te blijven. Even aangenomen dat Crossfire en SLI vergelijkbaar schalen naar 2 kaarten is er geen kans voor de GTX470X2 om in de buurt van de HD5970 te komen.
GTX470 in SLI is weldegelijk gemiddeld sneller als de 5970 (voorbeeld) maar dat doet er ff niet toe, want wat dat betreft kan Nvidia straks toch gewooon zeggen dat de TDP 300watt is!? Ze zeggen ook dat de GTX480 een TDP heeft van 250watt, maar zelfs tijdens een hele zware game komt ie daar nog boven, laat staan Furmark....
Dus ze geven missschien 300watt op, maar verbruikt straks keihard 350watt ofzo.
Dit is natuurlijk zeer speculatief, maar het is heel duidelijk dat als ze wel echt de 300watt grens aanhouden ze idd nooit sneller zullen zijn als de 5970 omdat ze dan teveel moeten snijden. Gevolg; meer dan 300watt en dan maar geen pci-e standaard. :w

Acties:
  • 0 Henk 'm!

Verwijderd

Dan doe je het ook lekker zelf. Leuk die hoge scores, maar dan moet je dus ook willen dokken.
k ben persoonlijk ook voor het aanduiden van grootheden met hun SI-eenheid en niks anders. Joules komen inderdaad zowel uit het stopcontact als uit een mars-reep, en het is toch heel leuk om te zeggen dat een gemiddelde mars-reep meer dan twee megajoules bevat, nietwaar? Calorieën zijn voor losers, en kilowattuur eveneens, omdat ze geen zin hebben om een SI-prefix te gebruiken. ;) Het kan natuurlijk ook zijn dat ze veel te exotische prefixen gaan moeten gebruiken, zoals tera of peta, maar dat vind ik nu net het leukste: weten welke prefixen er zijn en die dan gebruiken.
O noes! Ik ben een beta en kan er niet tegen dat mensen praktische handvatten gebruiken! :p

Sommige SI-prefixes zijn helemaal niet handig. Bovendien, zoals hierboven al gezegd is het soms juist handig met je niet-SI-prefix aan te geven wat je nu eigenlijk bedoelt, omdat SI-eenheden juist superalgemeen zijn en daardoor voor verwarring kunnen zorgen.

Ik ben er over het algemeen wel voor om duidelijke maateenheden te gebruiken en dat over het algemeen SI-eenheden daarvoor bedoeld zijn, maar in dit geval maak je het alleen maar onnodig complex door dat te doen.

Zo wordt het in de tweakerwereld ook LN2 genoemd, terwijl het op geen enkele manier een correcte afkorting is. Desondanks is juist extra duidelijk wat er bedoeld wordt, aangezien je gelijk weet dat het over het opvoeren van chips gaat.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Verwijderd schreef op woensdag 02 juni 2010 @ 18:55:
Gevolg; meer dan 300watt en dan maar geen pci-e standaard. :w
Je bedoelt zeker ATX-standaard? Want PCIe kan en mag daar over gaan, volgens mijn nederige en beperkte kennis.

Acties:
  • 0 Henk 'm!

  • -AzErTy-
  • Registratie: Oktober 2005
  • Laatst online: 12-08 15:23
Verwijderd schreef op woensdag 02 juni 2010 @ 17:40:
Hoeveel kost 375 watt gedurende 1 jaar?

Berekening etc
Offtopic:
Wat 35 cent per kWh?! Is dit serieus de prijs die jullie Nederlanders betalen? Hier in België ligt dit op 18 cent ofzo.

God does not play dice


Acties:
  • 0 Henk 'm!

Verwijderd

-AzErTy- schreef op woensdag 02 juni 2010 @ 19:21:
Offtopic:
Wat 35 cent per kWh?! Is dit serieus de prijs die jullie Nederlanders betalen? Hier in België ligt dit op 18 cent ofzo.
Nee, eerder gemiddeld rond de 24, maar minder kan met wat zoekwerk ook nog wel.

34 cent is erg aan de prijs.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Eerlijk is eerlijk, ik ben ook niet zo'n zeikerd als het om correct wetenschappelijk taalgebruik gaat, maar de KWh is wel echt het grootste gedrocht dat er in de wereld van eenheden bestaat :X vergelijk het met de kilometer-per-uur-seconde als eenheid voor afstand

[ Voor 16% gewijzigd door bwerg op 02-06-2010 19:38 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

bwerg schreef op woensdag 02 juni 2010 @ 19:38:
Eerlijk is eerlijk, ik ben ook niet zo'n zeikerd als het om correct wetenschappelijk taalgebruik gaat, maar de KWh is wel echt het grootste gedrocht dat er in de wereld van eenheden bestaat :X vergelijk het met de kilometer-per-uur-seconde als eenheid voor afstand

Ja inderdaad, want een prefix als kilo voor de eenheid meter is werkelijk uit den boze. Custom eenheden verzinnen, dan weten ze waarover het gaat. =)

/sneer

edit: even alles in het klein zetten, want dat is blijkbaar de trend op t.net als men off-topic gaat. =)

[ Voor 10% gewijzigd door RuddyMysterious op 02-06-2010 19:42 ]


Acties:
  • 0 Henk 'm!

  • Herman
  • Registratie: December 2009
  • Laatst online: 22:48

Herman

FP ProMod
Verwijderd schreef op woensdag 02 juni 2010 @ 17:40:
Hoeveel kost 375 watt gedurende 1 jaar?
(...)
115053.75 eurocent = 115053.75 euro/ 100 = 1150.5375 euro

Dus als je die videokaart 1 jaar lang zo zwaar belast dat deze ongestopt 375 watt trekt, dan kost dit jou 1150,54 euro (tenzij je bij de Nederlandsche Energie Maatschappij zit).
Tsja, 375 watt is het maximum. Bij gamen zul je dit wellicht soms halen, maar je moet de tijd dat zo'n gpu idle is, ook meewegen. Daarom lijkt mij jou berekening niet reeël.

Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Herman87 schreef op woensdag 02 juni 2010 @ 19:41:
Tsja, 375 watt is het maximum. Bij gamen zul je dit wellicht soms halen, maar je moet de tijd dat zo'n gpu idle is, ook meewegen. Daarom lijkt mij jou berekening niet reeël.
Er zijn mensen die machines de hele dag laten F@H'en

(of 50.. zoals ik vroeger deed)

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Verwijderd

bwerg schreef op woensdag 02 juni 2010 @ 19:38:
Eerlijk is eerlijk, ik ben ook niet zo'n zeikerd als het om correct wetenschappelijk taalgebruik gaat, maar de KWh is wel echt het grootste gedrocht dat er in de wereld van eenheden bestaat :X vergelijk het met de kilometer-per-uur-seconde als eenheid voor afstand
Dus je bent het met me eens? :D

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

tamelijk.

Delen door een eenheid om daar vervolgens weer mee te vermenigvuldigen is niet 's werelds meest nuttige bezigheid.

[ Voor 86% gewijzigd door bwerg op 02-06-2010 20:14 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Verwijderd

Stelletje verschrikkelijke beta's -_-'

Schrijf dan ook gelijk even alle fabrikanten aan dat ze de correcte SI-eenheden in hun specs moeten gebruiken :9
neliz schreef op woensdag 02 juni 2010 @ 19:47:
Er zijn mensen die machines de hele dag laten F@H'en

(of 50.. zoals ik vroeger deed)
Maargoed, zoals gezegd moeten mensen die dat willen dan ook de consequenties aanvaarden. Roepen dat verbruik X wel erg hoog is omdat je dag en nacht wil folden is niet echt een argument.

[ Voor 18% gewijzigd door Verwijderd op 02-06-2010 20:15 ]


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Verwijderd schreef op woensdag 02 juni 2010 @ 20:14:
Stelletje verschrikkelijke beta's -_-'

Maargoed, zoals gezegd moeten mensen die dat willen dan ook de consequenties aanvaarden. Roepen dat verbruik X wel erg hoog is omdat je dag en nacht wil folden is niet echt een argument.
Het verbruik stijgt sowieso bij GPU acceleratie, Videotje kijken? mspaint schermpje resizen? er zijn heel wat omstandigheden waar een GPU opklokt.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Verwijderd

neliz schreef op woensdag 02 juni 2010 @ 20:21:
Het verbruik stijgt sowieso bij GPU acceleratie, Videotje kijken? mspaint schermpje resizen? er zijn heel wat omstandigheden waar een GPU opklokt.
Aan de andere kant kan het totale systeem dan wel weer minder verbruiken. Ik weet zeker dat ik een fimpje zuiniger kijk op m'n 4770 dan op m'n P4 (maar dat dat ook bij modernere processoren wel het geval is).

Een kaart gaat natuurlijk geen 375 watt verbruiken tijden het draaien van een filmpje of resizen van een window :)

[ Voor 11% gewijzigd door Verwijderd op 02-06-2010 20:26 ]


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Verwijderd schreef op woensdag 02 juni 2010 @ 20:24:
Een kaart gaat natuurlijk geen 375 watt verbruiken tijden het draaien van een filmpje of resizen van een window :)
Niet ineens vol vermogen, maar "een" applicatie laden op een PC met een GTX480 schakelt 'm over van "idle" naar "2D" en dat is zomaar 60W exta, dan ben je nog niets aan het doen.

Is nog geen 375W . I know..

[ Voor 3% gewijzigd door neliz op 02-06-2010 20:33 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 02 juni 2010 @ 20:24:
[...]

Aan de andere kant kan het totale systeem dan wel weer minder verbruiken. Ik weet zeker dat ik een fimpje zuiniger kijk op m'n 4770 dan op m'n P4 (maar dat dat ook bij modernere processoren wel het geval is).

Een kaart gaat natuurlijk geen 375 watt verbruiken tijden het draaien van een filmpje of resizen van een window :)
P4? Ik dacht dat je een Phenom II X6 had!?

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 02 juni 2010 @ 20:14:
Schrijf dan ook gelijk even alle fabrikanten aan dat ze de correcte SI-eenheden in hun specs moeten gebruiken :9
Dat zou heel wat uitleg schelen. Of ben je niet bekend met de ik heb een hardisk van xxxx GB maar windows zegt dat ie maar xxxx GB is. :/ (En dan mag je nog blij zijn dat ze GB gebruiken en niet gb of Gb of gB).

Acties:
  • 0 Henk 'm!

Verwijderd

Bij harde schijven gebruiken fabrikanten juist wel de SI-eenheden! Hier zit windows fout, want zij vinden dat 1 gigabyte een macht van twee bytes is. Maarja, bijvoorbeeld bij internet gebruiken ze veelal bits in plaats van bytes. Dat moet je ook even weten! Het lijkt soms bijna alsof je internet sneller is dan je USB :P

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 02 juni 2010 @ 20:35:
P4? Ik dacht dat je een Phenom II X6 had!?
Bijna. Als ik klaar ben voor m'n studie voor dit jaar mag ik het spul kopen van mijzelf :) De Ati's waar ik het over had liggen wel al hier. Het rijtje in m'n sig is vooralsnog nog correct.
Verwijderd schreef op woensdag 02 juni 2010 @ 20:38:
Dat zou heel wat uitleg schelen. Of ben je niet bekend met de ik heb een hardisk van xxxx GB maar windows zegt dat ie maar xxxx GB is. :/ (En dan mag je nog blij zijn dat ze GB gebruiken en niet gb of Gb of gB).
Maargoed, voedingen in joules zie ik toch echt niet zitten :p

[ Voor 3% gewijzigd door Verwijderd op 02-06-2010 20:56 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op woensdag 02 juni 2010 @ 17:40:
Hoeveel kost 375 watt gedurende 1 jaar?

1 watt = 1 joule/ 1 seconde
375 watt = 375 joule/ 1 seconde
375 watt * 60 seconde = 375 joule * 60 seconde/ seconde = 375 * 60 joule = 22500 joule
375 watt * 60 * 60 seconde = 22500 joule * 60 = 1350000 joule
375 watt * 60 * 60 * 24 seconde = 1350000 joule * 24 = 32400000 joule
375 watt * 365,25 * 60 * 60 * 24 = 32400000 joule * 365,25 = 11834100000 joule

Oke. We weten nu hoeveel joule dit kost. Maar hoeveel geld kost 1 joule?
Het kost 35 eurocent voor 1000 * 60 * 60 joule.
1000 * 60 * 60 joule = 3600000 joule = 35 eurocent

Hoeveel keer moet je 35 eurocent betalen om 1 jaar lang 375 watt te gebruiken?
11834100000 joule/ 3600000 joule = 3287.25

Hoeveel kost dit dus?
3287.25 * 35 eurocent = 115053.75 eurocent
115053.75 eurocent = 115053.75 euro/ 100 = 1150.5375 euro

Dus als je die videokaart 1 jaar lang zo zwaar belast dat deze ongestopt 375 watt trekt, dan kost dit jou 1150,54 euro (tenzij je bij de Nederlandsche Energie Maatschappij zit).
Kon dat niet wat simpeler ?
375W is per uur 0.375kWh
1kWh kost X
Formule kosten 1 jaar: 365*24*0.375*X

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Verwijderd schreef op woensdag 02 juni 2010 @ 20:56:
Maargoed, voedingen in joules zie ik toch echt niet zitten :p
Gelukkig is de joule dan ook geen eenheid voor vermogen dus dat blijft met SI-eenheden gewoon lekker Watt. ;)

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 02 juni 2010 @ 20:40:
Bij harde schijven gebruiken fabrikanten juist wel de SI-eenheden! Hier zit windows fout, want zij vinden dat 1 gigabyte een macht van twee bytes is. Maarja, bijvoorbeeld bij internet gebruiken ze veelal bits in plaats van bytes. Dat moet je ook even weten! Het lijkt soms bijna alsof je internet sneller is dan je USB :P
Nee dat is niet helemaal wat ik bedoel, daarvoor is dus GiB etc in het leven geroepen he :). Fabrikanten zouden gewoon GiB moeten vermelden en geen GB. Want de hardeschijf fabrikanten zijn fout door in decimalen te rekenen en niet zoals de computer het doet in binair.

[ Voor 12% gewijzigd door Verwijderd op 02-06-2010 22:12 ]


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Verwijderd schreef op woensdag 02 juni 2010 @ 22:11:
[...]

Nee dat is niet helemaal wat ik bedoel, daarvoor is dus GiB etc in het leven geroepen he :). Fabrikanten zouden gewoon GiB moeten vermelden en geen GB. Want de hardeschijf fabrikanten zijn fout door in decimalen te rekenen en niet zoals de computer het doet in binair.
Als Windows (of eender welk OS) gewoon de hardeschijfcapaciteit aanduidt in GiB, dan zal niemand nog verward zijn, behalve misschien over het feit dat ze niet weten wat het verschil is tussen GB en GiB. ;)

Daarmee wil ik dus zeggen dat ik het eens ben dat hardeschijffabrikanten en software de capaciteit moet aanduiden op dezelfde manier, en aangezien de hardeschijffabrikanten dat op de SI-manier doen vind ik dat hun manier te verkiezen valt boven die van wat er zogezegd de norm is in de IT-wereld, wat niets anders is dan een traditie. SI > traditie. Nuff said.

[ Voor 23% gewijzigd door RuddyMysterious op 02-06-2010 22:41 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Traditie? Blijkbaar weet jij niet hoe computers werken. 1 en 0, binair enzo. Of ga jij nu een computer bouwen die decimalen gebruikt om te rekenen?
In computing, a binary prefix is a specifier or mnemonic that is prepended to the units of digital information, the bit and the byte, to indicate multiplication by a power of 2.

The computer industry uses terms such as "kilobyte," "megabyte," and "gigabyte," and corresponding abbreviations "KB", "MB", and "GB", in two different ways. In citations of main memory or RAM capacity, "gigabyte" customarily means 1073741824 bytes. This is a power of 2, specifically 230, so this usage is referred to as a "binary unit" or "binary prefix."

In other contexts, the industry uses "kilo", "mega", "giga", etc., in a manner consistent with their meaning in the International System of Units (SI): as powers of 1000. For example, a "500 gigabyte" hard drive holds 500000000000 bytes, and a "100 megabit per second" Ethernet connection runs at 100000000 bit/s.

Starting in about 2000, a number of standards and trade organizations approved standards and recommendations for a new set of binary prefixes, proposed earlier by the International Electrotechnical Commission (IEC), that would refer unambiguously to powers of 1024. According to these, the SI prefixes would only be used in the decimal sense, even when referring to data storage capacities: kilobyte and megabyte would denote one thousand bytes and one million bytes respectively (consistent with SI), while new terms such as kibibyte, mebibyte and gibibyte, abbreviated KiB, MiB, and GiB, would denote 1024 bytes, 1048576 bytes, and 1073741824 bytes respectively.[1]

In practice, the IEC binary prefixes have seen little use by the press or the US computing industry and marketplace. However, they are starting to appear in the EU computing industry and marketplace (as required by EU law since 2007),[2][3] certain US and International Government contexts (as required by contract or internal policy),[4] and popular free and open source software such as Linux.[5]
Wikipedia: Binary prefix

Je kan met computers gewoon niet in machten van 10 rekenen. Daarbij, dat 10 is ook maar arbitrair gekozen. Waarom niet 9 of 12? Talk about a tradition daar zeg.

Een computer werkt binair, dus daar kan je gewoon moeilijk in een decimaal stelsel drukken. Oftwel: SI schiet gewoon te kort hier in: Dus hebben ze een oplossing gemaakt door GiBi te nemen.

[ Voor 100% gewijzigd door Verwijderd op 02-06-2010 22:56 ]


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Interessante discussie. Zal ik hem afsplitsen naar een eigen topic of geen we weer ontopic verder? O-)

Acties:
  • 0 Henk 'm!

Verwijderd

Ach volgens char... lars... heeft nvidia toch niets te melden, kunnen we toch nog wat lol trappen in het topic: http://www.semiaccurate.c...nounces-nothing-computex/. :+. *Warning*: Hoog flame gehalte! Niet te serieus nemen!

[ Voor 11% gewijzigd door Verwijderd op 02-06-2010 23:49 ]


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-09 09:15

Darkasantion

Just keep swimming!

Verwijderd schreef op woensdag 02 juni 2010 @ 23:48:
Ach volgens char... lars... heeft nvidia toch niets te melden, kunnen we toch nog wat lol trappen in het topic: http://www.semiaccurate.c...nounces-nothing-computex/. :+. *Warning*: Hoog flame gehalte! Niet te serieus nemen!
Deze neem ik wel redelijk serieus:
http://www.semiaccurate.c...res-new-motherboard-team/
Oei, EVGA was(is?) toch een van de betere moederbord fabrikanten binnen het Nvidia gamma, kijk maar naar alle SLI versies die zij uitbrachten binnen de X58 en P55 chipset serie van Intel.
Vraag is nu, kunnen zij dit blijven doen op de lange termijn met dezelfde kwaliteiten als "vroeger"? De in huis overclocker is wel gebleven, dus dat is dan weer een meevaller voor EVGA in deze tegenslag.

Maar wel jammer om te horen, vond de EVGA moederborden heel mooi en begeerlijk :$ Maar misschien komen die nu wel van Sapphire :D

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Heb ik zojuist in het AMD topic gepost :P.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

http://techpowerup.com/12...d_Launch_Date_Emerge.html

Brand los..

Oei oei oei dat TDP.. Geen nieuwe 8800GT ben ik bang.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-09 09:15

Darkasantion

Just keep swimming!

Wie moet branden? Wij of de kaart :+ ?
Tja, jammer van dat TDP, de HD5770 zit op 108Watt en dan komt deze kaart met 180Watt hier tegenover te staan... Leuk, koop je een HD5770 met HD5870 verbruik/warmte :$.

Jammer, had toch meer verwacht van GF104

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Darkasantion schreef op donderdag 03 juni 2010 @ 10:55:
Jammer, had toch meer verwacht van GF104
Wat had je meer verwacht? hij is langzamer dan de GTX465.. dus er valt niet veel "meer" te halen daar

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 30-08 18:22
Benieuwd of die 180W nu wel klopt. 465/470/480 zitten bvb consequent boven hun TDP.

Maar voor zo'n mainstream kaarten zouden ze toch echt onder de 150W (1x 6pin) moeten zitten. Dus 180W is wel redelijk slecht en qua prestaties gaat het ook echt geen verbetering zijn tov GT2xx.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Verwijderd

Hij heeft wel 50% meer bandbreedte dan HD57xx serie. Dat nekt de HD5770 echt hard. AMD had hier beter voor een 192-bit bus kunnen gaan. Dat zou de HD5770 zeker 10% performance geven. Maarja, dat kost dan misschien ook 10% meer. Dus misschien is de 128-bit bus wel prima voor mainstream.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Oja?
Well isn’t this interesting? The 5770 is primarily limited by its core overall, not by its memory!
http://alienbabeltech.com/main/?p=12474&page=3

Acties:
  • 0 Henk 'm!

Verwijderd

Word on the Computex show floor is that Nvidia's upcoming GeForce GTX 460 GPU will 'still run hot, but overclocks awesomely: you'll get GTX 480 performance.'
Komt van Bit-tech, maar die hebben er zelf ook een hard hoofd in... ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Nu is het historisch zo dat nivida kaarten graag meer bandbreedte hebben dan de ATI kaarten.(Let wel: Generalisatie)

[ Voor 13% gewijzigd door Verwijderd op 03-06-2010 11:39 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 03 juni 2010 @ 11:28:
Hij heeft wel 50% meer bandbreedte dan HD57xx serie. Dat nekt de HD5770 echt hard. AMD had hier beter voor een 192-bit bus kunnen gaan. Dat zou de HD5770 zeker 10% performance geven. Maarja, dat kost dan misschien ook 10% meer. Dus misschien is de 128-bit bus wel prima voor mainstream.
Nee de HD57 en HD58 kaarten zijn niet bandwith limited. Dat dacht ik eerst ook maar er zijn vele tests geweest en het valt heel erg mee. De nieuwe memory controller is heel efficiënt. De HD57xx lijkt iets meer baat te hebben dan de HD58xx bij hogere mem clocks maar een core OC schaalt meestal 2-4x beter.

Gezien de prestaties van de GTX462 zal deze rond de oude GTX260 komen? Ik denk dat de HD5770 em dan wel aardig bij kan houden. En daar naast aanzienlijk minder zal verbruiken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Verwijderd schreef op donderdag 03 juni 2010 @ 11:39:
Nu is het historisch zo dat nivida kaarten graag meer bandbreedte hebben dan de ATI kaarten.(Let wel: Generalisatie)
Geforces zijn sowieso bandbreedte afhankelijk, dit laten de PCI-E bandwidth tests ook zien.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Verwijderd schreef op donderdag 03 juni 2010 @ 11:35:
[...]

Komt van Bit-tech, maar die hebben er zelf ook een hard hoofd in... ;)
Nou dan mogen ze de 1ghz clock wel dik halen willen ze bij de GTX480 in de buurt komen :/

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Ummm.. als de HD5770 niet bandwidth limited is, waarom presteert deze dan niet beter dan een HD4870? Zelfde aantal shaders op een hogere klok. Leg dat eens uit!

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Hoeveel ROP's heeft de 4870 en hoeveel heeft de 5770 er?

En nu we toch bezig zijn, wat zijn de andere variabelen die de prestaties van een grafische kaart bepalen en tot nu toe nog niet behandeld geweest zijn?

[ Voor 58% gewijzigd door RuddyMysterious op 03-06-2010 12:13 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Daar kan ik toevallig antwoord op geven.

Voor AMD kaarten zijn maar een paar variabelen:
- shader count
- shader clock
- memory bus
- memory size
- memory clock
- ROPs (die was ik inderdaad vergeten)

Acties:
  • 0 Henk 'm!

Verwijderd

En de moeilijk te beantwoorden variabelen: Architectural changes.

[ Voor 4% gewijzigd door Verwijderd op 03-06-2010 12:28 ]


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-09 09:15

Darkasantion

Just keep swimming!

Verwijderd schreef op donderdag 03 juni 2010 @ 12:17:
Daar kan ik toevallig antwoord op geven.

Voor AMD kaarten zijn maar een paar variabelen:
- shader count
- shader clock
- memory bus
- memory size
- memory clock
- ROPs (die was ik inderdaad vergeten)
En ook deze:
- Drivers
- CPU
- Intern Geheugen
- OS
- PCI-E snelheid
- Resolutie beeldscherm

En zo zijn er veel meer opties die (meer of minder) bepalen wat een kaart presteert ;) Dus zomaar even zeggen dat meer bandbreedte dé oplossing is om meer FPS/pretatie te krijgen is wat kort door de bocht, daar spelen veel meer factoren een rol in :D .

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 03 juni 2010 @ 12:08:
Ummm.. als de HD5770 niet bandwidth limited is, waarom presteert deze dan niet beter dan een HD4870? Zelfde aantal shaders op een hogere klok. Leg dat eens uit!
Andere architectuur. Waarom is de GTX465 trager dan een GTX275? terwijl hij veel meer shaders en zo heeft ;)

Ik vond het in het begin ook raar. Maar de architectuur is anders. De memory controller is ook anders. Ja met 256 Bit was het verschil misschien nog kleiner geweest. Maar clock voor clock is de RV770 gewoon wat sneller. Hij is ook groter en verbruikt meer stroom. Daarnaast heeft i geen DX11. Allemaal dingen die invloed hebben op het ontwerp van de chip en dus ook invloed hebben op de prestaties.
DevilsProphet schreef op donderdag 03 juni 2010 @ 12:13:
Hoeveel ROP's heeft de 4870 en hoeveel heeft de 5770 er?

En nu we toch bezig zijn, wat zijn de andere variabelen die de prestaties van een grafische kaart bepalen en tot nu toe nog niet behandeld geweest zijn?
Beide 16. Maar de robs zijn wel verandert.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op donderdag 03 juni 2010 @ 14:55:
[...]
Andere architectuur. Waarom is de GTX465 trager dan een GTX275? terwijl hij veel meer shaders en zo heeft ;)
De GTX465 is geen snelheidswonder, maar hij is niet trager als de GTX275, maar eigelijk evensnel;
http://www.techpowerup.co...c/GeForce_GTX_465/29.html
Moet toch af en toe iets positiefs melden in dit topic! ;)

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Doet mij denken aan de GF4 vs GF3. De GF3(Ti500) had tov de GF4 meer cache of snellere cache die niet wordt vernoemd bij een generische opsomming van specs in een review, maar toch was de GF4 sneller, omdat er andere wijzigingen waren doorgevoerd, en ook om het goedkoper te maken. GF4Ti4200 was dus vette bang voor mijn buck, met betere prestatie per euro verhoudingen dan de GF3, zelfs vergeleken met de gainward GF3Ti200 golden sample.

Maar soit, dat zijn lang vervlogen tijden. Veel gemijmer, wazige herinneringen die waarschijnlijk al zo gecorrodeerd zijn dat er niks meer van klopt. Maar ik herinner mij iets over cache in de GF3 die ze in de GF4 hebben gecastreerd, zonder noemenswaardige nadelen. Het verhaal van de 4870 vs de 5770 doet mij daar aan denken.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 03 juni 2010 @ 15:14:
[...]

De GTX465 is geen snelheidswonder, maar hij is niet trager als de GTX275, maar eigelijk evensnel;
http://www.techpowerup.co...c/GeForce_GTX_465/29.html
Moet toch af en toe iets positiefs melden in dit topic! ;)
Ja en hoeveel shaders heeft deze kaart meer dan de GTX275? daar ging het mij even om. Betere specs maar toch trager. Zelfde geld in mindere maten voor de 5770 daar zijn de specs qua clocks iets beter dan de 4870 qua memory iets minder. Maar ook die is trager.
DevilsProphet schreef op donderdag 03 juni 2010 @ 15:17:
Doet mij denken aan de GF4 vs GF3. De GF3(Ti500) had tov de GF4 meer cache of snellere cache die niet wordt vernoemd bij een generische opsomming van specs in een review, maar toch was de GF4 sneller, omdat er andere wijzigingen waren doorgevoerd, en ook om het goedkoper te maken. GF4Ti4200 was dus vette bang voor mijn buck, met betere prestatie per euro verhoudingen dan de GF3, zelfs vergeleken met de gainward GF3Ti200 golden sample.

Maar soit, dat zijn lang vervlogen tijden. Veel gemijmer, wazige herinneringen die waarschijnlijk al zo gecorrodeerd zijn dat er niks meer van klopt. Maar ik herinner mij iets over cache in de GF3 die ze in de GF4 hebben gecastreerd, zonder noemenswaardige nadelen. Het verhaal van de 4870 vs de 5770 doet mij daar aan denken.
GF3 en GF4 waren volgens mij ook totaal andere architecturen. Als in meer shaders en dat soort zaken.

RV840 (aka 5770) heeft wel iets meer transistors als de RV770 maar dat komt vooral door DX11. En dan toch +- dezelfde performance halen is best knap.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 30-08 18:22
Dezelfde prestaties, met grofweg 40% minder power consumption, niet te vergeten. (4870 <> 5770)

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ben nog even aan het zoeken geweest naar de GF3 vs GF4 (nv20 vs nv25) en het lijkt er inderdaad op dat de nv25 meer een speedbump was dan een nieuwe architectuur. Clocks konden hoger. En hij had volgens mij iets wat verbeterde shaders (SM1.3 vs SM1.4 van de Radeon 8500).

Afbeeldingslocatie: http://www.xbitlabs.com/images/video/suma-ti4400/nature.gif

Afbeeldingslocatie: http://www.xbitlabs.com/images/video/ti4200-rad8500le/nature.gif

Zo kun je de verschillen een beetje zien. In die laatste is het niet helemaal eerlijk daar wordt een 8500le gebruikt. Die draait op maar 250-250 ipv 275-275. 128mb mem hielp erg veel bij een Radeon 8500. Dan was nog regelmatig sneller dan de GF 4 TI4200. (maar in sommige games weer niet).

Anyway zo zie je ook het verschil tussen de GF3 TI 500 en de GF4 TI 4200.

De GF3 TI500 SE draait stock: 240-250 en de GF4 TI 4200 64MB: 250-500 -|- 128MB 250-444 (GF4 TI 4400 draait 275-550)

Maar als ik dit zo zie is die GF4 op gelijke clocks ook iets trager. Maar kan hij wel veel hoger clocken. Test systeem was bij beide tests hetzelfde. Bij de TI4200 was de driver ietsjes nieuwer Det 29.20 vs Det 28.32.

[ Voor 61% gewijzigd door Astennu op 03-06-2010 16:01 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-09 09:15

Darkasantion

Just keep swimming!

Astennu schreef op donderdag 03 juni 2010 @ 15:47:
Ben nog even aan het zoeken geweest naar de GF3 vs GF4 (nv20 vs nv25) en het lijkt er inderdaad op dat de nv25 meer een speedbump was dan een nieuwe architectuur. Clocks konden hoger. En hij had volgens mij iets wat verbeterde shaders (SM1.3 vs SM1.4 van de Radeon 8500).

[afbeelding]

[afbeelding]

Zo kun je de verschillen een beetje zien. In die laatste is het niet helemaal eerlijk daar wordt een 8500le gebruikt. Die draait op maar 250-250 ipv 275-275. 128mb mem hielp erg veel bij een Radeon 8500. Dan was nog regelmatig sneller dan de GF 4 TI4200. (maar in sommige games weer niet).

Anyway zo zie je ook het verschil tussen de GF3 TI 500 en de GF4 TI 4200.

De GF3 TI500 SE draait stock: 240-250 en de GF4 TI 4200 64MB: 250-500 -|- 128MB 250-444 (GF4 TI 4400 draait 275-550)

Maar als ik dit zo zie is die GF4 op gelijke clocks ook iets trager. Maar kan hij wel veel hoger clocken.
Ik zit er echt naar te kijken van, wat schattig 64MB en 240Mhz op de core :P . Maar dan bedenk je ineens dat deze kaarten, toen het beste/snelste ter wereld waren en toenover +€500 kosten...
En dan zitten wij nu te klagen met onze Geforces en Radeons die makkelijk +750Mhz lopen en 1GB hebben.
neliz schreef op donderdag 03 juni 2010 @ 11:01:
[...]


Wat had je meer verwacht? hij is langzamer dan de GTX465.. dus er valt niet veel "meer" te halen daar
Meer als in lager stroom verbruik, dacht dat GF104 een kleine GF100 was, zonder alle extra GPGPU-"rommel". Dus vind het dan opmerkelijk dat de kaart dan nog 180Watt nodig heeft.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Darkasantion schreef op donderdag 03 juni 2010 @ 16:04:
Meer als in lager stroom verbruik, dacht dat GF104 een kleine GF100 was, zonder alle extra GPGPU-"rommel". Dus vind het dan opmerkelijk dat de kaart dan nog 180Watt nodig heeft.
Omdat hij zo hard mogelijk geklokt (moet) worden?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Astennu schreef op donderdag 03 juni 2010 @ 14:55:
[...]

Andere architectuur. Waarom is de GTX465 trager dan een GTX275? terwijl hij veel meer shaders en zo heeft ;)
Wel meer shaders, maar slecht 44 TMU's tegenover 72 dacht ik voor de GTX275. Een vrij essentieel verschil in texturekracht wat vaak vergeten wordt te noemen bij specificaties. Ik heb het vermoeden dat dit de GT300 aardig beperkt, hoewel het lastig is dit aan te tonen.

anathema


Acties:
  • 0 Henk 'm!

Verwijderd

anathema schreef op donderdag 03 juni 2010 @ 16:22:
[...]

Wel meer shaders, maar slecht 44 TMU's tegenover 72 dacht ik voor de GTX275. Een vrij essentieel verschil in texturekracht wat vaak vergeten wordt te noemen bij specificaties. Ik heb het vermoeden dat dit de GT300 aardig beperkt, hoewel het lastig is dit aan te tonen.
Hadden ze beter een deel van die drie miljard transistors daarvoor kunnen gebruiken i.p.v. de GPGPU apps waar hier vrijwel niemand wat aan heeft.... ;)

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Ook in het NV topic

Hoewel ik Scali niet echt goed ken en onze aanvaringen in het verleden bewezen hebben dat we niet de beste vrienden zijn.. toch een artikeltje van hem.

Evergreen en Fermi Image Quality Comparison:
http://scalibq.spaces.liv...63AD9A4F9CB0661!347.entry

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

http://techpowerup.com/12..._Dedicated_PhysX_GPU.html

Die Lui van galaxy zijn lekker bezig.

Afbeeldingslocatie: http://www.techpowerup.com/img/10-06-03/10a.jpg

Aparte GT240 voor PhysX erop is best wel slim.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
anathema schreef op donderdag 03 juni 2010 @ 16:22:
[...]

Wel meer shaders, maar slecht 44 TMU's tegenover 72 dacht ik voor de GTX275. Een vrij essentieel verschil in texturekracht wat vaak vergeten wordt te noemen bij specificaties. Ik heb het vermoeden dat dit de GT300 aardig beperkt, hoewel het lastig is dit aan te tonen.
Het is een nieuwe architectuur volgens mij heeft hij er in verhouding sowiewso minder. Maar dat hoeft niet te betekenen dat ze minder krachtig zijn. nVidia kan er best aan gesleuteld hebben. Het gaat er gewoon om dat je oude en nieuwe tech niet 1:1 moet vergelijken. En er van uit moet gaan dat de oude tech clock voor clock met even veel units sneller is. Ze maken meer units mogelijk en hebben meer features daar wordt de winst uitgehaald.
Xenomorphh schreef op vrijdag 04 juni 2010 @ 07:33:
http://techpowerup.com/12..._Dedicated_PhysX_GPU.html

Die Lui van galaxy zijn lekker bezig.

[afbeelding]

Aparte GT240 voor PhysX erop is best wel slim.
Maar ik zie achterop twee relatief grote chips. Een zal dan wel een PLX zijn om die PCI-E lanes te splitten.

[ Voor 22% gewijzigd door Astennu op 04-06-2010 10:35 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sinester
  • Registratie: Januari 2006
  • Laatst online: 03-07 11:52

Sinester

Game Guru

Xenomorphh schreef op vrijdag 04 juni 2010 @ 07:33:
http://techpowerup.com/12..._Dedicated_PhysX_GPU.html

Die Lui van galaxy zijn lekker bezig.

[afbeelding]

Aparte GT240 voor PhysX erop is best wel slim.
Ik ben het wel eens met de sommige reacties op die kaart.
Volgens mij is dit simpelweg een makkelijke manier om nog hun oude GT240 chips te verkopen.
Verder is de 480 volgens mij ook sterk genoeg om physx alleen af te handelen,

Dit maakt de kaart alleen extra duur en heet + nog meer energie verbruik

Hello there


Acties:
  • 0 Henk 'm!

  • Pykow
  • Registratie: Augustus 2007
  • Laatst online: 09-09 17:25

Pykow

Angelo OTR

ik vindt alleen de kaarten behoorlijk groot worden.
Zijn er geen kleinere kaarten die toch goede performance geven ?

Angelo NL / Global Cargo VTC


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Sinester schreef op vrijdag 04 juni 2010 @ 10:49:
[...]

Ik ben het wel eens met de sommige reacties op die kaart.
Volgens mij is dit simpelweg een makkelijke manier om nog hun oude GT240 chips te verkopen.
Verder is de 480 volgens mij ook sterk genoeg om physx alleen af te handelen,

Dit maakt de kaart alleen extra duur en heet + nog meer energie verbruik
PhysX enablen op een single card solution kost nog steeds ~50% van je framereat (zie Batman + GTX480) Dit soort oplossingen (alhoewel... oplossing en PLX niet in dezelfde zin kunnen staan) laten alleen maar zien dat PhysX levensvatbaar is, als je het originele idee opvolgt, dat wil zeggen, graphics+dedicated physx kaart.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • JJ Le Funk
  • Registratie: Januari 2004
  • Niet online

JJ Le Funk

:twk

neliz schreef op vrijdag 04 juni 2010 @ 11:31:
[...]
Dit soort oplossingen (alhoewel... oplossing en PLX niet in dezelfde zin kunnen staan) laten alleen maar zien dat PhysX levensvatbaar is, als je het originele idee opvolgt, dat wil zeggen, graphics+dedicated physx kaart.
als je een krachtige onboard GPU hebt, dan kan je die toch ook aanwijzen als Physx processor?

d:)b


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

MrJayMan schreef op vrijdag 04 juni 2010 @ 11:33:
[...]

als je een krachtige onboard GPU hebt, dan kan je die toch ook aanwijzen als Physx processor?
Nee want het kan alleen met Nvidia kaarten.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

http://www.techpowerup.co...apor-Chamber_Cooling.html

Nog maar een GTX480 van Galaxy.. Deze heeft een vapor chamber dus zal wel goed gekoeld worden ik ben benieuwd.

Afbeeldingslocatie: http://www.techpowerup.com/img/10-06-04/13a.jpg

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Xenomorphh schreef op vrijdag 04 juni 2010 @ 11:36:
[...]

Nee want het kan alleen met Nvidia kaarten.
Maar het kan dus wel als je een Nvidia kaart hebt....

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

MrJayMan schreef op vrijdag 04 juni 2010 @ 11:33:
als je een krachtige onboard GPU hebt, dan kan je die toch ook aanwijzen als Physx processor?
Noem eens een P55 of X58 moederboard met een onboard PhysX capable GPU?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 24-08 14:47
Darkasantion schreef op donderdag 03 juni 2010 @ 16:04:
Meer als in lager stroom verbruik, dacht dat GF104 een kleine GF100 was, zonder alle extra GPGPU-"rommel". Dus vind het dan opmerkelijk dat de kaart dan nog 180Watt nodig heeft.
Het verbaast me telkens hoe iedereen dat soort uitspraken maar herhaalt. "alle extra GPGPU-rommel". Welke "rommel" bedoel je dan precies namelijk? Wat denk je dat er uit de chip weggehaald kan worden zonder de performance en het functioneren van de chip aan te passen?

Dual precission? Lijkt me sterk dat ze voor een feature die waarschijnlijk vrij weinig ruimte inneemt hun hele architectuur overhoop gaan halen. DP zit zo diep in de SMs ingebakken dat weghalen volgens mij veel meer ontwerp-werk gaat geven dan als ze gewoon het GF100 ontwerp direct overnemen. Kan me vergissen hoor, maar het lijkt me veel te veel gedoe met weinig nut, zoveel ruimte zal DP ook niet kosten. Misschien dat DP wel uitgeschakeld is om yield te verhogen. Als de logica voor DP dan niet werkt is de chip nog steeds bruikbaar, maar ook daar twijfel ik over.

ECC memory is een tweede waar misschien bespaard kan worden, maar hier geldt een zelfde verhaal als bij DP. Bovendien, hoeveel ruimte kan hier nu werkelijk mee bespaard worden? Dat zal toch minimaal zijn?

Dus dan is de vraag, waar is de rest van de "GPGPU-rommel"? Of is het alleen een term die iedereen gebruikt zonder er bij na te denken? Want volgens mij is er maar heel weinig "rommel" en zijn bijna alle features die voor GPGPU belangrijk zijn minstens net zo belangrijk voor graphics performance. Grote caches zijn vitaal voor texture performance, goeie scheduling is belangrijk om de chip zo dicht mogelijk bij 100% efficiency te houden. Wat blijft er nog over?

Charlie heeft ooit een verhaaltje de wereld in geholpen dat Fermi een GPGPU chip was met wat GFX features er bij aan geplakt. Weer een mooi voorbeeld van het feit dat ook Charlie het compleet mis kan hebben, want wie de features van de raster engine per cluster en de polymorph engine per SM ziet kan niet alleen niet anders dan concluderen dat GFX performance radicaal onder handen is genomen bij Fermi, maar zal ook moeten toegeven dat Fermi qua GFX meer dan voldoende performance heeft. GFX is niet iets dat zomaar bij een GPGPU chip is aan geplakt, dit is iets waar NVIDIA goed en lang over na heeft gedacht.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Verwijderd schreef op vrijdag 04 juni 2010 @ 11:49:
[...]

Maar het kan dus wel als je een Nvidia kaart hebt....
Als de framerates bij fatsoenlijke kaarten nog flink omlaag gaan met een beetje zware physX zal een IGP dat al helemaal niet leuk vinden toch? Of anders gezegd, als een IGP het al aan kan dan is het voor een losse videokaart peanuts en merk je het toch al niet in de FPS.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Verwijderd

Snoitkever schreef op vrijdag 04 juni 2010 @ 12:04:
[...]

Het verbaast me telkens hoe iedereen dat soort uitspraken maar herhaalt. "alle extra GPGPU-rommel". Welke "rommel" bedoel je dan precies namelijk? Wat denk je dat er uit de chip weggehaald kan worden zonder de performance en het functioneren van de chip aan te passen?
Conclusie: Het is geen hardcore gaming chip. Als ze al die extra gpGPU rommel er niet hadden in gestopt(bij het design al), was hij gewoon kleiner geweest. Kleiner betekend betere yields, minder stroom verbruik.
Dual precission? Lijkt me sterk dat ze voor een feature die waarschijnlijk vrij weinig ruimte inneemt hun hele architectuur overhoop gaan halen. DP zit zo diep in de SMs ingebakken dat weghalen volgens mij veel meer ontwerp-werk gaat geven dan als ze gewoon het GF100 ontwerp direct overnemen. Kan me vergissen hoor, maar het lijkt me veel te veel gedoe met weinig nut, zoveel ruimte zal DP ook niet kosten. Misschien dat DP wel uitgeschakeld is om yield te verhogen. Als de logica voor DP dan niet werkt is de chip nog steeds bruikbaar, maar ook daar twijfel ik over.
Die waarschijnlijk weinig ruimte in neemt? Je weet het dus niet eens. Je doet hier een claim en je hebt niets om het te ondersteunen. Dan kan ik dat ook: DP heb je niet nodig dus neemt het te veel ruimte in.
ECC memory is een tweede waar misschien bespaard kan worden, maar hier geldt een zelfde verhaal als bij DP. Bovendien, hoeveel ruimte kan hier nu werkelijk mee bespaard worden? Dat zal toch minimaal zijn?
Again, je hebt het niet nodig, het neemt ruimte in, het is dus al te veel. Om ruimte te besparen moet je soms features schrappen, ook al nemen ze een minimaal aantal in beslag. Zie Side port van de RV670 naar de RV770.
Dus dan is de vraag, waar is de rest van de "GPGPU-rommel"? Of is het alleen een term die iedereen gebruikt zonder er bij na te denken? Want volgens mij is er maar heel weinig "rommel" en zijn bijna alle features die voor GPGPU belangrijk zijn minstens net zo belangrijk voor graphics performance. Grote caches zijn vitaal voor texture performance, goeie scheduling is belangrijk om de chip zo dicht mogelijk bij 100% efficiency te houden. Wat blijft er nog over?
Helemaal niet: Het is gpGPU rommel voor iemand die er niet in geïnteresseerd is. Dual precision? Weg er mee? Al die error correcting? Weg er mee.
Charlie heeft ooit een verhaaltje de wereld in geholpen dat Fermi een GPGPU chip was met wat GFX features er bij aan geplakt. Weer een mooi voorbeeld van het feit dat ook Charlie het compleet mis kan hebben, want wie de features van de raster engine per cluster en de polymorph engine per SM ziet kan niet alleen niet anders dan concluderen dat GFX performance radicaal onder handen is genomen bij Fermi, maar zal ook moeten toegeven dat Fermi qua GFX meer dan voldoende performance heeft. GFX is niet iets dat zomaar bij een GPGPU chip is aan geplakt, dit is iets waar NVIDIA goed en lang over na heeft gedacht.
Ben ik niet geheel met je eens. Tuurlijk, hij doet GFX wel goed, maar niet als je performance/mm2 en performance/watt mee rekent
bwerg schreef op vrijdag 04 juni 2010 @ 12:54:
[...]

Als de framerates bij fatsoenlijke kaarten nog flink omlaag gaan met een beetje zware physX zal een IGP dat al helemaal niet leuk vinden toch? Of anders gezegd, als een IGP het al aan kan dan is het voor een losse videokaart peanuts en merk je het toch al niet in de FPS.
Daar gaat het niet om: Hij vraag, kan het met een igp, en het antwoord is: nee... oja wel als je een nvidia kaart hebt. Dus het had moeten zijn: Ja het kan, maar dan moet je een nvidia kaart hebben. Al is dat ook niet geheel waar, gezien je met een hack er wel om heen kan.

[ Voor 9% gewijzigd door Verwijderd op 04-06-2010 13:23 ]


Acties:
  • 0 Henk 'm!

  • Herman
  • Registratie: December 2009
  • Laatst online: 22:48

Herman

FP ProMod
Xenomorphh schreef op vrijdag 04 juni 2010 @ 07:33:
http://techpowerup.com/12..._Dedicated_PhysX_GPU.html

Die Lui van galaxy zijn lekker bezig.

[afbeelding]

Aparte GT240 voor PhysX erop is best wel slim.
Zou het dan ook mogelijk zijn om de 480 chip uit te schakelen bij office-gebruik, en in te schakelen bij gamen? Volgens mij gebruikt de gt240 idle slechts 9 watt. Dat zou wél de uitvinding van het jaar zijn. Vrijwel geen stroomverbruik bij dagelijks gebruik, meer prestaties bij gamen en minder belasting dus een langere levensduur van de 480 chip! Of mis ik iets?

[ Voor 0% gewijzigd door Herman op 04-06-2010 14:06 . Reden: Typo ]

Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Herman87 schreef op vrijdag 04 juni 2010 @ 13:58:
[...]


Zou het dan ook mogelijk zijn om de 480 chip uit te schakelen bij office-gebruik, en in te schakelen bij gamen? Volgens mij gebruikt de gt240 Idle slechts 9 watt. Dat zou wél de uitvinding van het jaar zijn. Vrijwel geen stroomverbruik bij dagelijks gebruik, meer prestaties bij gamen en minde belasting dus een langere levensduur van de 480 chip! Of mis ik iets?
Dat zou idd een goeie optie zijn. En ik weet dat Nvidia de optimus techniek heeft ontwikkelt dan zou je zo kunnen wisselen tussen de beide chips. Dat zou idd wel goed voor het verbruik zijn.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Xenomorphh schreef op vrijdag 04 juni 2010 @ 11:43:
http://www.techpowerup.co...apor-Chamber_Cooling.html

Nog maar een GTX480 van Galaxy.. Deze heeft een vapor chamber dus zal wel goed gekoeld worden ik ben benieuwd.

[afbeelding]
GTX480 mag dan wel geen super kaart zijn. Maar die cooler ziet er zo nice uit :9~

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op donderdag 03 juni 2010 @ 15:34:
[...]Ja en hoeveel shaders heeft deze kaart meer dan de GTX275? daar ging het mij even om. Betere specs maar toch trager. Zelfde geld in mindere maten voor de 5770 daar zijn de specs qua clocks iets beter dan de 4870 qua memory iets minder. Maar ook die is trager.
Ja, klopt helemaal en ben het met je eens hoor! Mijn opmerking was alleen maar om iets nuance erin te brengen.
Het is gewoon niet al te best dat een kaart die op 40nm is gebakken, 352 shaders heeft en ongeveer op dezelfde clocks loopt als een GTX280 met 65nm procedé met 240 shaders, even snel is en niet eens echt veel zuiniger is...

Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op vrijdag 04 juni 2010 @ 16:36:
[...]


GTX480 mag dan wel geen super kaart zijn. Maar die cooler ziet er zo nice uit :9~
In welke context bedoel je niet super? zal wel in de zin van verbruik zijn want op het gebied van prestaties en beeldkwaliteit is het een dijk van een kaart.
Pagina: 1 ... 10 ... 13 Laatste

Dit topic is gesloten.