Stroom kost een stuk meer voor een Joule dan gas, dus da's juist niet aantrekkelijk!
Verwijderd
Verwijderd schreef op woensdag 02 juni 2010 @ 14:56:
Stroom kost een stuk meer voor een Joule dan gas, dus da's juist niet aantrekkelijk!

Verwijderd
Wat bedoel je hiermee? Je kunt wel gas inkopen en deze gebruiken om stroom op te wekken, maar hierbij verlies je erg veel. Zo veel, dat het goedkoper is om stroom uit de muur te gebruiken. Mijn punt was gewoon, dat je een stuk beter de verwarming aan kan zetten dan een dure videokaart te kopen om die je kamer laten verwarmen. Omdat voor verwarming, gas een stuk kostenefficienter is. Stroom wordt over het algemeen opgewekt door gas te verbranden. Hierbij verlies je veel. Als je dus electriciteit gebruikt om te verwarmen ben je inefficient bezig. Als je gewoon gas verbrandt om te verwarmen heb je 100% efficientie.
Verwijderd
Ze hebben trouwens 8 geheugen chips per GPU, dat betekend iig dat de geheugenbus kleiner is en neerkomt op 256bit zodat ze gewoon gebruikt maken van 2 keer 1gb, ipv 2 keer 1280mb zoals op de GTX470. Hiermee kunnen ze weer wat stroom besparen. Daarnaast waarschijnlijk de clocks nog wat omlaag en je kan 'm binnen de 375watt houden. Ben benieuwd hoe ze dat gaan koelen, want dit;Xenomorphh schreef op woensdag 02 juni 2010 @ 13:09:
Nou een nieuwtje dan maar..
http://www.techpowerup.co...-Fermi_Graphics_Card.html
Dual Fermi!!

(zoals op de GTX295 single PCB) gaat natuurlijk niet genoeg zijn!
Nvidia zal er trouwens wel koste wat kost voor zorgen dat ie de 5970 zal verslaan, anders heeft het uitbrengen van de kaart uberhaupt geen nut.
[ Voor 3% gewijzigd door Verwijderd op 02-06-2010 15:35 ]
Verwijderd
Lekker offtopic, maar veel studenten betalen all-in. Als je dan naast de crappy radiator kan bijstoken met je rig wordt het in de winter lekker warm. Ik weet dat mijn P4 op load wel een paar graden scheeldeVerwijderd schreef op woensdag 02 juni 2010 @ 15:29:
Wat bedoel je hiermee? Je kunt wel gas inkopen en deze gebruiken om stroom op te wekken, maar hierbij verlies je erg veel. Zo veel, dat het goedkoper is om stroom uit de muur te gebruiken. Mijn punt was gewoon, dat je een stuk beter de verwarming aan kan zetten dan een dure videokaart te kopen om die je kamer laten verwarmen. Omdat voor verwarming, gas een stuk kostenefficienter is. Stroom wordt over het algemeen opgewekt door gas te verbranden. Hierbij verlies je veel. Als je dus electriciteit gebruikt om te verwarmen ben je inefficient bezig. Als je gewoon gas verbrandt om te verwarmen heb je 100% efficientie.
Jammer dat het net zomer wordt.
ze zullen heel hard hun best moeten doen om dat voor elkaar te krijgen. ati heeft van het begin al min stroom nodig per chip 180 voor de HD5870 dacht ik.Verwijderd schreef op woensdag 02 juni 2010 @ 15:33:
Nvidia zal er trouwens wel koste wat kost voor zorgen dat ie de 5970 zal verslaan, anders heeft het uitbrengen van de kaart uberhaupt geen nut.
tijd voor klein rekensommetje
voor de HD5970:
180 x 2 = 360 dat is 60 meer dan het pci-e standaard
60 / 360 = 0.175 = 17.5% moet er van het stroom verbuik af
voor de GTX470 Dual
216 x 2 = 432 dat is 132 meer dan het pci-e standaard
132 / 432 = 0.305 = 30.5% moet er van het stroom verbruik af.
Dit is behoorlijk, er moet dus flink gesneden en naarbeneden geklokt worden om dit ding in leven te houden.
Ben benieuwd naar reviews en wat voor prijskaart hier aan gehangen wordt.
Je kunt maximaal 375Watt trekken om binnen PCI-E specs te blijven.ArgantosNL schreef op woensdag 02 juni 2010 @ 16:24:
[...]
ze zullen heel hard hun best moeten doen om dat voor elkaar te krijgen. ati heeft van het begin al min stroom nodig per chip 180 voor de HD5870 dacht ik.
tijd voor klein rekensommetje
voor de HD5970:
180 x 2 = 360 dat is 60 meer dan het pci-e standaard
60 / 360 = 0.175 = 17.5% moet er van het stroom verbuik af
voor de GTX470 Dual
216 x 2 = 432 dat is 132 meer dan het pci-e standaard
132 / 432 = 0.305 = 30.5% moet er van het stroom verbruik af.
Dit is behoorlijk, er moet dus flink gesneden en naarbeneden geklokt worden om dit ding in leven te houden.
Ben benieuwd naar reviews en wat voor prijskaart hier aan gehangen wordt.
2x8pins=2x150 Watt + 1x75Watt =375Watt totaal. 57 Watt teveel dus
Dus dan moet je ~13,2% besparen op je totale verbruik van je kaart. Ze verlagen de bus al naar 256 bit met minder geheugen, dus dat zal ~30Watt schelen, als je dan cherry picked cores hebt kun je dan nog eens 2x15 Watt eraf halen en dan zit je ineens onder de 375Watt grens.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Iemand enige idee wanneer firmware 257.15 whql certificaat krijgt ?
Want als goed is werken de source games nog niet 100% met deze Nvidia Firmware.
Ik hoor goede berichten over performance en hopelijk haal ik net iets meer uit mijn GT320
Want als goed is werken de source games nog niet 100% met deze Nvidia Firmware.
Ik hoor goede berichten over performance en hopelijk haal ik net iets meer uit mijn GT320
Angelo NL / Global Cargo VTC
wat dat ding werkelijk weg kan trekken als je kijkt naar de aansluitingen is inderdaad 375 watt maar dat in niet het pci-e standaard dat op 300 ligt. het is dus de vraag wordt dit een kaart voor de normale verkoop zoals de hd5970 dan zullen ze het verbruik toch tot 300 moeten inperken. anders krijg je limited versies zoals de ASUS ARES. De extra prik is dan voor overklokkers daar zal deze kaart dan op gericht zijn.Darkasantion schreef op woensdag 02 juni 2010 @ 16:29:
[...]
Je kunt maximaal 375Watt trekken om binnen PCI-E specs te blijven.
2x8pins=2x150 Watt + 1x75Watt =375Watt totaal. 57 Watt teveel dus
Dus dan moet je ~13,2% besparen op je totale verbruik van je kaart. Ze verlagen de bus al naar 256 bit met minder geheugen, dus dat zal ~30Watt schelen, als je dan cherry picked cores hebt kun je dan nog eens 2x15 Watt eraf halen en dan zit je ineens onder de 375Watt grens.
Verwijderd
Mag ik iedereen der op wijzen dat een GTX470 in SLI waarschijnlijk nog niet genoeg is? De GTX470 is namelijk minder krachtig dan een HD5870. De HD5970 loopt dan wel op iets lagere clocks, maar de GTX470X2 zal minstens net zo hard moeten snijden in de clocks om onder de 300 watt te blijven. Even aangenomen dat Crossfire en SLI vergelijkbaar schalen naar 2 kaarten is er geen kans voor de GTX470X2 om in de buurt van de HD5970 te komen.
Nou, ze kunnen hem ook gewoon zo terug schroeven dat hij maar 300 Watt verbruikt, maar er wel een programma bijleveren zoals Asus SmartDoctor of Gigabyte EasyTune die voor jouw een "gratis" overclock doet van 10~15% die hem dan naar de 375Watt tiltArgantosNL schreef op woensdag 02 juni 2010 @ 16:40:
[...]
wat dat ding werkelijk weg kan trekken als je kijkt naar de aansluitingen is inderdaad 375 watt maar dat in niet het pci-e standaard dat op 300 ligt. het is dus de vraag wordt dit een kaart voor de normale verkoop zoals de hd5970 dan zullen ze het verbruik toch tot 300 moeten inperken. anders krijg je limited versies zoals de ASUS ARES. De extra prik is dan voor overklokkers daar zal deze kaart dan op gericht zijn.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Verwijderd
Precies, die ATX specs zal ze echt niet tegenhouden, ze zullen wel een trucje verzinnen om het gebied daarboven ook nog in de benchmarks mee te krijgen.
dus nog even afwachten, het is nog een prototype en die halen het niet allemaal.
Ik denk niet dat die koeler 375 watt aan hitte kan wegwerken zonder op te stijgen.
Ik denk niet dat die koeler 375 watt aan hitte kan wegwerken zonder op te stijgen.
Kan wel hoor, HD5970 heeft ook een koeler die erop ontworpen is om een TPD van 400Watt weg te werken. Of het handig is zoveel warmte met lucht te koelen is een andere vraag, maar het kan zeker wel zonder op te stijgenArgantosNL schreef op woensdag 02 juni 2010 @ 17:27:
dus nog even afwachten, het is nog een prototype en die halen het niet allemaal.
Ik denk niet dat die koeler 375 watt aan hitte kan wegwerken zonder op te stijgen.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Verwijderd
Hoeveel kost 375 watt gedurende 1 jaar?
1 watt = 1 joule/ 1 seconde
375 watt = 375 joule/ 1 seconde
375 watt * 60 seconde = 375 joule * 60 seconde/ seconde = 375 * 60 joule = 22500 joule
375 watt * 60 * 60 seconde = 22500 joule * 60 = 1350000 joule
375 watt * 60 * 60 * 24 seconde = 1350000 joule * 24 = 32400000 joule
375 watt * 365,25 * 60 * 60 * 24 = 32400000 joule * 365,25 = 11834100000 joule
Oke. We weten nu hoeveel joule dit kost. Maar hoeveel geld kost 1 joule?
Het kost 35 eurocent voor 1000 * 60 * 60 joule.
1000 * 60 * 60 joule = 3600000 joule = 35 eurocent
Hoeveel keer moet je 35 eurocent betalen om 1 jaar lang 375 watt te gebruiken?
11834100000 joule/ 3600000 joule = 3287.25
Hoeveel kost dit dus?
3287.25 * 35 eurocent = 115053.75 eurocent
115053.75 eurocent = 115053.75 euro/ 100 = 1150.5375 euro
Dus als je die videokaart 1 jaar lang zo zwaar belast dat deze ongestopt 375 watt trekt, dan kost dit jou 1150,54 euro (tenzij je bij de Nederlandsche Energie Maatschappij zit).
1 watt = 1 joule/ 1 seconde
375 watt = 375 joule/ 1 seconde
375 watt * 60 seconde = 375 joule * 60 seconde/ seconde = 375 * 60 joule = 22500 joule
375 watt * 60 * 60 seconde = 22500 joule * 60 = 1350000 joule
375 watt * 60 * 60 * 24 seconde = 1350000 joule * 24 = 32400000 joule
375 watt * 365,25 * 60 * 60 * 24 = 32400000 joule * 365,25 = 11834100000 joule
Oke. We weten nu hoeveel joule dit kost. Maar hoeveel geld kost 1 joule?
Het kost 35 eurocent voor 1000 * 60 * 60 joule.
1000 * 60 * 60 joule = 3600000 joule = 35 eurocent
Hoeveel keer moet je 35 eurocent betalen om 1 jaar lang 375 watt te gebruiken?
11834100000 joule/ 3600000 joule = 3287.25
Hoeveel kost dit dus?
3287.25 * 35 eurocent = 115053.75 eurocent
115053.75 eurocent = 115053.75 euro/ 100 = 1150.5375 euro
Dus als je die videokaart 1 jaar lang zo zwaar belast dat deze ongestopt 375 watt trekt, dan kost dit jou 1150,54 euro (tenzij je bij de Nederlandsche Energie Maatschappij zit).
Verwijderd
Maargoed, een overgeclockte 5970 haalt dat ook met gemak. 24/7 voor een heel jaar is niet echt realistisch imho. Bovendien, als je zoveel overhebt voor een videokaart en zoveel speelt dan zullen die stroomkosten je ook aan je reet roesten.
Al mag justitie wel even gaan controleren waar die verdiensten vandaan komen
Al mag justitie wel even gaan controleren waar die verdiensten vandaan komen
[ Voor 50% gewijzigd door Verwijderd op 02-06-2010 17:48 ]
Waarom reken je niet gewoon in KwH?Verwijderd schreef op woensdag 02 juni 2010 @ 17:40:
Hoeveel kost 375 watt gedurende 1 jaar?
1 watt = 1 joule/ 1 seconde
375 watt = 375 joule/ 1 seconde
375 watt * 60 seconde = 375 joule * 60 seconde/ seconde = 375 * 60 joule = 22500 joule
375 watt * 60 * 60 seconde = 22500 joule * 60 = 1350000 joule
375 watt * 60 * 60 * 24 seconde = 1350000 joule * 24 = 32400000 joule
375 watt * 365,25 * 60 * 60 * 24 = 32400000 joule * 365,25 = 11834100000 joule
Oke. We weten nu hoeveel joule dit kost. Maar hoeveel geld kost 1 joule?
Het kost 35 eurocent voor 1000 * 60 * 60 joule.
1000 * 60 * 60 joule = 3600000 joule = 35 eurocent
Hoeveel keer moet je 35 eurocent betalen om 1 jaar lang 375 watt te gebruiken?
11834100000 joule/ 3600000 joule = 3287.25
Hoeveel kost dit dus?
3287.25 * 35 eurocent = 115053.75 eurocent
115053.75 eurocent = 115053.75 euro/ 100 = 1150.5375 euro
Dus als je die videokaart 1 jaar lang zo zwaar belast dat deze ongestopt 375 watt trekt, dan kost dit jou 1150,54 euro (tenzij je bij de Nederlandsche Energie Maatschappij zit).
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Verwijderd
Omdat ik anti-kwH ben. Watt is energie/ tijd en dan vermenigvuldig je weer met tijd 
Een kwH is dus gewoon een aantal joules, waarom noemen we dan niet gewoon het aantal joules? Dit vind ik een stuk netter. Gewoon kiloJoule of megaJoule dus! Da's veel beter!

Een kwH is dus gewoon een aantal joules, waarom noemen we dan niet gewoon het aantal joules? Dit vind ik een stuk netter. Gewoon kiloJoule of megaJoule dus! Da's veel beter!
Volgens mij klopt je berekening met Joule's niet lijkt mij namelijk veel te hoog. Ik heb geen idee hoe ik t uit moet rekenen hoor nou ja klein beetje dan. Maar daar heb ik weinig zin in
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Verwijderd
Nee, dat als je tijd genoeg hebt om 24/7 met zulke dure apparatuur te spelen je blijkbaar je geld uit minder legale bronnen haalt, want ik ken geen werkgevers waarbij je dat lukt.Verwijderd schreef op woensdag 02 juni 2010 @ 17:50:
Hehe hoe bedoel je? Omdat je zoveel stroom gebruikt dan denken ze dat je wiet groeit?
Je zet een hoeveelheid energie per tijdseenheid uit. Als je vijf van die tijdseenheden neemt moet je dus die eerste uitkomst per vijf doen. Dus niet tijd x tijd maar gewoon (5xtijd)xenergie.Verwijderd schreef op woensdag 02 juni 2010 @ 18:01:
Omdat ik anti-kwH ben. Watt is energie/ tijd en dan vermenigvuldig je weer met tijd
Een kwH is dus gewoon een aantal joules, waarom noemen we dan niet gewoon het aantal joules? Dit vind ik een stuk netter. Gewoon kiloJoule of megaJoule dus! Da's veel beter!
Aan joules zitten weer allemaal andere haken en ogen, bovendien komen er geen joules uit het stopcontact (strikt genomen uiteraard wel). Sowieso is het handiger het over watt te hebben, want dan weet iedereen dat het over stroom gaat. Met joules zou je zomaar ook in Marsrepen bij de supermarkt kunnen gaan rekenen.
[ Voor 8% gewijzigd door Verwijderd op 02-06-2010 18:20 ]
Verwijderd
De berekening klopt wel hoor. Een joule is niet zoveel. Dit is de energie die het kost om 1 meter tegen 1 Newton kracht in te verplaatsen. Een kiloWatt (1000 joules per seconde, een uur lang) is al heel erg veel: 3,6 miljoen Joule. Doe dit keer een jaar en 375 en je hebt 't!
DPC of F@H farm via cuda?Verwijderd schreef op woensdag 02 juni 2010 @ 17:47:
24/7 voor een heel jaar is niet echt realistisch imho.
Daarbij is OneOverPrime wel correct met zijn berekeningen, en ik ben persoonlijk ook voor het aanduiden van grootheden met hun SI-eenheid en niks anders. Joules komen inderdaad zowel uit het stopcontact als uit een mars-reep, en het is toch heel leuk om te zeggen dat een gemiddelde mars-reep meer dan twee megajoules bevat, nietwaar? Calorieën zijn voor losers, en kilowattuur eveneens, omdat ze geen zin hebben om een SI-prefix te gebruiken.
Maar ik dwaal.
edit: disclaimer: ik noem zulke mensen losers, en dat is de soort onverwachtse en bijna-niet-te-onderscheiden-van-een-echte-rant soort humor die ik af en toe graag bezig. Niet teveel over denken, ik doe het alvast niet. Ook trouwens iets wat ik graag doe.
[ Voor 13% gewijzigd door RuddyMysterious op 02-06-2010 18:51 ]
Verwijderd
GTX470 in SLI is weldegelijk gemiddeld sneller als de 5970 (voorbeeld) maar dat doet er ff niet toe, want wat dat betreft kan Nvidia straks toch gewooon zeggen dat de TDP 300watt is!? Ze zeggen ook dat de GTX480 een TDP heeft van 250watt, maar zelfs tijdens een hele zware game komt ie daar nog boven, laat staan Furmark....Verwijderd schreef op woensdag 02 juni 2010 @ 17:03:
Mag ik iedereen der op wijzen dat een GTX470 in SLI waarschijnlijk nog niet genoeg is? De GTX470 is namelijk minder krachtig dan een HD5870. De HD5970 loopt dan wel op iets lagere clocks, maar de GTX470X2 zal minstens net zo hard moeten snijden in de clocks om onder de 300 watt te blijven. Even aangenomen dat Crossfire en SLI vergelijkbaar schalen naar 2 kaarten is er geen kans voor de GTX470X2 om in de buurt van de HD5970 te komen.
Dus ze geven missschien 300watt op, maar verbruikt straks keihard 350watt ofzo.
Dit is natuurlijk zeer speculatief, maar het is heel duidelijk dat als ze wel echt de 300watt grens aanhouden ze idd nooit sneller zullen zijn als de 5970 omdat ze dan teveel moeten snijden. Gevolg; meer dan 300watt en dan maar geen pci-e standaard.

Verwijderd
Dan doe je het ook lekker zelf. Leuk die hoge scores, maar dan moet je dus ook willen dokken.
O noes! Ik ben een beta en kan er niet tegen dat mensen praktische handvatten gebruiken!k ben persoonlijk ook voor het aanduiden van grootheden met hun SI-eenheid en niks anders. Joules komen inderdaad zowel uit het stopcontact als uit een mars-reep, en het is toch heel leuk om te zeggen dat een gemiddelde mars-reep meer dan twee megajoules bevat, nietwaar? Calorieën zijn voor losers, en kilowattuur eveneens, omdat ze geen zin hebben om een SI-prefix te gebruiken.Het kan natuurlijk ook zijn dat ze veel te exotische prefixen gaan moeten gebruiken, zoals tera of peta, maar dat vind ik nu net het leukste: weten welke prefixen er zijn en die dan gebruiken.
Sommige SI-prefixes zijn helemaal niet handig. Bovendien, zoals hierboven al gezegd is het soms juist handig met je niet-SI-prefix aan te geven wat je nu eigenlijk bedoelt, omdat SI-eenheden juist superalgemeen zijn en daardoor voor verwarring kunnen zorgen.
Ik ben er over het algemeen wel voor om duidelijke maateenheden te gebruiken en dat over het algemeen SI-eenheden daarvoor bedoeld zijn, maar in dit geval maak je het alleen maar onnodig complex door dat te doen.
Zo wordt het in de tweakerwereld ook LN2 genoemd, terwijl het op geen enkele manier een correcte afkorting is. Desondanks is juist extra duidelijk wat er bedoeld wordt, aangezien je gelijk weet dat het over het opvoeren van chips gaat.
Je bedoelt zeker ATX-standaard? Want PCIe kan en mag daar over gaan, volgens mijn nederige en beperkte kennis.Verwijderd schreef op woensdag 02 juni 2010 @ 18:55:
Gevolg; meer dan 300watt en dan maar geen pci-e standaard.
Offtopic:Verwijderd schreef op woensdag 02 juni 2010 @ 17:40:
Hoeveel kost 375 watt gedurende 1 jaar?
Berekening etc
Wat 35 cent per kWh?! Is dit serieus de prijs die jullie Nederlanders betalen? Hier in België ligt dit op 18 cent ofzo.
God does not play dice
Verwijderd
Nee, eerder gemiddeld rond de 24, maar minder kan met wat zoekwerk ook nog wel.-AzErTy- schreef op woensdag 02 juni 2010 @ 19:21:
Offtopic:
Wat 35 cent per kWh?! Is dit serieus de prijs die jullie Nederlanders betalen? Hier in België ligt dit op 18 cent ofzo.
34 cent is erg aan de prijs.
Eerlijk is eerlijk, ik ben ook niet zo'n zeikerd als het om correct wetenschappelijk taalgebruik gaat, maar de KWh is wel echt het grootste gedrocht dat er in de wereld van eenheden bestaat
vergelijk het met de kilometer-per-uur-seconde als eenheid voor afstand

[ Voor 16% gewijzigd door bwerg op 02-06-2010 19:38 ]
Heeft geen speciale krachten en is daar erg boos over.
bwerg schreef op woensdag 02 juni 2010 @ 19:38:
Eerlijk is eerlijk, ik ben ook niet zo'n zeikerd als het om correct wetenschappelijk taalgebruik gaat, maar de KWh is wel echt het grootste gedrocht dat er in de wereld van eenheden bestaatvergelijk het met de kilometer-per-uur-seconde als eenheid voor afstand
Ja inderdaad, want een prefix als kilo voor de eenheid meter is werkelijk uit den boze. Custom eenheden verzinnen, dan weten ze waarover het gaat. =)
/sneer
edit: even alles in het klein zetten, want dat is blijkbaar de trend op t.net als men off-topic gaat. =)
[ Voor 10% gewijzigd door RuddyMysterious op 02-06-2010 19:42 ]
Tsja, 375 watt is het maximum. Bij gamen zul je dit wellicht soms halen, maar je moet de tijd dat zo'n gpu idle is, ook meewegen. Daarom lijkt mij jou berekening niet reeël.Verwijderd schreef op woensdag 02 juni 2010 @ 17:40:
Hoeveel kost 375 watt gedurende 1 jaar?
(...)
115053.75 eurocent = 115053.75 euro/ 100 = 1150.5375 euro
Dus als je die videokaart 1 jaar lang zo zwaar belast dat deze ongestopt 375 watt trekt, dan kost dit jou 1150,54 euro (tenzij je bij de Nederlandsche Energie Maatschappij zit).
Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic
Er zijn mensen die machines de hele dag laten F@H'enHerman87 schreef op woensdag 02 juni 2010 @ 19:41:
Tsja, 375 watt is het maximum. Bij gamen zul je dit wellicht soms halen, maar je moet de tijd dat zo'n gpu idle is, ook meewegen. Daarom lijkt mij jou berekening niet reeël.
(of 50.. zoals ik vroeger deed)
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
Dus je bent het met me eens?bwerg schreef op woensdag 02 juni 2010 @ 19:38:
Eerlijk is eerlijk, ik ben ook niet zo'n zeikerd als het om correct wetenschappelijk taalgebruik gaat, maar de KWh is wel echt het grootste gedrocht dat er in de wereld van eenheden bestaatvergelijk het met de kilometer-per-uur-seconde als eenheid voor afstand
tamelijk.
Delen door een eenheid om daar vervolgens weer mee te vermenigvuldigen is niet 's werelds meest nuttige bezigheid.
Delen door een eenheid om daar vervolgens weer mee te vermenigvuldigen is niet 's werelds meest nuttige bezigheid.
[ Voor 86% gewijzigd door bwerg op 02-06-2010 20:14 ]
Heeft geen speciale krachten en is daar erg boos over.
Verwijderd
Stelletje verschrikkelijke beta's -_-'
Schrijf dan ook gelijk even alle fabrikanten aan dat ze de correcte SI-eenheden in hun specs moeten gebruiken
Schrijf dan ook gelijk even alle fabrikanten aan dat ze de correcte SI-eenheden in hun specs moeten gebruiken
Maargoed, zoals gezegd moeten mensen die dat willen dan ook de consequenties aanvaarden. Roepen dat verbruik X wel erg hoog is omdat je dag en nacht wil folden is niet echt een argument.neliz schreef op woensdag 02 juni 2010 @ 19:47:
Er zijn mensen die machines de hele dag laten F@H'en
(of 50.. zoals ik vroeger deed)
[ Voor 18% gewijzigd door Verwijderd op 02-06-2010 20:15 ]
Het verbruik stijgt sowieso bij GPU acceleratie, Videotje kijken? mspaint schermpje resizen? er zijn heel wat omstandigheden waar een GPU opklokt.Verwijderd schreef op woensdag 02 juni 2010 @ 20:14:
Stelletje verschrikkelijke beta's -_-'
Maargoed, zoals gezegd moeten mensen die dat willen dan ook de consequenties aanvaarden. Roepen dat verbruik X wel erg hoog is omdat je dag en nacht wil folden is niet echt een argument.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
Aan de andere kant kan het totale systeem dan wel weer minder verbruiken. Ik weet zeker dat ik een fimpje zuiniger kijk op m'n 4770 dan op m'n P4 (maar dat dat ook bij modernere processoren wel het geval is).neliz schreef op woensdag 02 juni 2010 @ 20:21:
Het verbruik stijgt sowieso bij GPU acceleratie, Videotje kijken? mspaint schermpje resizen? er zijn heel wat omstandigheden waar een GPU opklokt.
Een kaart gaat natuurlijk geen 375 watt verbruiken tijden het draaien van een filmpje of resizen van een window
[ Voor 11% gewijzigd door Verwijderd op 02-06-2010 20:26 ]
Niet ineens vol vermogen, maar "een" applicatie laden op een PC met een GTX480 schakelt 'm over van "idle" naar "2D" en dat is zomaar 60W exta, dan ben je nog niets aan het doen.Verwijderd schreef op woensdag 02 juni 2010 @ 20:24:
Een kaart gaat natuurlijk geen 375 watt verbruiken tijden het draaien van een filmpje of resizen van een window
Is nog geen 375W . I know..
[ Voor 3% gewijzigd door neliz op 02-06-2010 20:33 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
P4? Ik dacht dat je een Phenom II X6 had!?Verwijderd schreef op woensdag 02 juni 2010 @ 20:24:
[...]
Aan de andere kant kan het totale systeem dan wel weer minder verbruiken. Ik weet zeker dat ik een fimpje zuiniger kijk op m'n 4770 dan op m'n P4 (maar dat dat ook bij modernere processoren wel het geval is).
Een kaart gaat natuurlijk geen 375 watt verbruiken tijden het draaien van een filmpje of resizen van een window
Verwijderd
Dat zou heel wat uitleg schelen. Of ben je niet bekend met de ik heb een hardisk van xxxx GB maar windows zegt dat ie maar xxxx GB is.Verwijderd schreef op woensdag 02 juni 2010 @ 20:14:
Schrijf dan ook gelijk even alle fabrikanten aan dat ze de correcte SI-eenheden in hun specs moeten gebruiken

Verwijderd
Bij harde schijven gebruiken fabrikanten juist wel de SI-eenheden! Hier zit windows fout, want zij vinden dat 1 gigabyte een macht van twee bytes is. Maarja, bijvoorbeeld bij internet gebruiken ze veelal bits in plaats van bytes. Dat moet je ook even weten! Het lijkt soms bijna alsof je internet sneller is dan je USB
Verwijderd
Bijna. Als ik klaar ben voor m'n studie voor dit jaar mag ik het spul kopen van mijzelfVerwijderd schreef op woensdag 02 juni 2010 @ 20:35:
P4? Ik dacht dat je een Phenom II X6 had!?
Maargoed, voedingen in joules zie ik toch echt niet zittenVerwijderd schreef op woensdag 02 juni 2010 @ 20:38:
Dat zou heel wat uitleg schelen. Of ben je niet bekend met de ik heb een hardisk van xxxx GB maar windows zegt dat ie maar xxxx GB is.(En dan mag je nog blij zijn dat ze GB gebruiken en niet gb of Gb of gB).
[ Voor 3% gewijzigd door Verwijderd op 02-06-2010 20:56 ]
Kon dat niet wat simpeler ?Verwijderd schreef op woensdag 02 juni 2010 @ 17:40:
Hoeveel kost 375 watt gedurende 1 jaar?
1 watt = 1 joule/ 1 seconde
375 watt = 375 joule/ 1 seconde
375 watt * 60 seconde = 375 joule * 60 seconde/ seconde = 375 * 60 joule = 22500 joule
375 watt * 60 * 60 seconde = 22500 joule * 60 = 1350000 joule
375 watt * 60 * 60 * 24 seconde = 1350000 joule * 24 = 32400000 joule
375 watt * 365,25 * 60 * 60 * 24 = 32400000 joule * 365,25 = 11834100000 joule
Oke. We weten nu hoeveel joule dit kost. Maar hoeveel geld kost 1 joule?
Het kost 35 eurocent voor 1000 * 60 * 60 joule.
1000 * 60 * 60 joule = 3600000 joule = 35 eurocent
Hoeveel keer moet je 35 eurocent betalen om 1 jaar lang 375 watt te gebruiken?
11834100000 joule/ 3600000 joule = 3287.25
Hoeveel kost dit dus?
3287.25 * 35 eurocent = 115053.75 eurocent
115053.75 eurocent = 115053.75 euro/ 100 = 1150.5375 euro
Dus als je die videokaart 1 jaar lang zo zwaar belast dat deze ongestopt 375 watt trekt, dan kost dit jou 1150,54 euro (tenzij je bij de Nederlandsche Energie Maatschappij zit).
375W is per uur 0.375kWh
1kWh kost X
Formule kosten 1 jaar: 365*24*0.375*X
Gelukkig is de joule dan ook geen eenheid voor vermogen dus dat blijft met SI-eenheden gewoon lekker Watt.Verwijderd schreef op woensdag 02 juni 2010 @ 20:56:
Maargoed, voedingen in joules zie ik toch echt niet zitten
Heeft geen speciale krachten en is daar erg boos over.
Verwijderd
Nee dat is niet helemaal wat ik bedoel, daarvoor is dus GiB etc in het leven geroepen heVerwijderd schreef op woensdag 02 juni 2010 @ 20:40:
Bij harde schijven gebruiken fabrikanten juist wel de SI-eenheden! Hier zit windows fout, want zij vinden dat 1 gigabyte een macht van twee bytes is. Maarja, bijvoorbeeld bij internet gebruiken ze veelal bits in plaats van bytes. Dat moet je ook even weten! Het lijkt soms bijna alsof je internet sneller is dan je USB
[ Voor 12% gewijzigd door Verwijderd op 02-06-2010 22:12 ]
Als Windows (of eender welk OS) gewoon de hardeschijfcapaciteit aanduidt in GiB, dan zal niemand nog verward zijn, behalve misschien over het feit dat ze niet weten wat het verschil is tussen GB en GiB.Verwijderd schreef op woensdag 02 juni 2010 @ 22:11:
[...]
Nee dat is niet helemaal wat ik bedoel, daarvoor is dus GiB etc in het leven geroepen he. Fabrikanten zouden gewoon GiB moeten vermelden en geen GB. Want de hardeschijf fabrikanten zijn fout door in decimalen te rekenen en niet zoals de computer het doet in binair.
Daarmee wil ik dus zeggen dat ik het eens ben dat hardeschijffabrikanten en software de capaciteit moet aanduiden op dezelfde manier, en aangezien de hardeschijffabrikanten dat op de SI-manier doen vind ik dat hun manier te verkiezen valt boven die van wat er zogezegd de norm is in de IT-wereld, wat niets anders is dan een traditie. SI > traditie. Nuff said.
[ Voor 23% gewijzigd door RuddyMysterious op 02-06-2010 22:41 ]
Verwijderd
Traditie? Blijkbaar weet jij niet hoe computers werken. 1 en 0, binair enzo. Of ga jij nu een computer bouwen die decimalen gebruikt om te rekenen?
Je kan met computers gewoon niet in machten van 10 rekenen. Daarbij, dat 10 is ook maar arbitrair gekozen. Waarom niet 9 of 12? Talk about a tradition daar zeg.
Een computer werkt binair, dus daar kan je gewoon moeilijk in een decimaal stelsel drukken. Oftwel: SI schiet gewoon te kort hier in: Dus hebben ze een oplossing gemaakt door GiBi te nemen.
Wikipedia: Binary prefixIn computing, a binary prefix is a specifier or mnemonic that is prepended to the units of digital information, the bit and the byte, to indicate multiplication by a power of 2.
The computer industry uses terms such as "kilobyte," "megabyte," and "gigabyte," and corresponding abbreviations "KB", "MB", and "GB", in two different ways. In citations of main memory or RAM capacity, "gigabyte" customarily means 1073741824 bytes. This is a power of 2, specifically 230, so this usage is referred to as a "binary unit" or "binary prefix."
In other contexts, the industry uses "kilo", "mega", "giga", etc., in a manner consistent with their meaning in the International System of Units (SI): as powers of 1000. For example, a "500 gigabyte" hard drive holds 500000000000 bytes, and a "100 megabit per second" Ethernet connection runs at 100000000 bit/s.
Starting in about 2000, a number of standards and trade organizations approved standards and recommendations for a new set of binary prefixes, proposed earlier by the International Electrotechnical Commission (IEC), that would refer unambiguously to powers of 1024. According to these, the SI prefixes would only be used in the decimal sense, even when referring to data storage capacities: kilobyte and megabyte would denote one thousand bytes and one million bytes respectively (consistent with SI), while new terms such as kibibyte, mebibyte and gibibyte, abbreviated KiB, MiB, and GiB, would denote 1024 bytes, 1048576 bytes, and 1073741824 bytes respectively.[1]
In practice, the IEC binary prefixes have seen little use by the press or the US computing industry and marketplace. However, they are starting to appear in the EU computing industry and marketplace (as required by EU law since 2007),[2][3] certain US and International Government contexts (as required by contract or internal policy),[4] and popular free and open source software such as Linux.[5]
Je kan met computers gewoon niet in machten van 10 rekenen. Daarbij, dat 10 is ook maar arbitrair gekozen. Waarom niet 9 of 12? Talk about a tradition daar zeg.
Een computer werkt binair, dus daar kan je gewoon moeilijk in een decimaal stelsel drukken. Oftwel: SI schiet gewoon te kort hier in: Dus hebben ze een oplossing gemaakt door GiBi te nemen.
[ Voor 100% gewijzigd door Verwijderd op 02-06-2010 22:56 ]
Interessante discussie. Zal ik hem afsplitsen naar een eigen topic of geen we weer ontopic verder?

Verwijderd
Ach volgens char... lars... heeft nvidia toch niets te melden, kunnen we toch nog wat lol trappen in het topic: http://www.semiaccurate.c...nounces-nothing-computex/.
. *Warning*: Hoog flame gehalte! Niet te serieus nemen!
[ Voor 11% gewijzigd door Verwijderd op 02-06-2010 23:49 ]
Deze neem ik wel redelijk serieus:Verwijderd schreef op woensdag 02 juni 2010 @ 23:48:
Ach volgens char... lars... heeft nvidia toch niets te melden, kunnen we toch nog wat lol trappen in het topic: http://www.semiaccurate.c...nounces-nothing-computex/.. *Warning*: Hoog flame gehalte! Niet te serieus nemen!
http://www.semiaccurate.c...res-new-motherboard-team/
Oei, EVGA was(is?) toch een van de betere moederbord fabrikanten binnen het Nvidia gamma, kijk maar naar alle SLI versies die zij uitbrachten binnen de X58 en P55 chipset serie van Intel.
Vraag is nu, kunnen zij dit blijven doen op de lange termijn met dezelfde kwaliteiten als "vroeger"? De in huis overclocker is wel gebleven, dus dat is dan weer een meevaller voor EVGA in deze tegenslag.
Maar wel jammer om te horen, vond de EVGA moederborden heel mooi en begeerlijk
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
http://techpowerup.com/12...d_Launch_Date_Emerge.html
Brand los..
Oei oei oei dat TDP.. Geen nieuwe 8800GT ben ik bang.
Brand los..
Oei oei oei dat TDP.. Geen nieuwe 8800GT ben ik bang.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Wie moet branden? Wij of de kaartXenomorphh schreef op donderdag 03 juni 2010 @ 10:22:
http://techpowerup.com/12...d_Launch_Date_Emerge.html
Brand los..
Oei oei oei dat TDP.. Geen nieuwe 8800GT ben ik bang.
Tja, jammer van dat TDP, de HD5770 zit op 108Watt en dan komt deze kaart met 180Watt hier tegenover te staan... Leuk, koop je een HD5770 met HD5870 verbruik/warmte
Jammer, had toch meer verwacht van GF104
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Wat had je meer verwacht? hij is langzamer dan de GTX465.. dus er valt niet veel "meer" te halen daarDarkasantion schreef op donderdag 03 juni 2010 @ 10:55:
Jammer, had toch meer verwacht van GF104
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Benieuwd of die 180W nu wel klopt. 465/470/480 zitten bvb consequent boven hun TDP.
Maar voor zo'n mainstream kaarten zouden ze toch echt onder de 150W (1x 6pin) moeten zitten. Dus 180W is wel redelijk slecht en qua prestaties gaat het ook echt geen verbetering zijn tov GT2xx.
Maar voor zo'n mainstream kaarten zouden ze toch echt onder de 150W (1x 6pin) moeten zitten. Dus 180W is wel redelijk slecht en qua prestaties gaat het ook echt geen verbetering zijn tov GT2xx.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Verwijderd
Hij heeft wel 50% meer bandbreedte dan HD57xx serie. Dat nekt de HD5770 echt hard. AMD had hier beter voor een 192-bit bus kunnen gaan. Dat zou de HD5770 zeker 10% performance geven. Maarja, dat kost dan misschien ook 10% meer. Dus misschien is de 128-bit bus wel prima voor mainstream.
Oja?
http://alienbabeltech.com/main/?p=12474&page=3Well isn’t this interesting? The 5770 is primarily limited by its core overall, not by its memory!
Verwijderd
Komt van Bit-tech, maar die hebben er zelf ook een hard hoofd in...Word on the Computex show floor is that Nvidia's upcoming GeForce GTX 460 GPU will 'still run hot, but overclocks awesomely: you'll get GTX 480 performance.'
Verwijderd
Nu is het historisch zo dat nivida kaarten graag meer bandbreedte hebben dan de ATI kaarten.(Let wel: Generalisatie)
[ Voor 13% gewijzigd door Verwijderd op 03-06-2010 11:39 ]
Nee de HD57 en HD58 kaarten zijn niet bandwith limited. Dat dacht ik eerst ook maar er zijn vele tests geweest en het valt heel erg mee. De nieuwe memory controller is heel efficiënt. De HD57xx lijkt iets meer baat te hebben dan de HD58xx bij hogere mem clocks maar een core OC schaalt meestal 2-4x beter.Verwijderd schreef op donderdag 03 juni 2010 @ 11:28:
Hij heeft wel 50% meer bandbreedte dan HD57xx serie. Dat nekt de HD5770 echt hard. AMD had hier beter voor een 192-bit bus kunnen gaan. Dat zou de HD5770 zeker 10% performance geven. Maarja, dat kost dan misschien ook 10% meer. Dus misschien is de 128-bit bus wel prima voor mainstream.
Gezien de prestaties van de GTX462 zal deze rond de oude GTX260 komen? Ik denk dat de HD5770 em dan wel aardig bij kan houden. En daar naast aanzienlijk minder zal verbruiken.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Geforces zijn sowieso bandbreedte afhankelijk, dit laten de PCI-E bandwidth tests ook zien.Verwijderd schreef op donderdag 03 juni 2010 @ 11:39:
Nu is het historisch zo dat nivida kaarten graag meer bandbreedte hebben dan de ATI kaarten.(Let wel: Generalisatie)
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Nou dan mogen ze de 1ghz clock wel dik halen willen ze bij de GTX480 in de buurt komenVerwijderd schreef op donderdag 03 juni 2010 @ 11:35:
[...]
Komt van Bit-tech, maar die hebben er zelf ook een hard hoofd in...

There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Verwijderd
Ummm.. als de HD5770 niet bandwidth limited is, waarom presteert deze dan niet beter dan een HD4870? Zelfde aantal shaders op een hogere klok. Leg dat eens uit!
Hoeveel ROP's heeft de 4870 en hoeveel heeft de 5770 er?
En nu we toch bezig zijn, wat zijn de andere variabelen die de prestaties van een grafische kaart bepalen en tot nu toe nog niet behandeld geweest zijn?
En nu we toch bezig zijn, wat zijn de andere variabelen die de prestaties van een grafische kaart bepalen en tot nu toe nog niet behandeld geweest zijn?
[ Voor 58% gewijzigd door RuddyMysterious op 03-06-2010 12:13 ]
Verwijderd
Daar kan ik toevallig antwoord op geven.
Voor AMD kaarten zijn maar een paar variabelen:
- shader count
- shader clock
- memory bus
- memory size
- memory clock
- ROPs (die was ik inderdaad vergeten)
Voor AMD kaarten zijn maar een paar variabelen:
- shader count
- shader clock
- memory bus
- memory size
- memory clock
- ROPs (die was ik inderdaad vergeten)
Verwijderd
En de moeilijk te beantwoorden variabelen: Architectural changes.
[ Voor 4% gewijzigd door Verwijderd op 03-06-2010 12:28 ]
En ook deze:Verwijderd schreef op donderdag 03 juni 2010 @ 12:17:
Daar kan ik toevallig antwoord op geven.
Voor AMD kaarten zijn maar een paar variabelen:
- shader count
- shader clock
- memory bus
- memory size
- memory clock
- ROPs (die was ik inderdaad vergeten)
- Drivers
- CPU
- Intern Geheugen
- OS
- PCI-E snelheid
- Resolutie beeldscherm
En zo zijn er veel meer opties die (meer of minder) bepalen wat een kaart presteert
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Andere architectuur. Waarom is de GTX465 trager dan een GTX275? terwijl hij veel meer shaders en zo heeftVerwijderd schreef op donderdag 03 juni 2010 @ 12:08:
Ummm.. als de HD5770 niet bandwidth limited is, waarom presteert deze dan niet beter dan een HD4870? Zelfde aantal shaders op een hogere klok. Leg dat eens uit!
Ik vond het in het begin ook raar. Maar de architectuur is anders. De memory controller is ook anders. Ja met 256 Bit was het verschil misschien nog kleiner geweest. Maar clock voor clock is de RV770 gewoon wat sneller. Hij is ook groter en verbruikt meer stroom. Daarnaast heeft i geen DX11. Allemaal dingen die invloed hebben op het ontwerp van de chip en dus ook invloed hebben op de prestaties.
Beide 16. Maar de robs zijn wel verandert.DevilsProphet schreef op donderdag 03 juni 2010 @ 12:13:
Hoeveel ROP's heeft de 4870 en hoeveel heeft de 5770 er?
En nu we toch bezig zijn, wat zijn de andere variabelen die de prestaties van een grafische kaart bepalen en tot nu toe nog niet behandeld geweest zijn?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
De GTX465 is geen snelheidswonder, maar hij is niet trager als de GTX275, maar eigelijk evensnel;Astennu schreef op donderdag 03 juni 2010 @ 14:55:
[...]
Andere architectuur. Waarom is de GTX465 trager dan een GTX275? terwijl hij veel meer shaders en zo heeft
http://www.techpowerup.co...c/GeForce_GTX_465/29.html
Moet toch af en toe iets positiefs melden in dit topic!
Doet mij denken aan de GF4 vs GF3. De GF3(Ti500) had tov de GF4 meer cache of snellere cache die niet wordt vernoemd bij een generische opsomming van specs in een review, maar toch was de GF4 sneller, omdat er andere wijzigingen waren doorgevoerd, en ook om het goedkoper te maken. GF4Ti4200 was dus vette bang voor mijn buck, met betere prestatie per euro verhoudingen dan de GF3, zelfs vergeleken met de gainward GF3Ti200 golden sample.
Maar soit, dat zijn lang vervlogen tijden. Veel gemijmer, wazige herinneringen die waarschijnlijk al zo gecorrodeerd zijn dat er niks meer van klopt. Maar ik herinner mij iets over cache in de GF3 die ze in de GF4 hebben gecastreerd, zonder noemenswaardige nadelen. Het verhaal van de 4870 vs de 5770 doet mij daar aan denken.
Maar soit, dat zijn lang vervlogen tijden. Veel gemijmer, wazige herinneringen die waarschijnlijk al zo gecorrodeerd zijn dat er niks meer van klopt. Maar ik herinner mij iets over cache in de GF3 die ze in de GF4 hebben gecastreerd, zonder noemenswaardige nadelen. Het verhaal van de 4870 vs de 5770 doet mij daar aan denken.
Ja en hoeveel shaders heeft deze kaart meer dan de GTX275? daar ging het mij even om. Betere specs maar toch trager. Zelfde geld in mindere maten voor de 5770 daar zijn de specs qua clocks iets beter dan de 4870 qua memory iets minder. Maar ook die is trager.Verwijderd schreef op donderdag 03 juni 2010 @ 15:14:
[...]
De GTX465 is geen snelheidswonder, maar hij is niet trager als de GTX275, maar eigelijk evensnel;
http://www.techpowerup.co...c/GeForce_GTX_465/29.html
Moet toch af en toe iets positiefs melden in dit topic!
GF3 en GF4 waren volgens mij ook totaal andere architecturen. Als in meer shaders en dat soort zaken.DevilsProphet schreef op donderdag 03 juni 2010 @ 15:17:
Doet mij denken aan de GF4 vs GF3. De GF3(Ti500) had tov de GF4 meer cache of snellere cache die niet wordt vernoemd bij een generische opsomming van specs in een review, maar toch was de GF4 sneller, omdat er andere wijzigingen waren doorgevoerd, en ook om het goedkoper te maken. GF4Ti4200 was dus vette bang voor mijn buck, met betere prestatie per euro verhoudingen dan de GF3, zelfs vergeleken met de gainward GF3Ti200 golden sample.
Maar soit, dat zijn lang vervlogen tijden. Veel gemijmer, wazige herinneringen die waarschijnlijk al zo gecorrodeerd zijn dat er niks meer van klopt. Maar ik herinner mij iets over cache in de GF3 die ze in de GF4 hebben gecastreerd, zonder noemenswaardige nadelen. Het verhaal van de 4870 vs de 5770 doet mij daar aan denken.
RV840 (aka 5770) heeft wel iets meer transistors als de RV770 maar dat komt vooral door DX11. En dan toch +- dezelfde performance halen is best knap.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dezelfde prestaties, met grofweg 40% minder power consumption, niet te vergeten. (4870 <> 5770)
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Ben nog even aan het zoeken geweest naar de GF3 vs GF4 (nv20 vs nv25) en het lijkt er inderdaad op dat de nv25 meer een speedbump was dan een nieuwe architectuur. Clocks konden hoger. En hij had volgens mij iets wat verbeterde shaders (SM1.3 vs SM1.4 van de Radeon 8500).


Zo kun je de verschillen een beetje zien. In die laatste is het niet helemaal eerlijk daar wordt een 8500le gebruikt. Die draait op maar 250-250 ipv 275-275. 128mb mem hielp erg veel bij een Radeon 8500. Dan was nog regelmatig sneller dan de GF 4 TI4200. (maar in sommige games weer niet).
Anyway zo zie je ook het verschil tussen de GF3 TI 500 en de GF4 TI 4200.
De GF3 TI500 SE draait stock: 240-250 en de GF4 TI 4200 64MB: 250-500 -|- 128MB 250-444 (GF4 TI 4400 draait 275-550)
Maar als ik dit zo zie is die GF4 op gelijke clocks ook iets trager. Maar kan hij wel veel hoger clocken. Test systeem was bij beide tests hetzelfde. Bij de TI4200 was de driver ietsjes nieuwer Det 29.20 vs Det 28.32.


Zo kun je de verschillen een beetje zien. In die laatste is het niet helemaal eerlijk daar wordt een 8500le gebruikt. Die draait op maar 250-250 ipv 275-275. 128mb mem hielp erg veel bij een Radeon 8500. Dan was nog regelmatig sneller dan de GF 4 TI4200. (maar in sommige games weer niet).
Anyway zo zie je ook het verschil tussen de GF3 TI 500 en de GF4 TI 4200.
De GF3 TI500 SE draait stock: 240-250 en de GF4 TI 4200 64MB: 250-500 -|- 128MB 250-444 (GF4 TI 4400 draait 275-550)
Maar als ik dit zo zie is die GF4 op gelijke clocks ook iets trager. Maar kan hij wel veel hoger clocken. Test systeem was bij beide tests hetzelfde. Bij de TI4200 was de driver ietsjes nieuwer Det 29.20 vs Det 28.32.
[ Voor 61% gewijzigd door Astennu op 03-06-2010 16:01 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik zit er echt naar te kijken van, wat schattig 64MB en 240Mhz op de coreAstennu schreef op donderdag 03 juni 2010 @ 15:47:
Ben nog even aan het zoeken geweest naar de GF3 vs GF4 (nv20 vs nv25) en het lijkt er inderdaad op dat de nv25 meer een speedbump was dan een nieuwe architectuur. Clocks konden hoger. En hij had volgens mij iets wat verbeterde shaders (SM1.3 vs SM1.4 van de Radeon 8500).
[afbeelding]
[afbeelding]
Zo kun je de verschillen een beetje zien. In die laatste is het niet helemaal eerlijk daar wordt een 8500le gebruikt. Die draait op maar 250-250 ipv 275-275. 128mb mem hielp erg veel bij een Radeon 8500. Dan was nog regelmatig sneller dan de GF 4 TI4200. (maar in sommige games weer niet).
Anyway zo zie je ook het verschil tussen de GF3 TI 500 en de GF4 TI 4200.
De GF3 TI500 SE draait stock: 240-250 en de GF4 TI 4200 64MB: 250-500 -|- 128MB 250-444 (GF4 TI 4400 draait 275-550)
Maar als ik dit zo zie is die GF4 op gelijke clocks ook iets trager. Maar kan hij wel veel hoger clocken.
En dan zitten wij nu te klagen met onze Geforces en Radeons die makkelijk +750Mhz lopen en 1GB hebben.
Meer als in lager stroom verbruik, dacht dat GF104 een kleine GF100 was, zonder alle extra GPGPU-"rommel". Dus vind het dan opmerkelijk dat de kaart dan nog 180Watt nodig heeft.neliz schreef op donderdag 03 juni 2010 @ 11:01:
[...]
Wat had je meer verwacht? hij is langzamer dan de GTX465.. dus er valt niet veel "meer" te halen daar
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Omdat hij zo hard mogelijk geklokt (moet) worden?Darkasantion schreef op donderdag 03 juni 2010 @ 16:04:
Meer als in lager stroom verbruik, dacht dat GF104 een kleine GF100 was, zonder alle extra GPGPU-"rommel". Dus vind het dan opmerkelijk dat de kaart dan nog 180Watt nodig heeft.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Wel meer shaders, maar slecht 44 TMU's tegenover 72 dacht ik voor de GTX275. Een vrij essentieel verschil in texturekracht wat vaak vergeten wordt te noemen bij specificaties. Ik heb het vermoeden dat dit de GT300 aardig beperkt, hoewel het lastig is dit aan te tonen.Astennu schreef op donderdag 03 juni 2010 @ 14:55:
[...]
Andere architectuur. Waarom is de GTX465 trager dan een GTX275? terwijl hij veel meer shaders en zo heeft
anathema
Verwijderd
Hadden ze beter een deel van die drie miljard transistors daarvoor kunnen gebruiken i.p.v. de GPGPU apps waar hier vrijwel niemand wat aan heeft....anathema schreef op donderdag 03 juni 2010 @ 16:22:
[...]
Wel meer shaders, maar slecht 44 TMU's tegenover 72 dacht ik voor de GTX275. Een vrij essentieel verschil in texturekracht wat vaak vergeten wordt te noemen bij specificaties. Ik heb het vermoeden dat dit de GT300 aardig beperkt, hoewel het lastig is dit aan te tonen.
Ook in het NV topic
Hoewel ik Scali niet echt goed ken en onze aanvaringen in het verleden bewezen hebben dat we niet de beste vrienden zijn.. toch een artikeltje van hem.
Evergreen en Fermi Image Quality Comparison:
http://scalibq.spaces.liv...63AD9A4F9CB0661!347.entry
Hoewel ik Scali niet echt goed ken en onze aanvaringen in het verleden bewezen hebben dat we niet de beste vrienden zijn.. toch een artikeltje van hem.
Evergreen en Fermi Image Quality Comparison:
http://scalibq.spaces.liv...63AD9A4F9CB0661!347.entry
Miss you CJ....:'( en nee... ik kan niet aan samples komen
http://techpowerup.com/12..._Dedicated_PhysX_GPU.html
Die Lui van galaxy zijn lekker bezig.

Aparte GT240 voor PhysX erop is best wel slim.
Die Lui van galaxy zijn lekker bezig.

Aparte GT240 voor PhysX erop is best wel slim.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Interessant!neliz schreef op vrijdag 04 juni 2010 @ 01:41:
Evergreen en Fermi Image Quality Comparison:
http://scalibq.spaces.liv...63AD9A4F9CB0661!347.entry
Het is een nieuwe architectuur volgens mij heeft hij er in verhouding sowiewso minder. Maar dat hoeft niet te betekenen dat ze minder krachtig zijn. nVidia kan er best aan gesleuteld hebben. Het gaat er gewoon om dat je oude en nieuwe tech niet 1:1 moet vergelijken. En er van uit moet gaan dat de oude tech clock voor clock met even veel units sneller is. Ze maken meer units mogelijk en hebben meer features daar wordt de winst uitgehaald.anathema schreef op donderdag 03 juni 2010 @ 16:22:
[...]
Wel meer shaders, maar slecht 44 TMU's tegenover 72 dacht ik voor de GTX275. Een vrij essentieel verschil in texturekracht wat vaak vergeten wordt te noemen bij specificaties. Ik heb het vermoeden dat dit de GT300 aardig beperkt, hoewel het lastig is dit aan te tonen.
Maar ik zie achterop twee relatief grote chips. Een zal dan wel een PLX zijn om die PCI-E lanes te splitten.Xenomorphh schreef op vrijdag 04 juni 2010 @ 07:33:
http://techpowerup.com/12..._Dedicated_PhysX_GPU.html
Die Lui van galaxy zijn lekker bezig.
[afbeelding]
Aparte GT240 voor PhysX erop is best wel slim.
[ Voor 22% gewijzigd door Astennu op 04-06-2010 10:35 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik ben het wel eens met de sommige reacties op die kaart.Xenomorphh schreef op vrijdag 04 juni 2010 @ 07:33:
http://techpowerup.com/12..._Dedicated_PhysX_GPU.html
Die Lui van galaxy zijn lekker bezig.
[afbeelding]
Aparte GT240 voor PhysX erop is best wel slim.
Volgens mij is dit simpelweg een makkelijke manier om nog hun oude GT240 chips te verkopen.
Verder is de 480 volgens mij ook sterk genoeg om physx alleen af te handelen,
Dit maakt de kaart alleen extra duur en heet + nog meer energie verbruik
Hello there
ik vindt alleen de kaarten behoorlijk groot worden.
Zijn er geen kleinere kaarten die toch goede performance geven ?
Zijn er geen kleinere kaarten die toch goede performance geven ?
Angelo NL / Global Cargo VTC
PhysX enablen op een single card solution kost nog steeds ~50% van je framereat (zie Batman + GTX480) Dit soort oplossingen (alhoewel... oplossing en PLX niet in dezelfde zin kunnen staan) laten alleen maar zien dat PhysX levensvatbaar is, als je het originele idee opvolgt, dat wil zeggen, graphics+dedicated physx kaart.Sinester schreef op vrijdag 04 juni 2010 @ 10:49:
[...]
Ik ben het wel eens met de sommige reacties op die kaart.
Volgens mij is dit simpelweg een makkelijke manier om nog hun oude GT240 chips te verkopen.
Verder is de 480 volgens mij ook sterk genoeg om physx alleen af te handelen,
Dit maakt de kaart alleen extra duur en heet + nog meer energie verbruik
Miss you CJ....:'( en nee... ik kan niet aan samples komen
als je een krachtige onboard GPU hebt, dan kan je die toch ook aanwijzen als Physx processor?neliz schreef op vrijdag 04 juni 2010 @ 11:31:
[...]
Dit soort oplossingen (alhoewel... oplossing en PLX niet in dezelfde zin kunnen staan) laten alleen maar zien dat PhysX levensvatbaar is, als je het originele idee opvolgt, dat wil zeggen, graphics+dedicated physx kaart.
d:)b
Nee want het kan alleen met Nvidia kaarten.MrJayMan schreef op vrijdag 04 juni 2010 @ 11:33:
[...]
als je een krachtige onboard GPU hebt, dan kan je die toch ook aanwijzen als Physx processor?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
http://www.techpowerup.co...apor-Chamber_Cooling.html
Nog maar een GTX480 van Galaxy.. Deze heeft een vapor chamber dus zal wel goed gekoeld worden ik ben benieuwd.
Nog maar een GTX480 van Galaxy.. Deze heeft een vapor chamber dus zal wel goed gekoeld worden ik ben benieuwd.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Verwijderd
Maar het kan dus wel als je een Nvidia kaart hebt....Xenomorphh schreef op vrijdag 04 juni 2010 @ 11:36:
[...]
Nee want het kan alleen met Nvidia kaarten.
Noem eens een P55 of X58 moederboard met een onboard PhysX capable GPU?MrJayMan schreef op vrijdag 04 juni 2010 @ 11:33:
als je een krachtige onboard GPU hebt, dan kan je die toch ook aanwijzen als Physx processor?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Het verbaast me telkens hoe iedereen dat soort uitspraken maar herhaalt. "alle extra GPGPU-rommel". Welke "rommel" bedoel je dan precies namelijk? Wat denk je dat er uit de chip weggehaald kan worden zonder de performance en het functioneren van de chip aan te passen?Darkasantion schreef op donderdag 03 juni 2010 @ 16:04:
Meer als in lager stroom verbruik, dacht dat GF104 een kleine GF100 was, zonder alle extra GPGPU-"rommel". Dus vind het dan opmerkelijk dat de kaart dan nog 180Watt nodig heeft.
Dual precission? Lijkt me sterk dat ze voor een feature die waarschijnlijk vrij weinig ruimte inneemt hun hele architectuur overhoop gaan halen. DP zit zo diep in de SMs ingebakken dat weghalen volgens mij veel meer ontwerp-werk gaat geven dan als ze gewoon het GF100 ontwerp direct overnemen. Kan me vergissen hoor, maar het lijkt me veel te veel gedoe met weinig nut, zoveel ruimte zal DP ook niet kosten. Misschien dat DP wel uitgeschakeld is om yield te verhogen. Als de logica voor DP dan niet werkt is de chip nog steeds bruikbaar, maar ook daar twijfel ik over.
ECC memory is een tweede waar misschien bespaard kan worden, maar hier geldt een zelfde verhaal als bij DP. Bovendien, hoeveel ruimte kan hier nu werkelijk mee bespaard worden? Dat zal toch minimaal zijn?
Dus dan is de vraag, waar is de rest van de "GPGPU-rommel"? Of is het alleen een term die iedereen gebruikt zonder er bij na te denken? Want volgens mij is er maar heel weinig "rommel" en zijn bijna alle features die voor GPGPU belangrijk zijn minstens net zo belangrijk voor graphics performance. Grote caches zijn vitaal voor texture performance, goeie scheduling is belangrijk om de chip zo dicht mogelijk bij 100% efficiency te houden. Wat blijft er nog over?
Charlie heeft ooit een verhaaltje de wereld in geholpen dat Fermi een GPGPU chip was met wat GFX features er bij aan geplakt. Weer een mooi voorbeeld van het feit dat ook Charlie het compleet mis kan hebben, want wie de features van de raster engine per cluster en de polymorph engine per SM ziet kan niet alleen niet anders dan concluderen dat GFX performance radicaal onder handen is genomen bij Fermi, maar zal ook moeten toegeven dat Fermi qua GFX meer dan voldoende performance heeft. GFX is niet iets dat zomaar bij een GPGPU chip is aan geplakt, dit is iets waar NVIDIA goed en lang over na heeft gedacht.
Als de framerates bij fatsoenlijke kaarten nog flink omlaag gaan met een beetje zware physX zal een IGP dat al helemaal niet leuk vinden toch? Of anders gezegd, als een IGP het al aan kan dan is het voor een losse videokaart peanuts en merk je het toch al niet in de FPS.Verwijderd schreef op vrijdag 04 juni 2010 @ 11:49:
[...]
Maar het kan dus wel als je een Nvidia kaart hebt....
Heeft geen speciale krachten en is daar erg boos over.
Verwijderd
Conclusie: Het is geen hardcore gaming chip. Als ze al die extra gpGPU rommel er niet hadden in gestopt(bij het design al), was hij gewoon kleiner geweest. Kleiner betekend betere yields, minder stroom verbruik.Snoitkever schreef op vrijdag 04 juni 2010 @ 12:04:
[...]
Het verbaast me telkens hoe iedereen dat soort uitspraken maar herhaalt. "alle extra GPGPU-rommel". Welke "rommel" bedoel je dan precies namelijk? Wat denk je dat er uit de chip weggehaald kan worden zonder de performance en het functioneren van de chip aan te passen?
Die waarschijnlijk weinig ruimte in neemt? Je weet het dus niet eens. Je doet hier een claim en je hebt niets om het te ondersteunen. Dan kan ik dat ook: DP heb je niet nodig dus neemt het te veel ruimte in.Dual precission? Lijkt me sterk dat ze voor een feature die waarschijnlijk vrij weinig ruimte inneemt hun hele architectuur overhoop gaan halen. DP zit zo diep in de SMs ingebakken dat weghalen volgens mij veel meer ontwerp-werk gaat geven dan als ze gewoon het GF100 ontwerp direct overnemen. Kan me vergissen hoor, maar het lijkt me veel te veel gedoe met weinig nut, zoveel ruimte zal DP ook niet kosten. Misschien dat DP wel uitgeschakeld is om yield te verhogen. Als de logica voor DP dan niet werkt is de chip nog steeds bruikbaar, maar ook daar twijfel ik over.
Again, je hebt het niet nodig, het neemt ruimte in, het is dus al te veel. Om ruimte te besparen moet je soms features schrappen, ook al nemen ze een minimaal aantal in beslag. Zie Side port van de RV670 naar de RV770.ECC memory is een tweede waar misschien bespaard kan worden, maar hier geldt een zelfde verhaal als bij DP. Bovendien, hoeveel ruimte kan hier nu werkelijk mee bespaard worden? Dat zal toch minimaal zijn?
Helemaal niet: Het is gpGPU rommel voor iemand die er niet in geïnteresseerd is. Dual precision? Weg er mee? Al die error correcting? Weg er mee.Dus dan is de vraag, waar is de rest van de "GPGPU-rommel"? Of is het alleen een term die iedereen gebruikt zonder er bij na te denken? Want volgens mij is er maar heel weinig "rommel" en zijn bijna alle features die voor GPGPU belangrijk zijn minstens net zo belangrijk voor graphics performance. Grote caches zijn vitaal voor texture performance, goeie scheduling is belangrijk om de chip zo dicht mogelijk bij 100% efficiency te houden. Wat blijft er nog over?
Ben ik niet geheel met je eens. Tuurlijk, hij doet GFX wel goed, maar niet als je performance/mm2 en performance/watt mee rekentCharlie heeft ooit een verhaaltje de wereld in geholpen dat Fermi een GPGPU chip was met wat GFX features er bij aan geplakt. Weer een mooi voorbeeld van het feit dat ook Charlie het compleet mis kan hebben, want wie de features van de raster engine per cluster en de polymorph engine per SM ziet kan niet alleen niet anders dan concluderen dat GFX performance radicaal onder handen is genomen bij Fermi, maar zal ook moeten toegeven dat Fermi qua GFX meer dan voldoende performance heeft. GFX is niet iets dat zomaar bij een GPGPU chip is aan geplakt, dit is iets waar NVIDIA goed en lang over na heeft gedacht.
Daar gaat het niet om: Hij vraag, kan het met een igp, en het antwoord is: nee... oja wel als je een nvidia kaart hebt. Dus het had moeten zijn: Ja het kan, maar dan moet je een nvidia kaart hebben. Al is dat ook niet geheel waar, gezien je met een hack er wel om heen kan.bwerg schreef op vrijdag 04 juni 2010 @ 12:54:
[...]
Als de framerates bij fatsoenlijke kaarten nog flink omlaag gaan met een beetje zware physX zal een IGP dat al helemaal niet leuk vinden toch? Of anders gezegd, als een IGP het al aan kan dan is het voor een losse videokaart peanuts en merk je het toch al niet in de FPS.
[ Voor 9% gewijzigd door Verwijderd op 04-06-2010 13:23 ]
Zou het dan ook mogelijk zijn om de 480 chip uit te schakelen bij office-gebruik, en in te schakelen bij gamen? Volgens mij gebruikt de gt240 idle slechts 9 watt. Dat zou wél de uitvinding van het jaar zijn. Vrijwel geen stroomverbruik bij dagelijks gebruik, meer prestaties bij gamen en minder belasting dus een langere levensduur van de 480 chip! Of mis ik iets?Xenomorphh schreef op vrijdag 04 juni 2010 @ 07:33:
http://techpowerup.com/12..._Dedicated_PhysX_GPU.html
Die Lui van galaxy zijn lekker bezig.
[afbeelding]
Aparte GT240 voor PhysX erop is best wel slim.
[ Voor 0% gewijzigd door Herman op 04-06-2010 14:06 . Reden: Typo ]
Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic
Dat zou idd een goeie optie zijn. En ik weet dat Nvidia de optimus techniek heeft ontwikkelt dan zou je zo kunnen wisselen tussen de beide chips. Dat zou idd wel goed voor het verbruik zijn.Herman87 schreef op vrijdag 04 juni 2010 @ 13:58:
[...]
Zou het dan ook mogelijk zijn om de 480 chip uit te schakelen bij office-gebruik, en in te schakelen bij gamen? Volgens mij gebruikt de gt240 Idle slechts 9 watt. Dat zou wél de uitvinding van het jaar zijn. Vrijwel geen stroomverbruik bij dagelijks gebruik, meer prestaties bij gamen en minde belasting dus een langere levensduur van de 480 chip! Of mis ik iets?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
GTX480 mag dan wel geen super kaart zijn. Maar die cooler ziet er zo nice uitXenomorphh schreef op vrijdag 04 juni 2010 @ 11:43:
http://www.techpowerup.co...apor-Chamber_Cooling.html
Nog maar een GTX480 van Galaxy.. Deze heeft een vapor chamber dus zal wel goed gekoeld worden ik ben benieuwd.
[afbeelding]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Ja, klopt helemaal en ben het met je eens hoor! Mijn opmerking was alleen maar om iets nuance erin te brengen.Astennu schreef op donderdag 03 juni 2010 @ 15:34:
[...]Ja en hoeveel shaders heeft deze kaart meer dan de GTX275? daar ging het mij even om. Betere specs maar toch trager. Zelfde geld in mindere maten voor de 5770 daar zijn de specs qua clocks iets beter dan de 4870 qua memory iets minder. Maar ook die is trager.
Het is gewoon niet al te best dat een kaart die op 40nm is gebakken, 352 shaders heeft en ongeveer op dezelfde clocks loopt als een GTX280 met 65nm procedé met 240 shaders, even snel is en niet eens echt veel zuiniger is...
Een GTX280 is zelfs zuiniger....
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
In welke context bedoel je niet super? zal wel in de zin van verbruik zijn want op het gebied van prestaties en beeldkwaliteit is het een dijk van een kaart.Astennu schreef op vrijdag 04 juni 2010 @ 16:36:
[...]
GTX480 mag dan wel geen super kaart zijn. Maar die cooler ziet er zo nice uit
Dit topic is gesloten.