Kan goed zijn, maar toch ... Ik blijf hoop koesteren
Noem me gerust een die-hard nv-fan
(ben zelf wel absoluut geen anti-ATI, laat dat duidelijk zijn)
Inderdaad, mensen blijven maar roepen dat de drivers nog optimaal moeten worden gemaakt. Ik denk persoonlijk hooguit 5%. De kaart is een half jaar te laat. Voor mij is de enige logische verklaring voor de temperatuur en verbuik, dat ze deze kaart tot het uiterste hebben gedreven met behulp van voltages, clockfreq en drivers om betere prestaties dan de Ati tegenhangers neer te zetten.Edmin schreef op zondag 28 maart 2010 @ 15:03:
Ik verbaas me er trouwens over hoeveel mensen er nog op vertrouwen dat NV binnenkort wel met een setje wonderdrivers zal komen voor Fermi. Vergeet niet dat er al maandenlang samples van deze kaart rondzwerven binnen het bedrijf. Ik denk dat het driverteam meer tijd heeft gehad voor het ontwikkelen van drivers voor deze GPU dan voor eerdere GPU's. Een zelfs als er over een periode een gemiddelde prestatiewinst van 10% uit de drivers komt zetten zitten er nog grote nadelen aan de kaart.
Anoniem: 346499 schreef op maandag 29 maart 2010 @ 10:55:
Kan goed zijn, maar toch ... Ik blijf hoop koesterenNoem me gerust een die-hard nv-fan
(ben zelf wel absoluut geen anti-ATI, laat dat duidelijk zijn)
Iedereen mag toch zelf uitmaken waar hij of zij zijn of haar geld aan uitgeeft toch?Paprika schreef op zondag 28 maart 2010 @ 03:20:
[...]
Nou iedereen mag natuurlijk zijn eigen mening hebben (en ik kan ook niet echt inzien waarom persoon A persoon B zou proberen over te halen merk X i.p.v. Y te kopen).
Een paar maanden terug was er iemand die dit topic (een ouder deel natuurlijk) vol spamde met meningen als feiten zonder enig argument buiten zijn "professionele ervaringen" (dit bleken overigens forum posts over drivers van ATi van jaren geleden te zijn waardoor hij nu kon zeggen (als feiten) dat ATi afval was etc)
offtopic:
Tevens zullen veel mensen (en waarschijnlijk jij zelf ook
) denken dat ik 100% ATi ben en alleen maar kan huilen bij de gedachte "nVidia + kopen", terwijl ik het aantal ATi kaarten dat ik heb gehad meer dan 1x op een enkele hand kan tellen en het aantal nVidia kaarten niet eens met al mijn vingers bij elkaar (alleen al 2x G80, 3x G92 waarbij 1 van die G80 meer kostte dan alle ATi kaarten bij elkaar
).
Overigens best een grappig filmpje, maar de eerder gelinkte blijft het leukste (nVidia GeForce FX 5800 - nVidia's Thoughts), overigens kwam die ook van hun zelf, maar ze hebben toen met de FX5900 zeker een goede kaart uitgebracht en het dus allemaal weer goed gemaakt.
Tevens zullen veel mensen (en waarschijnlijk jij zelf ook
Overigens best een grappig filmpje, maar de eerder gelinkte blijft het leukste (nVidia GeForce FX 5800 - nVidia's Thoughts), overigens kwam die ook van hun zelf, maar ze hebben toen met de FX5900 zeker een goede kaart uitgebracht en het dus allemaal weer goed gemaakt.
[ Voor 13% gewijzigd door Paprika op 29-03-2010 11:19 ]
Gaan we weer...... eerst roep je dat de GTX480 geweldig gaat worden. En dat bleek niet zo te zijn. En nu ga je iedereen lekker lopen maken met een wonder driver. Ze hebben al 7 maanden aan deze drivers kunnen werken dat hebben ze vast ook wel gedaan.Anoniem: 346499 schreef op maandag 29 maart 2010 @ 10:31:
Zonet iets interessant gevonden op de main site van nvidia:
http://www.nvidia.com/obj..._Surround_Technology.html
"requires NVIDIA Driver Release 256* or higher. (*Scheduled for April 2010)"
Momenteel zijn alle benchmarks gebeurt met de 197.17 beta driver. De sprong naar 256 brengt hopelijk serieus wat FPS boosts met zich mee
Ja er zal best 5-10% extra uit te halen zijn. Maar verwacht niet dat je er 20%+ bij gaat krijgen. Huge update wil niet zeggen Huge performance boost. Ik lees dat meer als in meer features zoals 3D surround gaming en een nieuw controll pannel. Samen met wat kleine boosts in wat games.
Daarnaast zal ATi ook nog wel wat boosts uit hun drivers weten te halen. De 197.x waren voor nVidia ook performance drivers net als de 10.3 voor ATi.
Edit: @ vipeax:
De FX59xx was ook geen goede kaart. Ja qua performance kon hij mee komen met de 9700 maar de IQ was echt zo veel slechter. Kortom trek je die gelijk was de 9700 veel sneller. Ze hebben het imo pas goed gemaakt met de 6800. Dat was echt een goede kaart. Waar ATi met een relatief matige X800 serie kwam. Performance van ATi was goed. Maar nVidia had net iets betere AF en SM3.0 support.
Echt goede nVidia kaarten waren in mijn ogen:
-GeForce 1 (Hardware TL Engine)
-GeForce 4 (Super snelle DX8 kaart)
-GeForce 68xx (Comback DX9 kaart)
-GeForce 8800 (suppersnelle en eerste DX10 kaart)
Voor ATi is dit:
-Radeon 8500 (Eerste DX 8.1 kaart met Trueform en super IQ)
-Radeon 9700 Pro (Eerste DX9 kaart met super performance)
-Radeon X1900 (Super Performance comback (futureproof) met huidige games 50-100% sneller dan GF79xx tegenhangers)
-Radeon HD48xx (DX10.1 Comeback Super performance/price)
-Radeon HD58xx (Eerste DX11 kaart Super prijs prestatie verhouding).
Dit waren echt kaarten die op hun manier revolutionair waren.
[ Voor 46% gewijzigd door Astennu op 29-03-2010 11:35 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nja of in ieder geval heel veel hoop dat. Lees je berichten van de afgelopen 2 weken maar een terug. Alle kritische opmerkingen van anderen werden met een of ander gerucht beantwoord.Anoniem: 346499 schreef op maandag 29 maart 2010 @ 11:29:
Wanneer heb ik geroepen dat GTX480 geweldig zou worden ?
Dit is niet echt als een aanval bedoelt (al zie ik ook in dat dit wel begint te lijken). Maar je hebt volgens mij te veel hoop op iets wat niet lijkt te komen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Zullen we er geen 'I told you so!' argument van maken?
Anoniem: 346499
Zoals ik al zei, die-hard nv-fan hier
Als de drivers in april geen grote fps boost met zich meebrengen zit ik deze generatie gewoon uit en wacht ik wel op de 485 of 580
Verkoopt Palit eigenlijk ook wel eens kaarten met de stock koeler? Kon er namelijk geen vinden
.
256 drivers brengen als grote update officiele support voor 3D Vision Stereo Surround.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Tot 30 % perf verbetering is best mogelijjk, sommige apps presteren relatief erg matig, terwijl andere juist goed presteren en dat zou op rauwe drivers kunnen wijzen (maar natuurlijk ook op de (zwakke punten) van de gewijzigde chip). Ook al zijn er al een tijdje samples in omloop, dat zegt opzich niet alles. Ik kan me voorstellen dat het hele driverontwikkelproces veel tijd vergt. Ook de HD5xxx series kregen onlangs nog 2 aardige snelheidsboosts in Cat. 10.2 en 10.3, terwijl die al veel langer op de markt zijn.
We zien het wel, tot nu toe zijn de prestaties helemaal niet onaardig en soms zelfs erg goed, dat de chip te warm wordt en teveel verstookt daar valt idd niet omheen te komen.
Het zal mij iig niet verbazen als er straks nog 20-40% winst wordt geboekt in apps waar de prestatie nog wat tegenvalt. Dit is zo vaak gebeurd in het verleden.
We zien het wel, tot nu toe zijn de prestaties helemaal niet onaardig en soms zelfs erg goed, dat de chip te warm wordt en teveel verstookt daar valt idd niet omheen te komen.
Het zal mij iig niet verbazen als er straks nog 20-40% winst wordt geboekt in apps waar de prestatie nog wat tegenvalt. Dit is zo vaak gebeurd in het verleden.
Niet op voorraad.
Ja goed maar dat is toch niets nieuws ? Dat is bij ATi en nVidia al jaren zo.edward2 schreef op maandag 29 maart 2010 @ 13:08:
Tot 30 % perf verbetering is best mogelijjk, sommige apps presteren relatief erg matig, terwijl andere juist goed presteren en dat zou op rauwe drivers kunnen wijzen (maar natuurlijk ook op de (zwakke punten) van de gewijzigde chip). Ook al zijn er al een tijdje samples in omloop, dat zegt opzich niet alles. Ik kan me voorstellen dat het hele driverontwikkelproces veel tijd vergt. Ook de HD5xxx series kregen onlangs nog 2 aardige snelheidsboosts in Cat. 10.2 en 10.3, terwijl die al veel langer op de markt zijn.
We zien het wel, tot nu toe zijn de prestaties helemaal niet onaardig en soms zelfs erg goed, dat de chip te warm wordt en teveel verstookt daar valt idd niet omheen te komen.
Het zal mij iig niet verbazen als er straks nog 20-40% winst wordt geboekt in apps waar de prestatie nog wat tegenvalt. Dit is zo vaak gebeurd in het verleden.
Met wonder drivers wordt bedoelt dat apps die al super goed presteren er nog eens 10-20% bij krijgen. En dat is ook wat de mensen hier hopen. Zodat het verschil met de 5870 groter wordt. En dat is iets wat ik niet snel zie gebeuren.
AMD zal in sommige games zoals METRO 2033 ook nog wel met leuke performance tweaks gaan komen (als in +15-25%).
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nee dat denk ik ook niet, iig niet zo veel, maar het valt me op dat de perf in sommige games relatief ver achter blijven, bv Crysis en ook op hoge reso's zakt de perf soms onevenredig verder in, iets wat je niet zou verwachten met meer vidram, of er moet iets fundamenteel gewijzigd zijn in de fillrateperf.Astennu schreef op maandag 29 maart 2010 @ 13:16:
[...]
Met wonder drivers wordt bedoelt dat apps die al super goed presteren er nog eens 10-20% bij krijgen. En dat is ook wat de mensen hier hopen. Zodat het verschil met de 5870 groter wordt. En dat is iets wat ik niet snel zie gebeuren.
AMD zal in sommige games zoals METRO 2033 ook nog wel met leuke performance tweaks gaan komen (als in +15-25%).
Ik denk ook dat de Radeons nog heel wat per.f in zullen lopen in Metro2033, vooral met MSAA, want daar zit iets niet goed.
Overigens zal het me niet verbazen als de kaarten momenteel met een nieuwe bios geflasht worden, want het IDLE gebruik is ook onnodig hoog.
Niet op voorraad.
Gebruikte Palit deze koeler ook niet op hun GTX 2XX kaarten?
Wel jammer dat er niet meer merken zijn die een andere koeling op hun kaart zetten. Vroeger had je Leadtek die tot en met de geforce 6series telkens bij het release al zelf ontworpen koelers op hun kaart hebben zitten.
Idle kunnen ze misschien wel bijschaven. Echter is het bij de 2900 XT ook niet echt gelukt. Iets kan wel maar ik verwacht ook daar geen wonderen door dat je waarschijnlijk veel lekstroom hebt..edward2 schreef op maandag 29 maart 2010 @ 13:26:
[...]
Nee dat denk ik ook niet, iig niet zo veel, maar het valt me op dat de perf in sommige games relatief ver achter blijven, bv Crysis en ook op hoge reso's zakt de perf soms onevenredig verder in, iets wat je niet zou verwachten met meer vidram, of er moet iets fundamenteel gewijzigd zijn in de fillrateperf.
Ik denk ook dat de Radeons nog heel wat per.f in zullen lopen in Metro2033, vooral met MSAA, want daar zit iets niet goed.
Overigens zal het me niet verbazen als de kaarten momenteel met een nieuwe bios geflasht worden, want het IDLE gebruik is ook onnodig hoog.
En dat inkakken op hoge reso's zie ik wel vaker bij de GTX480. Daar lijkt de 58xx toch wat in te lopen. Dus misschien iets in het ontwerp wat hier voor zorgt ?
Maar ik verwacht van zowel ATi als nVidia nog de nodige boosts in de games waar ze in verhouding slechter presteren. Al zullen er net als in het verleden altijd uitzonderingen blijven waar je toch grotere verschillen blijft zien.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verder zie ik enorme verschillen in de reviews, neem dit nou, normaliter is ATI erg sterk in Stalker en hoewel het gat met de HD5870 nu min of meer gedicht is, is dit wel erg opvallend en niet zo duidelijk gezien in andere reviews:
Cherry pick:

Godray's in Stalker hebben toch niets te maken met echte Raytracing??
Cherry pick:

Godray's in Stalker hebben toch niets te maken met echte Raytracing??
[ Voor 12% gewijzigd door edward2 op 29-03-2010 14:07 ]
Niet op voorraad.
Eh dit is heel erg vreemd. Voor de Stalker: CoP-benchmark heb ik alleen gebruik gemaakt van de test met sunshafts. En bij mij scoort de HD 5970 altijd beter. Ook liggen hun scores erg hoog, en ze hebben het over een HD 5890? WTF ?edward2 schreef op maandag 29 maart 2010 @ 14:01:
Verder zie ik enorme verschillen in de reviews, neem dit nou, normaliter is ATI erg sterk in Stalker en hoewel het gat met de HD5870 nu min of meer gedicht is, is dit wel erg opvallend en niet zo duidelijk gezien in andere reviews:
Cherry pick:
[afbeelding]
Godray's in Stalker hebben toch niets te maken met echte Raytracing??
En nee, volgens mij hebben god-rays niks te maken met echte ray-tracing. De stalker engine is gebaseerd op pure rasterization, en heeft geen mix van ray-tracing of zo. Het kan wel zo zijn dat godrays ray-tracing simuleren, maar dan nog zouden de ray-tracing mogelijkheden van de GTX 480 niks uit mogen maken.
[ Voor 16% gewijzigd door Marc Rademaker op 29-03-2010 14:31 ]
Om hier even op terug te komen. Deze kaarten worden geleverd met 2x DVI hdmi en display port. Betekent dat je nu ook 3 schermen kan aansturen met 1 kaart? Aangezien die DP aansluiting.
http://www.hardware.info/...alternatieve_koeling_uit/
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
ATi's Eyefinity is iets hardwarematig hoor niet iets dat alleen met de beeldscherm aansluitingen nodig heeft.Xenomorphh schreef op maandag 29 maart 2010 @ 14:40:
[...]
Om hier even op terug te komen. Deze kaarten worden geleverd met 2x DVI hdmi en display port. Betekent dat je nu ook 3 schermen kan aansturen met 1 kaart? Aangezien die DP aansluiting.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Klopt, maar ik dacht dat DP geen ramdac nodig heeft om te functioneren(kan er naast zitten hoor). Dus vandaar-The_Mask- schreef op maandag 29 maart 2010 @ 14:42:
[...]
ATi's Eyefinity is iets hardwarematig hoor niet iets dat alleen met de beeldscherm aansluitingen nodig heeft.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Hopelijk komt dit niet al te agressief over, maar bijna alle reviews van Fermi bevatten toch wel het feit dat je SLI nodig hebt voor meer dan 2 monitoren
.
Ja maar dit is geen refference.. Een display port heeft geen ramdac nodig dus vraag ik me af waar die beperking zit. Het was overigens een VRAAG geen STATEMENT goeie morgen zeg wat een houding hebben sommige personen.......Paprika schreef op maandag 29 maart 2010 @ 14:52:
Hopelijk komt dit niet al te agressief over, maar bijna alle reviews van Fermi bevatten toch wel het feit dat je SLI nodig hebt voor meer dan 2 monitoren.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Als het alleen maar zo eenvoudig zou zijn als het toevoegen van een DP, denk je niet dat NV het dan zelf ook al gedaan zou hebben?
Nope, het IDLE verbruik is juist speciaal voor de reviews LAAG gehouden.edward2 schreef op maandag 29 maart 2010 @ 13:26:
Overigens zal het me niet verbazen als de kaarten momenteel met een nieuwe bios geflasht worden, want het IDLE gebruik is ook onnodig hoog.
Verwacht juist een hoger verbruik en fan snelheden met een release BIOS.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Wat is daar het nut van? Minder vaak temp schommelingen, waardoor deze kaart het net 2 jaar vol kan houden?neliz schreef op maandag 29 maart 2010 @ 15:07:
[...]
Nope, het IDLE verbruik is juist speciaal voor de reviews LAAG gehouden.
Verwacht juist een hoger verbruik en fan snelheden met een release BIOS.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Wie weet is het wel simpel. Zal niet, maar wie weet. Maar goed het antwoord is dus nee. Wat volgens mij veel beter te formulieren was dan mensen het hier doen.Edmin schreef op maandag 29 maart 2010 @ 15:03:
Als het alleen maar zo eenvoudig zou zijn als het toevoegen van een DP, denk je niet dat NV het dan zelf ook al gedaan zou hebben?
offtopic:
Wat een vriendelijkheid heerst hier in dat Nvidia topic. Nja ik ga der verder maar niet op in.
Wat een vriendelijkheid heerst hier in dat Nvidia topic. Nja ik ga der verder maar niet op in.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken. Deze kaart werkt en hoe! Die Cons neem ik maar voor lief, gewoon een goede voeding en wat fans en gaan met die banaan!
Anoniem: 292676
sinds wanneer is prijs onbelangrijkchim0 schreef op maandag 29 maart 2010 @ 15:25:
Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken. Deze kaart werkt en hoe! Die Cons neem ik maar voor lief, gewoon een goede voeding en wat fans en gaan met die banaan!
Ik heb de antwoorden speciaal nog eens drie keer doorgelezen, maar ik zie je bezwaar niet. Misschien toch maar een iets dikkere huid kweken?Xenomorphh schreef op maandag 29 maart 2010 @ 15:10:
[...]
Wie weet is het wel simpel. Zal niet, maar wie weet. Maar goed het antwoord is dus nee. Wat volgens mij veel beter te formulieren was dan mensen het hier doen.
offtopic:
Wat een vriendelijkheid heerst hier in dat Nvidia topic. Nja ik ga der verder maar niet op in.
@ chimo:
Dus omdat AT, TW, [H] en andere gerespecteerde sites niet enthousiast zijn, maar B3D wel, moeten wij ook maar blij zijn? Kritiek op deze kaart moet verboden worden?
Xenomorphh schreef op maandag 29 maart 2010 @ 15:10:
[...]
offtopic:
Wat een vriendelijkheid heerst hier in dat Nvidia topic. Nja ik ga der verder maar niet op in.
offtopic:
Myeah ik overweeg al een maand of twee om een anti-nVidia topic te creëren enkel zodat sommige mensen eens goed zichzelf kunnen laten gaan
Nu bon ten tijden van de 8800 serie en de HD 2900 was dat ook azo maar dan juist in het ATI topic, ik vrees dat dit gedrag typisch tweakers is...
Het beste is gewoon het negeren, veel klagen leid gewoon tot het einde van dit topic (ben ik al meermaals op gewezen) en veel bereik je daar dus ook niet mee.
Myeah ik overweeg al een maand of twee om een anti-nVidia topic te creëren enkel zodat sommige mensen eens goed zichzelf kunnen laten gaan
Nu bon ten tijden van de 8800 serie en de HD 2900 was dat ook azo maar dan juist in het ATI topic, ik vrees dat dit gedrag typisch tweakers is...
Het beste is gewoon het negeren, veel klagen leid gewoon tot het einde van dit topic (ben ik al meermaals op gewezen) en veel bereik je daar dus ook niet mee.
Nieuw topic zal pas morgen komen (als ik weer een werkende office pc heb met twee schermen heb, waardoor het werk er stukken gemakkelijker op word)
Nu het past wel in de "strategie"om te mikken naar 25 paginas ipv 20 daar je anders topics hebt met bijna niets van inhoud.. + Belangrijker ietsje gemakkelijker voor mij daar ik tegenwoordig, en zeker niet bij zo'n releases een nieuwe Topic Start klaar liggen heb.
*Edit*
Hmm ik overweeg de Topic Start aan iemand anders door te geven, ik denk niet dat van het doel van dit topic nog veel overschiet als ik de laatste pagina's overlees...
En jah ik doel op sommige mensen, elk genuanceerde mening wordt weggevaagd met soms lijkt het wel de hoop dat er extreme reacties op komen waarop weeral 10 posts kunnen geschreven worden die grondig gefundeerd eens lekker kunnen kappen op ...
Let op, ik heb niets tegen ATI, ik heb zelf onlangs 3 keer ATI aangeraden ipv nVidia, maar ik stel voor het bejubelen van die kaarten heb je een ander topic, en neen daarmee bedoel ik niet het nieuwstopic maar eerder het ervaringstopic.
[ Voor 22% gewijzigd door lightdestroyer op 29-03-2010 15:48 ]
[troll]chim0 schreef op maandag 29 maart 2010 @ 15:25:
Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken. Deze kaart werkt en hoe! Die Cons neem ik maar voor lief, gewoon een goede voeding en wat fans en gaan met die banaan!
Sorry, je beschuldigt mensen ervan blind te zijn omdat ze niet willen accepteren dat de kaart de snelste is, maar ondertussen ben jij blind voor alle nadelen van de kaart. Maargoed, Nvidia PR heeft haar werk goed gedaan, Fermi is de beste in alles..... Snelste, heetste, duurste en meest verbruikende kaart... Inderdaad, een monsterkaart
[/troll]
JA, Fermi is de snelste SINGLE GPU, maar verpletterd niet de concurrentie.... HD5970 is sneller, heeft een betere prestatie per watt verhouding, net zoals de HD5870 trouwens, en bovendien is Fermi 6 maanden later op de markt dan de HD5xxx serie van ATi, om ~10% sneller te zijn, terwijl de kaart 20% duurder is, en +25% meer stroom verbruikt... En als dat al bochten wringen is.... pure feiten opnoemen....
Dus niet echt verpletterend.
Ik denk dat mensen hier gewoon moeten accepteren dat er mensen zijn die Fermi's pure prestatie geweldig vinden, en dat er mensen zijn die de prestatie wel goed vinden, maar de kaart niet super vinden omdat de randvoorwaarden(verbruik, hitte en prijs) niet zo goed zijn als bij de concurrentie in hun ogen.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Ehm, sorry, maar deze post is een beetje de omgekeerde wereld en tamelijk grappigchim0 schreef op maandag 29 maart 2010 @ 15:25:
Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken. Deze kaart werkt en hoe! Die Cons neem ik maar voor lief, gewoon een goede voeding en wat fans en gaan met die banaan!
Het verbruik in idle was toch niet zo slecht, maar het verbruik schiet toch pas omhoog zodra er een applicatie wordt geopend (hoe licht die ook is), had ik gelezen? Als dat klopt is het gemakkelijk op te lossen met drivers zou ik zeggen, al vind ik het gek dat dat nog niet is gebeurd.neliz schreef op maandag 29 maart 2010 @ 15:07:
[...]
Nope, het IDLE verbruik is juist speciaal voor de reviews LAAG gehouden.
Verwacht juist een hoger verbruik en fan snelheden met een release BIOS.
[ Voor 5% gewijzigd door bwerg op 29-03-2010 15:38 ]
Heeft geen speciale krachten en is daar erg boos over.
5870 he, niet de 5970...
Dan moet je even wachten op de GTX495
Dan moet je even wachten op de GTX495
Sinds altijd. Niet dat ik hem kan betalen maar zou hem wel willen als ik hem kon betalen. Zelfde als Intel en AMD he.. Een Phenom II is voor de meeste ook genoeg, Athlon II zelfs, maar toch nemen mensen een Intel omdat ze heel goed weten wat ze willen.
Nee hoor maar ik voel een trollige fanboy achtige jaloerse ondertoon maar ik kan het natuurlijk helemaal mis hebben. (Net zoals ik altijd doe met m'n smileys waar jij niet tegen kan, zoiets voel ik hier ook).
[ Voor 85% gewijzigd door chim0 op 29-03-2010 15:40 ]
Ik kan B3D's review niet geloven. Ik denk bijna dat het een 1 april grap is ...
Ja, maar die vergelijking tussen HD5870 en GTX480 dat is ook niet eerlijk hoorchim0 schreef op maandag 29 maart 2010 @ 15:37:
5870 he, niet de 5970...
Dan moet je even wachten op de GTX495

Fermi heeft een grotere die-size dan Cypress, dus die mag je niet met elkaar vergelijken
Jij beschuldigt mensen nu ervan zich in allerlei bochten te wringen om maar niet te accepteren dat GTX480 echt de snelste is, wat voor gedrag vertoon jij dan door steeds de HD5970 te ontwijken en de HD5870 te nemen als vergelijkingsmateriaal tegenover de GTX480, terwijl de HD5870 in een totaal andere prijsklasse zit dan den GTX480? Bochten wringen

[ Voor 40% gewijzigd door Darkasantion op 29-03-2010 15:42 ]
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Ik vind hem ook vreemd. Voornamelijk de manier waarop de conclusie is geschreven is anders. Ik probeer hem nu naast oudere reviews van B3D te leggen om wat meer beeld te krijgen.Marc Rademaker schreef op maandag 29 maart 2010 @ 15:37:
Ik kan B3D's review niet geloven. Ik denk bijna dat het een 1 april grap is ...
O god, komt het 'dual-GPU tegen dual-GPU' verhaal weer. Laatste keer dat ik het je uitleg:chim0 schreef op maandag 29 maart 2010 @ 15:37:
5870 he, niet de 5970...
Dan moet je even wachten op de GTX495
Jij begint er zelf over dat je argumenten moet hebben die er toe doen voor de consument. Wat voor de consument belangrijk is zijn met name prijs en prestatie (en vooral ook prijs/prestatie), en daarbij nog randzaken als verbruik en geluidsproductie. De prijs van de GTX480 is ongeveer gelijk aan die van een HD5970. Op alle andere zaken verliest de GTX480. Dat is wat er voor de consument geldt. Bovendien is de die-grootte van hemlock maar iets van 25% groter dan die van fermi (en GPU 1 vergelijken met GPU2 die 58% groter is wel eerlijk wil je zeggen?)
En nee, er komt geen GTX495 want een kaart met een TDP van 600W is niet zo praktisch

[ Voor 9% gewijzigd door bwerg op 29-03-2010 15:43 ]
Heeft geen speciale krachten en is daar erg boos over.
Haha dan ben jij juist degene die blind is:chim0 schreef op maandag 29 maart 2010 @ 15:25:
Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken. Deze kaart werkt en hoe! Die Cons neem ik maar voor lief, gewoon een goede voeding en wat fans en gaan met die banaan!
1: Verpletterende performance ? sinds is wanneer is 10-15% verpletterend ?
2: De HD5970 is toch echter sneller dat is ook 1 kaart maar wel met 2 GPU's
3: Nutteloze argumenten ? Vind jij veel herrie nutteloos ? Vind je een dubbel zo hoog stroomverbruik nutteloos ?
4: En jij wil dus graag te veel betalen voor iets wat het eigenlijk niet waard is ?
Mensen willen hun pc ook nog voor andere dingen gebruiken dan alleen games spelen met een grote headset of speakers op 50% volume omdat de cooler te veel herrie maakt.
En de HD2900 XT werd op die punten ook helemaal met de grond gelijk gemaakt en niet alleen de performance.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 346499
Lolz, wat is dit hier allemaal ^^ ? Can't we all just get along ... ?
Sommigen zijn pro-nvidia (zoals mezelf), sommigen pro-ati. Zelf zou ik echter nooit in een ATI topic liggen opscheppen hoe goed mijn nvidia kaart wel is, maar goed, zo ben ik
Sommigen zijn pro-nvidia (zoals mezelf), sommigen pro-ati. Zelf zou ik echter nooit in een ATI topic liggen opscheppen hoe goed mijn nvidia kaart wel is, maar goed, zo ben ik
[ Voor 4% gewijzigd door Anoniem: 346499 op 29-03-2010 15:45 ]
Ach waarom niet? Natuurlijk is het leuk om te zien hoeveel groter Fermi is in verhouding tot de prestaties, maar als deze kaart al 500+ kost, dan zou een GTX495 (als opvolger van de GTX295) een euro of 800+ kosten.Darkasantion schreef op maandag 29 maart 2010 @ 15:38:
[...]
Ja, maar die vergelijking tussen HD5870 en GTX480 dat is ook niet eerlijk hoor...
Fermi heeft een grotere die-size dan Cypress, dus die mag je niet met elkaar vergelijken.....
[ Voor 42% gewijzigd door Paprika op 29-03-2010 15:45 ]
wanneer kwam die ook alweer? tegelijkertijd met de HD6xxx serie?chim0 schreef op maandag 29 maart 2010 @ 15:37:
5870 he, niet de 5970...
Dan moet je even wachten op de GTX495
on a sidenote: ik vind het wel opvallend dat het bij nvidia altijd gaat/ging om de snelste videokaart (ze hebben de gtx 295 ook gemaakt als antwoord op de 4870x2 om maar de snelste te hebben). totdat deze serie uitkwam
(waarbij het mij bijna onmogelijk lijkt om een dual gpu variant te maken die beter presteerd dan de 5970 en
waarbij het stroomverbruik en de hitte binnen de perken blijft).
nee...nu gaat het ineens over snelste single gpu....
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Tsjah, als je keiharde feiten "in allerlei bochten wringen en nutteloze argumenten" gaat noemen, anderen voor fanboys uit gaat maken, en dan zelf de overduidelijke onfunderende fanboy uit gaat hangen dan krijg je datAnoniem: 346499 schreef op maandag 29 maart 2010 @ 15:44:
Lolz, wat is dit hier allemaal ^^ ? Can't we all just get along ... ?
@chimo: als je me wilt overtuigen, geef mij eens wat FPS/euro (gemiddeld over meerdere spellen, resoluties en settings), wat verbruik/euro en dergelijke, waaruit duidelijk blijkt dat fermi inderdaad zo verpletterend is.
[ Voor 21% gewijzigd door bwerg op 29-03-2010 15:50 ]
Heeft geen speciale krachten en is daar erg boos over.
Waarom is het vreemd? Of wil jij dat het vreemd is maar eigenlijk is het gewoon de harde waarheid?
Jongens rustig maar, iedereen mag een mening hebben en we hebben allemaal onze voorkeur maar kunnen we dat achterwege laten en gewoon over die kaart praten? Hij doet het toch? Lekker boeie stroomverbruik. Als je deze kaart hebt, ben je die-hard gamer en die kijken volgens mij niet naar stroomverbruik, gewoon dikke voeding erin. Ik ben echt niet iemand die helemaal zijn energierekening gaat berekenen als ik een PC koop. Wat denk je? Dat deze kaart opeens 100 euro in de maand aan energie gaat kosten ofzo?
Zeker weten, ik zie het zo, een ander ziet het anders, prima maar ik koop daarop. Mag ik dat lekker zelf weten?bwerg schreef op maandag 29 maart 2010 @ 15:41:
[...]
O god, komt het 'dual-GPU tegen dual-GPU' verhaal weer.
Er schuilt een fanboy in ons allen en dat is prima. Alleen willen sommigen het niet toegeven.bwerg schreef op maandag 29 maart 2010 @ 15:48:
[...]
Tsjah, als je keiharde feiten "in allerlei bochten wringen en nutteloze argumenten" gaat noemen, anderen voor fanboys uit gaat maken, en dan zelf de overduidelijke onfunderende fanboy uit gaat hangen dan krijg je dat
[ Voor 17% gewijzigd door chim0 op 29-03-2010 15:50 ]
Zoals ik al eerder zei vandaag, gooi het dan niet als een feit neer. Fermi t.o.v. een 5870 kost je meer dan 120 euro extra per jaar. Daar letten sommige, niet jij, best wel goed op.chim0 schreef op maandag 29 maart 2010 @ 15:49:
[...] Ik ben echt niet iemand die helemaal zijn energierekening gaat berekenen als ik een PC koop. Wat denk je? Dat deze kaart opeens 100 euro in de maand aan energie gaat kosten ofzo?
Ga dan niet beweren dat anderen uit hun nek lullen, en als iemand anders dat over jou zegt voel je je aangevallen. Als jij iets zegt is het de keiharde waarheid en als iemand anders iets stelt (uberhaupt met argumentatie waar je niet omheen kunt!) dan is het 'gewoon een andere mening'. Ja dahag. Ik citeer:chim0 schreef op maandag 29 maart 2010 @ 15:49:
[...]
Waarom is het vreemd? Of wil jij dat het vreemd is maar eigenlijk is het gewoon de harde waarheid?
Jongens rustig maar, iedereen mag een mening hebben en we hebben allemaal onze voorkeur maar kunnen we dat achterwege laten en gewoon over die kaart praten? Hij doet het toch?
Dat is niet 'een andere mening', dat is een keiharde aanval.Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken.
En als het criterium is 'hij doet het toch dus heb geen kritiek', ga dan maar lekker gamen op een GMA450.
Ja, maar doe dan niet alsof dat een feit is. Als je zegt: ik weet ook wel dat ik veel minder bang-for-buck krijg bij NVidia maar toch wil ik hem" vind ik het prima. Jij zegt echter heel iets anders.Zeker weten, ik zie het zo, een ander ziet het anders, prima maar ik koop daarop. Mag ik dat lekker zelf weten?
[ Voor 30% gewijzigd door bwerg op 29-03-2010 16:01 ]
Heeft geen speciale krachten en is daar erg boos over.
Jij ziet het zo de gemiddelde consument niet. Die ziet he dit is kaart A van 500 euro en dit kaart B van 500 euro. Kaart B presteert 30% beter als kaart A. Dan gaan hun echt niet nadenken over de technische aspecten dat er misschien wel 2 GPU's opzitten. Hun zien 2 kaarten van 500 euro waarbij kaart B 30% beter presteert. Tada keuze gemaakt. Al moet je natuurlijk ook vermelden dat die HD5970 er meestal voor 600 is. en de GTX480 voor zon 500 beschikbaar zou moeten komen. En dan de afweging vaker gemaakt word op prijs dan performance. Dan heb ik het over de non wetende consument.chim0 schreef op maandag 29 maart 2010 @ 15:49:
[...]
Waarom is het vreemd? Of wil jij dat het vreemd is maar eigenlijk is het gewoon de harde waarheid?
Jongens rustig maar, iedereen mag een mening hebben en we hebben allemaal onze voorkeur maar kunnen we dat achterwege laten en gewoon over die kaart praten? Hij doet het toch? Lekker boeie stroomverbruik. Als je deze kaart hebt, ben je die-hard gamer en die kijken volgens mij niet naar stroomverbruik, gewoon dikke voeding erin. Ik ben echt niet iemand die helemaal zijn energierekening gaat berekenen als ik een PC koop. Wat denk je? Dat deze kaart opeens 100 euro in de maand aan energie gaat kosten ofzo?
[...]
Zeker weten, ik zie het zo, een ander ziet het anders, prima maar ik koop daarop. Mag ik dat lekker zelf weten?
[...]
Er schuilt een fanboy in ons allen en dat is prima. Alleen willen sommigen het niet toegeven.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Omdat er genoeg andere gerenomeerde sites zijn die niet dezelfde resultaten hebben? Vraag is dus, welke site is er fout bezig? En gezien het feit dat B3D als enige deze uitkomst heeft in vergelijking met anderen, is het zeer aannemelijk dat B3D iets fout doet.chim0 schreef op maandag 29 maart 2010 @ 15:49:
Waarom is het vreemd? Of wil jij dat het vreemd is maar eigenlijk is het gewoon de harde waarheid?
Oh, jij weet dus waar elke die hard gamer naar kijkt..... En dat elke gamer bakken met geld heeft, totale schijt eraan heeft dat de kaart veel meer stroom verbruikt dan de concurrentie, heel heet wordt wat waarschijnlijk niet al te best is voor de levensduur, en zo dom is om 100 euro meer te betalen voor hogere kosten, hitte en bijna geen prestatie winst....Jongens rustig maar, iedereen mag een mening hebben en we hebben allemaal onze voorkeur maar kunnen we dat achterwege laten en gewoon over die kaart praten? Hij doet het toch? Lekker boeie stroomverbruik. Als je deze kaart hebt, ben je die-hard gamer en die kijken volgens mij niet naar stroomverbruik, gewoon dikke voeding erin. Ik ben echt niet iemand die helemaal zijn energierekening gaat berekenen als ik een PC koop. Wat denk je? Dat deze kaart opeens 100 euro in de maand aan energie gaat kosten ofzo?
Dat mag je zeker, zolang anderen maar niet van alles gaat beschuldigen omdat zij niet jouw mening delenZeker weten, ik zie het zo, een ander ziet het anders, prima maar ik koop daarop. Mag ik dat lekker zelf weten?
Look who's talking?Er schuilt een fanboy in ons allen en dat is prima. Alleen willen sommigen het niet toegeven.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Hmm...Edmin schreef op maandag 29 maart 2010 @ 15:40:
[...]
Ik vind hem ook vreemd. Voornamelijk de manier waarop de conclusie is geschreven is anders. Ik probeer hem nu naast oudere reviews van B3D te leggen om wat meer beeld te krijgen.
zet de conclusie van de Fermi review:
http://www.bjorn3d.com/read.php?cID=1831&pageID=8805 (17 pagina's)
eens naast de Cypress en Hemlock reviews:
http://www.bjorn3d.com/read.php?cID=1682&pageID=7688 (10 pagina's)
http://www.bjorn3d.com/read.php?cID=1738&pageID=8027 (9 pagna's)
Maar kijk ook eens naar deze review van de GTX275 uit afgelopen december
http://www.bjorn3d.com/read.php?cID=1733&pageID=8000
Het lijkt wel of ze daar alle kritiek schuwen uit hun artikeltjes...
Overigens is dat puntensysteem iets dat ze tussendoor hebben ingevuld.
Lekkere drogreden en op de man met je insinuaties. Maarre... als 8/10 reviews hetzelfde roepen en 2/10 niet, wie heeft er dan gelijk?chim0 schreef op maandag 29 maart 2010 @ 15:49:
[...]
Waarom is het vreemd? Of wil jij dat het vreemd is maar eigenlijk is het gewoon de harde waarheid?
Jij bent niet ''de gemiddelde consument''.Jongens rustig maar, iedereen mag een mening hebben en we hebben allemaal onze voorkeur maar kunnen we dat achterwege laten en gewoon over die kaart praten? Hij doet het toch? Lekker boeie stroomverbruik. Als je deze kaart hebt, ben je die-hard gamer en die kijken volgens mij niet naar stroomverbruik, gewoon dikke voeding erin. Ik ben echt niet iemand die helemaal zijn energierekening gaat berekenen als ik een PC koop. Wat denk je? Dat deze kaart opeens 100 euro in de maand aan energie gaat kosten ofzo?
[...]
Zeker weten, ik zie het zo, een ander ziet het anders, prima maar ik koop daarop. Mag ik dat lekker zelf weten?
[...]
Zal ik Fermi eens voor je samenvatten?
''Pure performance coming at high costs. Too big but too little, too late"
Jammer dat je mensen hier ervan beschuldigd dat ze een fanboy zijn, als je zelf stug door blijft lopen achter bepaalde reviews die iets in een behoorlijk positiever daglicht zetten dan dat het werkelijk is.Er schuilt een fanboy in ons allen en dat is prima. Alleen willen sommigen het niet toegeven.
Anoniem: 290112
En jij denkt werkelijk dat die kaart er komt? Ze komen dan met het verbruik zo gigantisch in de knoop dat ze het officeel niet eens meer mogen verkopen omdat het buiten de PCI-E standaard valt.
Kleine correctie: mag je best verkopen (zie de asus mars en ares, ook buiten pci-e-specs) maar er is geen OEM of reseller die een kaart met een verbruik van 500-600W zal willen verkopen, en het levert zoveel hitte op dat NVidia het zelf ook niet aan zal durven en het ook niet zou willen.Anoniem: 290112 schreef op maandag 29 maart 2010 @ 16:07:
Ze komen dan met het verbruik zo gigantisch in de knoop dat ze het officeel niet eens meer mogen verkopen omdat het buiten de PCI-E standaard valt.
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 290112
Hmm true, hoe ga je in godsnaam 500-600 watt koelen?bwerg schreef op maandag 29 maart 2010 @ 16:10:
[...]
Kleine correctie: mag je best verkopen (zie de asus mars en ares, ook buiten pci-e-specs) maar er is geen OEM of reseller die een kaart met een verbruik van 500-600W zal willen verkopen, en het levert zoveel hitte op dat NVidia het zelf ook niet aan zal durven en het ook niet zou willen.
Waterkoeling? Dan sluit je ook mega groot deel van je markt uit.
Het zou kunnen, als je een soort oplossing als een Corsair H50 monteert. Er zijn wel eerder kaarten met zulke oplossingen uitgebracht.
Een andere oplossing zou een dual GPU kaart zijn die meer dan twee slots inneemt. Bijvoorbeeld een sandwich board zoals de eerste GTX295, maar dan groter.
Een andere oplossing zou een dual GPU kaart zijn die meer dan twee slots inneemt. Bijvoorbeeld een sandwich board zoals de eerste GTX295, maar dan groter.
Zal vast wel lukken hoor. 2 GTX480s in SLI blijven immers ook hangen @ 96C (weliswaar met 70.2dB & een verbruik van 851W over het gehele systeem).
Wil je echter geen gehoor schade krijgen door de fan, dan zal je inderdaad waterkoeling moeten hebben.
Asus 8800GTX Aquatank-like ding?

Kost je wel meteen een PCI slot erbij.
Wil je echter geen gehoor schade krijgen door de fan, dan zal je inderdaad waterkoeling moeten hebben.
Asus 8800GTX Aquatank-like ding?

Kost je wel meteen een PCI slot erbij.
http://www.alternate.de/html/solr/search/result.html
Hmm prijs was denk ik niet goed van die 600 euro en 500+ aangezien ze er nu staan voor 480 euro.
Hmm prijs was denk ik niet goed van die 600 euro en 500+ aangezien ze er nu staan voor 480 euro.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Achja, zolang niemand kan leveren kan er vanalles staan. Ik heb het ook gezien met de HD5870, eerst mondjesmaat voor 310 euro ongeveer nu mondjesmaat voor dik 360-380 euro.Xenomorphh schreef op maandag 29 maart 2010 @ 16:31:
http://www.alternate.de/html/solr/search/result.html
Hmm prijs was denk ik niet goed van die 600 euro en 500+ aangezien ze er nu staan voor 480 euro.
Hopelijk komt Corsair weer met zo'n mooie Hydro H50 variant voor videokaarten. Gewoon met een dun single-slot waterkoelblok en een grote radiator met 2x120mm fans en pomp ergens... Vraag me af hoe je drie van die GTX 480's in SLI wilt draaien anders.
[ Voor 22% gewijzigd door frankknopers op 29-03-2010 16:47 ]
Goud is geen geld
zo.frankknopers schreef op maandag 29 maart 2010 @ 16:45:
[...]
Achja, zolang niemand kan leveren kan er vanalles staan. Ik heb het ook gezien met de HD5870, eerst mondjesmaat voor 310 euro ongeveer nu mondjesmaat voor dik 360-380 euro.
Hopelijk komt Corsair weer met zo'n mooie Hydro H50 variant voor videokaarten. Gewoon met een dun single-slot waterkoelblok en een grote radiator met 2x120mm fans en pomp ergens... Vraag me af hoe je drie van die GTX 480's in SLI wilt draaien anders.
http://www.fudzilla.com/content/view/18269/1/
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Dan steken wel al je kabels (geluid, schermen etc) boven uit. Zou ik niet bepaald mooi vinden.
Overigens zullen ze zelfs met die positie vast wel luidruchtig zijn.
En daarbij.... als je $6200 uit geeft voor een pc dan kun je ook wel een goede waterkoeling regelen
.
Overigens zullen ze zelfs met die positie vast wel luidruchtig zijn.
En daarbij.... als je $6200 uit geeft voor een pc dan kun je ook wel een goede waterkoeling regelen
[ Voor 50% gewijzigd door Paprika op 29-03-2010 16:52 ]
Ben ik even benieuwd wat dan ''reasonable temps'' en het stroomverbruik zijn en wat voor geluidsproductie de fans hebben.
Dat heeft er eerder mee te maken dat ze dan gewoon hard zouden falen omdat de "feiten" anders uitwijzen i.p.v. dat ze het gewoon niet doen omdat die nVidia-fanboi's lieverdjes zijn.[b][message=33726338,noline]
Sommigen zijn pro-nvidia (zoals mezelf), sommigen pro-ati. Zelf zou ik echter nooit in een ATI topic liggen opscheppen hoe goed mijn nvidia kaart wel is, maar goed, zo ben ik
120?? Corrigeer me als ik het verkeerd bereken maar:Paprika schreef op maandag 29 maart 2010 @ 15:51:
[...]
Fermi t.o.v. een 5870 kost je meer dan 120 euro extra per jaar. Daar letten sommige, niet jij, best wel goed op.
Ongeveer 100 watt meer trekt hij onder load dan de HD5870, laat iemand 10 uur per dag gamen onder load...wat vrij belachelijk is maar compenseert wat voor idle verbruik. Een kwh is zo'n 20 cent dacht ik.
0.1 Kwh X 20 cent is 2 cent per uur => 2 X 10 = 20 cent per dag X 365, ook belachelijk, = 73 euro/jaar.
Laat bij "normaal gebruik" en iemand die niet zn pc de hele nacht aan laat staan dit ongeveer de helft hiervan zijn (zo niet minder) hebben we het over 36 euro per jaar.
Daar kun je waarde aan hechten, maar ik kan me goed voorstellen dat mensen het stroomverbruik een non-argument vinden om voor een bepaalde kaart te kiezen zeker als we het over de high-end hebben.
anathema
^
waarom zou ik in vredesnaam extra stroom willen betalen ook al is het "maar" EUR 36 Eur per jaar
Het is imo pas een nonargument als de kaart ook navenant betere prestaties levert en dat doet ie niet.
Tevens krijg ik ook nog de rest vd nadelen van een hoog stroomverbruik: Lawaai, hitte en snellere slijtage.
Gelukkig is de prijs wel onwijs scherp. Oh nee, wacht die is juist onwijs hoog voor het gebodene.....
Verder nog ff de uitkomst van de realitycheck die ik zojuist deed:
De GTX480 in zijn huidige vorm = EPIC fail omdat de concurrentie voor vrijwel iedereen een duidelijk zinvollere propositie heeft. (Tenminste als je in staat bent een rationele analyse te maken.)
Ben echt niet te beroerd om een nvidia kaart in mijn pc te prikken, heb er genoeg gehad en zal er ws nog genoeg krijgen ook. Echter ik wordt wat moe van al die lui die hier de mensen die met heldere en harde feiten komen (impliciet) van fanboism beschuldigen.
Sommigen hier willen niet de beste bang voor hun buck, lekker rationeel.
En sommigen hier hebben trollen als hobby danwel een plaat voor hun hoofd , niet normaal meer. Haal m weg en get a life ofzo......
waarom zou ik in vredesnaam extra stroom willen betalen ook al is het "maar" EUR 36 Eur per jaar
Het is imo pas een nonargument als de kaart ook navenant betere prestaties levert en dat doet ie niet.
Tevens krijg ik ook nog de rest vd nadelen van een hoog stroomverbruik: Lawaai, hitte en snellere slijtage.
Gelukkig is de prijs wel onwijs scherp. Oh nee, wacht die is juist onwijs hoog voor het gebodene.....

Verder nog ff de uitkomst van de realitycheck die ik zojuist deed:
De GTX480 in zijn huidige vorm = EPIC fail omdat de concurrentie voor vrijwel iedereen een duidelijk zinvollere propositie heeft. (Tenminste als je in staat bent een rationele analyse te maken.)
Ben echt niet te beroerd om een nvidia kaart in mijn pc te prikken, heb er genoeg gehad en zal er ws nog genoeg krijgen ook. Echter ik wordt wat moe van al die lui die hier de mensen die met heldere en harde feiten komen (impliciet) van fanboism beschuldigen.
Sommigen hier willen niet de beste bang voor hun buck, lekker rationeel.
En sommigen hier hebben trollen als hobby danwel een plaat voor hun hoofd , niet normaal meer. Haal m weg en get a life ofzo......
[ Voor 5% gewijzigd door Help!!!! op 29-03-2010 19:13 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
AmenHelp!!!! schreef op maandag 29 maart 2010 @ 19:08:
^
waarom zou ik in vredesnaam extra stroom willen betalen ook al is het "maar" EUR 36 Eur per jaar
Het is imo pas een nonargument als de kaart ook navenant betere prestaties levert en dat doet ie niet.
Tevens krijg ik ook nog de rest vd nadelen van een hoog stroomverbruik: Lawaai, hitte en snellere slijtage.
Verder nog ff de uitkomst van de realitycheck die ik zojuist deed:
De GTX480 in zijn huidige vorm = EPIC fail omdat de concurrentie voor vrijwel iedereen een duidelijk zinvollere propositie heeft. (Tenminste als je in staat bent een rationele analyse te maken.)
Ben echt niet te beroerd om een nvidia kaart in mijn pc te prikken, heb er genoeg gehad en zal er ws nog genoeg krijgen ook. Echter ik wordt wat moe van al die lui die hier de mensen die met heldere en harde feiten komen (impliciet) van fanboism beschuldigen.
Sommigen hier willen niet de beste bang voor hun buck, lekker rationeel.![]()
En sommigen hier hebben trollen als hobby danwel een plaat voor hun hoofd , niet normaal meer. Haal m weg en get a life ofzo......
Dit had zo mijn post kunnen zijn!
Heb je het tegen mij? Neem aan van niet, want ik probeer alleen even iets in proportie te plaatsen omdat iemand roept dat fermi 120 euro per jaar meer kost terwijl het dat lang niet zo is...Of had ik dat niet moeten melden? en ik onthou me al helemaal van fanboy-discussies..Iedereen moet maar belangrijk vinden wat hij vindt.Help!!!! schreef op maandag 29 maart 2010 @ 19:08:
^
waarom zou ik in vredesnaam extra stroom willen betalen ook al is het "maar" EUR 36 Eur per jaar
Het is imo pas een nonargument als de kaart ook navenant betere prestaties levert en dat doet ie niet.
Tevens krijg ik ook nog de rest vd nadelen van een hoog stroomverbruik: Lawaai, hitte en snellere slijtage.
Gelukkig is de prijs wel onwijs scherp. Oh nee, wacht die is juist onwijs hoog voor het gebodene.....![]()
Verder nog ff de uitkomst van de realitycheck die ik zojuist deed:
De GTX480 in zijn huidige vorm = EPIC fail omdat de concurrentie voor vrijwel iedereen een duidelijk zinvollere propositie heeft. (Tenminste als je in staat bent een rationele analyse te maken.)
Ben echt niet te beroerd om een nvidia kaart in mijn pc te prikken, heb er genoeg gehad en zal er ws nog genoeg krijgen ook. Echter ik wordt wat moe van al die lui die hier de mensen die met heldere en harde feiten komen (impliciet) van fanboism beschuldigen.
Sommigen hier willen niet de beste bang voor hun buck, lekker rationeel.![]()
En sommigen hier hebben trollen als hobby danwel een plaat voor hun hoofd , niet normaal meer. Haal m weg en get a life ofzo......
Ik vind de GTX480 ook een irrelevante kaart want veel te duur, maar mag ik dan niet wat argumenten nuanceren? Waar zo'n heftige reactie dan vandaan komt ontgaat me volledig en vind ik ook ongepast.
anathema
Even terug komend op Charlie van Semi Accurate: Ik moet zeggen dat hij het wel aardig goed heeft voorspeld. Ik denk dat we het daar bijna allemaal over eens kunnen zijn ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Als je 500 euro + over hebt voor een GTX480 dan ben je per definitie een nVidia fanboy.
* Stefanovic45 kruipt snel achter een paar zandzakken.
Dat mag natuurlijk, fanboy heeft zo'n negatieve lading. Mensen kunnen dat niet altijd even goed hebben, onterecht vind ik.
* Stefanovic45 kruipt snel achter een paar zandzakken.
Dat mag natuurlijk, fanboy heeft zo'n negatieve lading. Mensen kunnen dat niet altijd even goed hebben, onterecht vind ik.
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Tja, natuurlijk klopt niet alles 100% (mede omdat ie vaak een beetje overdrijft om net zijn anti-nVidia sfeer erin te kunnen gooien), maar het is al vaker gezegd... zet nou gewoon niet een bril met rode glazen OF een bril met groene glazen op. Pak een bril met 1 groen & 1 rood gras zodat je het bruikbare eruit kunt halen en dan kun je opeens heel veel dingen vinden die dus waar blijken te zijn.
Inderdaad, je kunt zeggen wat je wilt, maar hij heeft wel gelijk gehad...Astennu schreef op maandag 29 maart 2010 @ 19:44:
Even terug komend op Charlie van Semi Accurate: Ik moet zeggen dat hij het wel aardig goed heeft voorspeld. Ik denk dat we het daar bijna allemaal over eens kunnen zijn ?
Of je hebt gewoon CUDA nodig natuurlijkStefanvanGelder schreef op maandag 29 maart 2010 @ 19:51:
Als je 500 euro + over hebt voor een GTX480 dan ben je per definitie een nVidia fanboy.
Heeft geen speciale krachten en is daar erg boos over.
http://www.semiaccurate.c...why-nvidia-hacked-gtx480/Astennu schreef op maandag 29 maart 2010 @ 19:44:
Even terug komend op Charlie van Semi Accurate: Ik moet zeggen dat hij het wel aardig goed heeft voorspeld. Ik denk dat we het daar bijna allemaal over eens kunnen zijn ?
Hier vat hij nog alles even snel samen en heeft het er over waarom GTX480 uit eindelijk 480Shaders kreeg i.p.v. 512 hij heeft het ook over de clocks etc.
ziet de tekst er dan ook 3d uit zodat je beter tussen de regeltjes door kan lezen?Paprika schreef op maandag 29 maart 2010 @ 19:51:
Pak een bril met 1 groen & 1 rood glas
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
En filtert het dan ook z'n anti-nvidia gezwam weg? Dan kunnen we hem naast zn voorspellende gaven, wellicht ook nog ooit als objectief journalist serieus gaan nemensuperwashandje schreef op maandag 29 maart 2010 @ 20:04:
[...]
ziet de tekst er dan ook 3d uit zodat je beter tussen de regeltjes door kan lezen?
anathema
Wat mij een beetje beangstigde bij 1 GTX4xx review, was het commentaar dat de reviewer had over het gebruik van meer dan 1 beeldscherm. Daar kwam naar voren dat de GTX480 dus eigenlijk geheel niet 'idle' draait met de ~50 Watt verbruik, maar veel meer verbruikt. Daarnaast blijkt zelfs het openen van een enkel simpel programmatje er voor te zorgen dat dit ook gebeurd.anathema schreef op maandag 29 maart 2010 @ 18:39:
[...]
120?? Corrigeer me als ik het verkeerd bereken maar:
Ongeveer 100 watt meer trekt hij onder load dan de HD5870, laat iemand 10 uur per dag gamen onder load...wat vrij belachelijk is maar compenseert wat voor idle verbruik. Een kwh is zo'n 20 cent dacht ik.
0.1 Kwh X 20 cent is 2 cent per uur => 2 X 10 = 20 cent per dag X 365, ook belachelijk, = 73 euro/jaar.
Laat bij "normaal gebruik" en iemand die niet zn pc de hele nacht aan laat staan dit ongeveer de helft hiervan zijn (zo niet minder) hebben we het over 36 euro per jaar.
Daar kun je waarde aan hechten, maar ik kan me goed voorstellen dat mensen het stroomverbruik een non-argument vinden om voor een bepaalde kaart te kiezen zeker als we het over de high-end hebben.
Feitenlijk zal voor de meeste mensen dus gelden dat, wat men normaal als 'idle' beschouwt, niet echt idle is bij deze kaarten. Dit zorgt er dan weer voor dat het stroomverbruik weldegelijk dusdanig toeneemt, dat er een groot verschil is tussen een GTX4xx en welk een andere kaart dan ook.
Je zou kunnen zeggen dat dit alles gemakkelijk op te lossen is met drivers, maar het antwoord dat de reviewer kreeg, was dat nVidia nog niet wist of ze er wel wat aan gingen doen. Tot die tijd zit je dus wel met een klein kacheltje, wat niet erg leuk is op je kleine computerkamer tijdens een hete zomer.
Verder, als je zaken als PhysX en/of Cuda belangrijk vindt, dan zal een GTX4xx kaart zo ongeveer de enige echte keuze zijn op het moment, aangezien de oudere GTX2xx kaarten amper te verkrijgen zijn en niet al te goedkoop in verhouding. De andere kaarten zijn niet sterk genoeg voor single-kaart PhysX op leuke resoluties en ook voor Cuda bieden ze niet al te veel. Jammer is dan wel weer dat nVidia de DP rekenkracht heeft gecastreerd voor de GTX4xx kaarten, waardoor je wederom niet echt veel aan DP hebt.
Of de huidige kaarten een goede keus zijn om te kopen? Niet als je prijsbewust koopt en evenmin als de huidige GPU-PhysX games je weinig doen, of een extra PCI-e slot hebt voor een goedkoop GT240 kaartje bv. De kaart is zeker krachtig en zal vanuit dat oogpunt ook nog wel een tijdlang mee kunnen gaan met de nieuwe games, maar het is geen 8800GTX. De uiteindelijke prijs in de winkel zal bepalen of de kaart echt de moeite waard zal zijn, waarbij de GTX470 zeker wel een redelijke plaatsing lijkt te hebben.
Edit: even ter onderbouwing de link van de review waar ik in deze post op doelde.
disclaimer: Ik heb geprobeerd deze post zo neutraal mogelijk op te stellen, zonder specifiek pro-dit of anti-dat te zijn.
[ Voor 9% gewijzigd door dahakon op 29-03-2010 21:33 ]
Jawel. Nvidia heeft duidelijk gewoon problemen gehad met de productie. Ik ben geen Nvidia fanboy, maar ben wel altijd tevreden geweest met Nvidia spul en ik verwacht (en wil) zelf een GTX485 of iets dergelijks zodra ze hun zaken weer op orde krijgen, mogelijk met een die shrink. Ik denk wel dat dat nog minstens een half jaar gaat duren.Astennu schreef op maandag 29 maart 2010 @ 19:44:
Even terug komend op Charlie van Semi Accurate: Ik moet zeggen dat hij het wel aardig goed heeft voorspeld. Ik denk dat we het daar bijna allemaal over eens kunnen zijn ?
http://www.hardwarecanuck...80470-vga-cooler-bracket/
Thermalright springt handig in op de temps en noise van Fermi en brengt z.s.m. een bolt-thru kit voor bestaande GPU koelers uit. Ook wordt een VRM koeloplossing ontwikkeld.
Thermalright springt handig in op de temps en noise van Fermi en brengt z.s.m. een bolt-thru kit voor bestaande GPU koelers uit. Ook wordt een VRM koeloplossing ontwikkeld.
Die productieproblemen liggen vooral bij TSMC. Zij kunnen niet leveren wat ze beloofden (kwaliteit-technisch). NVidia had misschien zijn huiswerk iets beter kunnen doen, maar heel erg veel had het niet uitgemaakt waarschijnlijk voor Fermi. De chip is al erg groot en de aanpassingen die nodig zouden zijn geweest, zou de chip waarschijnlijk nog groter gemaakt hebben, of minder krachtig. Al met al is het 40nm proces van TSMC gewoonweg niet al te best te noemen.Xeanor schreef op maandag 29 maart 2010 @ 20:55:
[...]
Jawel. Nvidia heeft duidelijk gewoon problemen gehad met de productie. Ik ben geen Nvidia fanboy, maar ben wel altijd tevreden geweest met Nvidia spul en ik verwacht (en wil) zelf een GTX485 of iets dergelijks zodra ze hun zaken weer op orde krijgen, mogelijk met een die shrink. Ik denk wel dat dat nog minstens een half jaar gaat duren.
De eventuele die-shrink is wel iets meer dan een half jaar weg. Ga rustig uit van minimaal een heel jaar. Momenteel gaan de eerste echte geruchten van de HD6k kaarten van AMD rond in het ATI-draadje, waarin naar voren komt dat AMD waarschijnlijk de eerste chip op 40nm gaat maken, omdat er gewoon nog niets anders beschikbaar is. In dit geval gaan de GPU-ontwerpers sneller dan de chip-bakkers.
Ooit kind aan huis bij nvidia en nou dit:
...
http://www.legitreviews.com/news/7707/XFX Will Not Offer GeForce 400 Series GPUs - Says Fermi is Fermented
We just received confirmation that XFX, a division of PINE Technologies, will not be releasing any GeForce GTX 400 series graphics cards to the market when the cards become public next month. XFX was not listed as a launch partner for Fermi and did not issue a press release about the upcoming cards, which might come as a shock to many of our readers as they are one of the largest NVIDIA add-in board (AIB) partners in the world! XFX said that the decision not to carry this series of GF100 graphics card was their decision and that they will still be carrying NVIDIA products. From our conversation with XFX they mentioned that they have "yet to see whether the fermented launch will reach an inglorious anti-climax" and mentioned they want to "Ferm up to who really has the big Guns". We are guessing they mean AMD and it sounds like they have something special cooking up there too.
...

Lijkt mij van niet, Da_DvD. Daar is dat wereldje te serieus voor.
zo te zien komt een dual GPU voor een GTX 480 zeker komende maanden nog niet
Er schijnt nog een tweede te zijn die de GTX4X0 niet gaat leverenJoepi schreef op dinsdag 30 maart 2010 @ 01:46:
Ooit kind aan huis bij nvidia en nou dit:
[...]
http://www.legitreviews.com/news/7707/
...
Een GTX495 geloof je het zelf ? de GTX480 verbruikt meer dan 250 watt met furmark (en met die tests gaat hij boven zijn TDP het lijkt wel of die 250watt een average vermogen is). Hoe wil je dat gaan coolen ? Of ze moeten em gigantisch afknijpen dus nog meer shaders uit zetten dan bij de GTX470 en nog lagere clocks. En dan nog krijg je een kaart tussen de 350-400 watt TDPchim0 schreef op maandag 29 maart 2010 @ 15:37:
5870 he, niet de 5970...
Dan moet je even wachten op de GTX495
[...]
Sinds altijd. Niet dat ik hem kan betalen maar zou hem wel willen als ik hem kon betalen. Zelfde als Intel en AMD he.. Een Phenom II is voor de meeste ook genoeg, Athlon II zelfs, maar toch nemen mensen een Intel omdat ze heel goed weten wat ze willen.
[...]
Nee hoor maar ik voel een trollige fanboy achtige jaloerse ondertoon maar ik kan het natuurlijk helemaal mis hebben. (Net zoals ik altijd doe met m'n smileys waar jij niet tegen kan, zoiets voel ik hier ook).
En wat betreft AMD/Intel is het heel erg de naam die Intel heeft net als nVidia dat heeft. In de tijd van de P4 verkochten ze ook veel terwijl die in alle opzichten slechter was als de K8. Maar dat zegt nog niet dat het de beste keuze is.
Momenteel is het anders. Performance/Watt van intel is net zo goed als niet net ietsjes beter. Performance is meer dan 10% hoger op gelijke clockspeeds.
Maar nVidia zal dus ook heus wel veel verkopen puur door hun naam. Maar dat zegt nog niet dat Fermi ook een goede chip/kaart is.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Alleen het gedeelte over de stroom was aan jou gericht.anathema schreef op maandag 29 maart 2010 @ 19:38:
[...]
Heb je het tegen mij? Neem aan van niet, want ik probeer alleen even iets in proportie te plaatsen omdat iemand roept dat fermi 120 euro per jaar meer kost terwijl het dat lang niet zo is...
Het is een groot teken aan de wand dat een partij als XFX Fermi niet gaat leveren.Blastpe schreef op dinsdag 30 maart 2010 @ 05:51:
[...]
Er schijnt nog een tweede te zijn die de GTX4X0 niet gaat leveren
[...]
De gequote bewoordingen zijn niet mis en lijken mij aan te sluiten bij vermeende diepere onvrede die bij AIB partners van nVidia leeft. Welke mede wordt veroorzaakt doordat nVidia niet schroomt om haar macht te (mis)bruiken bij zelfs haar loyaalste partners.
Denk aan packaging problemen die door nVidia ontekend worden waardoor chips na relatief korte tijd naar de klote gaan, late introductie Fermi, onder de maat presterende Fermi, GT200 series die afgeknepen werd omdat die niet meer met winst verkocht kon worden waardoor er al sinds zomer 2009 vrijwel geen kaarten verkocht worden.
[ Voor 15% gewijzigd door Help!!!! op 30-03-2010 09:35 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Misschien is het al oud nieuws, maar ik zag zojuist de GTX 480 verschijnen in de pricewatch, voor een luttele €549.
Gezien het feit dat je daar tegenwoordig een HD5970 voor koopt rijst bij mij de vraag waar nVidia in vredesnaam mee bezig denkt te zijn.
Je moet wel een hele erge fan van nVidia zijn om een inferieure kaart te kopen voor de prijs van een kaart die op alle fronten beter is.
Het zou nVidia sieren om deze kaart voor dezelfde prijs als een 5870 te verkopen, dan kunnen ze er mettertijd misschien veel meer winst mee maken door populariteit, dit schaadt hun imago alleen maar.
Gezien het feit dat je daar tegenwoordig een HD5970 voor koopt rijst bij mij de vraag waar nVidia in vredesnaam mee bezig denkt te zijn.
Je moet wel een hele erge fan van nVidia zijn om een inferieure kaart te kopen voor de prijs van een kaart die op alle fronten beter is.
Het zou nVidia sieren om deze kaart voor dezelfde prijs als een 5870 te verkopen, dan kunnen ze er mettertijd misschien veel meer winst mee maken door populariteit, dit schaadt hun imago alleen maar.
Ik bouw rare dingen.
Die schaarse exemplaren vinden hun weg wel voor die prijs. Ik durf zelfs te wedden dat er een run op komt.
Niet op voorraad.
XFX is playing hardball with NvidiaHelp!!!! schreef op dinsdag 30 maart 2010 @ 09:32:
[...]
Alleen het gedeelte over de stroom was aan jou gericht.
[...]
Het is een groot teken aan de wand dat een partij als XFX Fermi niet gaat leveren.
De gequote bewoordingen zijn niet mis en lijken mij aan te sluiten bij vermeende diepere onvrede die bij AIB partners van nVidia leeft. Welke mede wordt veroorzaakt doordat nVidia niet schroomt om haar macht te (mis)bruiken bij zelfs haar loyaalste partners.
Denk aan packaging problemen die door nVidia ontekend worden waardoor chips na relatief korte tijd naar de klote gaan, late introductie Fermi, onder de maat presterende Fermi, GT200 series die afgeknepen werd omdat die niet meer met winst verkocht kon worden waardoor er al sinds zomer 2009 vrijwel geen kaarten verkocht worden.
Dat lijkt mij in ieder geval. En zolang XFX denkt geen serieuze winst te maken met GF100, of dat zelfs denkt te compenseren door zich meer op ATI te richten, geven ze ondertussen wel een heel sterk signaal af aan Nvidia.
Of nVidia straft XFX omdat ze ook ATi zijn gaan doen en mogen niet eens GF100 kaarten uitbrengen. (of in ieder geval in het begin).
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dit dus... ongeveer.Astennu schreef op dinsdag 30 maart 2010 @ 10:27:
Of nVidia straft XFX omdat ze ook ATi zijn gaan doen en mogen niet eens GF100 kaarten uitbrengen. (of in ieder geval in het begin).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Fud heeft er nu ook een stukje over online staan:
Ik vind dat wel echt iets voor nVidia om je parkners zo te behandelen.Nvidia won't provide
We have heard and confirmed from multiple independent sources that XFX won’t have Fermi cards at launch.
Nvidia is punishing this highly successful brand by cutting them off from Geforce GTX 480 and 470 launch cards, and this is a direct result of XFX's last year's decision to to start selling ATI. Since Nvidia’s sales department doesn't know any better, this is the action the green company decided to take.
Nvidia refuses to see that this might be a bad thing for the whole company as XFX has a very loyal fan base who will probably start standing up for themselves when they realize they won’t get a decent launch quantity of these cards.
In the mean time, XFX’s answer to Nvidia’s cut-out deal is bringing the fastest ever Radeon HD 5970 X2 cards with super specs, and we will try to get as many details as we can.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Daar ik momenteel al de gereleasde reviews ben aan het aflopen voor de TS kwam ik de volgende review tegen:
Nu het kan altijd liggen aan verkeerde metingen natuurlijk, ofwel is dit het zoveelste bewijs dat nVidia standaard er veel te veel voltage (moet) doorsturen? Waardoor de liniaire stijging van het verbruik door het verhogen van de clocks in feite in het totale plaatje verwaarloosbaar is tegenover het verbruik van de veel te hoge voltages (exponentiele toename van het verbruik) + de leakage?
Trouwens als de metingen juist zijn wil dat ook zeggen dat hoe hoger je een Fermi GPU klokt hoe effeciënter (als je natuurlijk van efficiëntie kan spreken
) hij wordt?
Indien dat klopt was het natuurlijk wel een verstandige keuze om een paar shaders uit te schakelen en de clock snelheden op het einde toch een stuk omhoog te gooien.
Maar zover ik mij herriner heb ik al een paar maal gelezen dat de Fermi oorspronkelijk bedoeld waws om op vele hogere clocks te lopen dan de huidige uiteindelijke versie. Echter bleek dit te hoog gegrepen voor het huidige 40nm procédé.
En nogmaal indien de metingen juist blijken te zijn wil dat wel zeggen dat de architectuur stukken meer potentieel heeft/had dan dat we nu te zien krijgen.
Fermi2 zou in dat opzicht wel eens stukken beter kunnen worden, zelf als ze niet al te veel wijzigingen doorvoeren maar enkel er wel in slagen de clock snelheden serieus de hoogte in te gooien (zonder dat het verbruik mee de hoogte in schaalt dat is ..)
Tweaktown: Consumptie van een overgeklokte kaart <> stock
Hmm dit vind ik persoonlijk wel iets raars, ik heb dit in ieder geval toch nog niet geweten wanneer je een GPU serieus overklokt het verbruik helemaal niet toeneemt.Nu het kan altijd liggen aan verkeerde metingen natuurlijk, ofwel is dit het zoveelste bewijs dat nVidia standaard er veel te veel voltage (moet) doorsturen? Waardoor de liniaire stijging van het verbruik door het verhogen van de clocks in feite in het totale plaatje verwaarloosbaar is tegenover het verbruik van de veel te hoge voltages (exponentiele toename van het verbruik) + de leakage?
Trouwens als de metingen juist zijn wil dat ook zeggen dat hoe hoger je een Fermi GPU klokt hoe effeciënter (als je natuurlijk van efficiëntie kan spreken
Indien dat klopt was het natuurlijk wel een verstandige keuze om een paar shaders uit te schakelen en de clock snelheden op het einde toch een stuk omhoog te gooien.
Maar zover ik mij herriner heb ik al een paar maal gelezen dat de Fermi oorspronkelijk bedoeld waws om op vele hogere clocks te lopen dan de huidige uiteindelijke versie. Echter bleek dit te hoog gegrepen voor het huidige 40nm procédé.
En nogmaal indien de metingen juist blijken te zijn wil dat wel zeggen dat de architectuur stukken meer potentieel heeft/had dan dat we nu te zien krijgen.
Fermi2 zou in dat opzicht wel eens stukken beter kunnen worden, zelf als ze niet al te veel wijzigingen doorvoeren maar enkel er wel in slagen de clock snelheden serieus de hoogte in te gooien (zonder dat het verbruik mee de hoogte in schaalt dat is ..)
Wat is dit voor een onzinreview? Je kaart gaat MINDER verbruiken als je hem 15% harder laat lopen? Natuurlijk
Volgens mij zijn ze niet kritisch en scherp genoeg daar bij TweakTown, de reviews en artikelen vertrouw ik al langer niet. Dit met het oog op bepaalde driverresultaten in het verleden en een behoorlijk verouderde benchsuit die véél te lang aangehouden is.

Volgens mij zijn ze niet kritisch en scherp genoeg daar bij TweakTown, de reviews en artikelen vertrouw ik al langer niet. Dit met het oog op bepaalde driverresultaten in het verleden en een behoorlijk verouderde benchsuit die véél te lang aangehouden is.
Zo wat een flop zeg. Dat is onmogelijk dat je overclockt en vervolgens je verbruik omlaag gaat.lightdestroyer schreef op dinsdag 30 maart 2010 @ 10:41:
Daar ik momenteel al de gereleasde reviews ben aan het aflopen voor de TS kwam ik de volgende review tegen:Tweaktown: Consumptie van een overgeklokte kaart <> stock
Hmm dit vind ik persoonlijk wel iets raars, ik heb dit in ieder geval toch nog niet geweten wanneer je een GPU serieus overklokt het verbruik helemaal niet toeneemt.
Nu het kan altijd liggen aan verkeerde metingen natuurlijk, ofwel is dit het zoveelste bewijs dat nVidia standaard er veel te veel voltage (moet) doorsturen? Waardoor de liniaire stijging van het verbruik door het verhogen van de clocks in feite in het totale plaatje verwaarloosbaar is tegenover het verbruik van de veel te hoge voltages (exponentiele toename van het verbruik) + de leakage?
Trouwens als de metingen juist zijn wil dat ook zeggen dat hoe hoger je een Fermi GPU klokt hoe effeciënter (als je natuurlijk van efficiëntie kan spreken) hij wordt?
Indien dat klopt was het natuurlijk wel een verstandige keuze om een paar shaders uit te schakelen en de clock snelheden op het einde toch een stuk omhoog te gooien.
Maar zover ik mij herriner heb ik al een paar maal gelezen dat de Fermi oorspronkelijk bedoeld waws om op vele hogere clocks te lopen dan de huidige uiteindelijke versie. Echter bleek dit te hoog gegrepen voor het huidige 40nm procédé.
En nogmaal indien de metingen juist blijken te zijn wil dat wel zeggen dat de architectuur stukken meer potentieel heeft/had dan dat we nu te zien krijgen.
Fermi2 zou in dat opzicht wel eens stukken beter kunnen worden, zelf als ze niet al te veel wijzigingen doorvoeren maar enkel er wel in slagen de clock snelheden serieus de hoogte in te gooien (zonder dat het verbruik mee de hoogte in schaalt dat is ..)
We weten allemaal wat de clockspeed is: Schakelen van de transistors. Zodra deze dicht is gaat er een stroom lopen. Daar komt dan ook je verbruik vandaan. Je gaat vaker schakelen dus ga je ook meer verbruiken. Ga je daar naast ook nog eens de spanning van de chip veranderen. Gaat hij een hogere spanning schakelen en krijg je een nog hoger verbruik. + ook nog kans op een hogere lekstroom wat weer voor een hoger verbruik zorgt.
Voltage verhoging zorgt is meestal de grootste boosdoener van een hoog verbruik. Maar clockspeeds laten het verbruik ook altijd stijgen als deze verhoogt worden. Daarnaast helpt temperatuur ook voor verbruik.
Ik heb het idee dat dat laatste met de lekstroom te maken heeft. Ik merk dat als ik BV me CPU 10c cooler houd het verbruik ook zo maar 5-10 watt lager kan zijn.
(het kan zijn dat ik wat verkeerde termen gebruikt heb: stroom/spanning door elkaar gehaald heb maar ik denk dat het idee wel duidelijk is)
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Charlie heeft het stukje eraf gehaald. Heeft iemand het nog in de cache, a.u.b.madmaxnl schreef op maandag 29 maart 2010 @ 19:57:
[...]
http://www.semiaccurate.c...why-nvidia-hacked-gtx480/
Hier vat hij nog alles even snel samen en heeft het er over waarom GTX480 uit eindelijk 480Shaders kreeg i.p.v. 512 hij heeft het ook over de clocks etc.
Hij had het over 2% Yield en dus enorme kosten ....
Uit dat verdwenen stukje:
"The 480 shader, 1400MHz cards are barely manufacturable. If you don't already have one ordered by now, it is likely too late to get one since quantities are going to be absurdly limited. As things stand, the 9,000 risk wafers seem to have produced less than 10,000 GTX480s and about twice that many GTX470s if the rumored release numbers are to be believed. That would put yields of the new lower spec GTX480 at well under the two percent Nvidia saw last fall.
It is hard to say anything good about these kinds of yields, much less to call it a win. A one-point-something percent yield, however, is a number greater than zero."
Dan is die GPU toch onbetaalbaar

[ Voor 42% gewijzigd door Joepi op 30-03-2010 11:11 ]
http://www.semiaccurate.c...why-nvidia-hacked-gtx480/Joepi schreef op dinsdag 30 maart 2010 @ 11:06:
[...]
Charlie heeft het stukje eraf gehaald. Heeft iemand het nog in de cache, a.u.b.
Aub
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Ik heb dit nieuwsbericht nog niet zien passeren, sorry indien het wel al het geval was ..
Anyway belangrijkste feiten
• Voor alle mobiele kaarten vanaf de 8M serie
• performatie verbeteringen (vergelijkbaar met de desktopdrivers performantie boost)
• Naamsverandering naar "Verde", het voordeel is dat de driver nummers nu gelijk zijn getrokken blijkbaar
• 3D Vision
The Tech Report: New mobile GeForce drivers bring external 3D Vision support
Ik mag mijn mobiele drivers sectie dus ook gaan updaten XDAnyway belangrijkste feiten
• Voor alle mobiele kaarten vanaf de 8M serie
• performatie verbeteringen (vergelijkbaar met de desktopdrivers performantie boost)
• Naamsverandering naar "Verde", het voordeel is dat de driver nummers nu gelijk zijn getrokken blijkbaar
• 3D Vision
Dit topic is gesloten.