[Algemeen] nVidia Nieuws & Discussie Topic - Deel 44 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 6 7 Laatste
Acties:
  • 35.679 views

Acties:
  • 0 Henk 'm!

Anoniem: 346499

Kan goed zijn, maar toch ... Ik blijf hoop koesteren :) Noem me gerust een die-hard nv-fan :) (ben zelf wel absoluut geen anti-ATI, laat dat duidelijk zijn)

Acties:
  • 0 Henk 'm!

  • Bobbika
  • Registratie: Augustus 2007
  • Laatst online: 30-05 20:48
Edmin schreef op zondag 28 maart 2010 @ 15:03:
Ik verbaas me er trouwens over hoeveel mensen er nog op vertrouwen dat NV binnenkort wel met een setje wonderdrivers zal komen voor Fermi. Vergeet niet dat er al maandenlang samples van deze kaart rondzwerven binnen het bedrijf. Ik denk dat het driverteam meer tijd heeft gehad voor het ontwikkelen van drivers voor deze GPU dan voor eerdere GPU's. Een zelfs als er over een periode een gemiddelde prestatiewinst van 10% uit de drivers komt zetten zitten er nog grote nadelen aan de kaart.
Inderdaad, mensen blijven maar roepen dat de drivers nog optimaal moeten worden gemaakt. Ik denk persoonlijk hooguit 5%. De kaart is een half jaar te laat. Voor mij is de enige logische verklaring voor de temperatuur en verbuik, dat ze deze kaart tot het uiterste hebben gedreven met behulp van voltages, clockfreq en drivers om betere prestaties dan de Ati tegenhangers neer te zetten.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Anoniem: 346499 schreef op maandag 29 maart 2010 @ 10:55:
Kan goed zijn, maar toch ... Ik blijf hoop koesteren :) Noem me gerust een die-hard nv-fan :) (ben zelf wel absoluut geen anti-ATI, laat dat duidelijk zijn)
Paprika schreef op zondag 28 maart 2010 @ 03:20:
[...]
Nou iedereen mag natuurlijk zijn eigen mening hebben (en ik kan ook niet echt inzien waarom persoon A persoon B zou proberen over te halen merk X i.p.v. Y te kopen).
Iedereen mag toch zelf uitmaken waar hij of zij zijn of haar geld aan uitgeeft toch?

Een paar maanden terug was er iemand die dit topic (een ouder deel natuurlijk) vol spamde met meningen als feiten zonder enig argument buiten zijn "professionele ervaringen" (dit bleken overigens forum posts over drivers van ATi van jaren geleden te zijn waardoor hij nu kon zeggen (als feiten) dat ATi afval was etc) :+, dat vind ik dan ook niet kunnen, zolang iets met onderbouwing of met "mijn mening", en dus niet iets roepen in de vorm van: alle kaarten van X zijn k*t en alle kaarten van Y zijn 100% perfect, wordt aangegeven moet het zeker kunnen en geaccepteerd worden en eventueel over gediscussieerd worden met tegenargumenten.

offtopic:
Tevens zullen veel mensen (en waarschijnlijk jij zelf ook :p) denken dat ik 100% ATi ben en alleen maar kan huilen bij de gedachte "nVidia + kopen", terwijl ik het aantal ATi kaarten dat ik heb gehad meer dan 1x op een enkele hand kan tellen en het aantal nVidia kaarten niet eens met al mijn vingers bij elkaar (alleen al 2x G80, 3x G92 waarbij 1 van die G80 meer kostte dan alle ATi kaarten bij elkaar :P).

Overigens best een grappig filmpje, maar de eerder gelinkte blijft het leukste (nVidia GeForce FX 5800 - nVidia's Thoughts), overigens kwam die ook van hun zelf, maar ze hebben toen met de FX5900 zeker een goede kaart uitgebracht en het dus allemaal weer goed gemaakt.

[ Voor 13% gewijzigd door Paprika op 29-03-2010 11:19 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Anoniem: 346499 schreef op maandag 29 maart 2010 @ 10:31:
Zonet iets interessant gevonden op de main site van nvidia:

http://www.nvidia.com/obj..._Surround_Technology.html
"requires NVIDIA Driver Release 256* or higher. (*Scheduled for April 2010)"

Momenteel zijn alle benchmarks gebeurt met de 197.17 beta driver. De sprong naar 256 brengt hopelijk serieus wat FPS boosts met zich mee :)
Gaan we weer...... eerst roep je dat de GTX480 geweldig gaat worden. En dat bleek niet zo te zijn. En nu ga je iedereen lekker lopen maken met een wonder driver. Ze hebben al 7 maanden aan deze drivers kunnen werken dat hebben ze vast ook wel gedaan.

Ja er zal best 5-10% extra uit te halen zijn. Maar verwacht niet dat je er 20%+ bij gaat krijgen. Huge update wil niet zeggen Huge performance boost. Ik lees dat meer als in meer features zoals 3D surround gaming en een nieuw controll pannel. Samen met wat kleine boosts in wat games.

Daarnaast zal ATi ook nog wel wat boosts uit hun drivers weten te halen. De 197.x waren voor nVidia ook performance drivers net als de 10.3 voor ATi.

Edit: @ vipeax:

De FX59xx was ook geen goede kaart. Ja qua performance kon hij mee komen met de 9700 maar de IQ was echt zo veel slechter. Kortom trek je die gelijk was de 9700 veel sneller. Ze hebben het imo pas goed gemaakt met de 6800. Dat was echt een goede kaart. Waar ATi met een relatief matige X800 serie kwam. Performance van ATi was goed. Maar nVidia had net iets betere AF en SM3.0 support.

Echt goede nVidia kaarten waren in mijn ogen:
-GeForce 1 (Hardware TL Engine)
-GeForce 4 (Super snelle DX8 kaart)
-GeForce 68xx (Comback DX9 kaart)
-GeForce 8800 (suppersnelle en eerste DX10 kaart)

Voor ATi is dit:
-Radeon 8500 (Eerste DX 8.1 kaart met Trueform en super IQ)
-Radeon 9700 Pro (Eerste DX9 kaart met super performance)
-Radeon X1900 (Super Performance comback (futureproof) met huidige games 50-100% sneller dan GF79xx tegenhangers)
-Radeon HD48xx (DX10.1 Comeback Super performance/price)
-Radeon HD58xx (Eerste DX11 kaart Super prijs prestatie verhouding).

Dit waren echt kaarten die op hun manier revolutionair waren.

[ Voor 46% gewijzigd door Astennu op 29-03-2010 11:35 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 346499

Wanneer heb ik geroepen dat GTX480 geweldig zou worden ?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Anoniem: 346499 schreef op maandag 29 maart 2010 @ 11:29:
Wanneer heb ik geroepen dat GTX480 geweldig zou worden ?
Nja of in ieder geval heel veel hoop dat. Lees je berichten van de afgelopen 2 weken maar een terug. Alle kritische opmerkingen van anderen werden met een of ander gerucht beantwoord.

Dit is niet echt als een aanval bedoelt (al zie ik ook in dat dit wel begint te lijken). Maar je hebt volgens mij te veel hoop op iets wat niet lijkt te komen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Spelbreker!....
offtopic:
;)

[ Voor 133% gewijzigd door Paprika op 29-03-2010 11:43 ]


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Zullen we er geen 'I told you so!' argument van maken? :>

Acties:
  • 0 Henk 'm!

Anoniem: 346499

Zoals ik al zei, die-hard nv-fan hier :) Als de drivers in april geen grote fps boost met zich meebrengen zit ik deze generatie gewoon uit en wacht ik wel op de 485 of 580 :)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Verkoopt Palit eigenlijk ook wel eens kaarten met de stock koeler? Kon er namelijk geen vinden :p.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
256 drivers brengen als grote update officiele support voor 3D Vision Stereo Surround.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Tot 30 % perf verbetering is best mogelijjk, sommige apps presteren relatief erg matig, terwijl andere juist goed presteren en dat zou op rauwe drivers kunnen wijzen (maar natuurlijk ook op de (zwakke punten) van de gewijzigde chip). Ook al zijn er al een tijdje samples in omloop, dat zegt opzich niet alles. Ik kan me voorstellen dat het hele driverontwikkelproces veel tijd vergt. Ook de HD5xxx series kregen onlangs nog 2 aardige snelheidsboosts in Cat. 10.2 en 10.3, terwijl die al veel langer op de markt zijn.

We zien het wel, tot nu toe zijn de prestaties helemaal niet onaardig en soms zelfs erg goed, dat de chip te warm wordt en teveel verstookt daar valt idd niet omheen te komen.

Het zal mij iig niet verbazen als er straks nog 20-40% winst wordt geboekt in apps waar de prestatie nog wat tegenvalt. Dit is zo vaak gebeurd in het verleden.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
edward2 schreef op maandag 29 maart 2010 @ 13:08:
Tot 30 % perf verbetering is best mogelijjk, sommige apps presteren relatief erg matig, terwijl andere juist goed presteren en dat zou op rauwe drivers kunnen wijzen (maar natuurlijk ook op de (zwakke punten) van de gewijzigde chip). Ook al zijn er al een tijdje samples in omloop, dat zegt opzich niet alles. Ik kan me voorstellen dat het hele driverontwikkelproces veel tijd vergt. Ook de HD5xxx series kregen onlangs nog 2 aardige snelheidsboosts in Cat. 10.2 en 10.3, terwijl die al veel langer op de markt zijn.

We zien het wel, tot nu toe zijn de prestaties helemaal niet onaardig en soms zelfs erg goed, dat de chip te warm wordt en teveel verstookt daar valt idd niet omheen te komen.

Het zal mij iig niet verbazen als er straks nog 20-40% winst wordt geboekt in apps waar de prestatie nog wat tegenvalt. Dit is zo vaak gebeurd in het verleden.
Ja goed maar dat is toch niets nieuws ? Dat is bij ATi en nVidia al jaren zo.

Met wonder drivers wordt bedoelt dat apps die al super goed presteren er nog eens 10-20% bij krijgen. En dat is ook wat de mensen hier hopen. Zodat het verschil met de 5870 groter wordt. En dat is iets wat ik niet snel zie gebeuren.

AMD zal in sommige games zoals METRO 2033 ook nog wel met leuke performance tweaks gaan komen (als in +15-25%).

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Astennu schreef op maandag 29 maart 2010 @ 13:16:
[...]


Met wonder drivers wordt bedoelt dat apps die al super goed presteren er nog eens 10-20% bij krijgen. En dat is ook wat de mensen hier hopen. Zodat het verschil met de 5870 groter wordt. En dat is iets wat ik niet snel zie gebeuren.

AMD zal in sommige games zoals METRO 2033 ook nog wel met leuke performance tweaks gaan komen (als in +15-25%).
Nee dat denk ik ook niet, iig niet zo veel, maar het valt me op dat de perf in sommige games relatief ver achter blijven, bv Crysis en ook op hoge reso's zakt de perf soms onevenredig verder in, iets wat je niet zou verwachten met meer vidram, of er moet iets fundamenteel gewijzigd zijn in de fillrateperf.
Ik denk ook dat de Radeons nog heel wat per.f in zullen lopen in Metro2033, vooral met MSAA, want daar zit iets niet goed.

Overigens zal het me niet verbazen als de kaarten momenteel met een nieuwe bios geflasht worden, want het IDLE gebruik is ook onnodig hoog.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • TTD
  • Registratie: Februari 2004
  • Laatst online: 29-05 23:20

TTD

Gebruikte Palit deze koeler ook niet op hun GTX 2XX kaarten?
Wel jammer dat er niet meer merken zijn die een andere koeling op hun kaart zetten. Vroeger had je Leadtek die tot en met de geforce 6series telkens bij het release al zelf ontworpen koelers op hun kaart hebben zitten.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
edward2 schreef op maandag 29 maart 2010 @ 13:26:
[...]


Nee dat denk ik ook niet, iig niet zo veel, maar het valt me op dat de perf in sommige games relatief ver achter blijven, bv Crysis en ook op hoge reso's zakt de perf soms onevenredig verder in, iets wat je niet zou verwachten met meer vidram, of er moet iets fundamenteel gewijzigd zijn in de fillrateperf.
Ik denk ook dat de Radeons nog heel wat per.f in zullen lopen in Metro2033, vooral met MSAA, want daar zit iets niet goed.

Overigens zal het me niet verbazen als de kaarten momenteel met een nieuwe bios geflasht worden, want het IDLE gebruik is ook onnodig hoog.
Idle kunnen ze misschien wel bijschaven. Echter is het bij de 2900 XT ook niet echt gelukt. Iets kan wel maar ik verwacht ook daar geen wonderen door dat je waarschijnlijk veel lekstroom hebt..

En dat inkakken op hoge reso's zie ik wel vaker bij de GTX480. Daar lijkt de 58xx toch wat in te lopen. Dus misschien iets in het ontwerp wat hier voor zorgt ?

Maar ik verwacht van zowel ATi als nVidia nog de nodige boosts in de games waar ze in verhouding slechter presteren. Al zullen er net als in het verleden altijd uitzonderingen blijven waar je toch grotere verschillen blijft zien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Verder zie ik enorme verschillen in de reviews, neem dit nou, normaliter is ATI erg sterk in Stalker en hoewel het gat met de HD5870 nu min of meer gedicht is, is dit wel erg opvallend en niet zo duidelijk gezien in andere reviews:

Cherry pick:
Afbeeldingslocatie: http://www.bjorn3d.com/Material/revimages/video/Fermi_Ref/C_Stalker_1920GR.jpg

Godray's in Stalker hebben toch niets te maken met echte Raytracing??

[ Voor 12% gewijzigd door edward2 op 29-03-2010 14:07 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 10:43
edward2 schreef op maandag 29 maart 2010 @ 14:01:
Verder zie ik enorme verschillen in de reviews, neem dit nou, normaliter is ATI erg sterk in Stalker en hoewel het gat met de HD5870 nu min of meer gedicht is, is dit wel erg opvallend en niet zo duidelijk gezien in andere reviews:

Cherry pick:
[afbeelding]

Godray's in Stalker hebben toch niets te maken met echte Raytracing??
Eh dit is heel erg vreemd. Voor de Stalker: CoP-benchmark heb ik alleen gebruik gemaakt van de test met sunshafts. En bij mij scoort de HD 5970 altijd beter. Ook liggen hun scores erg hoog, en ze hebben het over een HD 5890? WTF ?

En nee, volgens mij hebben god-rays niks te maken met echte ray-tracing. De stalker engine is gebaseerd op pure rasterization, en heeft geen mix van ray-tracing of zo. Het kan wel zo zijn dat godrays ray-tracing simuleren, maar dan nog zouden de ray-tracing mogelijkheden van de GTX 480 niks uit mogen maken.

[ Voor 16% gewijzigd door Marc Rademaker op 29-03-2010 14:31 ]


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Om hier even op terug te komen. Deze kaarten worden geleverd met 2x DVI hdmi en display port. Betekent dat je nu ook 3 schermen kan aansturen met 1 kaart? Aangezien die DP aansluiting.

http://www.hardware.info/...alternatieve_koeling_uit/

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Xenomorphh schreef op maandag 29 maart 2010 @ 14:40:
[...]


Om hier even op terug te komen. Deze kaarten worden geleverd met 2x DVI hdmi en display port. Betekent dat je nu ook 3 schermen kan aansturen met 1 kaart? Aangezien die DP aansluiting.
ATi's Eyefinity is iets hardwarematig hoor niet iets dat alleen met de beeldscherm aansluitingen nodig heeft.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

-The_Mask- schreef op maandag 29 maart 2010 @ 14:42:
[...]

ATi's Eyefinity is iets hardwarematig hoor niet iets dat alleen met de beeldscherm aansluitingen nodig heeft.
Klopt, maar ik dacht dat DP geen ramdac nodig heeft om te functioneren(kan er naast zitten hoor). Dus vandaar ;)

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Hopelijk komt dit niet al te agressief over, maar bijna alle reviews van Fermi bevatten toch wel het feit dat je SLI nodig hebt voor meer dan 2 monitoren :p.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Paprika schreef op maandag 29 maart 2010 @ 14:52:
Hopelijk komt dit niet al te agressief over, maar bijna alle reviews van Fermi bevatten toch wel het feit dat je SLI nodig hebt voor meer dan 2 monitoren :p.
Ja maar dit is geen refference.. Een display port heeft geen ramdac nodig dus vraag ik me af waar die beperking zit. Het was overigens een VRAAG geen STATEMENT goeie morgen zeg wat een houding hebben sommige personen....... :|

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Als het alleen maar zo eenvoudig zou zijn als het toevoegen van een DP, denk je niet dat NV het dan zelf ook al gedaan zou hebben? ;)

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

edward2 schreef op maandag 29 maart 2010 @ 13:26:
Overigens zal het me niet verbazen als de kaarten momenteel met een nieuwe bios geflasht worden, want het IDLE gebruik is ook onnodig hoog.
Nope, het IDLE verbruik is juist speciaal voor de reviews LAAG gehouden.
Verwacht juist een hoger verbruik en fan snelheden met een release BIOS.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
neliz schreef op maandag 29 maart 2010 @ 15:07:
[...]


Nope, het IDLE verbruik is juist speciaal voor de reviews LAAG gehouden.
Verwacht juist een hoger verbruik en fan snelheden met een release BIOS.
Wat is daar het nut van? Minder vaak temp schommelingen, waardoor deze kaart het net 2 jaar vol kan houden?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Edmin schreef op maandag 29 maart 2010 @ 15:03:
Als het alleen maar zo eenvoudig zou zijn als het toevoegen van een DP, denk je niet dat NV het dan zelf ook al gedaan zou hebben? ;)
Wie weet is het wel simpel. Zal niet, maar wie weet. Maar goed het antwoord is dus nee. Wat volgens mij veel beter te formulieren was dan mensen het hier doen.

offtopic:
Wat een vriendelijkheid heerst hier in dat Nvidia topic. Nja ik ga der verder maar niet op in.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:19
Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken. Deze kaart werkt en hoe! Die Cons neem ik maar voor lief, gewoon een goede voeding en wat fans en gaan met die banaan!

Acties:
  • 0 Henk 'm!

Anoniem: 292676

chim0 schreef op maandag 29 maart 2010 @ 15:25:
Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken. Deze kaart werkt en hoe! Die Cons neem ik maar voor lief, gewoon een goede voeding en wat fans en gaan met die banaan!
sinds wanneer is prijs onbelangrijk

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Xenomorphh schreef op maandag 29 maart 2010 @ 15:10:
[...]

Wie weet is het wel simpel. Zal niet, maar wie weet. Maar goed het antwoord is dus nee. Wat volgens mij veel beter te formulieren was dan mensen het hier doen.

offtopic:
Wat een vriendelijkheid heerst hier in dat Nvidia topic. Nja ik ga der verder maar niet op in.
Ik heb de antwoorden speciaal nog eens drie keer doorgelezen, maar ik zie je bezwaar niet. Misschien toch maar een iets dikkere huid kweken?


@ chimo:
Dus omdat AT, TW, [H] en andere gerespecteerde sites niet enthousiast zijn, maar B3D wel, moeten wij ook maar blij zijn? Kritiek op deze kaart moet verboden worden?

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Xenomorphh schreef op maandag 29 maart 2010 @ 15:10:
[...]
offtopic:
Wat een vriendelijkheid heerst hier in dat Nvidia topic. Nja ik ga der verder maar niet op in.
offtopic:
Myeah ik overweeg al een maand of twee om een anti-nVidia topic te creëren enkel zodat sommige mensen eens goed zichzelf kunnen laten gaan :P
Nu bon ten tijden van de 8800 serie en de HD 2900 was dat ook azo maar dan juist in het ATI topic, ik vrees dat dit gedrag typisch tweakers is...
Het beste is gewoon het negeren, veel klagen leid gewoon tot het einde van dit topic (ben ik al meermaals op gewezen) en veel bereik je daar dus ook niet mee.


Nieuw topic zal pas morgen komen (als ik weer een werkende office pc heb met twee schermen heb, waardoor het werk er stukken gemakkelijker op word)
Nu het past wel in de "strategie"om te mikken naar 25 paginas ipv 20 daar je anders topics hebt met bijna niets van inhoud.. + Belangrijker ietsje gemakkelijker voor mij daar ik tegenwoordig, en zeker niet bij zo'n releases een nieuwe Topic Start klaar liggen heb.

*Edit*
Hmm ik overweeg de Topic Start aan iemand anders door te geven, ik denk niet dat van het doel van dit topic nog veel overschiet als ik de laatste pagina's overlees...
En jah ik doel op sommige mensen, elk genuanceerde mening wordt weggevaagd met soms lijkt het wel de hoop dat er extreme reacties op komen waarop weeral 10 posts kunnen geschreven worden die grondig gefundeerd eens lekker kunnen kappen op ...
Let op, ik heb niets tegen ATI, ik heb zelf onlangs 3 keer ATI aangeraden ipv nVidia, maar ik stel voor het bejubelen van die kaarten heb je een ander topic, en neen daarmee bedoel ik niet het nieuwstopic maar eerder het ervaringstopic.

[ Voor 22% gewijzigd door lightdestroyer op 29-03-2010 15:48 ]

Specs


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 30-05 10:15

Darkasantion

Just keep swimming!

chim0 schreef op maandag 29 maart 2010 @ 15:25:
Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken. Deze kaart werkt en hoe! Die Cons neem ik maar voor lief, gewoon een goede voeding en wat fans en gaan met die banaan!
[troll]
Sorry, je beschuldigt mensen ervan blind te zijn omdat ze niet willen accepteren dat de kaart de snelste is, maar ondertussen ben jij blind voor alle nadelen van de kaart. Maargoed, Nvidia PR heeft haar werk goed gedaan, Fermi is de beste in alles..... Snelste, heetste, duurste en meest verbruikende kaart... Inderdaad, een monsterkaart :+
[/troll]

JA, Fermi is de snelste SINGLE GPU, maar verpletterd niet de concurrentie.... HD5970 is sneller, heeft een betere prestatie per watt verhouding, net zoals de HD5870 trouwens, en bovendien is Fermi 6 maanden later op de markt dan de HD5xxx serie van ATi, om ~10% sneller te zijn, terwijl de kaart 20% duurder is, en +25% meer stroom verbruikt... En als dat al bochten wringen is.... pure feiten opnoemen....

Dus niet echt verpletterend.

Ik denk dat mensen hier gewoon moeten accepteren dat er mensen zijn die Fermi's pure prestatie geweldig vinden, en dat er mensen zijn die de prestatie wel goed vinden, maar de kaart niet super vinden omdat de randvoorwaarden(verbruik, hitte en prijs) niet zo goed zijn als bij de concurrentie in hun ogen.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

chim0 schreef op maandag 29 maart 2010 @ 15:25:
Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken. Deze kaart werkt en hoe! Die Cons neem ik maar voor lief, gewoon een goede voeding en wat fans en gaan met die banaan!
Ehm, sorry, maar deze post is een beetje de omgekeerde wereld en tamelijk grappig :P nutteloze argumenten als dat je net zo veel betaalt als voor een HD5970 maar 35% minder performance hebt? Joh wat nutteloos, wie geeft er nou om bang-for-buck. Of om dat deze kaart friggin' 100W meer verbruikt. Zowel in prijs/prestatie als prijs/verbruik doen hemlock en cypress het beter. Zeg je nou dat die er niet toe doen of dat ze niet kloppen, of dat jouw post niet klopt?
neliz schreef op maandag 29 maart 2010 @ 15:07:
[...]


Nope, het IDLE verbruik is juist speciaal voor de reviews LAAG gehouden.
Verwacht juist een hoger verbruik en fan snelheden met een release BIOS.
Het verbruik in idle was toch niet zo slecht, maar het verbruik schiet toch pas omhoog zodra er een applicatie wordt geopend (hoe licht die ook is), had ik gelezen? Als dat klopt is het gemakkelijk op te lossen met drivers zou ik zeggen, al vind ik het gek dat dat nog niet is gebeurd.

[ Voor 5% gewijzigd door bwerg op 29-03-2010 15:38 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:19
5870 he, niet de 5970...

Dan moet je even wachten op de GTX495 :)
Anoniem: 292676 schreef op maandag 29 maart 2010 @ 15:30:
[...]


sinds wanneer is prijs onbelangrijk
Sinds altijd. Niet dat ik hem kan betalen maar zou hem wel willen als ik hem kon betalen. Zelfde als Intel en AMD he.. Een Phenom II is voor de meeste ook genoeg, Athlon II zelfs, maar toch nemen mensen een Intel omdat ze heel goed weten wat ze willen.
Edmin schreef op maandag 29 maart 2010 @ 15:31:
[...]

Kritiek op deze kaart moet verboden worden?
Nee hoor maar ik voel een trollige fanboy achtige jaloerse ondertoon maar ik kan het natuurlijk helemaal mis hebben. (Net zoals ik altijd doe met m'n smileys waar jij niet tegen kan, zoiets voel ik hier ook). ;)

[ Voor 85% gewijzigd door chim0 op 29-03-2010 15:40 ]


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 10:43
Ik kan B3D's review niet geloven. Ik denk bijna dat het een 1 april grap is ...

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 30-05 10:15

Darkasantion

Just keep swimming!

chim0 schreef op maandag 29 maart 2010 @ 15:37:
5870 he, niet de 5970...

Dan moet je even wachten op de GTX495 :)
Ja, maar die vergelijking tussen HD5870 en GTX480 dat is ook niet eerlijk hoor 8)7 ...

Fermi heeft een grotere die-size dan Cypress, dus die mag je niet met elkaar vergelijken :+ .....

Jij beschuldigt mensen nu ervan zich in allerlei bochten te wringen om maar niet te accepteren dat GTX480 echt de snelste is, wat voor gedrag vertoon jij dan door steeds de HD5970 te ontwijken en de HD5870 te nemen als vergelijkingsmateriaal tegenover de GTX480, terwijl de HD5870 in een totaal andere prijsklasse zit dan den GTX480? Bochten wringen 8)7 ? Negeren :+ ?

[ Voor 40% gewijzigd door Darkasantion op 29-03-2010 15:42 ]

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Marc Rademaker schreef op maandag 29 maart 2010 @ 15:37:
Ik kan B3D's review niet geloven. Ik denk bijna dat het een 1 april grap is ...
Ik vind hem ook vreemd. Voornamelijk de manier waarop de conclusie is geschreven is anders. Ik probeer hem nu naast oudere reviews van B3D te leggen om wat meer beeld te krijgen.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

chim0 schreef op maandag 29 maart 2010 @ 15:37:
5870 he, niet de 5970...

Dan moet je even wachten op de GTX495 :)
O god, komt het 'dual-GPU tegen dual-GPU' verhaal weer. Laatste keer dat ik het je uitleg:

Jij begint er zelf over dat je argumenten moet hebben die er toe doen voor de consument. Wat voor de consument belangrijk is zijn met name prijs en prestatie (en vooral ook prijs/prestatie), en daarbij nog randzaken als verbruik en geluidsproductie. De prijs van de GTX480 is ongeveer gelijk aan die van een HD5970. Op alle andere zaken verliest de GTX480. Dat is wat er voor de consument geldt. Bovendien is de die-grootte van hemlock maar iets van 25% groter dan die van fermi (en GPU 1 vergelijken met GPU2 die 58% groter is wel eerlijk wil je zeggen?)

En nee, er komt geen GTX495 want een kaart met een TDP van 600W is niet zo praktisch 8)7

[ Voor 9% gewijzigd door bwerg op 29-03-2010 15:43 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
chim0 schreef op maandag 29 maart 2010 @ 15:25:
Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken. Deze kaart werkt en hoe! Die Cons neem ik maar voor lief, gewoon een goede voeding en wat fans en gaan met die banaan!
Haha dan ben jij juist degene die blind is:

1: Verpletterende performance ? sinds is wanneer is 10-15% verpletterend ?
2: De HD5970 is toch echter sneller dat is ook 1 kaart maar wel met 2 GPU's
3: Nutteloze argumenten ? Vind jij veel herrie nutteloos ? Vind je een dubbel zo hoog stroomverbruik nutteloos ?
4: En jij wil dus graag te veel betalen voor iets wat het eigenlijk niet waard is ?

Mensen willen hun pc ook nog voor andere dingen gebruiken dan alleen games spelen met een grote headset of speakers op 50% volume omdat de cooler te veel herrie maakt.

En de HD2900 XT werd op die punten ook helemaal met de grond gelijk gemaakt en niet alleen de performance.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 346499

Lolz, wat is dit hier allemaal ^^ ? Can't we all just get along ... ?

Sommigen zijn pro-nvidia (zoals mezelf), sommigen pro-ati. Zelf zou ik echter nooit in een ATI topic liggen opscheppen hoe goed mijn nvidia kaart wel is, maar goed, zo ben ik :)

[ Voor 4% gewijzigd door Anoniem: 346499 op 29-03-2010 15:45 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Darkasantion schreef op maandag 29 maart 2010 @ 15:38:
[...]

Ja, maar die vergelijking tussen HD5870 en GTX480 dat is ook niet eerlijk hoor 8)7 ...

Fermi heeft een grotere die-size dan Cypress, dus die mag je niet met elkaar vergelijken :+ .....
Ach waarom niet? Natuurlijk is het leuk om te zien hoeveel groter Fermi is in verhouding tot de prestaties, maar als deze kaart al 500+ kost, dan zou een GTX495 (als opvolger van de GTX295) een euro of 800+ kosten.

[ Voor 42% gewijzigd door Paprika op 29-03-2010 15:45 ]


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 30-05 15:53

superwashandje

grofheid alom

chim0 schreef op maandag 29 maart 2010 @ 15:37:
5870 he, niet de 5970...

Dan moet je even wachten op de GTX495 :)
wanneer kwam die ook alweer? tegelijkertijd met de HD6xxx serie?


on a sidenote: ik vind het wel opvallend dat het bij nvidia altijd gaat/ging om de snelste videokaart (ze hebben de gtx 295 ook gemaakt als antwoord op de 4870x2 om maar de snelste te hebben). totdat deze serie uitkwam
(waarbij het mij bijna onmogelijk lijkt om een dual gpu variant te maken die beter presteerd dan de 5970 en
waarbij het stroomverbruik en de hitte binnen de perken blijft).
nee...nu gaat het ineens over snelste single gpu....

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 346499 schreef op maandag 29 maart 2010 @ 15:44:
Lolz, wat is dit hier allemaal ^^ ? Can't we all just get along ... ?
Tsjah, als je keiharde feiten "in allerlei bochten wringen en nutteloze argumenten" gaat noemen, anderen voor fanboys uit gaat maken, en dan zelf de overduidelijke onfunderende fanboy uit gaat hangen dan krijg je dat :+

@chimo: als je me wilt overtuigen, geef mij eens wat FPS/euro (gemiddeld over meerdere spellen, resoluties en settings), wat verbruik/euro en dergelijke, waaruit duidelijk blijkt dat fermi inderdaad zo verpletterend is.

[ Voor 21% gewijzigd door bwerg op 29-03-2010 15:50 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:19
Edmin schreef op maandag 29 maart 2010 @ 15:40:
[...]

Ik vind hem ook vreemd.
Waarom is het vreemd? Of wil jij dat het vreemd is maar eigenlijk is het gewoon de harde waarheid? ;)

Jongens rustig maar, iedereen mag een mening hebben en we hebben allemaal onze voorkeur maar kunnen we dat achterwege laten en gewoon over die kaart praten? Hij doet het toch? Lekker boeie stroomverbruik. Als je deze kaart hebt, ben je die-hard gamer en die kijken volgens mij niet naar stroomverbruik, gewoon dikke voeding erin. Ik ben echt niet iemand die helemaal zijn energierekening gaat berekenen als ik een PC koop. Wat denk je? Dat deze kaart opeens 100 euro in de maand aan energie gaat kosten ofzo?
bwerg schreef op maandag 29 maart 2010 @ 15:41:
[...]

O god, komt het 'dual-GPU tegen dual-GPU' verhaal weer.
Zeker weten, ik zie het zo, een ander ziet het anders, prima maar ik koop daarop. Mag ik dat lekker zelf weten? :)
bwerg schreef op maandag 29 maart 2010 @ 15:48:
[...]

Tsjah, als je keiharde feiten "in allerlei bochten wringen en nutteloze argumenten" gaat noemen, anderen voor fanboys uit gaat maken, en dan zelf de overduidelijke onfunderende fanboy uit gaat hangen dan krijg je dat :+
Er schuilt een fanboy in ons allen en dat is prima. Alleen willen sommigen het niet toegeven. :)

[ Voor 17% gewijzigd door chim0 op 29-03-2010 15:50 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
chim0 schreef op maandag 29 maart 2010 @ 15:49:
[...] Ik ben echt niet iemand die helemaal zijn energierekening gaat berekenen als ik een PC koop. Wat denk je? Dat deze kaart opeens 100 euro in de maand aan energie gaat kosten ofzo?
Zoals ik al eerder zei vandaag, gooi het dan niet als een feit neer. Fermi t.o.v. een 5870 kost je meer dan 120 euro extra per jaar. Daar letten sommige, niet jij, best wel goed op.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

chim0 schreef op maandag 29 maart 2010 @ 15:49:
[...]

Waarom is het vreemd? Of wil jij dat het vreemd is maar eigenlijk is het gewoon de harde waarheid? ;)

Jongens rustig maar, iedereen mag een mening hebben en we hebben allemaal onze voorkeur maar kunnen we dat achterwege laten en gewoon over die kaart praten? Hij doet het toch?
Ga dan niet beweren dat anderen uit hun nek lullen, en als iemand anders dat over jou zegt voel je je aangevallen. Als jij iets zegt is het de keiharde waarheid en als iemand anders iets stelt (uberhaupt met argumentatie waar je niet omheen kunt!) dan is het 'gewoon een andere mening'. Ja dahag. Ik citeer:
Heerlijk om te zien hoe mensen het niet kunnen accepteren dat Nvidia wederom de snelste GPU neerzet met een monster van een kaart die de concurrentie verplettert en ze zich nu door allerlei bochten poroberen te wringen en met allerlei nutteloze argumenten en excuses komen, die totaal onbelangrijk zijn voor een eindcosument, om deze kaart af te kraken.
Dat is niet 'een andere mening', dat is een keiharde aanval.
En als het criterium is 'hij doet het toch dus heb geen kritiek', ga dan maar lekker gamen op een GMA450.
Zeker weten, ik zie het zo, een ander ziet het anders, prima maar ik koop daarop. Mag ik dat lekker zelf weten? :)
Ja, maar doe dan niet alsof dat een feit is. Als je zegt: ik weet ook wel dat ik veel minder bang-for-buck krijg bij NVidia maar toch wil ik hem" vind ik het prima. Jij zegt echter heel iets anders.

[ Voor 30% gewijzigd door bwerg op 29-03-2010 16:01 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

chim0 schreef op maandag 29 maart 2010 @ 15:49:
[...]

Waarom is het vreemd? Of wil jij dat het vreemd is maar eigenlijk is het gewoon de harde waarheid? ;)

Jongens rustig maar, iedereen mag een mening hebben en we hebben allemaal onze voorkeur maar kunnen we dat achterwege laten en gewoon over die kaart praten? Hij doet het toch? Lekker boeie stroomverbruik. Als je deze kaart hebt, ben je die-hard gamer en die kijken volgens mij niet naar stroomverbruik, gewoon dikke voeding erin. Ik ben echt niet iemand die helemaal zijn energierekening gaat berekenen als ik een PC koop. Wat denk je? Dat deze kaart opeens 100 euro in de maand aan energie gaat kosten ofzo?


[...]

Zeker weten, ik zie het zo, een ander ziet het anders, prima maar ik koop daarop. Mag ik dat lekker zelf weten? :)

[...]

Er schuilt een fanboy in ons allen en dat is prima. Alleen willen sommigen het niet toegeven. :)
Jij ziet het zo de gemiddelde consument niet. Die ziet he dit is kaart A van 500 euro en dit kaart B van 500 euro. Kaart B presteert 30% beter als kaart A. Dan gaan hun echt niet nadenken over de technische aspecten dat er misschien wel 2 GPU's opzitten. Hun zien 2 kaarten van 500 euro waarbij kaart B 30% beter presteert. Tada keuze gemaakt. Al moet je natuurlijk ook vermelden dat die HD5970 er meestal voor 600 is. en de GTX480 voor zon 500 beschikbaar zou moeten komen. En dan de afweging vaker gemaakt word op prijs dan performance. Dan heb ik het over de non wetende consument.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 30-05 10:15

Darkasantion

Just keep swimming!

chim0 schreef op maandag 29 maart 2010 @ 15:49:
Waarom is het vreemd? Of wil jij dat het vreemd is maar eigenlijk is het gewoon de harde waarheid? ;)
Omdat er genoeg andere gerenomeerde sites zijn die niet dezelfde resultaten hebben? Vraag is dus, welke site is er fout bezig? En gezien het feit dat B3D als enige deze uitkomst heeft in vergelijking met anderen, is het zeer aannemelijk dat B3D iets fout doet.
Jongens rustig maar, iedereen mag een mening hebben en we hebben allemaal onze voorkeur maar kunnen we dat achterwege laten en gewoon over die kaart praten? Hij doet het toch? Lekker boeie stroomverbruik. Als je deze kaart hebt, ben je die-hard gamer en die kijken volgens mij niet naar stroomverbruik, gewoon dikke voeding erin. Ik ben echt niet iemand die helemaal zijn energierekening gaat berekenen als ik een PC koop. Wat denk je? Dat deze kaart opeens 100 euro in de maand aan energie gaat kosten ofzo?
Oh, jij weet dus waar elke die hard gamer naar kijkt..... En dat elke gamer bakken met geld heeft, totale schijt eraan heeft dat de kaart veel meer stroom verbruikt dan de concurrentie, heel heet wordt wat waarschijnlijk niet al te best is voor de levensduur, en zo dom is om 100 euro meer te betalen voor hogere kosten, hitte en bijna geen prestatie winst....
Zeker weten, ik zie het zo, een ander ziet het anders, prima maar ik koop daarop. Mag ik dat lekker zelf weten? :)
Dat mag je zeker, zolang anderen maar niet van alles gaat beschuldigen omdat zij niet jouw mening delen
Er schuilt een fanboy in ons allen en dat is prima. Alleen willen sommigen het niet toegeven. :)
Look who's talking?

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Edmin schreef op maandag 29 maart 2010 @ 15:40:
[...]

Ik vind hem ook vreemd. Voornamelijk de manier waarop de conclusie is geschreven is anders. Ik probeer hem nu naast oudere reviews van B3D te leggen om wat meer beeld te krijgen.
Hmm...

zet de conclusie van de Fermi review:
http://www.bjorn3d.com/read.php?cID=1831&pageID=8805 (17 pagina's)

eens naast de Cypress en Hemlock reviews:
http://www.bjorn3d.com/read.php?cID=1682&pageID=7688 (10 pagina's)
http://www.bjorn3d.com/read.php?cID=1738&pageID=8027 (9 pagna's)

Maar kijk ook eens naar deze review van de GTX275 uit afgelopen december
http://www.bjorn3d.com/read.php?cID=1733&pageID=8000

Het lijkt wel of ze daar alle kritiek schuwen uit hun artikeltjes...

Overigens is dat puntensysteem iets dat ze tussendoor hebben ingevuld.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

chim0 schreef op maandag 29 maart 2010 @ 15:49:
[...]

Waarom is het vreemd? Of wil jij dat het vreemd is maar eigenlijk is het gewoon de harde waarheid? ;)
Lekkere drogreden en op de man met je insinuaties. Maarre... als 8/10 reviews hetzelfde roepen en 2/10 niet, wie heeft er dan gelijk?
Jongens rustig maar, iedereen mag een mening hebben en we hebben allemaal onze voorkeur maar kunnen we dat achterwege laten en gewoon over die kaart praten? Hij doet het toch? Lekker boeie stroomverbruik. Als je deze kaart hebt, ben je die-hard gamer en die kijken volgens mij niet naar stroomverbruik, gewoon dikke voeding erin. Ik ben echt niet iemand die helemaal zijn energierekening gaat berekenen als ik een PC koop. Wat denk je? Dat deze kaart opeens 100 euro in de maand aan energie gaat kosten ofzo?


[...]

Zeker weten, ik zie het zo, een ander ziet het anders, prima maar ik koop daarop. Mag ik dat lekker zelf weten? :)

[...]
Jij bent niet ''de gemiddelde consument''.
Zal ik Fermi eens voor je samenvatten?

''Pure performance coming at high costs. Too big but too little, too late"
Er schuilt een fanboy in ons allen en dat is prima. Alleen willen sommigen het niet toegeven. :)
Jammer dat je mensen hier ervan beschuldigd dat ze een fanboy zijn, als je zelf stug door blijft lopen achter bepaalde reviews die iets in een behoorlijk positiever daglicht zetten dan dat het werkelijk is.

Acties:
  • 0 Henk 'm!

Anoniem: 290112

chim0 schreef op maandag 29 maart 2010 @ 15:37:
Dan moet je even wachten op de GTX495 :)
En jij denkt werkelijk dat die kaart er komt? Ze komen dan met het verbruik zo gigantisch in de knoop dat ze het officeel niet eens meer mogen verkopen omdat het buiten de PCI-E standaard valt.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 290112 schreef op maandag 29 maart 2010 @ 16:07:
Ze komen dan met het verbruik zo gigantisch in de knoop dat ze het officeel niet eens meer mogen verkopen omdat het buiten de PCI-E standaard valt.
Kleine correctie: mag je best verkopen (zie de asus mars en ares, ook buiten pci-e-specs) maar er is geen OEM of reseller die een kaart met een verbruik van 500-600W zal willen verkopen, en het levert zoveel hitte op dat NVidia het zelf ook niet aan zal durven en het ook niet zou willen.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Anoniem: 290112

bwerg schreef op maandag 29 maart 2010 @ 16:10:
[...]

Kleine correctie: mag je best verkopen (zie de asus mars en ares, ook buiten pci-e-specs) maar er is geen OEM of reseller die een kaart met een verbruik van 500-600W zal willen verkopen, en het levert zoveel hitte op dat NVidia het zelf ook niet aan zal durven en het ook niet zou willen.
Hmm true, hoe ga je in godsnaam 500-600 watt koelen?
Waterkoeling? Dan sluit je ook mega groot deel van je markt uit.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Het zou kunnen, als je een soort oplossing als een Corsair H50 monteert. Er zijn wel eerder kaarten met zulke oplossingen uitgebracht.
Een andere oplossing zou een dual GPU kaart zijn die meer dan twee slots inneemt. Bijvoorbeeld een sandwich board zoals de eerste GTX295, maar dan groter.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Zal vast wel lukken hoor. 2 GTX480s in SLI blijven immers ook hangen @ 96C (weliswaar met 70.2dB & een verbruik van 851W over het gehele systeem).

Wil je echter geen gehoor schade krijgen door de fan, dan zal je inderdaad waterkoeling moeten hebben.
Asus 8800GTX Aquatank-like ding?
Afbeeldingslocatie: http://xtreview.com/images/asus-EN8800GTX-TOP-aquaTank-cooling_01.jpg

Kost je wel meteen een PCI slot erbij.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

http://www.alternate.de/html/solr/search/result.html

Hmm prijs was denk ik niet goed van die 600 euro en 500+ aangezien ze er nu staan voor 480 euro.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Xenomorphh schreef op maandag 29 maart 2010 @ 16:31:
http://www.alternate.de/html/solr/search/result.html

Hmm prijs was denk ik niet goed van die 600 euro en 500+ aangezien ze er nu staan voor 480 euro.
Achja, zolang niemand kan leveren kan er vanalles staan. Ik heb het ook gezien met de HD5870, eerst mondjesmaat voor 310 euro ongeveer nu mondjesmaat voor dik 360-380 euro. :P

Hopelijk komt Corsair weer met zo'n mooie Hydro H50 variant voor videokaarten. Gewoon met een dun single-slot waterkoelblok en een grote radiator met 2x120mm fans en pomp ergens... Vraag me af hoe je drie van die GTX 480's in SLI wilt draaien anders.

[ Voor 22% gewijzigd door frankknopers op 29-03-2010 16:47 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

frankknopers schreef op maandag 29 maart 2010 @ 16:45:
[...]

Achja, zolang niemand kan leveren kan er vanalles staan. Ik heb het ook gezien met de HD5870, eerst mondjesmaat voor 310 euro ongeveer nu mondjesmaat voor dik 360-380 euro. :P

Hopelijk komt Corsair weer met zo'n mooie Hydro H50 variant voor videokaarten. Gewoon met een dun single-slot waterkoelblok en een grote radiator met 2x120mm fans en pomp ergens... Vraag me af hoe je drie van die GTX 480's in SLI wilt draaien anders.
zo.

http://www.fudzilla.com/content/view/18269/1/

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Dan steken wel al je kabels (geluid, schermen etc) boven uit. Zou ik niet bepaald mooi vinden.
Overigens zullen ze zelfs met die positie vast wel luidruchtig zijn.

En daarbij.... als je $6200 uit geeft voor een pc dan kun je ook wel een goede waterkoeling regelen :P.

[ Voor 50% gewijzigd door Paprika op 29-03-2010 16:52 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Ben ik even benieuwd wat dan ''reasonable temps'' en het stroomverbruik zijn en wat voor geluidsproductie de fans hebben.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
[b][message=33726338,noline]
Sommigen zijn pro-nvidia (zoals mezelf), sommigen pro-ati. Zelf zou ik echter nooit in een ATI topic liggen opscheppen hoe goed mijn nvidia kaart wel is, maar goed, zo ben ik :)
Dat heeft er eerder mee te maken dat ze dan gewoon hard zouden falen omdat de "feiten" anders uitwijzen i.p.v. dat ze het gewoon niet doen omdat die nVidia-fanboi's lieverdjes zijn.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 30-05 19:37
Paprika schreef op maandag 29 maart 2010 @ 15:51:
[...]

Fermi t.o.v. een 5870 kost je meer dan 120 euro extra per jaar. Daar letten sommige, niet jij, best wel goed op.
120?? Corrigeer me als ik het verkeerd bereken maar:
Ongeveer 100 watt meer trekt hij onder load dan de HD5870, laat iemand 10 uur per dag gamen onder load...wat vrij belachelijk is maar compenseert wat voor idle verbruik. Een kwh is zo'n 20 cent dacht ik.
0.1 Kwh X 20 cent is 2 cent per uur => 2 X 10 = 20 cent per dag X 365, ook belachelijk, = 73 euro/jaar.

Laat bij "normaal gebruik" en iemand die niet zn pc de hele nacht aan laat staan dit ongeveer de helft hiervan zijn (zo niet minder) hebben we het over 36 euro per jaar.
Daar kun je waarde aan hechten, maar ik kan me goed voorstellen dat mensen het stroomverbruik een non-argument vinden om voor een bepaalde kaart te kiezen zeker als we het over de high-end hebben.

anathema


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
waarom zou ik in vredesnaam extra stroom willen betalen ook al is het "maar" EUR 36 Eur per jaar :?

Het is imo pas een nonargument als de kaart ook navenant betere prestaties levert en dat doet ie niet.
Tevens krijg ik ook nog de rest vd nadelen van een hoog stroomverbruik: Lawaai, hitte en snellere slijtage.
Gelukkig is de prijs wel onwijs scherp. Oh nee, wacht die is juist onwijs hoog voor het gebodene..... 8)7

Verder nog ff de uitkomst van de realitycheck die ik zojuist deed:
De GTX480 in zijn huidige vorm = EPIC fail omdat de concurrentie voor vrijwel iedereen een duidelijk zinvollere propositie heeft. (Tenminste als je in staat bent een rationele analyse te maken.)

Ben echt niet te beroerd om een nvidia kaart in mijn pc te prikken, heb er genoeg gehad en zal er ws nog genoeg krijgen ook. Echter ik wordt wat moe van al die lui die hier de mensen die met heldere en harde feiten komen (impliciet) van fanboism beschuldigen.
Sommigen hier willen niet de beste bang voor hun buck, lekker rationeel. :?
En sommigen hier hebben trollen als hobby danwel een plaat voor hun hoofd , niet normaal meer. Haal m weg en get a life ofzo......

[ Voor 5% gewijzigd door Help!!!! op 29-03-2010 19:13 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Eolis
  • Registratie: September 2005
  • Laatst online: 09-12-2021

Eolis

And the heavens shall tremble

Help!!!! schreef op maandag 29 maart 2010 @ 19:08:
^
waarom zou ik in vredesnaam extra stroom willen betalen ook al is het "maar" EUR 36 Eur per jaar :?

Het is imo pas een nonargument als de kaart ook navenant betere prestaties levert en dat doet ie niet.
Tevens krijg ik ook nog de rest vd nadelen van een hoog stroomverbruik: Lawaai, hitte en snellere slijtage.


Verder nog ff de uitkomst van de realitycheck die ik zojuist deed:
De GTX480 in zijn huidige vorm = EPIC fail omdat de concurrentie voor vrijwel iedereen een duidelijk zinvollere propositie heeft. (Tenminste als je in staat bent een rationele analyse te maken.)

Ben echt niet te beroerd om een nvidia kaart in mijn pc te prikken, heb er genoeg gehad en zal er ws nog genoeg krijgen ook. Echter ik wordt wat moe van al die lui die hier de mensen die met heldere en harde feiten komen (impliciet) van fanboism beschuldigen.
Sommigen hier willen niet de beste bang voor hun buck, lekker rationeel. :?
En sommigen hier hebben trollen als hobby danwel een plaat voor hun hoofd , niet normaal meer. Haal m weg en get a life ofzo......
Amen :)

Dit had zo mijn post kunnen zijn!

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Modbreak:Ik denk dat iedereen zo wel voldoende ruimte heeft gehad om elkaar te vertellen wat we van de ander zijn moeder vinden. Hierbij verklaar ik de rant-ronde dan ook voor gesloten. De emoties zijn gezakt, we gaan weer verder met nieuwtjes en de bijbehorende discussie... en we laten elkaar met rust.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 30-05 19:37
Help!!!! schreef op maandag 29 maart 2010 @ 19:08:
^
waarom zou ik in vredesnaam extra stroom willen betalen ook al is het "maar" EUR 36 Eur per jaar :?

Het is imo pas een nonargument als de kaart ook navenant betere prestaties levert en dat doet ie niet.
Tevens krijg ik ook nog de rest vd nadelen van een hoog stroomverbruik: Lawaai, hitte en snellere slijtage.
Gelukkig is de prijs wel onwijs scherp. Oh nee, wacht die is juist onwijs hoog voor het gebodene..... 8)7

Verder nog ff de uitkomst van de realitycheck die ik zojuist deed:
De GTX480 in zijn huidige vorm = EPIC fail omdat de concurrentie voor vrijwel iedereen een duidelijk zinvollere propositie heeft. (Tenminste als je in staat bent een rationele analyse te maken.)

Ben echt niet te beroerd om een nvidia kaart in mijn pc te prikken, heb er genoeg gehad en zal er ws nog genoeg krijgen ook. Echter ik wordt wat moe van al die lui die hier de mensen die met heldere en harde feiten komen (impliciet) van fanboism beschuldigen.
Sommigen hier willen niet de beste bang voor hun buck, lekker rationeel. :?
En sommigen hier hebben trollen als hobby danwel een plaat voor hun hoofd , niet normaal meer. Haal m weg en get a life ofzo......
Heb je het tegen mij? Neem aan van niet, want ik probeer alleen even iets in proportie te plaatsen omdat iemand roept dat fermi 120 euro per jaar meer kost terwijl het dat lang niet zo is...Of had ik dat niet moeten melden? en ik onthou me al helemaal van fanboy-discussies..Iedereen moet maar belangrijk vinden wat hij vindt.
Ik vind de GTX480 ook een irrelevante kaart want veel te duur, maar mag ik dan niet wat argumenten nuanceren? Waar zo'n heftige reactie dan vandaan komt ontgaat me volledig en vind ik ook ongepast.

anathema


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Even terug komend op Charlie van Semi Accurate: Ik moet zeggen dat hij het wel aardig goed heeft voorspeld. Ik denk dat we het daar bijna allemaal over eens kunnen zijn ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 30-05 18:21
Als je 500 euro + over hebt voor een GTX480 dan ben je per definitie een nVidia fanboy.

* Stefanovic45 kruipt snel achter een paar zandzakken.

Dat mag natuurlijk, fanboy heeft zo'n negatieve lading. Mensen kunnen dat niet altijd even goed hebben, onterecht vind ik.

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Tja, natuurlijk klopt niet alles 100% (mede omdat ie vaak een beetje overdrijft om net zijn anti-nVidia sfeer erin te kunnen gooien), maar het is al vaker gezegd... zet nou gewoon niet een bril met rode glazen OF een bril met groene glazen op. Pak een bril met 1 groen & 1 rood gras zodat je het bruikbare eruit kunt halen en dan kun je opeens heel veel dingen vinden die dus waar blijken te zijn.

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
Astennu schreef op maandag 29 maart 2010 @ 19:44:
Even terug komend op Charlie van Semi Accurate: Ik moet zeggen dat hij het wel aardig goed heeft voorspeld. Ik denk dat we het daar bijna allemaal over eens kunnen zijn ?
Inderdaad, je kunt zeggen wat je wilt, maar hij heeft wel gelijk gehad...

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

StefanvanGelder schreef op maandag 29 maart 2010 @ 19:51:
Als je 500 euro + over hebt voor een GTX480 dan ben je per definitie een nVidia fanboy.
Of je hebt gewoon CUDA nodig natuurlijk ;)

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Astennu schreef op maandag 29 maart 2010 @ 19:44:
Even terug komend op Charlie van Semi Accurate: Ik moet zeggen dat hij het wel aardig goed heeft voorspeld. Ik denk dat we het daar bijna allemaal over eens kunnen zijn ?
http://www.semiaccurate.c...why-nvidia-hacked-gtx480/
Hier vat hij nog alles even snel samen en heeft het er over waarom GTX480 uit eindelijk 480Shaders kreeg i.p.v. 512 hij heeft het ook over de clocks etc.

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 30-05 15:53

superwashandje

grofheid alom

Paprika schreef op maandag 29 maart 2010 @ 19:51:
Pak een bril met 1 groen & 1 rood glas
ziet de tekst er dan ook 3d uit zodat je beter tussen de regeltjes door kan lezen? :+

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 30-05 19:37
superwashandje schreef op maandag 29 maart 2010 @ 20:04:
[...]
ziet de tekst er dan ook 3d uit zodat je beter tussen de regeltjes door kan lezen? :+
En filtert het dan ook z'n anti-nvidia gezwam weg? Dan kunnen we hem naast zn voorspellende gaven, wellicht ook nog ooit als objectief journalist serieus gaan nemen ;)

anathema


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Modbreak:Volgens mij was ik hierboven volkomen duidelijk! De eerstvolgende die denkt het nog langer over pro- en anti- geneuzel te moeten hebben, krijgt de rekening in zijn mailbox.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
anathema schreef op maandag 29 maart 2010 @ 18:39:
[...]

120?? Corrigeer me als ik het verkeerd bereken maar:
Ongeveer 100 watt meer trekt hij onder load dan de HD5870, laat iemand 10 uur per dag gamen onder load...wat vrij belachelijk is maar compenseert wat voor idle verbruik. Een kwh is zo'n 20 cent dacht ik.
0.1 Kwh X 20 cent is 2 cent per uur => 2 X 10 = 20 cent per dag X 365, ook belachelijk, = 73 euro/jaar.

Laat bij "normaal gebruik" en iemand die niet zn pc de hele nacht aan laat staan dit ongeveer de helft hiervan zijn (zo niet minder) hebben we het over 36 euro per jaar.
Daar kun je waarde aan hechten, maar ik kan me goed voorstellen dat mensen het stroomverbruik een non-argument vinden om voor een bepaalde kaart te kiezen zeker als we het over de high-end hebben.
Wat mij een beetje beangstigde bij 1 GTX4xx review, was het commentaar dat de reviewer had over het gebruik van meer dan 1 beeldscherm. Daar kwam naar voren dat de GTX480 dus eigenlijk geheel niet 'idle' draait met de ~50 Watt verbruik, maar veel meer verbruikt. Daarnaast blijkt zelfs het openen van een enkel simpel programmatje er voor te zorgen dat dit ook gebeurd.

Feitenlijk zal voor de meeste mensen dus gelden dat, wat men normaal als 'idle' beschouwt, niet echt idle is bij deze kaarten. Dit zorgt er dan weer voor dat het stroomverbruik weldegelijk dusdanig toeneemt, dat er een groot verschil is tussen een GTX4xx en welk een andere kaart dan ook.

Je zou kunnen zeggen dat dit alles gemakkelijk op te lossen is met drivers, maar het antwoord dat de reviewer kreeg, was dat nVidia nog niet wist of ze er wel wat aan gingen doen. Tot die tijd zit je dus wel met een klein kacheltje, wat niet erg leuk is op je kleine computerkamer tijdens een hete zomer.


Verder, als je zaken als PhysX en/of Cuda belangrijk vindt, dan zal een GTX4xx kaart zo ongeveer de enige echte keuze zijn op het moment, aangezien de oudere GTX2xx kaarten amper te verkrijgen zijn en niet al te goedkoop in verhouding. De andere kaarten zijn niet sterk genoeg voor single-kaart PhysX op leuke resoluties en ook voor Cuda bieden ze niet al te veel. Jammer is dan wel weer dat nVidia de DP rekenkracht heeft gecastreerd voor de GTX4xx kaarten, waardoor je wederom niet echt veel aan DP hebt.

Of de huidige kaarten een goede keus zijn om te kopen? Niet als je prijsbewust koopt en evenmin als de huidige GPU-PhysX games je weinig doen, of een extra PCI-e slot hebt voor een goedkoop GT240 kaartje bv. De kaart is zeker krachtig en zal vanuit dat oogpunt ook nog wel een tijdlang mee kunnen gaan met de nieuwe games, maar het is geen 8800GTX. De uiteindelijke prijs in de winkel zal bepalen of de kaart echt de moeite waard zal zijn, waarbij de GTX470 zeker wel een redelijke plaatsing lijkt te hebben.

Edit: even ter onderbouwing de link van de review waar ik in deze post op doelde.

disclaimer: Ik heb geprobeerd deze post zo neutraal mogelijk op te stellen, zonder specifiek pro-dit of anti-dat te zijn.

[ Voor 9% gewijzigd door dahakon op 29-03-2010 21:33 ]


Acties:
  • 0 Henk 'm!

  • Xeanor
  • Registratie: November 2004
  • Laatst online: 05-03 14:58
Astennu schreef op maandag 29 maart 2010 @ 19:44:
Even terug komend op Charlie van Semi Accurate: Ik moet zeggen dat hij het wel aardig goed heeft voorspeld. Ik denk dat we het daar bijna allemaal over eens kunnen zijn ?
Jawel. Nvidia heeft duidelijk gewoon problemen gehad met de productie. Ik ben geen Nvidia fanboy, maar ben wel altijd tevreden geweest met Nvidia spul en ik verwacht (en wil) zelf een GTX485 of iets dergelijks zodra ze hun zaken weer op orde krijgen, mogelijk met een die shrink. Ik denk wel dat dat nog minstens een half jaar gaat duren.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

http://www.hardwarecanuck...80470-vga-cooler-bracket/

Thermalright springt handig in op de temps en noise van Fermi en brengt z.s.m. een bolt-thru kit voor bestaande GPU koelers uit. Ook wordt een VRM koeloplossing ontwikkeld.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Xeanor schreef op maandag 29 maart 2010 @ 20:55:
[...]

Jawel. Nvidia heeft duidelijk gewoon problemen gehad met de productie. Ik ben geen Nvidia fanboy, maar ben wel altijd tevreden geweest met Nvidia spul en ik verwacht (en wil) zelf een GTX485 of iets dergelijks zodra ze hun zaken weer op orde krijgen, mogelijk met een die shrink. Ik denk wel dat dat nog minstens een half jaar gaat duren.
Die productieproblemen liggen vooral bij TSMC. Zij kunnen niet leveren wat ze beloofden (kwaliteit-technisch). NVidia had misschien zijn huiswerk iets beter kunnen doen, maar heel erg veel had het niet uitgemaakt waarschijnlijk voor Fermi. De chip is al erg groot en de aanpassingen die nodig zouden zijn geweest, zou de chip waarschijnlijk nog groter gemaakt hebben, of minder krachtig. Al met al is het 40nm proces van TSMC gewoonweg niet al te best te noemen.

De eventuele die-shrink is wel iets meer dan een half jaar weg. Ga rustig uit van minimaal een heel jaar. Momenteel gaan de eerste echte geruchten van de HD6k kaarten van AMD rond in het ATI-draadje, waarin naar voren komt dat AMD waarschijnlijk de eerste chip op 40nm gaat maken, omdat er gewoon nog niets anders beschikbaar is. In dit geval gaan de GPU-ontwerpers sneller dan de chip-bakkers.

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Ooit kind aan huis bij nvidia en nou dit:
XFX Will Not Offer GeForce 400 Series GPUs - Says Fermi is Fermented

We just received confirmation that XFX, a division of PINE Technologies, will not be releasing any GeForce GTX 400 series graphics cards to the market when the cards become public next month. XFX was not listed as a launch partner for Fermi and did not issue a press release about the upcoming cards, which might come as a shock to many of our readers as they are one of the largest NVIDIA add-in board (AIB) partners in the world! XFX said that the decision not to carry this series of GF100 graphics card was their decision and that they will still be carrying NVIDIA products. From our conversation with XFX they mentioned that they have "yet to see whether the fermented launch will reach an inglorious anti-climax" and mentioned they want to "Ferm up to who really has the big Guns". We are guessing they mean AMD and it sounds like they have something special cooking up there too.
http://www.legitreviews.com/news/7707/
... -O-

Acties:
  • 0 Henk 'm!

  • Da_DvD
  • Registratie: April 2004
  • Laatst online: 14-04 10:01
1 april.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Op 29 maart?

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Lijkt mij van niet, Da_DvD. Daar is dat wereldje te serieus voor.

Acties:
  • 0 Henk 'm!

  • superchanbe
  • Registratie: Juni 2009
  • Laatst online: 07-06-2024
zo te zien komt een dual GPU voor een GTX 480 zeker komende maanden nog niet :(

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
chim0 schreef op maandag 29 maart 2010 @ 15:37:
5870 he, niet de 5970...

Dan moet je even wachten op de GTX495 :)


[...]

Sinds altijd. Niet dat ik hem kan betalen maar zou hem wel willen als ik hem kon betalen. Zelfde als Intel en AMD he.. Een Phenom II is voor de meeste ook genoeg, Athlon II zelfs, maar toch nemen mensen een Intel omdat ze heel goed weten wat ze willen.


[...]

Nee hoor maar ik voel een trollige fanboy achtige jaloerse ondertoon maar ik kan het natuurlijk helemaal mis hebben. (Net zoals ik altijd doe met m'n smileys waar jij niet tegen kan, zoiets voel ik hier ook). ;)
Een GTX495 geloof je het zelf ? de GTX480 verbruikt meer dan 250 watt met furmark (en met die tests gaat hij boven zijn TDP het lijkt wel of die 250watt een average vermogen is). Hoe wil je dat gaan coolen ? Of ze moeten em gigantisch afknijpen dus nog meer shaders uit zetten dan bij de GTX470 en nog lagere clocks. En dan nog krijg je een kaart tussen de 350-400 watt TDP

En wat betreft AMD/Intel is het heel erg de naam die Intel heeft net als nVidia dat heeft. In de tijd van de P4 verkochten ze ook veel terwijl die in alle opzichten slechter was als de K8. Maar dat zegt nog niet dat het de beste keuze is.

Momenteel is het anders. Performance/Watt van intel is net zo goed als niet net ietsjes beter. Performance is meer dan 10% hoger op gelijke clockspeeds.

Maar nVidia zal dus ook heus wel veel verkopen puur door hun naam. Maar dat zegt nog niet dat Fermi ook een goede chip/kaart is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

anathema schreef op maandag 29 maart 2010 @ 19:38:
[...]

Heb je het tegen mij? Neem aan van niet, want ik probeer alleen even iets in proportie te plaatsen omdat iemand roept dat fermi 120 euro per jaar meer kost terwijl het dat lang niet zo is...
Alleen het gedeelte over de stroom was aan jou gericht.
Blastpe schreef op dinsdag 30 maart 2010 @ 05:51:
[...]

Er schijnt nog een tweede te zijn die de GTX4X0 niet gaat leveren

[...]
Het is een groot teken aan de wand dat een partij als XFX Fermi niet gaat leveren.
De gequote bewoordingen zijn niet mis en lijken mij aan te sluiten bij vermeende diepere onvrede die bij AIB partners van nVidia leeft. Welke mede wordt veroorzaakt doordat nVidia niet schroomt om haar macht te (mis)bruiken bij zelfs haar loyaalste partners.
Denk aan packaging problemen die door nVidia ontekend worden waardoor chips na relatief korte tijd naar de klote gaan, late introductie Fermi, onder de maat presterende Fermi, GT200 series die afgeknepen werd omdat die niet meer met winst verkocht kon worden waardoor er al sinds zomer 2009 vrijwel geen kaarten verkocht worden.

[ Voor 15% gewijzigd door Help!!!! op 30-03-2010 09:35 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • StackMySwitchUp
  • Registratie: Oktober 2004
  • Laatst online: 28-04 20:28

StackMySwitchUp

Zoals dit.

Misschien is het al oud nieuws, maar ik zag zojuist de GTX 480 verschijnen in de pricewatch, voor een luttele €549.
Gezien het feit dat je daar tegenwoordig een HD5970 voor koopt rijst bij mij de vraag waar nVidia in vredesnaam mee bezig denkt te zijn.
Je moet wel een hele erge fan van nVidia zijn om een inferieure kaart te kopen voor de prijs van een kaart die op alle fronten beter is.

Het zou nVidia sieren om deze kaart voor dezelfde prijs als een 5870 te verkopen, dan kunnen ze er mettertijd misschien veel meer winst mee maken door populariteit, dit schaadt hun imago alleen maar.

Ik bouw rare dingen.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Die schaarse exemplaren vinden hun weg wel voor die prijs. Ik durf zelfs te wedden dat er een run op komt.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 10:43
Help!!!! schreef op dinsdag 30 maart 2010 @ 09:32:
[...]

Alleen het gedeelte over de stroom was aan jou gericht.


[...]

Het is een groot teken aan de wand dat een partij als XFX Fermi niet gaat leveren.
De gequote bewoordingen zijn niet mis en lijken mij aan te sluiten bij vermeende diepere onvrede die bij AIB partners van nVidia leeft. Welke mede wordt veroorzaakt doordat nVidia niet schroomt om haar macht te (mis)bruiken bij zelfs haar loyaalste partners.
Denk aan packaging problemen die door nVidia ontekend worden waardoor chips na relatief korte tijd naar de klote gaan, late introductie Fermi, onder de maat presterende Fermi, GT200 series die afgeknepen werd omdat die niet meer met winst verkocht kon worden waardoor er al sinds zomer 2009 vrijwel geen kaarten verkocht worden.
XFX is playing hardball with Nvidia :)

Dat lijkt mij in ieder geval. En zolang XFX denkt geen serieuze winst te maken met GF100, of dat zelfs denkt te compenseren door zich meer op ATI te richten, geven ze ondertussen wel een heel sterk signaal af aan Nvidia.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Of nVidia straft XFX omdat ze ook ATi zijn gaan doen en mogen niet eens GF100 kaarten uitbrengen. (of in ieder geval in het begin).

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Astennu schreef op dinsdag 30 maart 2010 @ 10:27:
Of nVidia straft XFX omdat ze ook ATi zijn gaan doen en mogen niet eens GF100 kaarten uitbrengen. (of in ieder geval in het begin).
Dit dus... ongeveer.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Fud heeft er nu ook een stukje over online staan:
Nvidia won't provide

We have heard and confirmed from multiple independent sources that XFX won’t have Fermi cards at launch.

Nvidia is punishing this highly successful brand by cutting them off from Geforce GTX 480 and 470 launch cards, and this is a direct result of XFX's last year's decision to to start selling ATI. Since Nvidia’s sales department doesn't know any better, this is the action the green company decided to take.

Nvidia refuses to see that this might be a bad thing for the whole company as XFX has a very loyal fan base who will probably start standing up for themselves when they realize they won’t get a decent launch quantity of these cards.

In the mean time, XFX’s answer to Nvidia’s cut-out deal is bringing the fastest ever Radeon HD 5970 X2 cards with super specs, and we will try to get as many details as we can.
Ik vind dat wel echt iets voor nVidia om je parkners zo te behandelen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Daar ik momenteel al de gereleasde reviews ben aan het aflopen voor de TS kwam ik de volgende review tegen:

Tweaktown: Consumptie van een overgeklokte kaart <> stock

Hmm dit vind ik persoonlijk wel iets raars, ik heb dit in ieder geval toch nog niet geweten wanneer je een GPU serieus overklokt het verbruik helemaal niet toeneemt.

Nu het kan altijd liggen aan verkeerde metingen natuurlijk, ofwel is dit het zoveelste bewijs dat nVidia standaard er veel te veel voltage (moet) doorsturen? Waardoor de liniaire stijging van het verbruik door het verhogen van de clocks in feite in het totale plaatje verwaarloosbaar is tegenover het verbruik van de veel te hoge voltages (exponentiele toename van het verbruik) + de leakage?

Trouwens als de metingen juist zijn wil dat ook zeggen dat hoe hoger je een Fermi GPU klokt hoe effeciënter (als je natuurlijk van efficiëntie kan spreken :+ ) hij wordt?
Indien dat klopt was het natuurlijk wel een verstandige keuze om een paar shaders uit te schakelen en de clock snelheden op het einde toch een stuk omhoog te gooien.

Maar zover ik mij herriner heb ik al een paar maal gelezen dat de Fermi oorspronkelijk bedoeld waws om op vele hogere clocks te lopen dan de huidige uiteindelijke versie. Echter bleek dit te hoog gegrepen voor het huidige 40nm procédé.
En nogmaal indien de metingen juist blijken te zijn wil dat wel zeggen dat de architectuur stukken meer potentieel heeft/had dan dat we nu te zien krijgen.
Fermi2 zou in dat opzicht wel eens stukken beter kunnen worden, zelf als ze niet al te veel wijzigingen doorvoeren maar enkel er wel in slagen de clock snelheden serieus de hoogte in te gooien (zonder dat het verbruik mee de hoogte in schaalt dat is ..)

Specs


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Wat is dit voor een onzinreview? Je kaart gaat MINDER verbruiken als je hem 15% harder laat lopen? Natuurlijk 8)7

Volgens mij zijn ze niet kritisch en scherp genoeg daar bij TweakTown, de reviews en artikelen vertrouw ik al langer niet. Dit met het oog op bepaalde driverresultaten in het verleden en een behoorlijk verouderde benchsuit die véél te lang aangehouden is.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
lightdestroyer schreef op dinsdag 30 maart 2010 @ 10:41:
Daar ik momenteel al de gereleasde reviews ben aan het aflopen voor de TS kwam ik de volgende review tegen:

Tweaktown: Consumptie van een overgeklokte kaart <> stock

Hmm dit vind ik persoonlijk wel iets raars, ik heb dit in ieder geval toch nog niet geweten wanneer je een GPU serieus overklokt het verbruik helemaal niet toeneemt.

Nu het kan altijd liggen aan verkeerde metingen natuurlijk, ofwel is dit het zoveelste bewijs dat nVidia standaard er veel te veel voltage (moet) doorsturen? Waardoor de liniaire stijging van het verbruik door het verhogen van de clocks in feite in het totale plaatje verwaarloosbaar is tegenover het verbruik van de veel te hoge voltages (exponentiele toename van het verbruik) + de leakage?

Trouwens als de metingen juist zijn wil dat ook zeggen dat hoe hoger je een Fermi GPU klokt hoe effeciënter (als je natuurlijk van efficiëntie kan spreken :+ ) hij wordt?
Indien dat klopt was het natuurlijk wel een verstandige keuze om een paar shaders uit te schakelen en de clock snelheden op het einde toch een stuk omhoog te gooien.

Maar zover ik mij herriner heb ik al een paar maal gelezen dat de Fermi oorspronkelijk bedoeld waws om op vele hogere clocks te lopen dan de huidige uiteindelijke versie. Echter bleek dit te hoog gegrepen voor het huidige 40nm procédé.
En nogmaal indien de metingen juist blijken te zijn wil dat wel zeggen dat de architectuur stukken meer potentieel heeft/had dan dat we nu te zien krijgen.
Fermi2 zou in dat opzicht wel eens stukken beter kunnen worden, zelf als ze niet al te veel wijzigingen doorvoeren maar enkel er wel in slagen de clock snelheden serieus de hoogte in te gooien (zonder dat het verbruik mee de hoogte in schaalt dat is ..)
Zo wat een flop zeg. Dat is onmogelijk dat je overclockt en vervolgens je verbruik omlaag gaat.

We weten allemaal wat de clockspeed is: Schakelen van de transistors. Zodra deze dicht is gaat er een stroom lopen. Daar komt dan ook je verbruik vandaan. Je gaat vaker schakelen dus ga je ook meer verbruiken. Ga je daar naast ook nog eens de spanning van de chip veranderen. Gaat hij een hogere spanning schakelen en krijg je een nog hoger verbruik. + ook nog kans op een hogere lekstroom wat weer voor een hoger verbruik zorgt.

Voltage verhoging zorgt is meestal de grootste boosdoener van een hoog verbruik. Maar clockspeeds laten het verbruik ook altijd stijgen als deze verhoogt worden. Daarnaast helpt temperatuur ook voor verbruik.

Ik heb het idee dat dat laatste met de lekstroom te maken heeft. Ik merk dat als ik BV me CPU 10c cooler houd het verbruik ook zo maar 5-10 watt lager kan zijn.

(het kan zijn dat ik wat verkeerde termen gebruikt heb: stroom/spanning door elkaar gehaald heb maar ik denk dat het idee wel duidelijk is)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
madmaxnl schreef op maandag 29 maart 2010 @ 19:57:
[...]

http://www.semiaccurate.c...why-nvidia-hacked-gtx480/
Hier vat hij nog alles even snel samen en heeft het er over waarom GTX480 uit eindelijk 480Shaders kreeg i.p.v. 512 hij heeft het ook over de clocks etc.
Charlie heeft het stukje eraf gehaald. Heeft iemand het nog in de cache, a.u.b. :?
Hij had het over 2% Yield en dus enorme kosten ....

Uit dat verdwenen stukje:
"The 480 shader, 1400MHz cards are barely manufacturable. If you don't already have one ordered by now, it is likely too late to get one since quantities are going to be absurdly limited. As things stand, the 9,000 risk wafers seem to have produced less than 10,000 GTX480s and about twice that many GTX470s if the rumored release numbers are to be believed. That would put yields of the new lower spec GTX480 at well under the two percent Nvidia saw last fall.

It is hard to say anything good about these kinds of yields, much less to call it a win. A one-point-something percent yield, however, is a number greater than zero."
Dan is die GPU toch onbetaalbaar :X

[ Voor 42% gewijzigd door Joepi op 30-03-2010 11:11 ]


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 30-05 10:15

Darkasantion

Just keep swimming!

Joepi schreef op dinsdag 30 maart 2010 @ 11:06:
[...]

Charlie heeft het stukje eraf gehaald. Heeft iemand het nog in de cache, a.u.b. :?
http://www.semiaccurate.c...why-nvidia-hacked-gtx480/
Aub :)

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Ik heb dit nieuwsbericht nog niet zien passeren, sorry indien het wel al het geval was ..

The Tech Report: New mobile GeForce drivers bring external 3D Vision support

Ik mag mijn mobiele drivers sectie dus ook gaan updaten XD
Anyway belangrijkste feiten
• Voor alle mobiele kaarten vanaf de 8M serie
• performatie verbeteringen (vergelijkbaar met de desktopdrivers performantie boost)
• Naamsverandering naar "Verde", het voordeel is dat de driver nummers nu gelijk zijn getrokken blijkbaar
• 3D Vision

Specs

Pagina: 1 ... 6 7 Laatste

Dit topic is gesloten.