[Algemeen] nVidia Nieuwdiscussie Topic - Deel 49 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 6 Laatste
Acties:
  • 26.704 views

Acties:
  • 0 Henk 'm!

Verwijderd

Snoitkever schreef op donderdag 04 november 2010 @ 11:35:
[...]
3 - De consument wil eigenlijk maar 1 ding, namelijk performance. Ja, iedereen roept wel heel hard dat ze het stroomverbruik van nieuwe GPUs zo idioot vinden, maar op het moment dat AMD of NVIDIA achter loopt op de ander qua performance hoor je niemand meer over verbruik. Als iedereen verbruik zo belangrijk zou vinden zou iedereen gewoon een low-end GPU kopen, want die zijn veel efficienter en zuiniger dan de high-end chips.
Dit is natuurlijk niet helemaal waar, velen zoeken naar een goede prijs/performance, maar zeker ook een goede performance/watt kaart en daarin is AMD afgelopen jaar superieur geweest. Het is (buiten de half jaar voorsprong) toch geen wonder dat AMD het beter doet dan Nvidia? De GTX470 en 480 werden door prijsdalingen best scherp in de markt gezet, maar toch hadden kaarten als de HD5850 en HD5870 de overhand, simpelweg omdat ze maar iets minder performance hadden, maar wel veel zuiniger waren. Dan is dat dus in zekere zin een 'bewijs' dat verbruik weldegelijk belangrijk is voor de consument.
Ik wil niet zeggen dat de kaarten in de toekomst veel zuiniger worden, want bij elke die-shrink worden er één/twee miljard extra transistors op gekwakt en de clockspeeds omhoog geduwd totdat ze weer aan een bepaalde max zitten qua verbruik. Maar de consument kijkt zeker met een schuin oog naar het verbruik!

EDIT: Van de buren;
Afbeeldingslocatie: http://content.hwigroup.net/images/news/inno3d-gtx580.jpg

[ Voor 3% gewijzigd door Verwijderd op 04-11-2010 13:03 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Gaan ze nou ook al met features adverteren OP de kaart? :X

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ze moeten iets bedenken om hem goed te laten verkopen. ;)

Afbeeldingslocatie: http://tof.canardpc.com/view/125aa976-1496-418c-8d8e-abca2b946a2a.jpg


Nvidia has 28nm sample chips

TSMC made
We have very limited information, but we have just heard a quite spectacular piece of news - Nvidia already has 28nm samples of its new core.

It looks like the core is entry level, but it’s not conclusive and of course it is made in TSMC's High Metal gate 28nm process. We heard the GF1x9 as the codename, but we have to do some more digging.

The production of these actual chips won’t happen before the second half of 2011 but it is impressive to see that they already have some samples.

Globalfoundries should also be ready to get the first 28nm samples in this quarter, but we are not sure if AMD already got its silicon back. We expect this to happen soon as well.

[ Voor 121% gewijzigd door -The_Mask- op 04-11-2010 13:39 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Wat ik ervan begrepen heb is dat die 28nm samples voor een product zijn dat (OEM-only met walgelijke performance wordt, low-budget part en) een try-out is. Zeg maar de 4770 van nVidia, op het laatste punt dan. 4770 leverde geen slechte prestaties ;)

[ Voor 28% gewijzigd door Jejking op 04-11-2010 13:51 ]


Acties:
  • 0 Henk 'm!

  • Wouter87
  • Registratie: Mei 2006
  • Laatst online: 16-09-2021
Excuus dat ik hier zomaar binnen kom vallen, en m'n vraag weg plant... maar ik kan het antwoord echt niet vinden, en ik wil 't even zeker weten.

Zag in het Dual Monitor FAQ topic het niet staan. (laatste post ook van 2008)
Misschien tijd voor een dual monitor FAQ?

Kreeg vandaag de vraag of je in een pc met nu nog alleen onboard video, een tweede monitor zou kunnen aansluiten dmv een te kopen videokaart. Op die manier heb je twee video uitgangen en moet het alleen software matig nog geïnstalleerd worden. Grafisch hoogstaande prestaties zijn niet nodig (het is alleen typwerk) dus dan ben je met een heel cheap videokaartje toch al geholpen, of werkt het niet zo makkelijk?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Huidige IGP's van AMD kunnen gewoon twee beeldschermen aansturen, al moet één wel via VGA ander kan dan via DVI/HDMI. Maar dit heeft echt 0,0 met dit topic te doen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Sinds 90nm was ATI altijd de snelste met een nieuw productie procedé met 40Nm waren ze zelf veel eerder.
Opeens zou nVidia dan sneller 28Nm productie procedé hebben ? :+

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

madmaxnl schreef op donderdag 04 november 2010 @ 15:27:
[...]


Sinds 90nm was ATI altijd de snelste met een nieuw productie procedé met 40Nm waren ze zelf veel eerder.
Opeens zou nVidia dan sneller 28Nm productie procedé hebben ? :+
Waarom zou dat niet kunnen? De ontwikkeling van 28nm staat niet stil omdat de GF100 gefaald heeft op 40nm?

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

madmaxnl schreef op donderdag 04 november 2010 @ 15:27:
[...]


Sinds 90nm was ATI altijd de snelste met een nieuw productie procedé met 40Nm waren ze zelf veel eerder.
Opeens zou nVidia dan sneller 28Nm productie procedé hebben ? :+
Zou kunnen, als je al je mankracht op het nieuwe procedé zet. Is wel een enorme gok overigens, als het misgaat dan heb je een probleem. Zie 130nm voor de GeForce FX :)

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Jejking schreef op donderdag 04 november 2010 @ 15:33:
[...]

Zou kunnen, als je al je mankracht op het nieuwe procedé zet. Is wel een enorme gok overigens, als het misgaat dan heb je een probleem. Zie 130nm voor de GeForce FX :)
Goh tis niet dat ze geen problemen hebben met 40nm hé ;)

Maar AMD/ATI is tegenwoordig stukken beter met het stilhouden van nieuwe feiten (daarentegen wil nVidia juist veel van zulke leaks) dus het kan goed zijn dat AMD ook al de eerste resultaten van hun testen teruggekregen heeft.

Sterker nog het zou me zelfs verbazen indien niet omdat in tegenstelling van nVidia ATI de keuze heeft tussen twee chipfabrikanten.
Hoe vroeger ze de keuze maken met wie van de twee ze uiteindelijk in zee gaan hoe gemakkelijker ze nog hun chipdesign kunnen aanpassen aan de resultaten van de testen. (Ofwel kan je twee teams maken maar dat lijkt me toch dubbel het aantal kosten voor hetzelfde resultaat als een goede beslissing adhv represantieve testen.)

Specs


Acties:
  • 0 Henk 'm!

  • Bolletje
  • Registratie: Juni 2008
  • Laatst online: 17:58

Bolletje

Moderator Harde Waren
Bolletje92 in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."
Ik zie nog wel wat in een kaart dit tussen de GTS450 en GTX460 in it. Iets met 288 Cuda Cores ofzo. En dan voor 100 euro.
nieuws: 'Nvidia komt half november met langzamere GTX 460'
De videokaart zou 288 actieve Cuda-cores hebben,
Hehe... :P

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Nog een cluster uitgeschakeld, lagere kloksnelheden, maar wel meer geheugenbandbreedte. Toch zegt iets in mij dat dit kaartje zal moeten gaan knokken met de snelste Turks, die nog niet de helft in omvang zal zijn, veel minder stroom verbruikt en waarschijnlijk af kan met een 128-bit geheugeninterface.

Wat het in ieder geval wel aantoont, is dat ze dus genoeg chips hebben die niet goed functioneren om dus als 'afval' in een goedkope kaart gestopt worden. Dat is nou niet bepaald geruststellend voor de yields van GF104, aangezien er uberhaupt al geen volledige versie op een kaart zit.

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 24-08 14:47
madmaxnl schreef op donderdag 04 november 2010 @ 15:27:
[...]


Sinds 90nm was ATI altijd de snelste met een nieuw productie procedé met 40Nm waren ze zelf veel eerder.
Opeens zou nVidia dan sneller 28Nm productie procedé hebben ? :+
Sinds 90nm is het ook steeds belangrijker geworden. Vroeger waren er een boel andere factoren die performance van een chip bepaalden, nu zitten beide bedrijven, maar met name NVIDIA tegen de muur van de mogelijkheden van 40nm aan te werken. Chips zijn vele malen complexer en groter dan een paar jaar geleden en de enige mogelijkheid die NVIDIA heeft om een fatsoenlijke slag te slaan tegen AMD is een kleiner procedee.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Xenomorphh schreef op donderdag 04 november 2010 @ 15:30:
[...]


Waarom zou dat niet kunnen? De ontwikkeling van 28nm staat niet stil omdat de GF100 gefaald heeft op 40nm?
Omdat ATI veel eerder op 55nm zat en daardoor dus ook eerder met de ontwikkelingen naar 40nm is gestart. En dus ook eerder met de ontwikkelingen naar 32nm en 28nm is gestart.

Kijk naar AMD en Intel, Intel is gewoon altijd de eerste omdat ze dat altijd al zijn geweest.
Zo een reeks kan alleen worden gebroken als AMD enorm goede resultaten boekt wat betreft vooruitgang naar nieuwe productie procedés en Intel juist enorm slechte resultaten boekt wat betreft vooruitgang naar een nieuw productie procedé. Om de reeks te verbreken moet het bij wijzen van twee kanten komen. Dat is bij Intel en AMD heftiger omdat ze zelf fabrieken hebben en dus alles van hun zelf afhangt. Bij ATI en nVidia is dit minder heftig omdat ze zelf de productie procedés niet ontwikkelen maar wel de transities zelf moeten realiseren.

Als je dus de transitie naar 40nm hebt gerealiseerd kun je op naar 32nm en 28nm. De enige reden wat ik kan bedenken waarom nVidia ingelopen kan zijn op ATI(dus niet ingehaald). Kan zijn is omdat ATI tijd heeft verkwist aan 32nm dat vanuit TSMC is gecanceld. Maar er zijn altijd meer ontwikkelingsteams. Het is dus niet zo dat er maar één team is dat zich constant focust op maar één transitie. Er zijn meerderen teams, zo is er dus één team dat zich focuste op 40nm en één team dat zich focuste op 32nm en één team dat zich focuste op 28nm. De team sterkte(grote, kennis etc) wordt bepaald aan de noodzaak van de transitie. In het geval zou op het moment van het afronden van de transitie naar 40nm het 32nm team de meesten mensen e.d. hebben die aan die transitie werken omdat deze binnen de korsten tijd gerealiseerd kan worden. Toen bekend werd voor ATI dat 32nm gecanceld was werd het team dat hieraan werkte dus ontbonden en opgedeeld in andere teams voor nieuwere productie procedé transities. In dit geval zou het grootste team dan dus werken aan de transitie van 40nm/32nm naar 28nm.

ATI ligt dus betere op schema wat betreft 28nm dan nVidia simpelweg omdat ze er ook al langer aan bezig zijn. Overigens is de kennis die ATI heeft opgedaan aan het 32nm productie procedé niet volledig nutteloos want dit kan weer worden gebruikt etc.

Geloof me maar dat nVidia veel mensen die eigenlijk aan de 32nm/28nm hadden moeten werken aan het werk waren aan het 40nm productie procedé vanwege de problemen dus ook nVidia heeft min of meer vertraging opgelopen.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Je trekt wel erg veel conclusies uit gewone aannames die er ook wel eens totaal naast kunnen zitten. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Snoitkever schreef op donderdag 04 november 2010 @ 11:35:
[...]

Energie-efficiency is een enorm probleem bij GPUs en gaat alleen nog maar groter worden. Er zijn drie problemen die er samen voor zorgen dat verbruik in de toekomst echt niet omlaag gaat:

1 - Hoge performance kost veel energie. Dit werkt vaak ook niet lineair, 10% extra performance kost 25% meer stroom.
2 - Verbruik is de zwakste schakel bij nieuwe procedee's. Stroomverbruik schaalt lang niet altijd netjes lineair mee met de verkleining van transistoren. Dit zorgt er voor dat er veel meer werk bij komt kijken, als het al mogelijk is, om een twee keer zuiniger chip te maken dan om een twee keer kleinere chip.
3 - De consument wil eigenlijk maar 1 ding, namelijk performance. Ja, iedereen roept wel heel hard dat ze het stroomverbruik van nieuwe GPUs zo idioot vinden, maar op het moment dat AMD of NVIDIA achter loopt op de ander qua performance hoor je niemand meer over verbruik. Als iedereen verbruik zo belangrijk zou vinden zou iedereen gewoon een low-end GPU kopen, want die zijn veel efficienter en zuiniger dan de high-end chips.

Waar dit voor gaat zorgen, met name punt 2, is dat we binnen een aantal jaar tegen een flinke muur aan gaan lopen, waar de gebruikelijke performance verhogingen van de afgelopen jaren gewoon niet meer mogelijk zijn omdat energieverbruik niet meeschaalt en 300 Watt de max is die een GPU mag gebruiken.

De bewering dat de nieuwe GPUs op 28nm efficienter zouden worden is dan ook technisch gezien wel waar, perf/watt zou beter zijn, maar de high-end kaarten zouden nog steeds gewoon 200-300 Watt verbruiken, vanwege een combinatie van punt 1 en 3. Consumenten willen veel performance, en performance kost energie. De GPU fabriekanten willen de winnaar in de performancerace zijn en zullen daarom verbruik opofferen. We hebben al jaren steeds kleinere en efficientere procedees gehad, maar verbruik van high-end kaarten blijft niet alleen hoog, het wordt zelf steeds iets hoger (bewijs van punt 2). Reken er maar niet op dat GPUs de eerste paar jaar ook maar iets zuiniger worden.
Wat imho 1 vd problemen is met jou analyse is, is dat op de PC performance geen issue is itt vroeger.
Met een midend kaart van EUR 200 kun je op 1900*1200 al zowat alles op Highest en 4AA + 16AF spelen.

Dat is denk ik een belangrijke reden dat de GTX 480 hard geflopt is. Vroeger had men/ik het lawaai, de extra stroom, de hogere prijs etc. voor lief genomen omdat het ding net even wat beter presteert en ik dus in mijn favo games net wel bijv. die 4AA kon draaien.

Nu denk ik: Ja leuk hoor dat die GTX 480 iets sneller is dan een 5870 alleen betaal ik meer voor prestaties die ik amper merk, heb daarvoor veel hoger stroomverbruik, lawaai en ik steun een bedrijf dat naar mijn mening een verwerpelijke manier van zaken doen heeft die ook nog eens niet in het belang vd PC gaming in het algemeen zijn. 8)

Zolang PC games niet veel meer eisen gaan stellen aan de hardware, is de markt tot EUR 250 nog veel belangrijker geworden dan zij vroeger al was.
De low end tot, noem het eens EUR 100 a 125 zal binnenkort gedekt zijn door de C/GPU.

[ Voor 9% gewijzigd door Help!!!! op 04-11-2010 20:22 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Wat dat laatste betreft: NVidia (en AMD ook) heeft een mooie truc om toch nog een doel te vinden voor een GTX580 triple SLi configuratie: 3D Vision Surround is een prachtige techniek die in één klap de resolutie verdrievoudigd en het aantal benodigde frames verdubbeld. De videokaartfabrikanten creeeren dus hun eigen vraag op de markt.... briljant! :P

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
GTX580 komt er dus al snel
Volgens de maker van msi afterburner
Beta 4 has been sent to MSI couple minutes ago. New version will extend voltage adjustment range of AMD 6800 series to 1.3V, introduce full GTX 580 series support (including voltage control), add new <Show On-Screen Display on captured screenshots and videos> option and resolve video capture related performance hit in some DX9 applications like 3DMark 06.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
Nadeel van Surround (bij de GTX 480, GTX 460 is zeker wel te doen) is dat je naast je pc zo'n spaarpot moet neerzetten en 1 euro moet inwerpen voor ieder uur dat je 1000 watt verstookt. Lijkt het net een automaat van een speelhal. :+

Acties:
  • 0 Henk 'm!

  • MexxT
  • Registratie: Mei 2005
  • Laatst online: 01-04 20:57
ik snap dat gejammer over stroomverbruik nooit ? :P
van mij mag die kaart verbruiken als die wil, fan managment kan je zo instellen dat hij koel blijft maar dat je hem bijna niet hoort.

ok het is te begrijpen als je ecopctje hebt, maar als je zo'n kaart in je gamepc stopt, (waar bij mij toch al een energieslurpende Q6600 zit) en een extra GT240 voor physix enz enz, dan kijk je toch niet op een beetje stroomverbruik ? :P

en constant fulload trekken doe je toch niet.

[ Voor 7% gewijzigd door MexxT op 04-11-2010 21:31 ]

Audi S3


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Als het zuiniger kan waarom zou je dat dan niet doen?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
MexxT schreef op donderdag 04 november 2010 @ 21:30:
ik snap dat gejammer over stroomverbruik nooit ? :P
van mij mag die kaart verbruiken als die wil, fan managment kan je zo instellen dat hij koel blijft maar dat je hem bijna niet hoort.

ok het is te begrijpen als je ecopctje hebt, maar als je zo'n kaart in je gamepc stopt, (waar bij mij toch al een energieslurpende Q6600 zit) en een extra GT240 voor physix enz enz, dan kijk je toch niet op een beetje stroomverbruik ? :P

en constant fulload trekken doe je toch niet.
Zodra je de energierekening zelf moet gaan betalen, ga je daar toch wel iets anders over denken, wanneer je gamebakkie 10 KiloWattuur per dag verstookt. Als je dan je eindafrekening ziet, zul je je toch wel even achter je hoofd krabben.

Acties:
  • 0 Henk 'm!

Verwijderd

Ziet er vrij goed uit. Ik kijk uit naar de reviews of hetgeen die plaatjes vertellen ook werkelijk zo zal zijn :)

[ Voor 53% gewijzigd door Verwijderd op 04-11-2010 22:42 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Edmin schreef op donderdag 04 november 2010 @ 21:11:
Wat dat laatste betreft: NVidia (en AMD ook) heeft een mooie truc om toch nog een doel te vinden voor een GTX580 triple SLi configuratie: 3D Vision Surround is een prachtige techniek die in één klap de resolutie verdrievoudigd en het aantal benodigde frames verdubbeld. De videokaartfabrikanten creeeren dus hun eigen vraag op de markt.... briljant! :P
Inderdaad. :) Moet alleen nog wel wat gebeuren voor het echt een succes wordt....
spNk schreef op donderdag 04 november 2010 @ 21:36:
Als het zuiniger kan waarom zou je dat dan niet doen?
Precies. :)

Niet dat ik het niet kan missen maar ik vind het zonde. Sinds ik mijn pc, router en nog wat zaken via een stekkerblok uitschakel, sleep veel meer gebruik en her en der wat spaarlampen gebruik is mijn energieverbruik met 30% afgenomen. Geeft goed gevoel. Toen ik nog een GTX 285 SLI had verbruikte mijn hele pc idle geloof ik al 280watt. Nu zit ik misschien op 180w.....
De 0.8 kick off op de Y-as is er ook weer. Waar heb ik dat eerder gezien... :D

[ Voor 50% gewijzigd door Help!!!! op 04-11-2010 22:46 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Ik had er toch meer van verwacht (performance). Geluidsproductie ziet er wel goed uit, is iig een stap in de goede richting!

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
Lijkt een beetje een watergekoelde GTX 480 in performance, echter zijn de echte zwakke punten (geluid & performance/watt) zeer netjes verbeterd. d:)b

Als ie onder de 6970 komt, hebben ze nu wel een mooie kaart die tussen de 5870 (of 6870) en de 6970 zit. Alleen de 6950 zou dan roet in het eten kunnen gooien (maar dan moet die wel ook zo geprijst zijn dat de nVidia features ook meegerekend worden).

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Je vergeet 1 ding. Dat nVidia misschien wel veel meer mensen in hun "teams" hebben zitten dan AMD dat heeft. Toch lijkt me niet dat dingen die in het verleden gebeurd zijn dit ook voor de toekomst bepalen.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

edit: Damn ik ben traag vandaag :p

Zuiniger ftw, als iets over de gehele lijn beter kan presteren voor minder wattage, je zou niet slim zijn om het andere te nemen uiteraard. Nu, je performance/gaming pc zal bij een intensief programma/game altijd relatief veel verbruiken en als ik met graka x bepaalde programma's/games beter kan uitvoeren en dus een algemeen snellere/betere ervaring beleef zie ik echt niet nauw naar stroomverbruik. Maar goed, dit is iets waar je lang over kan discussiëren want ieder heeft daar zo zijn eigen mening over.

Sorry voor off-topic

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Xenomorphh schreef op donderdag 04 november 2010 @ 22:55:
[...]


Je vergeet 1 ding. Dat nVidia misschien wel veel meer mensen in hun "teams" hebben zitten dan AMD dat heeft. Toch lijkt me niet dat dingen die in het verleden gebeurd zijn dit ook voor de toekomst bepalen.
Dat klopt, behaalden resultaten zijn geen garantie voor de toekomst.

Maar het is gewoon erg onwaarschijnlijk. Ik kan je zeggen dat AMD meer mensen aan het werk heeft aan productie procedés dan nVidia ;)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Paprika schreef op donderdag 04 november 2010 @ 22:54:
(maar dan moet die wel ook zo geprijst zijn dat de nVidia features ook meegerekend worden).
Gaat nVidia hun kaarten dan ook zo prijzen dat ze rekening houden met de AMD features?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
Uh, denk dat er nog meer mensen zijn die om PhysX geven (of denken te geven) dan Eyefinity... (note: not me)

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Nog wel... tot ze bedenken dat een triple monitor opstelling toch wel erg gaaf is en erachter komen dat ze er eenzelfde kaart voor honderden euros bij moeten kopen, itt de ATi gebruikers die voor een paar tientjes een 2e hands nvidia kaart op de kop tikken voor PhysX.

Acties:
  • 0 Henk 'm!

Verwijderd

gamers die daadwerkelijk drie schermen op hun bureau plempen zijn er natuurlijk ook niet in grote getallen hè...

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
offtopic:
Die missen wel heel wat! :D

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Afbeeldingslocatie: http://tweakers.net/ext/f/FkPMXKtsSCXxUmFWbEGCTt1p/full.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/0AwWiSoIaF2u4yTojiWRy8pn/full.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/ni88euy36MDA7igdPy47Jnr6/full.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/vFqO0KQFC4vWRkndMZBunhSn/full.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/lm5XfEO4r9JRdAVLRNA12xRX/full.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/CO6mOGPIMuV2M0ics01k9Nrz/full.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/oWV33yt8sljNteX6CSdEBaA4/full.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/Mf3kExWM46ZVUTnIzUPDcSxo/full.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/Pu4ftuUzHIFH1qV2T83lzo0o/full.jpg

nVidia noemt de GF100 B1 dus echt GF110 A1 :p

Tijdens Vantage op Extreme settings de performance van een HD5970, in bijna alle games zal die echter de HD5970 niet bij kunnen houden.

[ Voor 25% gewijzigd door -The_Mask- op 05-11-2010 20:45 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
ASUS GeForce GTX580 1536 MB GDDR5 Graphics Card ENGTX580/2DI/1536MD5
by Asus List Price: $529.68
Price: $519.68 & this item ships for FREE with Super Saver Shipping. Details
You Save: $10.00 (2%)


This item has not yet been released.
You may pre-order it now and we will deliver it to you when it arrives.
Ships from and sold by Amazon.com. Gift-wrap available.
http://www.amazon.com/GeF...DI-1536MD5/dp/B004AP9IJ0/

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik vind het leuk dat ze testen op een phenom

Acties:
  • 0 Henk 'm!

Verwijderd

Hij is al weg :P, zal vast nog een tijd duren voor er kaarten beschikbaar komen, al is de 'launch'op 9 november. Iig hebben ze een behoorlijke inhaalslag gemaakt, alles beter dan een half jaar te laat :'(

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
Ligt erraan FrietjeMet... dit zou in principe de kaart zijn zoals Fermi oorspronkelijk bedoelt was (en dus hoe hij precies 1 jaar geleden er had moeten zijn).

[ Voor 22% gewijzigd door Paprika op 06-11-2010 14:46 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Tja, als je zo gaat redeneren.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Paprika schreef op zaterdag 06 november 2010 @ 14:46:
Ligt erraan FrietjeMet... dit zou in principe de kaart zijn zoals Fermi oorspronkelijk bedoelt was (en dus hoe hij precies 1 jaar geleden er had moeten zijn).
Dan was de HD2900XT zoals hij bedoelt was er pas met de HD3870(x2).

November 2006 8800GTX
November 2007 HD3870
Januari 2008 HD3870x2

ATI kon dus pas naar 2 jaar de prestatie van een 8800GTX te boven.
Je kunt wel zeggen dat ze nu dus pas een antwoord hebben.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
Was er echt iets van de 2900 af gesnoept (toen hield ik me nog niet zo met hardware bezig)? Dit was bij Fermi wel het geval namelijk (die had er namelijk gewoon zo moeten komen, maar door yield en warmte problemen ging dat niet).

[ Voor 49% gewijzigd door Paprika op 06-11-2010 15:35 ]


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Paprika schreef op zaterdag 06 november 2010 @ 15:33:
Was er echt iets van de 2900 af gesnoept (toen hield ik me nog niet zo met hardware bezig)? Dit was bij Fermi wel het geval namelijk (die had er namelijk gewoon zo moeten komen, maar door yield en warmte problemen ging dat niet).
Eerder wat extra, een 512 bits geheugenbus waar je niets aanhad omdat de overige delen van de kaart, ROP's/TMU's, daar ver bij achter bleven.
De HD3870 was veel goedkoper te maken door een kleine procede en 256 bits bus en ook iets sneller dacht ik. (maar nog steeds teleurstellend tov de 8800GTX, bij de HD4870 kwam het pas echt goed).

Maar wat bedrijven uit hadden willen brengen vorig jaar is minder relevant, of Nvidia een inhaalslag heeft gemaakt hangt af van de uiteindelijk performance/prijs/beschikbaarheid van de GTX580 tov de HD6970. Niet omdat de GTX480 zo laat was en de GTX580 daarop gebaseerd is.

anathema


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
Als de GTX 580 de prijs van een 5970 blijft behouden dan zullen ze het niet van de prijs moeten hebben....

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Prijs zal afhangen van de performance van HD6950/HD6970 lijkt me. De eerste 2 week na release een GTX580 kopen, als dat al kan, lijkt me niet zo verstandig..

anathema


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
madmaxnl schreef op zaterdag 06 november 2010 @ 15:31:
[...]


Dan was de HD2900XT zoals hij bedoelt was er pas met de HD3870(x2).
Die zijn toch totaal verschillend. De orginele GTX380 had precies de specs van deze GTX580. Dit is dus Fermi hoe die eigenlijk een jaar geleden geïntroduceerd zou worden, dus omdat vroeg te noemen. :P

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Tja als je het zo bekijkt heb je gelijk :|

[ Voor 3% gewijzigd door madmaxnl op 06-11-2010 21:20 ]


Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Nou ik had toch wel op wat meer gehoopt dan ik langs zie komen in een aantal benchmarks, maar aan de andere kant valt alles wat ik tot nu toe over 5970 lees ook tegen. Tijd voor 28 nm, dunkt me.

En de 8800 GTX.. _/-\o_
Wat was/ is dat een geweldige kaart. Jammer dat er geen nieuw leven meer in is geblazen na de 200 serie.

[ Voor 33% gewijzigd door Springstof op 06-11-2010 22:31 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Springstof schreef op zaterdag 06 november 2010 @ 22:18:
Nou ik had toch wel op wat meer gehoopt dan ik langs zie komen in een aantal benchmarks, maar aan de andere kant valt alles wat ik tot nu toe over 5970 lees ook tegen. Tijd voor 28 nm, dunkt me.

En de 8800 GTX.. _/-\o_
Wat was/ is dat een geweldige kaart. Jammer dat er geen nieuw leven meer in is geblazen na de 200 serie.
Jammer dat je (weer) niet weet waar je het over hebt.

De G80 is namelijk uitgemolken tot het uiterste. De G80 is er namelijk steeds naar een betere productie procedé gebracht van 90nm naar 65nm toen naar 55nm.
De G200 is een voortborduursel van de G80.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Springstof schreef op zaterdag 06 november 2010 @ 22:18:
Wat was/ is dat een geweldige kaart. Jammer dat er geen nieuw leven meer in is geblazen na de 200 serie.
GT330 is ook G92

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
nVidia gaat weer site's uitzoeken welke een GTX580 mogen reviewen....

Techpowerup krijgt er o.a. geen.

[ Voor 14% gewijzigd door -The_Mask- op 07-11-2010 10:13 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

-The_Mask- schreef op zondag 07 november 2010 @ 10:06:
nVidia gaat weer site's uitzoeken welke een GTX580 mogen reviewen....

Techpowerup krijgt er o.a. geen.
Zouden ze er anders niet genoeg hebben voor in de winkel...... :P :+

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

-The_Mask- schreef op zondag 07 november 2010 @ 10:06:
nVidia gaat weer site's uitzoeken welke een GTX580 mogen reviewen....

Techpowerup krijgt er o.a. geen.
Lol, why. Is W1zzard soms niet enthousiast genoeg geweest over de 'latest' van de groenen?
Help!!!! schreef op zondag 07 november 2010 @ 11:09:
[...]

Zouden ze er anders niet genoeg hebben voor in de winkel...... :P :+
_/-\o_ +1.

Acties:
  • 0 Henk 'm!

Verwijderd

Knappe tech demo's, die Black Ops gameplay op het einde ziet er ook nice uit :)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Grappig hoe hij het een "brand new thermal solution" noemt, dacht toch echt dat dit de oplossing was waar Sapphire zo bekend om staat :P

Maar even terug springend naar wat van die eerdere foto's, als ze hier nog steeds 83 graden mee halen in Furmark vind ik dat nog steeds niet zo heel erg indrukwekkend. Vooral omdat ze hier gegarandeerd wat extra's bovenop de prijs voor gooien.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Wel mooi dat ze eindelijk zo'n soort oplossing op een standaard kaart gebruiken, eindelijk es wat anders dan die cheap rommel die ze normaal gebruiken. Maar dan moeten ze t idd niet direct doorberekenen in de prijs natuurlijk...

83C in Furmark met weinig geluid zou ik wel indrukwekkend vinden overigens. Zou een gigantische sprong zijn tov de 95C die je daarin nu haalt met veel geluid.

anathema


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

-The_Mask- schreef op zondag 07 november 2010 @ 11:55:
Lijkt mij gewoon zelfde als bij Hardwaresecrets is gebeurt: http://www.hardwaresecret...with-Hardware-Secrets/174 (site ligt er trouwens uit)

[video]
Even een GC'tje er tegenaan dan, dan had je gezien dat die kwestie allang opgelost was ;)

Zijn overigens nog wel wat sites die nVidia rauw lusten, maar da's een iéts ander verhaal.

[ Voor 10% gewijzigd door Jejking op 07-11-2010 12:29 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Jejking schreef op zondag 07 november 2010 @ 12:27:
[...]

Even een GC'tje er tegenaan dan, dan had je gezien dat die kwestie allang opgelost was ;)
Dat verhaal is idd best wel heel erg veranderd. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 05-09 13:40
Nvidia shows some GTX 580 details
The cooler is quite interesting this time as Nvidia decided to go for Vapor chamber cooling technology and made some quite bold claims regarding the noise output of the upcoming card. The cooler itself is pretty simple, at least if you had a chance to see one of the vapor chamber based coolers, as Sapphire did that a couple of times on its AMD based cards.

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

-The_Mask- schreef op zondag 07 november 2010 @ 12:32:
[...]

Dat verhaal is idd best wel heel erg veranderd. :p
Conclusie: uitzondering bevestigt de regel? :p

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
anathema schreef op zondag 07 november 2010 @ 12:26:
Wel mooi dat ze eindelijk zo'n soort oplossing op een standaard kaart gebruiken, eindelijk es wat anders dan die cheap rommel die ze normaal gebruiken. Maar dan moeten ze t idd niet direct doorberekenen in de prijs natuurlijk...

83C in Furmark met weinig geluid zou ik wel indrukwekkend vinden overigens. Zou een gigantische sprong zijn tov de 95C die je daarin nu haalt met veel geluid.
Verschil is alleen dat dit wel even een stukje beter koelt; hoe heet wordt dit ding wel niet met een 'normale' koeler? Dat is wat ik bedoel. Ik vind het geweldig dat dit de standaard koel oplossing is, maar als deze dan nog steeds zo heet wordt belooft dat niet veel goeds eerlijk gezegd. De achterkant van de kaart wordt net zo heet, en dat wordt nog steeds niet gekoeld. Pak er maar eens een willekeurige HD5970 of GTX480 infrarood foto bij.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Aangezien het een ge-upgrade GF100 lijkt te worden zal het nog steeds een erg hete chip worden lijkt me. Dat een betere koeler met eventueel lagere fanspeed dan 83C oplevert lijkt me niet zo vreemd. In games zal het dan wel zo'n 75C zijn, afhankelijk van het fan-profiel dat ze gaan gebruiken.
De rest van de kaart zal in verhouding wel heter zijn, maar dat geldt meestal voor alternatieve koeloplossingen die vaak vooral de core beter koelen.

anathema


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

-The_Mask- schreef op zondag 07 november 2010 @ 11:55:
Lijkt mij gewoon zelfde als bij Hardwaresecrets is gebeurt: http://www.hardwaresecret...with-Hardware-Secrets/174 (site ligt er trouwens uit)

[video]
Beetje sneu hoe die engerd van nVidia het applaus er uit moet trekken. :X

"Completely.... nearly silent" :D

Verder zeker interessante Demo's. :) Ben benieuwd of we in games hier echt duidelijk verschil gaan zien bij AMD en nVidia.

Een architectuur die (bijv.) 80% van zijn vermogen aan tessalation kan toewijzen (waarbij 20% overblijft voor de rest) is niks mis mee en in dit soort Tessalation demo's kun je flink scoren.
Vraag blijft wel in hoeverre je hier in games echt iets aan hebt omdat er nu eenmaal ook andere dingen in een game moeten gebeuren waar ook vermogen voor nodig is.

Overdreven tessalation die je niet/amper ziet en ten koste gaat van evt. andere eyecandy daar schieten we ook weer niks mee op.

[ Voor 4% gewijzigd door Help!!!! op 07-11-2010 14:52 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
anathema schreef op zondag 07 november 2010 @ 14:34:
Aangezien het een ge-upgrade GF100 lijkt te worden zal het nog steeds een erg hete chip worden lijkt me. Dat een betere koeler met eventueel lagere fanspeed dan 83C oplevert lijkt me niet zo vreemd. In games zal het dan wel zo'n 75C zijn, afhankelijk van het fan-profiel dat ze gaan gebruiken.
De rest van de kaart zal in verhouding wel heter zijn, maar dat geldt meestal voor alternatieve koeloplossingen die vaak vooral de core beter koelen.
Hoezo geüpgrade GF100? Ik heb nog niets voorbij zien komen dat er op wijst dat dit écht een andere chip is. Tenzij ze tóch het aantal TMU's hebben verhoogd (dit heb ik trouwens nog in geen enkele afbeelding langs zien komen?) is dit gewoon GF100 zonder de uitgeschakelde SM zoals in de GTX 480. Een geüpgrade GTX 480 klopt wel; of beter gezegd, een niet-gecastreerde GF100 zoals de 480 dat wel is ;)

En tuurlijk verbeteren andere koeloplossing de core temperatuur; maar als deze mét Vapor chamber al de mid-80's bereikt in Furmark, en z'n gecastreerde broertje de mid-90's haalt waarbij de achterkant van de even heet wordt kan dat best betekenen dat het PCB hier dus ruim de 100 voorbij gaat? Vind ik niet gunstig klinken, want hoe je het ook wendt of keert, die hitte moet ook weg - iets wat veel mensen vaak vergeten lijkt het wel. Enige weg naar buiten wordt dan langs je CPU :/

Ik ben heel erg benieuwd naar de reviews, maar tot die tijd heb ik er een beetje een hard hoofd in. De GTX 460 was een stap in de goede richting, maar daar gaan ze zo te zien helaas niet op verder :(

Acties:
  • 0 Henk 'm!

Verwijderd

Hetgeen ik er over gelezen en gezien heb voldoet aan mijn verwachtingen hoor, die GTX580 wordt een knappe kaart net zoals GTX460 dat was voor zijn betreffende doelpubliek :) Hier ook zeer benieuwd naar de reviews !

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zondag 07 november 2010 @ 15:36:
...Hier ook zeer benieuwd naar de reviews !
Die zouden, zoals het er nu naar lijkt, al een jaartje in klaar-af status moeten verkeren, gezien de geplande launch van de orginele GTX480.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Verwijderd schreef op zondag 07 november 2010 @ 15:36:
Hetgeen ik er over gelezen en gezien heb voldoet aan mijn verwachtingen hoor, die GTX580 wordt een knappe kaart net zoals GTX460 dat was voor zijn betreffende doelpubliek :) Hier ook zeer benieuwd naar de reviews !
Wordt ongetwijfeld een knappe kaart, voor de happy few ;) De vraag is, wordt het ook knap voor nVidia?

Acties:
  • 0 Henk 'm!

Verwijderd

De 4xx reeks gaat toch van de toonbank dus de 5xx reeks zal ook wel goed verkopen zeker. Happy few, nja zo hardcore ben ik niet om direct na een launch zo'n dure performance kaart te bestellen, eerst meerdere reviews lezen en wat bekende fora volgen van gebruikers die er één hebben om hun bevindingen te horen en nja binnen een goeie maand zal de beschikbaarheid wel al wat beter zijn :)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
En nog altijd gaat multimonitor support via software oftewel 1 euro per uur aan stroom tijdens het gamen omdat je persee SLI nodig hebt... :(

Toch vraag ik me af waarom ze de GTX 480 niet zo gekoelt hebben.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Paprika schreef op zondag 07 november 2010 @ 16:42:
En nog altijd gaat multimonitor support via software oftewel 1 euro per uur aan stroom tijdens het gamen omdat je persee SLI nodig hebt... :(
Volgens mij is een kilowattuur ongeveer 20 cent, 1 euro per uur betekent dan 5 Kwh.
Als je van een verbruik van 250 watt uitgaat tijdens gamen met een GTX480 kun je haast 20 GTX480's naast elkaar draaien voor een euro per uur ;)

Maar SLI vereiste blijft natuurlijk zeker een nadeel, hoewel ik me wel kan voorstellen dat veel mensen die zulke resoluties proberen te draaien dat met 2 kaarten doen. (ikzelf overigens niet en ik heb jou ook wel es over micro-stuttering gehoord, maar toch)

edit:
Werelds schreef op zondag 07 november 2010 @ 15:25:
[...]
Hoezo geüpgrade GF100? Ik heb nog niets voorbij zien komen dat er op wijst dat dit écht een andere chip is. Tenzij ze tóch het aantal TMU's hebben verhoogd (dit heb ik trouwens nog in geen enkele afbeelding langs zien komen?) is dit gewoon GF100 zonder de uitgeschakelde SM zoals in de GTX 480. Een geüpgrade GTX 480 klopt wel; of beter gezegd, een niet-gecastreerde GF100 zoals de 480 dat wel is ;)
Die 128 TMU's heb ik al wel meerdere malen voorbij zien komen in berichten, maar wellicht zaten die al ergens verstopt in de GF100 en klopten alle gepubliceerde plaatjes van de GF100 destijds niet. Wat dat betreft kun je het idd een geupgrade GTX480 noemen. Maar van wat ik gelezen heb zal het stroomverbruik niet hoger zijn door een beter proces dus het lijkt me ook niet dat er meer hitte gegenereerd gaat worden.

[ Voor 38% gewijzigd door anathema op 07-11-2010 17:35 ]

anathema


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
Dus grafisch zit je dan al op 650 Watt. 1825 uur per jaar (5 uur gemiddeld per dag haal ik denk ik wel). komt dan al uit op 0.65 * 0.20 * 1825 = 237.25 euro aan stroom puur op het grafische deel. Met 1 enkele 5870 (180 Watt max board power): 0.33 * 0.20 * 1825 = 120.45 euro per jaar.

[ Voor 9% gewijzigd door Paprika op 07-11-2010 17:37 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op zondag 07 november 2010 @ 16:10:
De 4xx reeks gaat toch van de toonbank dus de 5xx reeks zal ook wel goed verkopen zeker.
"De 4xx reeks gaat toch van de toonbank dus de 5xx reeks zal ook wel goed verkopen zeker."

De 4xx reeks gaat bijna niet van de toonbank ik bedoel over de toonbank. Wat de 5xx reeks gaat doen valt nog te bezien maar daar mogen ze blij mee zijn als ze de 4xx serie reeks evenaren in verkopen.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op zondag 07 november 2010 @ 15:25:
[...]
En tuurlijk verbeteren andere koeloplossing de core temperatuur; maar als deze mét Vapor chamber al de mid-80's bereikt in Furmark, en z'n gecastreerde broertje de mid-90's haalt waarbij de achterkant van de even heet wordt kan dat best betekenen dat het PCB hier dus ruim de 100 voorbij gaat? Vind ik niet gunstig klinken, want hoe je het ook wendt of keert, die hitte moet ook weg - iets wat veel mensen vaak vergeten lijkt het wel. Enige weg naar buiten wordt dan langs je CPU :/
De GTX480 is qua PCB hitte niet eens de warmste kaart hoor. Er zijn zat low/mid end kaarten van AMD/Nvidia die heter worden en idd echt voorbij de 100C gaan. Ik meen dat er een ATI kaartje was die op ~112C zat! Ik weet ff niet meer welke site het was, maar daar stonden van een hele rits thermal foto's van tal van verschillende kaarten.

De Vapor chamber is natuurlijk niet nieuw, hij zit zelfs al standaard op de HD5970 en natuurlijk is een al langer gebruikte techniek bij de Vapor-X kaarten van Sapphire.
Verder is het gewoon wel een goede prestatie als ze straks een kaart hebben die ~15-20% sneller is, plus onder load én >10 graden koeler is, én minder geluid maakt.
Nvidia moet alleen echt hopen dat de HD6970 niet echt sneller gaat worden, want dat zal echt een redelijk groot probleem opleveren en die kans is best aanwezig.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
Verwijderd schreef op zondag 07 november 2010 @ 19:57:
Ik weet ff niet meer welke site het was, maar daar stonden van een hele rits thermal foto's van tal van verschillende kaarten.
Paprika in "[Algemeen] nVidia Nieuws & Discussie Top..." http://www.behardware.com...rmal-characteristics.html ;)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
anathema schreef op zondag 07 november 2010 @ 17:19:
Die 128 TMU's heb ik al wel meerdere malen voorbij zien komen in berichten, maar wellicht zaten die al ergens verstopt in de GF100 en klopten alle gepubliceerde plaatjes van de GF100 destijds niet. Wat dat betreft kun je het idd een geupgrade GTX480 noemen. Maar van wat ik gelezen heb zal het stroomverbruik niet hoger zijn door een beter proces dus het lijkt me ook niet dat er meer hitte gegenereerd gaat worden.
Ja, ik heb 128 TMU's ook langs zien komen. Samen met een 512-bit bus ;)

Die plaatjes komen overigens van NVIDIA voor zover ik weet, die kloppen dus echt wel (vandaar dat je ook overal exact hetzelfde plaatje zit, komt uit hun presskit). We zullen het wel zien, ik kijk al uit naar de reviews.


@ MW1F: Weet ik wel, maar de 480 wordt heter dan een 5970, dat zou nu dus nog wel een stapje pijnlijker uit kunnen vallen :)
Die site is trouwens hardware.fr, de bewuste pagina vind je hier. De max temperaturen liggen overal wel ongeveer gelijk, maar de 480 heeft die hitte over zo'n beetje het hele PCB, terwijl bij de 5870 bijvoorbeeld dat heel erg gecentreerd ligt waar het hoort.

Acties:
  • 0 Henk 'm!

Verwijderd

Haha, ik had 'm net gevonden!, maar idd daar staan veel voorbeelden van ook oudere series waarbij de temps tot 110-120 graden stijgen.

EDIT: Wat ik wil zeggen is dat het bij de GTX580 heus niet slechter gaat worden als andere kaarten, dus ik zou me over die temps geen zorgen maken. Vaak worden de VRM's warmer als de GPU zelf, zeker op de achterkant van de PCB.
En het is juist wel goed om te zien dat ze het iig voor elkaar hebben gekregen de hitte zo goed te spreiden over de hele kaart bij de GTX480. Liever dat, dan dat de ene helft 110 wordt en de andere helft 80...
Ik denk dat de GTX580 echt wel een hele goede stap voorwaarts wordt t.o.v. de GTX480. En dan doel ik nu ff alleen op de temps. ;)

[ Voor 95% gewijzigd door Verwijderd op 07-11-2010 20:22 ]


Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op zondag 07 november 2010 @ 18:39:
[...]


"De 4xx reeks gaat toch van de toonbank dus de 5xx reeks zal ook wel goed verkopen zeker."

De 4xx reeks gaat bijna niet van de toonbank ik bedoel over de toonbank. Wat de 5xx reeks gaat doen valt nog te bezien maar daar mogen ze blij mee zijn als ze de 4xx serie reeks evenaren in verkopen.
4xx reeks gaat prima over de toonbank, niet zoals ze gewild hadden, maar good enough.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op zondag 07 november 2010 @ 20:36:
[...]


4xx reeks gaat prima over de toonbank, niet zoals ze gewild hadden, maar good enough.
De 4xx reeks is pas compleet en hij gaat nu al "goed genoeg" over de toonbank ?
AMD heeft 90% van de DX11 markt in handen...

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

madmaxnl schreef op zondag 07 november 2010 @ 21:36:
[...]


De 4xx reeks is pas compleet en hij gaat nu al "goed genoeg" over de toonbank ?
AMD heeft 90% van de DX11 markt in handen...
Laten we voorop stellen dat iedereen het eens is dat de 400 serie qua verkopen teleurstellend is.
Afhankelijk van wie jet het vraagt en welke producten krijg je antwoorden van "mwoah" tot teleurstellend, maar de vraag is op dit moment niet zo groot dat men, net zoals AMD producten, echt moeite heeft om ze aan te slepen.

De 400 serie is nog niet compleet want er komen nog meer chips maar de kans is erg groot dat deze straks als 500 serie producten over de toonbank gaat.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Die slide, "fastest graphics card on the planet", zelfs als de HD69xx serie daarin niet meegenomen is klopt dat nog niet, of willen ze beweren dat de GTX580 sneller word dan de HD5970?

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Jup, meerdere malen achter elkaar. :P

Mja, als je de GTX580 al voordat hij in de winkel ligt als snelste GPU gaat beschouwen, dan moet je een HD6970 ook meenemen dus het klopt sowieso niet.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Echt zonde dat nVidia er meer dan een jaar over heeft gedaan de uiteindelijke kaart te lanceren, de GTX580 zou meer dan een jaar geleden een prima kaart zijn. Maar nu met waarschijnlijk Cayman eerder goed leverbaar bij de winkels wordt het gewoon weer een beetje een faal kaart net zoals de GTX480. Dan is het alleen de vraag voor wie het een faal wordt, nVidia omdat ze hem met verlies/weinig winst moeten verkopen of de consument omdat de prijs gewoon te hoog gaat zijn.


The GTX580 launch: flawed?

Speculation: We've contacted multiple NVIDIA board partners about the upcoming GTX580, and it's looking like a shitstorm...

Graphics technologies are not simple to develop. Nowhere is there a clearer example of this than the current-generation NVIDIA GTX480 card - a behemoth that boasts three billion transistors inside its GF100 core. To reach new levels of performance, NVIDIA had to basically pull a doubling of the previous architecture out of its engineering department, a process taking a year or more, and we explained that process in our initial review:

There are four GPCs in the GF100 core, and each is an entirely self-contained ecosystem of processing components that can function individually; meaning that carving the core up to create lower-end models will be much easier. Inside each GPC resides a total of four large blocks called Streaming Multiprocessors, or SMs.

These SMs each contain 32 CUDA Cores, the processors that do the actual calculation work, though it appears that a single SM in the GF100 is deactivated. The fifteen functional SMs add up to a total of 480 CUDA Cores.


However when the GTX480 launched it was less than the breathtaking performer we were hoping it would be. It was fast, don't get us wrong, but performance only just matched up with the then months-old ATI HD5870 in most situations. Now that there's a new family of cards coming from team red, it seems that the current NVIDIA green will lose out in the performance stakes. But developing a whole new architecture is costly and time-intensive. How could NVIDIA bring the performance back toward its camp? The answer: do what we predicted in our first review.

We may see limited runs of the GF100 with higher frequencies, or the full complement of 512 CUDA Cores, but this is almost as far as the architecture can go.

As leaked from multiple sources, it appears that NVIDIA have gone down exactly the same route we speculated they would, resulting in a brand-new (not particularly different) GTX580 card, based on what they're calling the GF110. Unfortunately for some of the manufacturing partners, it seems at this early stage that NVIDIA has failed to make them aware of it!

We've also heard rumblings around the place that the launch of the GTX580 will coincide with the AMD 6970, both due to hit on the 22nd of November. The NVIDIA launch is a weird one. Taking into account the shortness of time since its last launch, and that the new card is coming on the same day as its only real competitor, this is just too close to be called a coincidence - and it's more of a knee-jerk reaction that appears to be constructed solely to take the wind out of the competition's sails.

We contacted four of NVIDIA's top partners on the phone this afternoon, and we've paraphrased the conversations below:
Atomic: Hi {A}, we were wondering when we'd be able to get a review sample of the new GTX580? We were told to expect them roughly by the 9th of November.

Partner A: We're getting some in mid November. You'll be getting one then.

Atomic: Hi {B}, when will we be getting one of your GTX580 cards?

Partner B: We're not actually sure. Stock might be in by December, but we haven't got a confirmation at this stage.

Atomic: Hi {C}, when can we expect the new GTX580 card?

Partner C: ....We don't have that card on our roadmap. Does it exist?

Atomic: Hi {D}. So, how's about that new GTX580?

Partner D: We're getting stock in soon, so expect the card shortly.

While all of the information we've received at this point is speculative it's looking more and more like NVIDIA are simply in a panic; trying to plug up the gaps with semi-new cards as a stopgap solution before (we hope) a more competitive architecture can launch. We're hoping to give it a full run-down in Issue 120 of the magazine - assuming, that is, we get our hands on a card.




De reden dat elke fabrikant iets anders zegt komt doordat ze helemaal nog geen kaarten hebben, de kaarten die naar de reviewsite's worden gestuurd zullen ook van nVidia zelf komen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
Overigens vond ik dat best wel droog, want met die beredenering zouden ze die al hebben, gezien de GTX 480 dat was. Zelfs als in die kast een GTX 480 zat met de core speed 1 MHz hoger en de naam GTX 580, zou het al de snelste GPU zijn.

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-09 09:15

Darkasantion

Just keep swimming!

Help!!!! schreef op zondag 07 november 2010 @ 14:51:
[...]

Beetje sneu hoe die engerd van nVidia het applaus er uit moet trekken. :X

"Completely.... nearly silent" :D

Verder zeker interessante Demo's. :) Ben benieuwd of we in games hier echt duidelijk verschil gaan zien bij AMD en nVidia.

Een architectuur die (bijv.) 80% van zijn vermogen aan tessalation kan toewijzen (waarbij 20% overblijft voor de rest) is niks mis mee en in dit soort Tessalation demo's kun je flink scoren.
Vraag blijft wel in hoeverre je hier in games echt iets aan hebt omdat er nu eenmaal ook andere dingen in een game moeten gebeuren waar ook vermogen voor nodig is.

Overdreven tessalation die je niet/amper ziet en ten koste gaat van evt. andere eyecandy daar schieten we ook weer niks mee op.
Ach, vond een andere uitspraak ook mooi. "Hij is 10 Db stiller, dus 2 keer zo stil!"
Volgens mij was het zo dat per 3 Db de geluidssterke halverde/verdubbelde, dus hoe hij dan van 10 Db 2 keer zo stil kan maken is mij een raadsel... Verder ook mooie vergelijking met de GTX285, laten we de GTX480 maar even negeren of zo :')

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Om 3 dB meer aan geluidssterkte te krijgen moet je 2x de geluidsbronnen hebben.

Stel dat één GTX480 60 dB produceert dan produceren twee GTX480s 63 dB.
4xGTX480=66 dB
8xGTX480=69 dB
enzovoort.

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
NVIDIA Endless City Demo
Recommended System:
-------------------

NVIDIA GeForce GTX 500 series GPU :+
2.6 GHz Quad core CPU
4 GB System memory
300 MB Hard drive space
Microsoft Windows Vista or Windows 7
ATI users don't need to waste their time thanks to CUDA

Afbeeldingslocatie: http://img5.imagebanana.com/img/aqcjy1y2/stefan.endless.city.ati1.png
http://forums.laptopvideo...s-city-cudadx11-tech-demo

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 30-08 18:22
The way it's not allowed to be played. :)

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ach, zolang het een CUDA-demo is en niet in games of zo vind ik het prima. Als ze CUDA-demo's willen maken dan doen ze dat maar.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 24-08 14:47
madmaxnl schreef op zaterdag 06 november 2010 @ 22:46:
[...]


Jammer dat je (weer) niet weet waar je het over hebt.

De G80 is namelijk uitgemolken tot het uiterste. De G80 is er namelijk steeds naar een betere productie procedé gebracht van 90nm naar 65nm toen naar 55nm.
De G200 is een voortborduursel van de G80.
Wat een bullshit. G80 is 90nm en dat altijd gebleven. Daarna is er G92 gekomen, op 65nm, en G92 is gebaseerd op G80, maar met de nodige optimalisaties. G92 is inderdaad veel te vaak gebruikt, in de 8, 9 en 200 serie, maar is gewoon geen G80 chip, net zo min als RV730 het zelfde is als RV670 en net zo min als RV670 hetzelfde is als R600.
G200 is weer een nieuwe architectuur met een hele waslijst aan vernieuwing. Je kan zeggen wat je wilt van NVIDIA, en ik ben het absoluut met je eens als je beweert dat G92 is uitgemolken, maar NVIDIA heeft al jaren veel meer vernieuwing in elke nieuwe architectuur doorgevoerd dan AMD, die zelfs met Barts nog steeds de zelfde RV670 architectuur gebruikt, alleen met meer SIMD cores, TMUs en dergelijke. Er is hier maar een bedrijf dat z'n architectuur steeds opnieuw gebruikt en dat is AMD.

Acties:
  • 0 Henk 'm!

  • jbkappirossi
  • Registratie: April 2010
  • Laatst online: 01-08 16:28
bwerg schreef op maandag 08 november 2010 @ 12:49:
Ach, zolang het een CUDA-demo is en niet in games of zo vind ik het prima. Als ze CUDA-demo's willen maken dan doen ze dat maar.
ja maar dat maakt ook niet zo veel meer uit als ze met die lucia hydra chip komen op de videokaart. weet zelf niet precies wanneer.

Wat mij persoonlijk wel leuk lijkt, is dat intel zich een x gaat bemoeien met vga chips.

[ Voor 38% gewijzigd door jbkappirossi op 08-11-2010 13:03 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:28
Zoveel is er nou ook weer niet veranderd hoor....

Afbeeldingslocatie: http://images.anandtech.com/reviews/video/NVIDIA/G80/g80arch.gif
Afbeeldingslocatie: http://images.anandtech.com/reviews/video/NVIDIA/GeForceGTX200/G92fullblock.png
Afbeeldingslocatie: http://images.anandtech.com/reviews/video/NVIDIA/GeForceGTX200/GT200fullblock.png

Afbeeldingslocatie: http://images.anandtech.com/reviews/video/NVIDIA/GeForceGTX200/TPC.png
NVIDIA purposefully designed its GPU architecture to be modular, so a single TPC can be made up of any number of SMs. In the G80 architecture it was made up of two SMs but with the GT200 architecture it now has three SMs.

The components of the TPC however haven't changed; a TPC is made up of SMs, some control logic and a texture block. Remember that a SM is a total of 8 SPs and 2 SFUs, so that brings the total up to 24 SPs and 6 SFUs (must...not...type...STFU) per cluster in GT200 (up from 16 SPs and 4 SFUs in G80). The texture block includes texture addressing and filtering logic as well as a L1 texture cache.

[ Voor 57% gewijzigd door Paprika op 08-11-2010 13:08 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Bron?

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Eigen bron :+

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • dirkjesdirk
  • Registratie: Oktober 2001
  • Laatst online: 16-08 20:29
heeft hij een EOS450D :+

Overigens, was deze min-of-meer-vergelijkbare bench al lang gekomen?

[ Voor 75% gewijzigd door dirkjesdirk op 08-11-2010 16:11 ]

Grootgebruiker van MS Word. Maar het wordt nooit perfect...

Pagina: 1 ... 3 ... 6 Laatste

Dit topic is gesloten.