[Algemeen] nVidia Nieuwdiscussie Topic - Deel 51 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 8 ... 10 Laatste
Acties:
  • 44.486 views

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 245699 schreef op woensdag 09 maart 2011 @ 15:52:

Trek zelf maar verder je conclusies, want wil geen heibel.. ;)
Ik zie heel veel CPU bottlenecks en rare uitslagen.
Eerste interessante is Crysis tegenwoordig draait dit wat beter op een AMD, de HD6990 wint hem dus ook net.
Volgende is Metro 2033, win voor nVidia.
DiRT 2, tegenwoordig draait dit beter op nVidia, ook win voor nVidia dus.
Battlefield weer nVidia.

nVidia wint dus, maar het lijkt mij sterk dat de kloks zo hoog gaan zijn als bij deze Asus GTX580, geruchten waren 6xxMHz voor de GPU, dus een vergelijking van twee GTX570's is realistischer. Maar dan zit je dus ook nog met het verbruik. Game verbruik binnen de 375W moet eigenlijk iig en dan kun je de kloks ook echt niet hoger zetten dan laag in de 6xxMHz. Waarschijnlijk zal nVidia dus de tijd nemen de kloks zo in te stellen dat die iets sneller wordt dan een HD6990 en een verbruik wat dus nergens op gaat slaan. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Ja, Nvidia wint bij de DX11 titels qua fps, maar ik had het meer over de schaling wat mijn inziens bij AMD over alle games en hoge reso's (1920x1200 & 2560x1600) net wat beter is. En nee, vPro, dat zeg ik niet om jou tegen het zere been te schoppen...

Nvidia gaat natuurlijk zeker niet over de HD6990 heen lopen met de GTX590, maar ze maken wel een kansje om nipt sneller te zijn. Qua verbruik zal het natuurlijk wat meer worden; de GTX570 in SLI verbruikt ongeveer even veel als de HD6970 in CF en ook ongeveer hetzelfde als de HD6990 in oc-stand. Dit basseer ik op de resultaten van Anandtech;

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph4209/35815.png

Nvidia zet echter het aantal shaders en het geheugen van de GTX580 in, maar zal de clocks dus wat lager moeten zetten... Verbruik zal daarom net wat hoger komen te liggen als de GTX570 SLI gok ik zo...

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Ik las dat de 6990 maximaal ongeveer 450W verbruikt (in het AMD nieuws discussie topic) en dat dat ongeveer het maximum is wat op 1 kaart kan worden verbruikt ivm. koeling en zo. Met zoveel stroom kun je lijkt mij 2 vrij hoog (relatief hoog, wel lager dan een normale 580) geclockte 580's hebben, ervan uitgaande dat 2 gpu's op 1 plankje op sommige punten wat minder stroom verbruiken.

Ik ben zelf zeer benieuwd waar (en wanneer, sommigen hebben het over volgende week, anderen over 3 maand+) nvidia mee op komt dagen en hoe ze het stroomverbruik probleem aanpakken.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 245699 schreef op woensdag 09 maart 2011 @ 22:58:
Nvidia gaat natuurlijk zeker niet over de HD6990 heen lopen met de GTX590, maar ze maken wel een kansje om nipt sneller te zijn. Qua verbruik zal het natuurlijk wat meer worden; de GTX570 in SLI verbruikt ongeveer even veel als de HD6970 in CF en ook ongeveer hetzelfde als de HD6990 in oc-stand. Dit basseer ik op de resultaten van Anandtech;
Een HD6970 en GTX570 hebben een game verbruik van zo'n 200W max, AMD er iets onder nVidia er iets boven.
Furmark verbruik ligt op 250W van de HD6970 en 275W van de GTX570.
De HD6990 verbruikt ongeveer 375W tijdens Furmark en ongeveer 40W minder tijdens games, verwacht dus dat nVidia 375W gebruikt voor games en dan Furmark waarschijnlijk weer afkapt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
GTX590 komt waarschijnlijk geheugen te kort om uit te kunnen halen naar de HD6990 daar waar de kaarten strijden. Namelijk in het multi-monitor en hoge resolutie segment(>2560x1440+xAA). Voor segmenten hieronder zijn oplossingen als HD6950 1GB CF en GTX560Ti SLI beter. GTX590 zal dus 6GB moeten gaan huisvesten wil het een kans maken tegen de HD6990. De extra hoeveelheid geheugen gaat natuurlijk weer ten kosten van het verbruik. Ook de PCB en geheugen kosten worden hoger.

Behalve dit dilemma zit nVidia ook nog eens met kloksnelheden i.v.m. verbruik.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
6GB moeten gaan huisvesten wil het een kans maken tegen de HD6990
Hoe kom je op 6Gb? Met 4Gb hebben ze al hetzelfde als de 6990. En ik ben nog niet echt veel benchmarks / ervaringen / etc tegen gekomen waaruit blijkt dat 1,5 / 3 Gb echt te weinig is. 't is dacht ik niet zo dat 2 6970's opeens veel sneller zijn met resoluties boven de 5-6k x 1k+

Ik zie wel het voordeel van meer geheugen, ik vraag me ook af waarom nvidia niet 2 Gb heeft gegeven. Maar volgens mij is het niet zo enorm doorslag gevend.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Kuch kuch: 256, 320, 384 ?

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Nu online
Ik zie 2x 1,5GB ook nog wel een eind komen hoor, als ik zo eens naar sli benchmarks kijk.
(ook op hogere reso's met hoge AA)

Iedereen kijkt overigens naar een dubbele 570/580, maar waarom niet gewoon een dubbele 560 met 2x2GB?

Acties:
  • 0 Henk 'm!

Anoniem: 245699

-The_Mask- schreef op woensdag 09 maart 2011 @ 23:31:
[...]

Een HD6970 en GTX570 hebben een game verbruik van zo'n 200W max, AMD er iets onder nVidia er iets boven.
Furmark verbruik ligt op 250W van de HD6970 en 275W van de GTX570.
De HD6990 verbruikt ongeveer 375W tijdens Furmark en ongeveer 40W minder tijdens games, verwacht dus dat nVidia 375W gebruikt voor games en dan Furmark waarschijnlijk weer afkapt.
Furmark vind ik een beetje onzinnig, die tool slaat nergens op. En trouwens, Anandtech schatte het verbruik van de HD6990 in oc-stand zelfs >450watt (alleen de kaart) tijdens Furmark... De GTX590 gaat natuurlijk meer verbruiken dan de HD6990, al zal het vergeleken met de HD6990 oc-stand niet ongelooflijk meer zijn omdat dit simpelweg nooit te koelen valt.

@madmax; 1.5gb effectief zal denk ik wel voldoende zijn, wellicht bij een enkele game net te weinig waardoor de HD6990 een klein voordeel gaat krijgen met z'n 2gb per gpu.

@mitsumark; 2x GTX560 zal gewoon niet snel genoeg zijn... Ja, alleen bij Dirt 2 zal het sneller zijn, verder niet. ;)

[ Voor 8% gewijzigd door Anoniem: 245699 op 10-03-2011 01:36 ]


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Nu online
Anoniem: 245699 schreef op donderdag 10 maart 2011 @ 01:35:
[...]
@mitsumark; 2x GTX560 zal gewoon niet snel genoeg zijn... Ja, alleen bij Dirt 2 zal het sneller zijn, verder niet. ;)
In de benches zie ik de 560sli gemiddeld 5-10% slechter presteren dan 6950cf, echter ook met een 5-10% lager verbruik.
Na een kleine oc zijn de 560sli wel sneller (dan stock 6950cf), dus ik denk dat er zeker met wat meer geheugen en de oc wel wat mogelijk is (in ieder geval de 6990 stock verslaan met een acceptabel verbruik).

edit: ik heb andere benches gelezen dan die jij laat zien hierboven.
bv: http://www.guru3d.com/art...-gtx-560-ti-sli-review/14

[ Voor 12% gewijzigd door mitsumark op 10-03-2011 01:48 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Bij G3D komt nVidia altijd opvallend goed uit de bus. Zodra je verder kijkt bij: HOCP, ComputerB, Anand en TPU. Dan zul je zien dat G3D altijd net wat te positief is.

G3D sowieso slecht:
madmaxnl in "[Algemeen] AMD nieuwsdiscussie topic - d..."
Anoniem: 245699 schreef op donderdag 10 maart 2011 @ 01:35:
@madmax; 1.5gb effectief zal denk ik wel voldoende zijn, wellicht bij een enkele game net te weinig waardoor de HD6990 een klein voordeel gaat krijgen met z'n 2gb per gpu.
Om 1,5GB effectief te krijgen zal nVidia zijn GTX590 dus moeten uitrusten met 6GB.
Immers moeten GPUs elkaars data inlezen. Alles word dus dubbel ingelezen.

Zet GPU 0 512MB(A) in zijn geheugen dan zet GPU 1 deze zelfde 512MB(A) in zijn geheugen.
Er wordt dan dus meteen 1GB gebruikt terwijl er feitelijk maar met 512MB(A) wordt gewerkt.

Want GPU 1 zet deze 512MB(A) alleen in zijn geheugen zo dat GPU 1 weet wat GPU 0 aan het doen is en zodat GPU 1 dus weet wat hij moet gaan doen en dus zal GPU 1 512MB(C) in zijn geheugen zetten waarna GPU 0 deze 512MB(C) ook in zijn geheugen zet om weer te weten te komen wat GPU 1 aan het doen is zodat hij we weer wat hij moet doen enzovoort.

[ Voor 73% gewijzigd door madmaxnl op 10-03-2011 02:42 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

1,5 x 2 = 3 en niet 6.


En dat G3D slecht is is jouw mening. Dat jij dat vindt wil niet zeggen dat iedereen dat hoeft te vinden.

[ Voor 82% gewijzigd door Format-C op 10-03-2011 07:16 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Format-C schreef op donderdag 10 maart 2011 @ 07:09:
En dat G3D slecht is is jouw mening. Dat jij dat vindt wil niet zeggen dat iedereen dat hoeft te vinden.
Hij heeft anders wel een goed punt aangehaald dat bij Guru3D nogal wat aan resultaatrecycling gedaan wordt, ook al geeft men aan dat de benches ditmaal met een nieuwere driverversie zijn gebeurd. Niet direct koosjer, imo.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Als x=2 dan is: 1,5 x 2 = 6 ;)

Maar volgens mij hebben wij twee verschillende opvattingen over wat als "effectief" geheugen wordt gezien bij multi-GPU opstellingen en of kaarten.

Voorbeeld:
HD6990 4GB, 2GB per GPU
en in mijn ogen dus 1GB "effectief" per GPU.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Euh? Omdat de inhoud van het geheugen wordt gespiegeld voor beide GPU's heeft een multi-gpu opstelling maar zoveel geheugen als een enkele GPU in die opstelling, dus in het geval van 2x2GB is dat 2GB. In het geval van 2x3GB is dat 3GB. Dat moet niet nog eens door 2 gedeeld worden, aangezien dat geheugen niet moet worden verdeeld over de beschikbare GPU's, want ze hebben al elk hun eigen geheugen. Alleen kunnen ze dat niet zelf gebruiken, ze moeten collectief data uitwisselen en gespiegeld houden.

Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 31-05 22:15
Gespiegeld worden? Volgens mij niet hoor... Ze kunnen gewoon geen geheugen delen, dus voor elke frame die een gpu rendered, wordt alle data in het eigen geheugen geladen. Wat er in het geheugen van gpu 0 staat is niet hetzelfde als wat er in geheugen van gpu 1 staat.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Als dat klopt, dan is er toch helemaal geen reden om het effectieve geheugen te delen door twee? Wat zijn we dan de hele tijd aan het doen geweest?

edit: het is vroeg blijkbaar, ik ben nogal in de war. Ik ben me even verder aan het verdiepen in de stof.

edit2: ok juist, elke GPU heeft zijn eigen geheugen met de eigen inhoud, alleen moet in elk geheugen de volledige dataset van textures en geometrie komen, zodat een multi-gpu opstelling maar beperkt wordt tot de grootte van het het geheugen van een enkele gpu. Het geheugen wordt niet gedeeld om prestatieredenen, dus het is niet mogelijk om een deel van de textures in één geheugen te stoppen en het andere deel in het andere geheugen, omdat beide GPU's alle textures nodig hebben en het geen goed idee is om de GPU's in elkaars geheugen te laten piepen via de pci-e bus.

edit3: Werelds heeft het mooier uitgelegd. :o

[ Voor 82% gewijzigd door RuddyMysterious op 10-03-2011 09:50 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:17
@ madmaxnl:
Met AFR (Alternate Frame Rendering), wat zowel in SLI als CFX standaard gebruikt wordt, rendert de ene GPU de even frames en de andere de oneven frames. Zo zal voor frames 1,3,5 de inhoud van de nodige gegevens niet veel verschillen voor frames 2,4,6 - maar er zit weldegelijk verschil in. Elke GPU heeft dus gewoon z'n eigen geheugen tot z'n beschikking, en dat wordt op exact dezelfde manier gebruikt als met single GPU. Waar je dan ook de mist in gaat is dat je zegt dat de GPU's elkaars data inlezen, dat is niet zo. Er is geen communicatie direct tussen de 2 GPU's op zich. De GPU's zijn zich niet van elkaar bewust, ze krijgen gewoon de opdracht om een frame te renderen, ze krijgen de gegevens die ze nodig hebben en dan gaan ze aan het werk. Elke GPU houdt vervolgens zelf alleen z'n eigen resultaten vast in z'n geheugen.

Met SFR (Split Frame Rendering) wordt elk frame in twee delen gesplitst, waarbij elke GPU een deel van dat frame rendert. Wederom krijgen ze alleen de data die ze nodig hebben voor hun deel van het frame, en voor zover het de GPU betreft is dat deel gewoon het hele frame.

Het bovenstaande is vereenvoudigd - maar de kern is duidelijk hoop ik; elke GPU heeft effectief gewoon z'n eigen geheugen tot z'n beschikking, en werkt onafhankelijk van z'n collega('s).


@ Format-C:
Ik heb het hier op een ander forum al eens over gehad. Ik geloof dat het met de 5770 was; de oorspronkelijke review van een reference 5770 lieten ze mooi het verbruik van het hele systeem zowel idle als onder load, en aan de hand daarvan "berekenen" ze dan wat de GPU trok. Een paar weken later kwam er toen een review van een of ander OC model (volgens mij Gigabyte's SOC), waarbij ze claimden dat dat op EXACT dezelfde hardware (een zwaar overgeklokte i7, X58 uiteraard) was gebeurd. Op de een of andere manier kwam in die review het systeem echter een 50W lager uit ofzo, wat dus echt niet mogelijk was. Met als gevolg dat ook de kaart op zich minder stroom trok dan een reference kaart volgens hen.

Het is maar een voorbeeld, maar zulke onzin zie je daar wel vaker. Objectief is in elk geval anders, hoewel ze (of moet ik HIJ zeggen?) recent een stuk gematigder te werk gaan wat betreft hun mening.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dus een HD6990 met 4GB en twee GPUs:

GPU0 heeft plaatje 0,2,4,6 en 8 in zijn 2GB geheugen.
GPU1 heeft plaatje 1,3,5,7 en 9 in zijn 2GB geheugen.
Elk plaatje kost 400MB aan geheugen. Dus beiden GPUs hebben hun geheugen vol gestouwd.
M.a.w. het is niet nodig dat GPU0 ook plaatje 1,3,5, 7 en 9 in zijn geheugen heeft staan ?

Wie heeft mij dit dan gloeiende noch aan toe ooit geleerd...
Werelds schreef op donderdag 10 maart 2011 @ 09:41:
Het is maar een voorbeeld, maar zulke onzin zie je daar wel vaker. Objectief is in elk geval anders, hoewel ze (of moet ik HIJ zeggen?) recent een stuk gematigder te werk gaan wat betreft hun mening.
Nee recent nog z'n fout zoals jij beschrijft:
madmaxnl in "[Algemeen] AMD nieuwsdiscussie topic - d..."

[ Voor 43% gewijzigd door madmaxnl op 10-03-2011 09:49 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:17
Min of meer wel ja. Probleem is natuurlijk dat als frame 2 wat langer duurt (omdat het een complexer frame is bijvoorbeeld), frame 3 ook vertraagd moet worden. Dat is het fenomeen microstuttering ;)

Let wel, ik zeg dit nu allemaal zo eenvoudig, maar het is in de praktijk natuurlijk wel iets complexer. Dit is echter wel het principe er achter :)

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Werelds schreef op donderdag 10 maart 2011 @ 09:52:
Min of meer wel ja. Probleem is natuurlijk dat als frame 2 wat langer duurt (omdat het een complexer frame is bijvoorbeeld), frame 3 ook vertraagd moet worden. Dat is het fenomeen microstuttering ;)
Ow, is dat wel zo? Wat zou een complex frame in een multi-GPU meer vertraging opleveren dan in een single-GPU opstelling? Want zoals je het beschrijft maakt het niet of je crossfire/SLI gebruikt of niet om tot de conclusie te komen dat er microstuttering zal optreden, want dat lijkt mij op de manier waarop je het uitlegt even goed mogelijk met een enkele GPU.

Komt microstuttering niet eerder voort uit het feit dat de CFx/SLI-scheduler niet goed zijn werkt doet? Of is dat iets zo simpel dat er daar zo goed als niks kan foutlopen, en gebeurt het dan elders?

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

madmaxnl schreef op donderdag 10 maart 2011 @ 08:48:


Maar volgens mij hebben wij twee verschillende opvattingen over wat als "effectief" geheugen wordt gezien bij multi-GPU opstellingen en of kaarten.
Zou kunnen, maar die van jou klopt in dit geval ff niet. :)

Effectief geheugen bij SLi of CFX, of dual GPU kaarten is de hoeveelheid geheugen die per GPU beschikbaar is. En hoe dat ingeladen wordt, of hoe dat door een GPU gebruikt wordt maakt niks uit, het is een feit.

Dus als een dual GPU kaart 2GB mem heeft, is er per GPU 1GB beschikbaar. Als die 3GB heeft is er per GPU 1,5GB beschikbaar, en als hij 4 heeft is er 2GB per GPU beschikbaar.

En als hij 6 zou hebben zou er per GPU 3GB beschikbaar zijn.

[ Voor 5% gewijzigd door Format-C op 10-03-2011 10:30 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:17
Het is een beetje van beide. Zoals ik zei, ik vereenvoudig nu heel veel. Zoiets als hierboven is niet meteen microstuttering natuurlijk; pas als dit met grote regelmaat gebeurt waardoor de rendertijd constant verschilt zul je het merken. Dat komt doordat er bijvoorbeeld nog steeds wordt gestreefd naar 30 FPS, en dat krijg je er dan ook uit, maar als de helft van die frames dan langer nodig heeft gehad dan LIJKT het alsof je minder FPS hebt, terwijl hij weldegelijk 30 FPS heeft gerendert.

Ik zit nu op m'n werk, dus ik kan er geen uitgebreide berekening aan hangen, maar er zijn talloze artikelen die je kunt door lezen. Nogmaals, ik vereenvoudig het allemaal behoorlijk, want in de praktijk is het natuurlijk een combinatie van allerlei kleine elementen.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

madmaxnl schreef op donderdag 10 maart 2011 @ 09:45:
Dus een HD6990 met 4GB en twee GPUs:

GPU0 heeft plaatje 0,2,4,6 en 8 in zijn 2GB geheugen.
GPU1 heeft plaatje 1,3,5,7 en 9 in zijn 2GB geheugen.
Elk plaatje kost 400MB aan geheugen. Dus beiden GPUs hebben hun geheugen vol gestouwd.
M.a.w. het is niet nodig dat GPU0 ook plaatje 1,3,5, 7 en 9 in zijn geheugen heeft staan ?

Wie heeft mij dit dan gloeiende noch aan toe ooit geleerd...
Het zijn niet de plaatjes die elk 400MB innemen. Het is vooral de textures en geometrie (volgens wat ik gelezen heb) waaruit de GPU het plaatje berekent die zoveel plek innemen, en omdat elke GPU moet beschikken over die volledige dataset kan je moeilijk zeggen dat je meer geheugen ter beschikking hebt, of dat je minder geheugen per gpu moet gebruiken, zelfs bij de split-frame-methode. Eigenlijk is het simpel, omdat elke GPU volledig zelfstandig frames berekent, alsof hij de enige is die die frames berekent, moet hij ook over alle data van het spel beschikken, en niet over maar een deel er van. Dat een andere GPU de volgende frame berekent, dat kan hem niet schelen.

Voor deze frame heeft de GPU maar zoveel geheugen als hij zelf bezit. Voor de volgende frame hetzelfde verhaal voor de andere GPU. Uiteindelijk zijn het gewoon 2 GPU's die precies los van elkaar bandwerk verrichten, en is er een bovenstaander die de dozen verdeelt over beide banden. Het is niet omdat er een tweede werker aanwezig is op de werkvloer dat de eerste werker daarom de extra armen van de tweede werker kan gebruiken om de eerste doos dicht te vouwen. Nee, elk beschikken ze over hun eigen armen, net zoals wanneer ze alleen werken. Het is enkel zo dat ze maar om de twee dozen moeten vouwen ipv elke doos, dus het vouwen van dozen gaat rapper vooruit.

Zie mij hier eens metaforen gebruiken om iets uit te leggen wat voor iedereen eigenlijk al duidelijk genoeg is. >:) :+

Ik ben nu volledig mee hoe SLI/CFx in zijn werk gaat, toch op de manier hoe Werelds die heeft uitgelegd. Dikke pro! O+

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:17
Prachtige metafoor, geweldig hahaha :D

Dat is inderdaad min of meer hoe het werkt. Het grootste besef is dat de GPU's zich niet van elkaar bewust zijn. Zodra je dat beseft worden allerlei andere dingen ineens een stuk duidelijker.

Acties:
  • 0 Henk 'm!

Anoniem: 245699

Zodoende denk ik dus dat 1.5gb 'effectief' per gpu bij de GTX590 wel voldoende zal zijn t.o.v. de 2gb per gpu van de HD6990 op misschien een paar uitzonderingen na bij hoge reso. (Dit was immers de aanleiding... ;))

Over G3D ben ik het niet zozeer eens, ik vind ze nu niet echt overdreven pro-Nvidia ofzo, AMD doet het daar net zo vaak goed. G3D is trouwens ook bij lange niet de enige die aan 'resultaatrecycling' doet. Dat doet bijna elke site die een lijst van ~20 videokaarten presenteert. TPU heeft bijv. altijd die mooie 'performance summery', maar daar wordt ook flink gerecycled en dat is natuurlijk vrij logisch. Het is natuurlijk niet te doen om alles opnieuw te testen, kost veel te veel tijd.

Had trouwens een tijdje geleden de resultaten bij G3D van de GTX560 SLI afgezet t.o.v. de HD6950 2gb CF en dan is ook daar laatst genoemde setup gemiddeld sneller;

Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2011/03/10/1299740376-010.jpg

Dus zo erg is G3D niet, je kan je wel afvragen waarom ze Anno 1404 ertussen hebben zitten, want hoewel dat een leuke game is/was, is het nu niet echt iets waar velen op zitten te wachten... ;)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:17
Ik had het ook niet zo zeer over hun "geaardheid" (hoewel die in het verleden toch echt wel groen was, maar dat zijn ze toch behoorlijk bij aan het stellen), maar gewoon over inconsistente resultaten.

Dat er gerecycled wordt is een ding, maar zoiets als dat voorbeeld dat ik gaf is gewoon slecht, gaat ook verder dan recyclen.

offtopic:
Leuke tabel, wel jammer dat er daar bij Vantage nog steeds misbruik wordt gemaakt van PhysX :P

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 245699 schreef op donderdag 10 maart 2011 @ 12:22:
Had trouwens een tijdje geleden de resultaten bij G3D van de GTX560 SLI afgezet t.o.v. de HD6950 2gb CF en dan is ook daar laatst genoemde setup gemiddeld sneller;

[afbeelding]

Dus zo erg is G3D niet, je kan je wel afvragen waarom ze Anno 1404 ertussen hebben zitten, want hoewel dat een leuke game is/was, is het nu niet echt iets waar velen op zitten te wachten... ;)
Misschien hebben ze de 560 SLI results wel wat opgepoetst om het verschil kleiner te laten lijken.... ;)

Het spijt me zeer, als ik aan ongekleurde reviews (ook qua text) denk, dan kom ik gevoelsmatig zeker niet bij G3D uit. :o

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Ik las eerst helemaal geen reviews, maar probeerde alle setups (lees; kaarten) zelf, en trok daaruit mijn conclusie. O+ Edit; maar goed; dat liep uit de klauwen. Vandaar dat ik dat niet meer doe.

En ik zie reviews meer als een indicatie. Verschillen van 5% oid vind ik niet echt interessant. En vaak zit je met SLi of CFX toch wel tussen de 60 en 100+ FPS. Dus dan zijn aanschafkosten, features, geluid en stroomverbruik belangrijker. :)

[ Voor 60% gewijzigd door Format-C op 10-03-2011 13:52 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Er zijn inmiddels wel wat ideeën over shared memorypools, zodat de GPU's het geheugen kunnen delen, maar dat gaat dus niet bij de huidige manier van multi GPU (AFR, SFR? etc)

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Het mooiste zou gewoon zijn dat er native dual of quadcore-achtige gpu's komen waarvoor je geen profiles nodig hebt en die gewoon aanspraak maken op 1 geheugen... Ik vind het eigenlijk best vreemd dat dit soort GPU's er nog niet zijn. En dat we nog steeds profiles nodig hebben.

Deze zullen wel komen als de chips richting de 3 a 4Ghz gaan, en de clocks niet hoger kunnen. Net zoals dat bij de CPU's ook een beetje ging. :)

[ Voor 6% gewijzigd door Format-C op 10-03-2011 16:04 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 30-05 10:15

Darkasantion

Just keep swimming!

Feitelijke zijn de GPU's al multicores met die 1600+Shaders op 1 chip. Dus ze zullen zeker nog sneller gaan, maar multicore zijn ze eigenlijk al, en dat zal nog veel meer worden.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Format-C schreef op donderdag 10 maart 2011 @ 16:01:
Deze zullen wel komen als de chips richting de 3 a 4Ghz gaan, en de clocks niet hoger kunnen. Net zoals dat bij de CPU's ook een beetje ging. :)
Nee, ik denk niet dat GPUs eerst een periode van verhoogde kloksnelheden door zal moeten gaan voordat men op native dual-GPU-core overgaat. Behalve dat GPUs al min of meer multi-core achtig zijn lijkt mij het heel aannemelijk dat AMD intern al bezig is met een dual-GPU-core achtige oplossing. Immers hebben ze de kennis ervoor want, ze moeten min of meer hetzelfde trucje uithalen als bij CPUs. Deze kennis mist nVidia alhoewel dit waarschijnlijk geen heel groot probleem gaat zijn. Tevens hebben ze bij AMD de kennis om een GPU aan een CPU te verbinden(APU). Dit heeft ze wellicht ook tot een ander inzicht gebracht. Nieuwe productie procedés worden hiermee uitgeprobeerd wat ook weer tot anderen inzichten kan lijden. Wie weet is 32nm SOI+HKMG wel heel goed voor het GPU gedeelten van Llano.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Darkasantion schreef op donderdag 10 maart 2011 @ 16:10:
Feitelijke zijn de GPU's al multicores met die 1600+Shaders op 1 chip. Dus ze zullen zeker nog sneller gaan, maar multicore zijn ze eigenlijk al, en dat zal nog veel meer worden.
Dat is wat ik inderdaad ook wou zeggen.

Het is gewoonweg de prestatiekroon die ze niet kunnen laten liggen. Als ze het niet doen (multi-gpu kaarten maken), en de concurrent wel, dan laten ze de concurrent lopen met de vaandel van fabrikant van de snelste grafische kaart. Ik vind dat persoonlijk compleet irrelevant, maar blijkbaar denken ze er bij ATI en nVidia anders over. Je moet het eerder zien als spierbalgerol dan als een nuttig product. Of als een plan B wanneer de enkele GPU begint te struikelen.

Nu een bedenking: ik vind het eigenlijk nogal lollig dat er mensen zijn die deze topkaarten willen hebben omdat ze vinden dat die nodig zijn, terwijl er andere mensen zijn die beweren dat de ontwikkeling van computerspellen wordt tegengehouden dankzij de huidige consoles die al een jaartje ouder worden. Wat is het nu, worden computers te krachtig of niet?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Nou dual-GPU kaarten zijn niet helemaal onzin. Kijk naar de HD3870x2 en HD4870x2. Relatief kleine chips die samen een grote chip kapot maken. Ook de HD5970 is geen slechte kaart, deze is namelijk nog altijd sneller dan een GTX580. Deze strategie maakt het voor AMD mogelijk een mid/high-end GPU te maken die door hem te combineren ook in het high-end segment te gebruiken. Dit is financieel heel aantrekkelijk. Maar dit is een beetje uit de hand gelopen met de HD6990 omdat 32nm is gecanceld. Waardoor men geen mid-end GPU meer had maar een high-end GPU die ondanks dit toch per twee op één PCB belanden. Waarschijnlijk dat ze bij AMD hebben gedacht: "Wij kunnen met pijn en moeite twee Caymans op één PCB plakken. Nou, dan zal nVidia het wel nog moeilijker krijgen." Waardoor ze nVidia min of meer dwingen iets te doen wat ze bijna niet voor elkaar kunnen krijgen. Doen ze niks dan domineert AMD met zijn HD6990 een klein maar belangrijk gedeelten van de markt, net als met de HD5970. Alleen is de HD6990 in verhouding veel beter dan de HD5970. Want een HD5970 is ~25% sneller dan een GTX480 terwijl een HD6990 ~60% sneller is dan een GTX580.

Een GTX590 kost nVidia veel geld en moeiten, en het is wellicht ook nog wel eens voor niets als het beestje niet sneller blijkt te zijn als een HD6990. Twee über grote chips van ~550mm2 die niet al te bijster schaalen, ook hebben de GPUs een leuke geheugenbus er op zitten waardoor de PCB waarschijnlijk duurder is als die van HD6990. De GF110 chips zijn dus veel duurder dan AMD zijn 389mm2 grote Caymans chips. De PCB is duurder, de extra SLI chips(drie bij de GTX295 waaronder een NF200 chip), de koeling van nVidia is waarschijnlijk ook nog eens duurder. AMD is alleen wat meer geld kwijt aan GDDR5 geheugen. Het zou dus heel triest worden als nVidia niet sneller is als AMD.

Als AMD geen dual-GPU kaarten zou maken dan hadden ze in het hoogste segment niet mee gekunt en daar zitten wel de mensen die anderen mensen beïnvloeden c.q. adviseren. De hardware liefhebbers geven lang niet altijd het advies de beste prijs/prestatie te pakken of te pakken waarmee je voldoende hebt. Anders deed AMD wel beter zaken met zijn CPUs.

Another dual-GPU Fermi card spotted

Is deze niet al een jaar geleden ofzo lang gekomen ? Opvallend dat er gebruik wordt gemaakt van een PLX chip en niet een NF200 chip zoals gebruikt op eerdere dual-GPU kaarten van nVidia.

[ Voor 7% gewijzigd door madmaxnl op 10-03-2011 18:55 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het laatste gerucht dat ik las is dat de 590 tegelijk met Crysis 2 op 22mrt gelaunched gaat worden.

Wat nieuws over Project Denver: http://www.brightsideofne...ocessor-architecture.aspx

[ Voor 42% gewijzigd door Help!!!! op 10-03-2011 19:25 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Uiteraard, http://www.mycrysis.com/. Onderaan de pagina TWIMTBP logo. Hopelijk is Crysis 2 niet gesaboteerd, m.a.w. bepaalden technieken gebruiken waardoor AMD minder goed zou presteren. Zoals overbodig veel tesselation of de berekeningen zo laten voorkomen dat 4D shaders is handig en 1D shaders beter is.
Help!!!! schreef op donderdag 10 maart 2011 @ 19:03:
Het laatste gerucht dat ik las is dat de 590 tegelijk met Crysis 2 op 22mrt gelaunched gaat worden.

Wat nieuws over Project Denver: http://www.brightsideofne...ocessor-architecture.aspx

"As far as console business is concerned, Jen-Hsun confirmed that the company is working on an next-generation console. Chances are, the only chips inside the unnamed console should come from Santa Clara. Sony or Microsoft? We'll leave that guessing game to others."


Next gen consoles:
Nintendo gaat voor AMD,
Sony gaat waarschijnlijk voor nVidia en
Microsoft gaat voor AMD.

AMD kan zelf een hele APU leveren voor consoles. Alles uit het CPU gedeelten slopen dat niet nodig is en veel cores bij elkaar duwen want op consoles kan men hier bij het programmeren heel erg goed rekening mee houden en dus optimaal gebruik maken van tig cores. Microsoft is hier waarschijnlijk wel blij mee want ze dan nog makkelijker games tussen de Xbox en Microsoft porten en dat gaat nu al heel makkelijk. Tevens kan MS Windows op zijn console zetten waardoor het apparaat een waar multimedia beest wordt. If only....

(Homeserver/NAS als die idle is, media speler als je TV kijkt en console als je wilt game).

Als game developer maak je dan je games voor zowel Xbox en PC het enige verschil is dat je je game optimaliseert voor de Xbox. Tevens zijn AMD videokaarten heel erg gebaat bij optimalisatie van af het fundament. 4D shaders komen echt tot hun recht als je programmeert met dit in je achterhoofd. Waardoor de games ook weer lekker lopen in Windows met een AMD videokaart.

[ Voor 74% gewijzigd door madmaxnl op 10-03-2011 20:22 ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
It seems that Nvidia want a challenge with the red team , after the launch of the AMD dual GPU card the Radeon HD 6990 , the green team come will come out and face the AMD 's performance leadership card with the Nvidia Geforce GTX 590.

It's a dual GPU card based on two GF110 GPUs ( from the GTX 570 and GTX 580) resulting of 1024 CUDA Core and 3GB GDDR5 memory the card require a dual-8pin external power connectors and has TDP of 375W , the release date of the GTX 590 is set to March 22nd the same date of Crysis 2 release , the price is still unknown but we expect a price tag at the 700-750$ range as it will target the 700$ yet released Radeon HD 6990 .
Afbeeldingslocatie: https://lh3.googleusercontent.com/-YiUbrMEvwr0/TXf5WC_XIhI/AAAAAAAAFiU/dBVDx0jfxgg/s1600/img201011192123590.jpg :+

http://www.guruht.com/201...html?utm_source=BP_recent

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Als dat waar is ben ik héél benieuwd hoe zo zo'n TDP voor elkaar hebben gekregen!
Zie ik daar trouwens mini-dp?

Edit:
@madmaxnl; dat lijkt me nu al min of meer te testen, er is immers al een demo te downloaden.
Aan mijn benchmarks gaat niemand wat hebben, een 4850 is niet meer van deze tijd :p.

[ Voor 45% gewijzigd door spNk op 10-03-2011 20:34 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Als dat m is ziet ie er imho een stuk minder clean en strak uit dan de 6990. Maar goed de prestaties tellen uiteraard. :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
spNk schreef op donderdag 10 maart 2011 @ 20:31:
Als dat waar is ben ik héél benieuwd hoe zo zo'n TDP voor elkaar hebben gekregen!
Zie ik daar trouwens mini-dp?
De kaart die je ziet is al een hele oude ES gebaseerd op twee GF100's, niet een retail exemplaar van de GTX590.

TDP is simpel de kaart mag niet meer dan 375W verbruiken dus op het etiket zal 375W komen, betekend niet dat het klopt zie ook alle moderne nVidia kaarten allemaal een niet kloppende TDP.

[ Voor 22% gewijzigd door -The_Mask- op 10-03-2011 20:38 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Hoe berekenen ze die TDP? Mijn 2 580's zouden 500W moeten verbruiken tijdens Crysis W. (beide kaarten zitten op 95-99% usage) maar daar zitten ze redelijk ver onder. Totale systeem verbruik in Crysis is ~620W, met de efficiency van de voeding op 90% maakt dat ~560W.

En hoe zit dat eigenlijk met de TDP van de 6990? Daar lees ik van dat ie zo 450W verbruikt (in het AMD nieuws topic).

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Bij nVidia is het tegenwoordig ongeveer de max tijdens games bij AMD is het de absolute max.
Mijn 2 580's zouden 500W moeten verbruiken tijdens Crysis W. (beide kaarten zitten op 95-99% usage) maar daar zitten ze redelijk ver onder. Totale systeem verbruik in Crysis is ~620W, met de efficiency van de voeding op 90% maakt dat ~560W.
Je trekt sowieso waarschijnlijk niet de max met Crysis Warhead, daarnaast hoe goed is je meter?
En hoe zit dat eigenlijk met de TDP van de 6990? Daar lees ik van dat ie zo 450W verbruikt (in het AMD nieuws topic).
In de normale stand is de absolute max 375W en tijdens games max zo'n 333W.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Nee hij verbruikt 375 watt in normale stand en in OC stand 450 watt. In OC stand zijn de clocks 880Mghz en in normale stand 830Mghz. De performance toename is ongeveer 3 a 4 procent.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
hoe goed is je meter?
Ik heb een Cresta RCE-1106. Ik heb dat ding altijd aangesloten dus ik zie wat er verbruikt wordt bij de verschillende games die ik speel. Ook tijdens bijv. Assassins Creed 2, Bulletstorm, Crysis 2 Demo en TDU2 ligt het verbruik zo rond de 600W.

Net even getest wat er gebeurt als ik folding@home aanzet op 1 580, dan stijgt het verbruik van 200W (180W) naar 400W(360W), echter springt dan de andere 580 ook uit 2d clocks naar de 3d clocks (dat zou wellicht ook het verbruik iets omhoog kunnen brengen). CPU gebruik stijgt ook 2-3%.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Nu online
Hij kán 375/450 verbruiken, hij verbruikt echter 10-20% minder tijdens het gamen/benchen.
(die 375/450 red je niet eens met furmark)

Maar genoeg offtopic: heeft iemand al een geverifieerde release date van de 590 gezien?
(ik kom alleen onofficiele 22 maart dates tegen)

Wil zo graag mn nieuwe systeem bestellen, maar weet simpelweg niet met welke videokaart(en).

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
22 maart wordt er gezegd. Maar het is nog maar de vraag om wat voor een launch het gaat. Mensen van nVidia zeggen zelf dat ze een hogere beschikbaarheid zullen hebben t.t.v. de launch dan dat de HD6990 t.t.v. de launch had. Enfin, daar hoeven ze zich dus niet veel moeiten voor te doen, als ze er al 100 hier in Nederland krijgen t.t.v. de launch doen ze het al beter dan AMD. "In het land van de blinden is de eenoog koning".

PS ga gewoon voor een HD68xx kaart, die leveren momenteel de beste prijs/prestatie/verbruik verhoudingen.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Het is nu al een paar weken 22 maart, dus dat zal het ook wel blijven. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

http://nl.hardware.info/n...tx-460-2win-met-twee-gpus

EVGA kaart was dus inderdaad 2x gf104.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 26-05 03:22

pino85

Im just a Bird in the Sky

Soort van test?

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Nee niet weer hè......another Woodscrew........ 8)7

http://semiaccurate.com/2...another-woodscrew-moment/

[ Voor 12% gewijzigd door Help!!!! op 11-03-2011 13:16 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Afbeeldingslocatie: http://img98.imageshack.us/img98/1112/youhavebeentrolled.jpg

Pff..

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 16:35
Ehm ik heb het niet heel intensief gelezen, maar volgens mij laten ze dus een gpu core die zien ipv een cpu die. Een product wat nog niet rond is met daarover een getekende laag hoe de opbouw van de chip gaat worden van een cpu dus. Dit tijdens een powerpoint slide over een nog uit te komen cpu product.

Ppfff Lekker boeiend......sommige artikelen hebben een wel heel hoog prive/story/glossy gehalte. Ik ga weer lekker van de zon genieten :z

Acties:
  • 0 Henk 'm!

  • drayer
  • Registratie: Maart 2011
  • Laatst online: 01-05 16:59
beste menschen ik heb een nvidia gtx 275 en sinds gisteren krijg ik games niet meer op 1680x1050.
heb elke manier van driver opnieuw installere geprobeerd (incl drivercleaner) kan dit aan de videokaart liggen of is het iets anders.

hopenlijk weten jullie een oplossing

bij voorbaat dank.

[ Voor 7% gewijzigd door drayer op 11-03-2011 15:40 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

sjekneck schreef op vrijdag 11 maart 2011 @ 15:21:
[...]

Ehm ik heb het niet heel intensief gelezen, maar volgens mij laten ze dus een gpu core die zien ipv een cpu die. Een product wat nog niet rond is met daarover een getekende laag hoe de opbouw van de chip gaat worden van een cpu dus. Dit tijdens een powerpoint slide over een nog uit te komen cpu product.

Ppfff Lekker boeiend......sommige artikelen hebben een wel heel hoog prive/story/glossy gehalte. Ik ga weer lekker van de zon genieten :z
Door die foto te laten zien suggereer je dat je al silicon hebt.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 31-05 16:53

superwashandje

grofheid alom

idd, nou weet ik niet wat die financial analyst day precies inhoudt en wie dat zijn maar in feite sta je dus gewoon die mensen voor te liegen (er zou namelijk geen disclaimer bij hebben gestaan zoals wel gebruikelijk is als je zoiets doet volgens het artikel)

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Het is niet alleen de suggestie dat je al een uitgewerkt product hebt. Het is zelfs niet zo zeer het probleem dat ze feitenlijk een GPU-die tonen van een bestaand product die geen enkele verbinding heeft met CPU's. Het is dat ze dit doen tijdens een Financial Analysts praatje, waar je je aan regels dient te houden en eerlijk dient te zijn, opdat de analysten de juiste waardering van het nVidia-aandeel kunnen geven. Er wordt dus gesuggereerd dat er al een haast afgewerkt ontwerp is, zoals Help!!! al zegt, door een ontwerp van een heel ander product te tonen.

Het is strafbaar om analysten voor te liegen bij dergelijke evenementen, in de hoop dat ze je aandelen een hogere waardering geven, wat weer invloed heeft op de handel van dat aandeel.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
drayer schreef op vrijdag 11 maart 2011 @ 15:39:
beste menschen ik heb een nvidia gtx 275 en sinds gisteren krijg ik games niet meer op 1680x1050.
heb elke manier van driver opnieuw installere geprobeerd (incl drivercleaner) kan dit aan de videokaart liggen of is het iets anders.

hopenlijk weten jullie een oplossing

bij voorbaat dank.
Het is geen nieuws dat jou nVidia kaart niet werkt.
nVidia is mensen van wie zij het moeten hebben, -niet de consumenten deze keer- maar de investeerders keihard aan het oplichten.

Wel grappig wat Jens zegt over GPUs vroeger "When nVidia was started there where some, I don't know 100 graphic companies. And several have write and talked about how it went back and forth and it was so intensify competitive. And why it was competitive was because graphics where so important to the future."

M.a.w. volgens hem zit ARM in een zelfde soort bootje. Grappige is dat x86 ook in z'n bootje zat immers waren er vroeger ook tig x86 fabrikanten.

Ze zijn trouwens al 3 jaar in het "geheim" aan Project Denver aan het werken en denken deze pas in eind 2012 of begin 2013 te kunnen introduceren en ze laten dus een nep die shot zien :+ Ik vraag me af wat ze in die 3 jaar hebben zitten doen.

Daarnaast maken ze nog een leuk vergelijk van het aantal verkochten x86 chips en ARM chips waaruit te zien is dat ARM verkoop stijgende is en ook nog eens veel hoger ligt dan de x86 chip verkoop.
Tja, ARM chips kosten geen fluit en worden in praktisch alles gebruikt juist omdat ze zo goedkoop zijn. x86 chips daarentegen kunnen voor soms zelfs duizenden euro over de toonbank gaan. Ze zetten bij nVidia alles naar hun hand om maar te laten zien dat ze een goede stap doen of hebben gedaan om in de ARM business te stappen.

Afbeeldingslocatie: http://www-waa-akam.thomson-webcast.net/us/assets/099e596c0e7901fedb4d942d17d88849/pics/b075bd5e8c42698d69a7b9fa99c2a829_en_2_2_2?20112111736

Vervolgens begint Jens helemaal opgetogen te worden op het moment iemand hem vraagt hoe hij zich denkt te differentiëren t.o.v. TI en Broadcom. Waarop hij geen antwoord geeft maar helemaal gevleid gaat doen over het feit dat de gene die hem dat vroeg hem daarmee "vergelijkt". Hij zegt niet eens dat ze een voordeel hebben in GPU.

Ik heb nog geen 10 minuten naar Jens geluisterd maar het is allemaal bullshit wat die verteld.

http://www-waa-akam.thoms...df9dda30dcb3220ea3ab3c916

[ Voor 82% gewijzigd door madmaxnl op 12-03-2011 00:24 ]


Acties:
  • 0 Henk 'm!

  • drayer
  • Registratie: Maart 2011
  • Laatst online: 01-05 16:59
[quote]madmaxnl schreef op vrijdag 11 maart 2011 @ 17:50:
[...]


Het is geen nieuws dat jou nVidia kaart niet werkt.


[...]


verduidelijking ?
een faal van nvidia waar ik niks aan kan doen of een faal van drivers ofso ??

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
verduidelijking ?
een faal van nvidia waar ik niks aan kan doen of een faal van drivers ofso ??
Nee, hij bedoelt dat dit het nieuws discussie topic is en dat jou kapotte kaart niet bepaalt nieuws is. Voor jou vraag zul je of een bestaand topic moeten zoeken of een nieuw topic beginnen.

On T.:
Dat nvidia dingen laat zien die gunstig zijn voor hun is natuurlijk gewoon normaal, dat doet elk bedrijf. Het lijkt me ook sterk dat een belangrijk persoon op zo'n belangrijke bijeenkomst alleen maar "bullshit" staat te vertellen.

Ook het gebruik van een nep die-shot kan ik me best goed voorstellen, je wilt niet dat anderen makkelijk kunnen zien waar je de laatste 3 jaar mee bezig bent geweest en waar je een enorme hoeveel geld in hebt gestoken.

Wat overblijft is natuurlijk dat ze doen alsof het echt is (en dan ga ik er maar vanuit dat de "'it is een fake" berichten waar zijn). Waarom zou een bedrijf het op deze manier willen doen als ze ook er even bij kunnen zetten dat om wat voor reden dan ook ze niet de echte die laten zien.


Off T.:
Het valt me op dat sommige posts weer verdacht veel anti-nvidia klinken. Het is niet bepaald nieuws / nieuwswaardig dat sommigen fan zijn van AMD.
Daarnaast maken ze nog een leuk vergelijk van het aantal verkochten x86 chips en ARM chips waaruit te zien is dat ARM verkoop stijgende is en ook nog eens veel hoger ligt dan de x86 chip verkoop.
Tja, ARM chips kosten geen fluit en worden in praktisch alles gebruikt juist omdat ze zo goedkoop zijn. x86 chips daarentegen kunnen voor soms zelfs duizenden euro over de toonbank gaan. Ze zetten bij nVidia alles naar hun hand om maar te laten zien dat ze een goede stap doen of hebben gedaan om in de ARM business te stappen.
Ja, heeft niks met nvidia te maken, dit doet elk bedrijf.

Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 31-05 22:15
Maxily schreef op vrijdag 11 maart 2011 @ 19:31:
[...]
Nee, hij bedoelt dat dit het nieuws discussie topic is en dat jou kapotte kaart niet bepaalt nieuws is. Voor jou vraag zul je of een bestaand topic moeten zoeken of een nieuw topic beginnen.

On T.:
Dat nvidia dingen laat zien die gunstig zijn voor hun is natuurlijk gewoon normaal, dat doet elk bedrijf. Het lijkt me ook sterk dat een belangrijk persoon op zo'n belangrijke bijeenkomst alleen maar "bullshit" staat te vertellen.

Ook het gebruik van een nep die-shot kan ik me best goed voorstellen, je wilt niet dat anderen makkelijk kunnen zien waar je de laatste 3 jaar mee bezig bent geweest en waar je een enorme hoeveel geld in hebt gestoken.

Wat overblijft is natuurlijk dat ze doen alsof het echt is (en dan ga ik er maar vanuit dat de "'it is een fake" berichten waar zijn). Waarom zou een bedrijf het op deze manier willen doen als ze ook er even bij kunnen zetten dat om wat voor reden dan ook ze niet de echte die laten zien.


Off T.:
Het valt me op dat sommige posts weer verdacht veel anti-nvidia klinken. Het is niet bepaald nieuws / nieuwswaardig dat sommigen fan zijn van AMD.


[...]
Ja, heeft niks met nvidia te maken, dit doet elk bedrijf.
Nee, wat opvalt is dat sommige mensen meteen in de verdediging schieten. Hij brengt een aantal valide punten naar voren. Wat is daar mis mee? Ik weet dat elk bedrijf vol met pr-bullshit zit, maar voor sommigen is dat niet even duidelijk, laat staan dat ze mooie praatjes, die ook misschien onwaar zijn, proberen te verkopen aan analisten.

Je moet niet meteen denken dat dit een aanval is op Nvidia en dat nu heel de wereld anti-nvidia moet worden. Gewoon als losstaand iets bekijken en als je wilt reageren op de inhoudelijke punten.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
PR-bullshit is 1 ding. Je kunt heel wat dingen overdrijven zonder gevolgen, tot op zekere hoogte. Analysten voorliegen op een officieel financieel praatje, om je bedrijf rooskleuriger op de kaart te zetten dan hoe het er werkelijk voor staat, is pertinent strafbaar. Wanneer een bedrijf zichzelf toch in die richting manouvreerd, is dat zeer zeker nieuws.

In deze lijkt nVidia niet alleen een plaatje van een oud bestaand product te hebben getoond alszijnde een nieuw in ontwikkeling zijnde product, ook ging men bij nVidia rustig in op vragen, alsof het de 'real deal' was.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Nee, wat opvalt is dat sommige mensen meteen in de verdediging schieten.
Ik ging dacht ik gewoon in op z'n punten en gaf hem als laatste gelijk over de die-shot, met als toevoeging dat ik me afvraag waarom ze dat gedaan zouden hebben.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
@Maxily

Ga eens rationeel naar die conference call luisteren en je schiet waarschijnlijk spontaan in de lach.

"In just one generation we announced recently and showed and show today a next generation processor called Kal-El that is five times the performance of the last generation. In just one year."

Nog even terug komen op een quote:

"When nVidia was started there where some, I don't know 100 graphic companies. And several have write reports in the history that talked about how it went back and forth and it was so intensify competitive. And why it was competitive was because graphics where so important to the future of computing and that is why it's so important. And we all fabricated at the foundries, we all did. But because of a unique perspective we were able to stand up and differentiate among the many and today nVidia is the last computer graphics company standing".

Wat Jens ook zei bij deze slide "what ells do you need to know".
Afbeeldingslocatie: http://www-waa-akam.thomson-webcast.net/us/assets/099e596c0e7901fedb4d942d17d88849/pics/b075bd5e8c42698d69a7b9fa99c2a829_en_2_2_2?20112111957
Uuuh dat x86 ondanks de lagere verkopen toch meer omzet en winst genereert per bedrijf en dat er veel meer ARM fabrikanten zijn. Maar dat is natuurlijk niet erg handig om er bij te vermelden. Het is ook zo dat er meer fietsen worden verkocht dan auto maar auto's zijn wel winstgevender en geven een veel hogere omzet(om maar even een slecht voorbeeld er bij te pakken).
Maxily schreef op vrijdag 11 maart 2011 @ 19:31:
Off T.:
Het valt me op dat sommige posts weer verdacht veel anti-nvidia klinken. Het is niet bepaald nieuws / nieuwswaardig dat sommigen fan zijn van AMD.
Dus omdat de posts in jouw ogen anti-nVidia klinken is het niet bepaald nieuwswaardig omdat daaruit zou blijken dat sommigen fan van AMD zijn ?

I.p.v. te zeggen dat het om een AMD fanboy gaat probeer de inhoud van het bericht dan aan te pakken c.q. tegen te spreken. Dingen roepen als "Ja, heeft niks met nvidia te maken, dit doet elk bedrijf." zijn erg discussie ontwijkend. Meden als het ridiculiseren van berichten omdat er aangenomen wordt dat het geschreven is door een AMD fanboy.

[ Voor 30% gewijzigd door madmaxnl op 11-03-2011 23:34 ]


Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
madmaxnl schreef op vrijdag 11 maart 2011 @ 20:56:
Dingen roepen als "Ja, heeft niks met nvidia te maken, dit doet elk bedrijf." zijn erg discussie ontwijkend. Meden als het ridiculiseren van berichten omdat er aangenomen wordt dat het geschreven is door een AMD fanboy.
Wellicht is het dan een goed idee om dingen voortaan wat minder kinderachtig te formuleren. Bijvoorbeeld formuleringen als deze achterwege te laten:
''Lol vervolgens begint Jens helemaal geil te worden op het moment iemand hem vraag''

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Hij vit daarom niet op nVidia in het algemeen, maar eerder op het feit dat sommige mensen het zo hoog van zichzelf hebben dat ze het tot een gigantisch masturbatiefestijn laten worden. Ofwel doen de fans het. Het probleem daarbij is dat veel mensen daar gedegouteerd van geraken, zie ook de massale aanhang apple-haters. Er zit blijkbaar overal een balans in verscholen, en als je een groep fanatieke fans hebt, dan heb je ook fanatieke haters. Niet omdat het bedrijf op zich zo vies is, maar omdat de haters het niet kunnen verdragen dat andere mensen zo fanatiek en hyper-loyaal doen.

Ik denk dus dat er een resem anti-fanatiekelingen over dezelfde kam worden gescheerd als fanboys van het andere team. Dat kan natuurlijk wel, maar dat is niet altijd zo. Om weer even een metafoor te gebruiken: het is niet omdat ik homo's haat dat ik hetero ben. Als voorbeeld natuurlijk, niet dat ik in het echt zo ben.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Springstof schreef op vrijdag 11 maart 2011 @ 23:41:
[...]

Wellicht is het dan een goed idee om dingen voortaan wat minder kinderachtig te formuleren. Bijvoorbeeld formuleringen als deze achterwege te laten:

[...]
Ik heb het aangepast alhoewel ik wel van mening ben dat het geen er nu staat niet oprecht is hoe hij echt reageerde. Maar hoe hij echt reageerde komt in de buurt.

[ Voor 5% gewijzigd door madmaxnl op 12-03-2011 00:41 ]


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Ik weet het niet, al die quotes van de nvidia conference vind ik niet zo erg belachelijk / raar. Als je ze letterlijk opvat als "waarheden" dan zal er waarschijnlijk niks van kloppen, maar dit is lijkt mij precies wat dat publiek wil horen. nvidia probeert zichzelf van zijn aller aller beste kant te laten zien en dat pakken ze zo te zien groots aan.

Als het echt niet kan wat ze nu zeggen dan levert dat natuurlijk enorm veel negatieve publiciteit op, ik neem aan dat daar aan gedacht is.

Over het bewust voorliegen van die mensen ben ik het helemaal eens met het gedachtegoed hier, dat is gewoon fout. Toch ben ik dan wel benieuwd naar de reden, waarom hebben ze het op deze manier gedaan.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Het "liegen" is het probleem niet, hiervan kunnen ze achteraf altijd zeggen; "ja maar, zus en zo". Hier kan men hen dan ook heel moeilijk voor berechten o.i.d.

Het is voor zover ik weet niet normaal om te liegen of je zelf te rooskleurig voor te doen. Meestal houden ze dingen die slecht gaan wel wat achter of laten ze het tussen neus en lippen door heel even horen. Om vervolgens heel snel iets goeds te laten horen.

Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 30-05 20:37

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Plaats even foto's(s.v.p.) want ik krijg VR-zone op geen enkele manier geladen. Ik kan tekst wel te zien krijgen via Google translate maar daar houd het dan ook bij op.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Afbeeldingslocatie: http://limages.vr-zone.net/body/11563/1-0.png
While we patiently wait for the final specs which is to be confirmed next week, we got hold of something which is supposed to be a cooler of the NVIDIA GeForce GTX 590 graphics card. What amazes me is the thickness of the cooler which is measured at 21.5mm so it implies this card is highly likely to be based on a single slot design.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 19:22

Edmin

Crew Council

get on my horse!

Ik denk dat er wat wetten van thermodynamica moeten worden gebroken om die kaart met een single slot koeler uit te kunnen rusten.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dit is slechts de cover, er zit dus nog een stuk op de PCB geschroefd waar dit stuk dan op geplaatst moet worden. Dit is te zien aan de "te kleine" inkepingen voor de PCI-e stroom connectors. Misinterpretatie van het plaatje door VR-zone ?

PS bedankt voor het plaatsen van een plaatje. Ik was namelijk wel benieuwd hoe het eruit zag.

[ Voor 17% gewijzigd door madmaxnl op 12-03-2011 12:24 ]


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Ik kwam zojuist een post tegen waarin heel veel videokaarten (van helaas minimaal 1 jaar oud) werden getest op het werkelijke verbruik, door een soort adapter te plaatsen tussen het PCIe slot en de kaart. Ik ben wel benieuwd of dit soort tests ook gedaan zijn voor de huidige top kaarten.

Franse website met videokaart verbruikt tests

Hieruit blijkt dat sommige oudere kaarten al (bijna) over de 300 grens zijn gegaan. Het geeft ook een goed overzicht van wat deze kaarten echt verbruiken.

Edit:
Ik heb hier een iets meer up-to-date grafiek gevonden: Geeks3D: Graphics Cards Power Requirements Charts

[ Voor 13% gewijzigd door Max Hunt op 13-03-2011 02:01 ]


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Maxily schreef op zondag 13 maart 2011 @ 01:54:
Ik kwam zojuist een post tegen waarin heel veel videokaarten (van helaas minimaal 1 jaar oud) werden getest op het werkelijke verbruik, door een soort adapter te plaatsen tussen het PCIe slot en de kaart. Ik ben wel benieuwd of dit soort tests ook gedaan zijn voor de huidige top kaarten.

Franse website met videokaart verbruikt tests

Hieruit blijkt dat sommige oudere kaarten al (bijna) over de 300 grens zijn gegaan. Het geeft ook een goed overzicht van wat deze kaarten echt verbruiken.
Ja, het was al een tijdje bekend dat met name AMD het niet zo nauw nam met die 300 Watt. Dave Baumann van AMD gaf de schuld indertijd aan software zoals Furmark, wat hij een 'power virus' noemde. Daarom kwam er in de Catalyst driver een rem op de GPU zodra die software gedetecteerd wordt.

Tegenwoordig wordt de stroombewaking in hardware gedaan en is het in principe een algemeen mechanisme, hoewel Nvidia het nog steeds alleen maar activeert tijdens Furmark en OCCT. Journalisten zullen dat zeker goed in de gaten blijven houden in de toekomst.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Biff schreef op zondag 13 maart 2011 @ 05:12:
[...]


Ja, het was al een tijdje bekend dat met name AMD het niet zo nauw nam met die 300 Watt. Dave Baumann van AMD gaf de schuld indertijd aan software zoals Furmark, wat hij een 'power virus' noemde.
Dat is in basis onzin. Alleen de HD4870X2 had met furmark echt problemen onder de 300 Watt te blijven met Furmark. Daar hebben ze toen inderdaad een softwarefix op gegooid. Ook nVidia heeft last van dat powervirus met de naam Furmark.

AMD heeft het harwarematig opgelost ondertussen, maar een GTX580 kan nog altijd 350 Watt trekken als de software-oplossing ergens faalt.

Acties:
  • 0 Henk 'm!

  • epic_gram
  • Registratie: April 2010
  • Laatst online: 30-05 22:53

epic_gram

undercover moderator

Update : Pardon for the mistake, we missed out the bottom part of the cooler which is about a slot thick so GeForce GTX 590 is still a dual slot card. The lenght is 297mm which is similar to its older counterpart GeForce GTX 295. Anyway, the card is still slated for March 22nd launch. The performance driver closest to the launch is version 267.52 and you can find this string in the inf file : NVIDIA_DEV.1088.01 = "NVIDIA GeForce GTX 590". NVIDIA seems confident that this card will win the Radeon HD 6990. Specs will be finalized next week.

Read more: http://vr-zone.com/articl.../11563.html#ixzz1GT9oKfI2

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

dahakon schreef op zondag 13 maart 2011 @ 09:41:
[...]


Dat is in basis onzin. Alleen de HD4870X2 had met furmark echt problemen onder de 300 Watt te blijven met Furmark. Daar hebben ze toen inderdaad een softwarefix op gegooid.
Ah, dus eigenlijk bedoel je dan dat het 'in basis' correct is. Hetzelfde geldt overigens voor de 5970.
Ook nVidia heeft last van dat powervirus met de naam Furmark.
Nvidia kaarten kunnen in software zoals Furmark boven de TDP gaan die Nvidia noemt. Maar zelfs de vaak bekritiseerde GTX480 verbruikt dan maximaal slechts 300W.
AMD heeft het harwarematig opgelost ondertussen, maar een GTX580 kan nog altijd 350 Watt trekken als de software-oplossing ergens faalt.
De GTX580 heeft hardware voor monitoring. Bijv. GPU-Z kan er wel voor zorgen dat die niet gebruikt wordt, ja. Voor een tweaker natuurlijk een goeie oplossing.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Biff schreef op zondag 13 maart 2011 @ 13:01:
Ah, dus eigenlijk bedoel je dan dat het 'in basis' correct is. Hetzelfde geldt overigens voor de 5970.
Nee, zoals je het stelt, is het alsof AMD/ATI er een handje van heeft om met opzet kaarten te maken die over de 300 Watt heen gaan. Bij de HD4870X2 was er niets dat dit voor elkaar kreeg, totdat Furmark kwam. De HD5970 zit op het randje, waarbij ik bij launch ook cijfers heb gezien die hem bij full load op ~298 Watt zetten.

Die 'hardware' protectie van nVidia is zeker niet zo 'hardware' als men soms graag wil doen laten geloven. "IF executable is Furmark, THEN throttle down". Het feit dat met deactivatie van de driver 'bescherming' de GTX580 direct naar 350 Watt springt in Furmark, zegt natuurlijk wel iets. Het is ook bekend dat de GTX480 over de 300 Watt getrokken kon worden.

Feit is dat tot nog toe, zowel nVidia alswel AMD/ATI heeft geprobeerd om het verbruik onder de 300 Watt te houden, waarbij, mocht dat nodig zijn, software of hardware tweaks toe gepast werden. Bij HD6990 wordt daar voor het eerst van afgestapt en de GTX590 zal dat ook niet anders doen.

Je opmerking dat AMD het 'al een tijdje niet zo nauw nam' met de PCI-E specs is dan ook pertinente onzin, waarbij ik me in de eerste reactie nog beschaafd uitdrukte.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

dahakon schreef op zondag 13 maart 2011 @ 13:28:
[...]


Nee, zoals je het stelt, is het alsof AMD/ATI er een handje van heeft om met opzet kaarten te maken die over de 300 Watt heen gaan.
Met opzet? Hoe haal je dat er uit?
Je opmerking dat AMD het 'al een tijdje niet zo nauw nam' met de PCI-E specs is dan ook pertinente onzin, waarbij ik me in de eerste reactie nog beschaafd uitdrukte.
AMD heeft 2 kaarten die er overheen kunnen gaan. En ook nog zonder dat je bewust een beveiliging hoeft te saboteren.

Ik begrijp je bezwaar niet helemaal. Heb je iets tegen feiten, of is dit gewoon weer zo'n geval van in de verdediging schieten?

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Biff schreef op zondag 13 maart 2011 @ 13:45:
[...]


Met opzet? Hoe haal je dat er uit?


[...]


AMD heeft 2 kaarten die er overheen kunnen gaan. En ook nog zonder dat je bewust een beveiliging hoeft te saboteren.

Ik begrijp je bezwaar niet helemaal. Heb je iets tegen feiten, of is dit gewoon weer zo'n geval van in de verdediging schieten?
Buiten dat ik persoonlijk dit niet echt een nVidia nieuwswaardig discussie vind, zijn feiten zonder bron geen feiten en lopen jullie mekaar te bekogelen zonder bronnen.

Misschien dat Marc nog ergens tijd over heeft bij het testen van de GTX595 en HD6990 om deze zaken voor de huidige generatie op te heldere, zeker voor deze twee kaarten ben ik erg benieuwd of ze nou rond de spec's blijven qua verbruik.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Toettoetdaan schreef op zondag 13 maart 2011 @ 14:48:
[...]

Buiten dat ik persoonlijk dit niet echt een nVidia nieuwswaardig discussie vind, zijn feiten zonder bron geen feiten en lopen jullie mekaar te bekogelen zonder bronnen.
Lees even verder, twee van de bronnen over stroomgebruik staan iets eerder in de discussie. Dat het AMD niet altijd gelukt is onder de 300 Watt te blijven is natuurlijk al lang bekend, maar de vraag kwam oorspronkelijk wel voort uit de discussie over de dual Fermi, dus in zoverre enigszins aktueel. Wellicht laat u hier wat speelruimte toe ;)

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Maxily schreef op zondag 13 maart 2011 @ 01:54:
Ik kwam zojuist een post tegen waarin heel veel videokaarten (van helaas minimaal 1 jaar oud) werden getest op het werkelijke verbruik, door een soort adapter te plaatsen tussen het PCIe slot en de kaart. Ik ben wel benieuwd of dit soort tests ook gedaan zijn voor de huidige top kaarten.

Franse website met videokaart verbruikt tests

Hieruit blijkt dat sommige oudere kaarten al (bijna) over de 300 grens zijn gegaan. Het geeft ook een goed overzicht van wat deze kaarten echt verbruiken.

Edit:
Ik heb hier een iets meer up-to-date grafiek gevonden: Geeks3D: Graphics Cards Power Requirements Charts
Lol @ quadsli GTX480. 1120watt, wtf.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Dit is de oorspronkelijke bron van de lijst die ik eerder poste over verbruik: atomicmpc forum
En op techpowerup hebben ze ook wat verbruik tests gedaan.

Ik vind het wel appart dat er voor de 580 zo'n enorm verschil zit tussen maximaal verbruik tijdens gamen (~240W) en tijdens Furmark (320W, zonder hardware throttling claimen ze op techpowerup). 2 580's in SLI verbruiken tijdens gamen ~440W, dat vind ik best netjes.

De resultaten van atomicmpc laten ook zien dat 2 570's ongeveer evenveel verbruiken als 2 6970's; dan ben ik heel benieuwd naar hoe de 590 het gaat doen. Onder de 450W blijven tijdens gamen kan nog wel met 2 580's, maar daarboven...

Acties:
  • 0 Henk 'm!

  • Dr Mad
  • Registratie: December 2004
  • Laatst online: 24-03 01:05

Dr Mad

Team4Fun Vouwert

Biff schreef op zondag 13 maart 2011 @ 15:17:
[...]


Lees even verder, twee van de bronnen over stroomgebruik staan iets eerder in de discussie. Dat het AMD niet altijd gelukt is onder de 300 Watt te blijven is natuurlijk al lang bekend, maar de vraag kwam oorspronkelijk wel voort uit de discussie over de dual Fermi, dus in zoverre enigszins aktueel. Wellicht laat u hier wat speelruimte toe ;)
Die bronnen laten anders toch duidelijk zien dat nvidia meer kaarten heeft die zich niet aan de 300W grens houden (GTX295, GTX480, GTX580) dan AMD (HD5970, HD4870 X2).

Gekeken naar het verbruik van een enkele GTX580 moge het dan ook duidelijk zijn dat een dual Fermi op basis van 2 volledige GTX580's een aardige uitdaging zal gaan worden qua koeling en het nog enigszins binnen de perken houden van het verbruik.

Money4Gamers


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Biff schreef op zondag 13 maart 2011 @ 15:17:
[...]


Lees even verder, twee van de bronnen over stroomgebruik staan iets eerder in de discussie. Dat het AMD niet altijd gelukt is onder de 300 Watt te blijven is natuurlijk al lang bekend, maar de vraag kwam oorspronkelijk wel voort uit de discussie over de dual Fermi, dus in zoverre enigszins aktueel. Wellicht laat u hier wat speelruimte toe ;)
Haha, zo formeel bedoel ik het ook weer niet, maar een bron bij je eigen post plaatsen voorkomt dat je welles nietes gesprekken krijgt.
En zelfs dan is het nog lastig gezien verschillende test setups verschillende resultaten geven.
(zoals je in de bronnen van Maxily kunt zien zijn daar ook weer verschillen in)


Ik denk dat in GPU-land het TCP ACP verhaal niet lang meer op zich laat wachten, TCP voor statische benches en ACP voor overal game consumptie, het zou wel fijn zijn eigenlijk, want nu blijven we maar discussiëren wie zich nou wel of niet aan het opgegeven verbruik / de standaarden houd.

@Dr mad
Voeg daar de HD3870x2 aan toe en het staat weer 3-3....

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
@Biff

Zoals TPU(net even iets betrouwbaarder dan die andere sites die ik niet eens ken) laat zien is dat de HD5970 maar liefst 4 watt over de 300 watt heen gaat en als je er een fout marge van de meeting op lost laat kan het zelfs zo zijn dat die er onder ligt. De GTX580 en GTX295 liggen met hun verbruik toch aardig wat boven de 300 watt een fout marge is hier niet meer van toepassing.

Dus lekker belangrijk, als er iemand zich niet aan de gestelde TDP houd dan is het nVidia wel. Ik vraag me af wat hun volgende stap is... Waarschijnlijk het verkeerd ijken van de temperatuur sensoren in de GPU waardoor die koeler lijkt dan dat die eigenlijk is.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Toettoetdaan schreef op zondag 13 maart 2011 @ 20:41:
Voeg daar de HD3870x2 aan toe en het staat weer 3-3....
Die kwam bij lange na niet aan de 300Watt. In crossfire (dus 2 HD3870X2's, ofwel 4 GPU's) ging hij pas over de 300 Watt.

Het is in ieder geval voor het eerst dat kaartenmakers bewust de keuze maken de 300Watt grens achter zich te laten voor een standaard product. Tot nog toe was het altijd de bedoeling eronder te blijven, zelfs als een synthetische benchmark het voor elkaar kreeg er wel overheen te gaan.

Enfin, we kunnen deels TSMC 'verantwoordelijk houden' voor deze nieuwe stap, met het in de vuilnisbak gooien van 32nm en het nog (lang) niet klaar zijn van 28nm.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Toettoetdaan schreef op zondag 13 maart 2011 @ 20:41:
@Dr mad
Voeg daar de HD3870x2 aan toe en het staat weer 3-3....
offtopic:
Huh, whut, de HD3870x2 verbruikt meer dan 300W? 'T is voor mijn tijd, hardwarematig gezien, maar dat ding verbruikte toch helemaal niet veel?

[ Voor 15% gewijzigd door bwerg op 13-03-2011 21:23 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Dat klopt, op die charts van geeks3d draait de HD3870x2 aan 127W gemiddeld en 162W piek. Als je twee HD3870x2's in crossfire zet, dan kom je aan 311W. Iemand heeft dus niet goed gekeken. ;)

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Wat ik zie in deze data is dat:
- Zowel nVidia als AMD hebben kaarten die meer dan 300W kunnen verbruiken
- TDP waarden voor beide kampen kloppen niet in extreme gevallen: ~285W (=380W) voor de 4870x2, ~245W (=320W) voor de 580 - om 2 voorbeelden te geven

Als je dan kijkt naar de Guru3D resultaten van piek verbruik in game dan kloppen de TDP's voor bovengenoemde kaarten wel aardig. Als je de videokaarten gebruikt waarvoor ze bedoelt zijn dan halen ze ook de waarden die daarvoor zijn vast gesteld.
als er iemand zich niet aan de gestelde TDP houd dan is het nVidia wel.
Zoals je al eerder hebt gezegd, nVidia baseert hun TDP op in-game verbruik. Dan kloppen die waarden toch echt prima? En je hebt ook nog een 4870x2 die bijna 100W meer verbruikt dan z'n TDP. Lijkt mij dat zowel nVidia als AMD hun TDP baseren op in-game verbruik en niet op Furmark oid.

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 31-05 00:05
Maxily schreef op zondag 13 maart 2011 @ 22:19:
Wat ik zie in deze data is dat:
- Zowel nVidia als AMD hebben kaarten die meer dan 300W kunnen verbruiken
- TDP waarden voor beide kampen kloppen niet in extreme gevallen: ~285W (=380W) voor de 4870x2, ~245W (=320W) voor de 580 - om 2 voorbeelden te geven
Het lijkt me sterk dat een 4870x2 380W gaat halen, een enkele 4870 heeft een TDP van 160W dacht ik hoe kan een 4870X2 dan 380W verbruiken?

Maar dit is allemaal vrij offtopic verder O-)

Acties:
  • 0 Henk 'm!

Anoniem: 245699

Dussssssss, nog nieuws? i.p.v. de meest onzinnige discussie ooit! Pffff

EDIT; Ja, nieuws! Gelekt;
- http://www.bouweenpc.nl/nieuws/3343
De GeForce GTX 590 heeft in totaal 1024 shaders met een klokfrequentie van 1200 tot 1300MHz. Het GDDR5-geheugen is 3GB groot en draait op 3400MHz. De geheugenbussen zijn beide 384-bit breed. De releasedatum wordt door de webshop opnieuw bevestigd; op 22 maart 2011 ziet de GTX 590 het levenslicht.

De GPU is geklokt op ongeveer 607MHz. Er zijn 128 texture units en 96 ROPS aanwezig. Het TDP is 375 watt. Er zijn twee achtpins stroomconnectors benodigd om het geheel van voldoende prik te voorzien. De monitoraansluitingen zijn nog niet helemaal duidelijk. De ene bron spreekt over 2x DVI en 1x (waarschijnlijk mini-)HDMI, de andere over 3x DVI, 1x HDMI en 1x DisplayPort. We zullen het zien...
Als dit waar is vraag ik me af of de GTX590 wel sneller gaat zijn dan de HD6990, want 607Mhz is wel een hele grote terugclock! Laat staan de HD6990 in oc-stand...

[ Voor 87% gewijzigd door Anoniem: 245699 op 13-03-2011 23:38 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Dan hadden ze beter wat minder cuda cores erop kunnen proppen en die vervolgens hoger clocken, denk dat het nog beter presteert zelfs.

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 30-05 10:15

Darkasantion

Just keep swimming!

Vraag is nu, heeft de GTX590 ook een OC-stand of niet?

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Darkasantion schreef op maandag 14 maart 2011 @ 00:32:
Vraag is nu, heeft de GTX590 ook een OC-stand of niet?
Nee, i.i.g. niet zoals de HD6990 deze heeft. De GTX590 krijgt waarschijnlijk een software oplossing i.p.v. een hardware oplossing. Opzicht niet zo erg denk ik maar de HD6990 manier wat beter is. Want je hebt gewoon twee biossen die onafhankelijk van elkaar zijn en dus stabieler totaal oplevert. Omdat de hele bios zich dan afstelt op het geen van hem gevraagd wordt.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

madmaxnl schreef op zondag 13 maart 2011 @ 20:49:
@Biff

Zoals TPU(net even iets betrouwbaarder dan die andere sites die ik niet eens ken)
Kan gebeuren natuurlijk. Zijn videokaarten een nieuwe hobby van je? Hardware.fr is zeker de moeite waard om te leren kennen!
laat zien is dat de HD5970 maar liefst 4 watt over de 300 watt heen gaat en als je er een fout marge van de meeting op lost laat kan het zelfs zo zijn dat die er onder ligt. De GTX580 en GTX295 liggen met hun verbruik toch aardig wat boven de 300 watt een fout marge is hier niet meer van toepassing.

Dus lekker belangrijk, als er iemand zich niet aan de gestelde TDP houd dan is het nVidia wel. Ik vraag me af wat hun volgende stap is... Waarschijnlijk het verkeerd ijken van de temperatuur sensoren in de GPU waardoor die koeler lijkt dan dat die eigenlijk is.
Da's dan wel weer een beetje jammer. Ik denk dat dit soort fantasievolle aannames een beetje misplaatst zijn in een serieuze discussie over meetresultaten.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 31-05 22:15
Anoniem: 245699 schreef op zondag 13 maart 2011 @ 23:34:
Dussssssss, nog nieuws? i.p.v. de meest onzinnige discussie ooit! Pffff

EDIT; Ja, nieuws! Gelekt;
- http://www.bouweenpc.nl/nieuws/3343

[...]

Als dit waar is vraag ik me af of de GTX590 wel sneller gaat zijn dan de HD6990, want 607Mhz is wel een hele grote terugclock! Laat staan de HD6990 in oc-stand...
Dat is niet gelekt, dat is pure speculatie op basis van eerdere speculatie. Volgens mij worden de specs zeer binnenkort vastgesteld en dan zullen ze waarschijnlijk wel weer op een of andere website uitlekken. Maar waarschijnlijk niet op bouweenpc.nl ...
Pagina: 1 ... 8 ... 10 Laatste

Dit topic is gesloten.