[Algemeen] nVidia Nieuwdiscussie Topic - Deel 51 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 9 10 Laatste
Acties:
  • 44.484 views

Acties:
  • 0 Henk 'm!

Anoniem: 245699

@Marc, als je het bericht leest zie je ook dat het niet gelekt is op bouweenpc.nl, maar dat een Zweeds bedrijf de 'zogenaamde' specs op hun site heeft gezet bij de product informatie... Ik zal ook niet beweren dat het pertinent waar is, maar bouweenpc heeft het puur laten zien.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 30-05 09:52

Tomas Hochstenbach

Redacteur componenten
Inderdaad, het is van een webshop ofzo. Redelijk betrouwbaar denk ik.

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
madmaxnl schreef op vrijdag 11 maart 2011 @ 17:50:
Ze zijn trouwens al 3 jaar in het "geheim" aan Project Denver aan het werken en denken deze pas in eind 2012 of begin 2013 te kunnen introduceren en ze laten dus een nep die shot zien :+ Ik vraag me af wat ze in die 3 jaar hebben zitten doen.
Misschien een CPU ontworpen waar je de layout van ziet op de getoonde dia? Vind het wel raar dat iedereen klaagt over het feit dat er een GF104 chip op de achtergrond staat maar niemand zegt iets over de layout die er overheen getekend is. Wie zegt dat die niet klopt?
madmaxnl schreef op vrijdag 11 maart 2011 @ 17:50:
Ze zetten bij nVidia alles naar hun hand om maar te laten zien dat ze een goede stap doen of hebben gedaan om in de ARM business te stappen.
...
Ik heb nog geen 10 minuten naar Jens geluisterd maar het is allemaal bullshit wat die verteld.
Kijk eens een Apple presentatie van Jobs als je onzin wilt horen. Ik zie het probleem niet zo eigenlijk. Ze presenteren een mooi verhaaltje naar de investeerders. Mensen die gewend zijn aan mooie verhaaltjes en weten dat de werkelijkheid niet altijd klopt met de slides die ze zien. Maak je niet zo druk :)
dahakon schreef op zondag 13 maart 2011 @ 09:41:
AMD heeft het harwarematig opgelost ondertussen, maar een GTX580 kan nog altijd 350 Watt trekken als de software-oplossing ergens faalt.
Ik zie 310W en 325W in de bovenstaande bronnen als piek verbruik. Ik wordt een beetje moe van je continue allegaties dat de GTX480 of GTX580 350Watt (of meer) kunnen trekken. Bewijs graag en anders aub in het vervolg je mond houden.
madmaxnl schreef op zondag 13 maart 2011 @ 20:49:
Dus lekker belangrijk, als er iemand zich niet aan de gestelde TDP houd dan is het nVidia wel. Ik vraag me af wat hun volgende stap is... Waarschijnlijk het verkeerd ijken van de temperatuur sensoren in de GPU waardoor die koeler lijkt dan dat die eigenlijk is.
Kijk, als je je nu afvraagt waarom iedereen roept dat je AMD fanboy of zelfs een troll bent moet je die laatste zinnen eens even herlezen. Wanneer heeft NVIDIA ooit pogingen gedaan om mensen te bedriegen over het verbruik of de hitte van de kaarten en waarom zou er ook maar enige reden zijn om aan te nemen dat ze dit zullen doen?


Wat betreft alle gedoe rond TDPs en 300W grenzen dan, laten we even de feiten op een rij zetten:

-AMD is de eerste die de 300W grens overschrijdt met de 4870x2
-NVIDIA volgt met de 295
-AMD blijft er boven zitten met de 5970
-NVIDIA zelfde verhaal met de 480
-AMD implementeert hardware limitatie op verbruik
-NVIDIA implementeert software limitatie op verbruik (soit, iets minder complex, maar als het doel maar bereikt wordt toch?)
-Alle bovenstaande cijfers zijn enkel en alleen bij gebruik van programma's als Furmark en OCCT, die geen enkele basis of nut hebben in dagelijk gebruik
-Bij normaal gebruik zitten alle kaarten onder de 250 watt (muv 480 met 255W en 4870x2 met 265-270W) en netjes onder hun genoemde TDP

Waar maakt iedereen zich in godsnaam zo druk om?

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Snoitkever schreef op maandag 14 maart 2011 @ 12:59:

[...]

Ik zie 310W en 325W in de bovenstaande bronnen als piek verbruik. Ik wordt een beetje moe van je continue allegaties dat de GTX480 of GTX580 350Watt (of meer) kunnen trekken. Bewijs graag en anders aub in het vervolg je mond houden.
Hier zijn wel bronnen voor te vinden maar dan hebben ze de limiterende software uitgezet dus heel eerlijk is dat niet.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Volgens techpowerup zijn hun resultaten ook "zonder" de limiterende software:
Please note that two entries are present in the "Maximum" graph. As mentioned earlier, the card (de 580) comes with a current limiter system which reduces clocks and performance in case the card senses it is overloaded. Exactly that is happening in our Furmark test, the second bar is the power draw as we see it momentarily before the current limiter has time to kick in. I am extremely confident that this represents power draw as it would appear without the current limiter in place.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
TomasH schreef op maandag 14 maart 2011 @ 12:06:
Inderdaad, het is van een webshop ofzo. Redelijk betrouwbaar denk ik.
Pageviews. ;)
Snoitkever schreef op maandag 14 maart 2011 @ 12:59:
[...]

Wat betreft alle gedoe rond TDPs en 300W grenzen dan, laten we even de feiten op een rij zetten:

-AMD is de eerste die de 300W grens overschrijdt met de 4870x2
Klopt was in de tijd dat Furmark nog niet bestond dus natuurlijk niet zo vreemd, wat er niet is kun je niet meten. ;)
-NVIDIA volgt met de 295
Zelfde als hierboven.
-AMD blijft er boven zitten met de 5970
Nee de HD5970 bleef op precies 300W steken tijdens Furmark. ;)
-NVIDIA zelfde verhaal met de 480
Waren maar enkele watts niet iets noemenswaardig en kan ook een meetfout zijn, de GTX580 blijft met de software limiet op hetzelfde steken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Resinman
  • Registratie: September 2001
  • Laatst online: 22-05 07:29

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

WTF is dat voor bron? Wie noemt TDP in vredesnaam ' Horsepower'? Waarom kan ik dat plaatje op XS niet makkelijk terugvinden?

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Afbeeldingslocatie: http://content.hwigroup.net/images/news/nvidia_geforce_gts590_specs_slide.jpg
365watt? Dat lijkt me erg sterk...

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
365watt? Dat lijkt me erg sterk...
Volgens de charts op atomicmpc verbruiken 2 570's in sli 364W tijdens games (waar nVidia hun TDP op baseert). De samenvoeging van 2 gpu's op 1 plaat resulteert waarschijnlijk in een iets lager verbruik, dus kunnen de clocks wat omhoog. Om dan op 365W uit te komen lijkt mij best redelijk.

[ Voor 10% gewijzigd door Max Hunt op 14-03-2011 16:09 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Snoitkever schreef op maandag 14 maart 2011 @ 12:59:

Kijk, als je je nu afvraagt waarom iedereen roept dat je AMD fanboy of zelfs een troll bent moet je die laatste zinnen eens even herlezen. Wanneer heeft NVIDIA ooit pogingen gedaan om mensen te bedriegen over het verbruik of de hitte van de kaarten en waarom zou er ook maar enige reden zijn om aan te nemen dat ze dit zullen doen?
nVidia heeft tot nu toe nog geen mensen bedrogen op het gebied van verbruik(TDP speculatie daargelaten) of de hitte van een kaart maar wel op anderen vlakken zoals PhysX en het G8x debacle.

PhysX omdat ze opzettelijk de code corrupt maken zodat het op CPUs voor geen meter loopt waardoor GPUs enorm veel sneller lijken. Enigszins zelfde principe als het verkeerd ijken van een temperatuur sensor.

G8x debacle omdat ze willens en wetens vol bleven houden dat er niks aan de hand was terwijl de G8x chips massaal stierven waarvan ze het dus wisten. Hier hebben flink was mensen geld mee verloren.

Of ik een fan boy ben laat ik lekker in het midden. Ik probeer alles gewoon goed te onderbouwen met feiten en of goede argumenten. Meestal gaat men ondanks de keiharde feiten gewoon af op de aannamen dat ik een AMD fan boy zou zijn en daardoor alles wat ik zeg direct onwaar is. Dan zou men nooit meer zijn eigen standpunten kunnen verdedigen want men is bij wijzen van altijd een fan boy c.q. bevooroordeeld en of partijdig. Daarom is er zoiets als feiten en argumenten waarmee je een standpunt dus "glashard" neer kunt zetten.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

madmaxnl schreef op maandag 14 maart 2011 @ 16:53:
[...]


nVidia heeft tot nu toe nog geen mensen bedrogen op het gebied van verbruik(TDP speculatie daargelaten) of de hitte van een kaart maar wel op anderen vlakken zoals PhysX en het G8x debacle.

PhysX omdat ze opzettelijk de code corrupt maken zodat het op CPUs voor geen meter loopt waardoor GPUs enorm veel sneller lijken. Enigszins zelfde principe als het verkeerd ijken van een temperatuur sensor.

G8x debacle omdat ze willens en wetens vol bleven houden dat er niks aan de hand was terwijl de G8x chips massaal stierven waarvan ze het dus wisten. Hier hebben flink was mensen geld mee verloren.

Of ik een fan boy ben laat ik lekker in het midden. Ik probeer alles gewoon goed te onderbouwen met feiten en of goede argumenten. Meestal gaat men ondanks de keiharde feiten gewoon af op de aannamen dat ik een AMD fan boy zou zijn en daardoor alles wat ik zeg direct onwaar is. Dan zou men nooit meer zijn eigen standpunten kunnen verdedigen want men is bij wijzen van altijd een fan boy c.q. bevooroordeeld en of partijdig. Daarom is er zoiets als feiten en argumenten waarmee je een standpunt dus "glashard" neer kunt zetten.
Feiten?
Dus de HD6990 maakt wat herrie, w/e. Die kaart wordt toch maar door een select clubje gekocht. Dit clubje is meestal ook bezig met overclocken en zijn niet vies van waterkoeling of andere aftermarket koelers. Om een HD6990 tot zijn recht te laten komen heb je al heel erg goede hardware nodig, o.a. een dikke voeding en een dikke monitor of een paar monitoren. De koeling is bij dergelijke setups meestal het probleem niet, is dit wel een probleem dan pak je toch de een combinatie van de HD6950 kaarten o.i.d.
Hier zit je goed te praten dat die kaart gewoon een bak herrie maakt, oftewel geen feiten maar gelul dat AMD beter is. Aangezien een GTX480 hier juist op afgebrand werd. Ja GTX480 is 1 GPU AMD oplossing 2 GPU's, aangezien dit allebei 1 kaart is zou dit niet uit maken.

offtopic:
Frappant dat AMD hier wel mee weg kan komen en nVidia tot de grond wordt afgebrand. Nu lijk ik misschien een nVidia fanboy maar dat ben ik niet.


Nog zo iets,
De HD6990 kan zoals je zelf al laat zien eigenlijk alleen worden beconcurreerd door AMD zelf. 2xHD69xx maar geen twee keer GTX570SLI of GTX580SLI. De SLI setups zijn of te traag, of veel duurder en verbruiken ook nog eens meer energie. De kosten die bespaard word op voeding, kaart en energie kan mooi geïnvesteerd worden in de koeling van de HD6990.
Ahum? Mensen in die prijs categorie maakten dat toch allemaal niet uit, dat selecte clubje geld net zo goed voor nVidia kaarten. Dat maakt het dus zeker wel een concurrent.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Xenomorphh schreef op maandag 14 maart 2011 @ 17:06:
Feiten?

Hier zit je goed te praten dat die kaart gewoon een bak herrie maakt, oftewel geen feiten maar gelul dat AMD beter is. Aangezien een GTX480 hier juist op afgebrand werd. Ja GTX480 is 1 GPU AMD oplossing 2 GPU's, aangezien dit allebei 1 kaart is zou dit niet uit maken.

offtopic:
Frappant dat AMD hier wel mee weg kan komen en nVidia tot de grond wordt afgebrand. Nu lijk ik misschien een nVidia fanboy maar dat ben ik niet.
GTX480 was z'n 10 a 15% sneller dan de HD5870 terwijl de geluidsproductie en verbruik in een heel andere verhoudingen waren. De HD6990 daarentegen is 60% sneller dan de GTX580. Enfin ik wacht wel op de GTX590 voor ik weer wat zeg in dit topic. Als men me dan nog kan horen heet dat :+

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 27-05 08:17
madmaxnl schreef op maandag 14 maart 2011 @ 17:19:
[...]


GTX480 was z'n 10 a 15% sneller dan de HD5870 terwijl de geluidsproductie en verbruik in een heel andere verhoudingen waren. De HD6990 daarentegen is 60% sneller dan de GTX580. Enfin ik wacht wel op de GTX590 voor ik weer wat zeg in dit topic.
Ik zal niet keihard roepen dat je een fanboy bent (dat gaat wat ver), maar ik vind je wel gematigd negatief over nvidia in veel onderwerpen die in dit topic besproken worden en zo beken je wel kleur. Kijk ik in het topic van de concurrent dan ben je een stuk positiever over bv de geluidsproductie van de 6990 en dan ben je idd niet echt neutraal meer imho. Constant zitten stoken kan irritatie opwekken, maar dat kunnen we allemaal op z'n tijd :)

Acties:
  • 0 Henk 'm!

Anoniem: 263922

madmaxnl schreef op maandag 14 maart 2011 @ 17:19:
[...]


GTX480 was z'n 10 a 15% sneller dan de HD5870 terwijl de geluidsproductie en verbruik in een heel andere verhoudingen waren. De HD6990 daarentegen is 60% sneller dan de GTX580. Enfin ik wacht wel op de GTX590 voor ik weer wat zeg in dit topic. Als men me dan nog kan horen heet dat :+
Jij kan ook alleen maar feiten verdraaien in AMD z'n voordeel en nvidia enkel in een negatief daglicht zetten.
Ook die reviews die je laat zien laten dit weer op pijnlijke wijze zien, je zoekt je gewoon de voor AMD mooiste reviews er uit, zelfs als je dan nog steeds niet je gelijk haalt.

Ik zeg nu niet dat je altijd ernaast zit, maar veel meer dan oude koeien uit de sloot halen doe je niet, en ik weet wel zeker dat ik niet de enige ben die zich er aan stoort, en niet enkel in dit topic.

Je bereikt er vrij weinig mee, je verpest enkel de discussie :(

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Snoitkever schreef op maandag 14 maart 2011 @ 12:59:
Ik zie 310W en 325W in de bovenstaande bronnen als piek verbruik. Ik wordt een beetje moe van je continue allegaties dat de GTX480 of GTX580 350Watt (of meer) kunnen trekken. Bewijs graag en anders aub in het vervolg je mond houden.
De cijfers voor de HD4870X2 en HD5970 zijn net zo goed piekverbruik. Zo kan men ook moe worden van de allegaties van liefhebbers van nVidia hardware dat AMD er een handje van heeft om hardware te maken die over de specs heen gaan (ergens een handje van hebben staat gelijk aan 'een doelbewuste actie begaan').

Je laatste zin is vervolgens een tragisch geval van erg onbeschoft en in mijn ogen ongewenst discussiegedrag. Het 'bewijs' is namelijk al gegeven in de laatste pagina's en in voorgaande topics. Dat jij je eigen intepretatie geeft aan die cijfers, maakt het niet anders.

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
dahakon schreef op maandag 14 maart 2011 @ 17:48:
De cijfers voor de HD4870X2 en HD5970 zijn net zo goed piekverbruik. Zo kan men ook moe worden van de allegaties van liefhebbers van nVidia hardware dat AMD er een handje van heeft om hardware te maken die over de specs heen gaan (ergens een handje van hebben staat gelijk aan 'een doelbewuste actie begaan').
Waar zeg ik dan dat cijfers van de 4870 en 5970 geen piekverbruik zijn?
dahakon schreef op maandag 14 maart 2011 @ 17:48:
Je laatste zin is vervolgens een tragisch geval van erg onbeschoft en in mijn ogen ongewenst discussiegedrag. Het 'bewijs' is namelijk al gegeven in de laatste pagina's en in voorgaande topics. Dat jij je eigen intepretatie geeft aan die cijfers, maakt het niet anders.
Waar staat het bewijs dat de 480 of de 580 meer dan 350 watt verbruiken? Want dat is wat MadMaxNL beweerde en blijft beweren ondanks het feit dat alle bewijs hem tegenspreekt.
madmaxnl schreef op maandag 14 maart 2011 @ 16:53:
PhysX omdat ze opzettelijk de code corrupt maken zodat het op CPUs voor geen meter loopt waardoor GPUs enorm veel sneller lijken. Enigszins zelfde principe als het verkeerd ijken van een temperatuur sensor.
PhysX CPU code is niet corrupt maar gebaseerd op oude code die niet is geupdate. Dus het is waar dat CPU PhysX niet optimaal loopt, maar het is niet zo dat NVIDIA dit met opzet zo geschreven heeft. Het is wel zo dat ze dit (mogelijk met opzet) niet updaten.

[ Voor 6% gewijzigd door Snoitkever op 14-03-2011 18:35 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Snoitkever schreef op maandag 14 maart 2011 @ 18:34:
Waar zeg ik dan dat cijfers van de 4870 en 5970 geen piekverbruik zijn?
Ik zeg niet dat jij dat zei. Biff bleef daar echter stug op doorhameren, terwijl ik slechts naar voren haalde dat bij zowel AMD alswel nVidia het altijd de bedoeling is geweest om kaarten binnen de 300 Watt te houden en dat alleen door programmatjes als Furmark dat iets anders liep. Bij normaal gebruik is er dus geen probleem met welke kaart dan ook, behalve de nieuwe generatie dual-GPU kaarten.
Waar staat het bewijs dat de 480 of de 580 meer dan 350 watt verbruiken? Want dat is wat MadMaxNL beweerde en blijft beweren ondanks het feit dat alle bewijs hem tegenspreekt.
Dat madmaxnl iets zegt is 1 ding, maar val hem er dan op aan en niet mij. Mijn uitgangspunt is zoals hierboven verwoord en niet anders. Alleen HD6990 en GTX590* gaan (bewust) over de 300 Watt bij normaal gebruik.

*Aanname van mijn kant, omdat een GTX590 die onder de 300 Watt blijft gewoonweg geen competitie zal zijn, niet eens voor een GTX580.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Volgens fudzilla zal de GTX590 een stuk stiller dan de HD6990 zijn.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Fud zegt dat de kaarten op CeBIT vrij stil waren.. Niet zo gek. Een lawaaiige beursvloer en de kaart in een afgesloten behuizing (wie weet wat voor koeler erop geplaatst was?) doet wonderen.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

spNk schreef op maandag 14 maart 2011 @ 19:31:
Volgens fudzilla zal de GTX590 een stuk stiller dan de HD6990 zijn.
-200MHz.. is dat iets om trots op te zijn?

Met die clocks kom je net iets boven de P9000 in 3DMark11.. hoe gaan ze "wereld's snelste" zijn als ze niet de snelste ter wereld zijn?

[ Voor 18% gewijzigd door neliz op 14-03-2011 20:04 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Ik denk ook niet dat de GTX590 sneller gaat zijn hoor, alleen diep van binnen voel ik iets dat nV een kaart niet zou lanceren wanneer deze niet sneller is dan de concurrent.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Enter OC stand. Volledig opengedraaid zal de kaart ook wel tussen de 450W en 500W verstoken.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

dahakon schreef op maandag 14 maart 2011 @ 19:24:
[...]


Ik zeg niet dat jij dat zei. Biff bleef daar echter stug op doorhameren
Oh ja? Quote even waar ik zou hebben beweerd dat dat iets anders dan piekverbruik zou zijn. Moet geen probleem zijn na dat 'stug doorhameren'. Of beter, hou er anders nou eens eindelijk over op?
terwijl ik slechts naar voren haalde dat bij zowel AMD alswel nVidia het altijd de bedoeling is geweest om kaarten binnen de 300 Watt te houden en dat alleen door programmatjes als Furmark dat iets anders liep.
Oftewel precies wat ik zelf oorspronkelijk al zei. En dus even overbodig als je gemier over 'pertinente onzin'. De hele discussie gaat nergens over.
Bij normaal gebruik is er dus geen probleem met welke kaart dan ook, behalve de nieuwe generatie dual-GPU kaarten.
Ja. En mocht het onverhoopt toch nog wat warm worden in een of andere toekomstige applicatie dan noemen we dat gewoon abnormaal gebruik. Kan ie lekker erbij op de lijst van onvoorziene power virussen. :/

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
spNk schreef op maandag 14 maart 2011 @ 20:22:
diep van binnen voel ik iets dat nV een kaart niet zou lanceren wanneer deze niet sneller is dan de concurrent.
Lijkt me een terecht gevoel. Ik ga er zelf van uit dat de 590 sneller gaat zijn dan de 6990 en daarmee de 6990 (met de huidige prijzen) in principe zo goed als geen bestaansrecht meer zal hebben.

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 26-05 03:22

pino85

Im just a Bird in the Sky

De 6990 is nu vanaf zo'n 550 a 575 euro te krijgen, we weten niet steeds niet hoe snel de GTX590 word en wat de vanaf prijzen exact hier in NL gaan zijn.
Er is dus nog geen enkele conclusie te trekken omtrent het bestaansrecht.

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Nou een prijsje dan maar,
De GeForce GTX 590 zal volgende week haar intrede gaan doen. In een Zweedse winkel dook de GTX 590 op voor 7395 Zweedse kronen, oftewel ongeveer € 830.

Dit zal waarschijnlijk niet kloppen maar ja dit denken hun er blijkbaar van.

http://nl.hardware.info/n...tx-590-duikt-op-in-zweden

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 00:05
Springstof schreef op maandag 14 maart 2011 @ 21:06:
[...]

Lijkt me een terecht gevoel. Ik ga er zelf van uit dat de 590 sneller gaat zijn dan de 6990 en daarmee de 6990 (met de huidige prijzen) in principe zo goed als geen bestaansrecht meer zal hebben.
Een GTX 580 is minimaal ~420 euro en een 6990 is ~550 euro maar is 60% sneller, mag jij me gaan uitleggen hoe een 6990 geen bestaansrecht meer zal hebben als er een GTX 590 komt?
de GTX 590 kan nooit op dezelfde prijs komen als een 6990 zonder verlies voor Nvidia.

Stel: Nvidia bespaard 100 euro aan onderdelen omdat 2 chips op 1 kaart zitten, zelfs dan praten we over een prijs van meer dan 700 euro.. hoe willen ze daarmee ooit kunnen concurreren met een 6990?

[ Voor 14% gewijzigd door Redblader op 14-03-2011 21:44 ]


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Redblader schreef op maandag 14 maart 2011 @ 21:43:
[...]


Een GTX 580 is minimaal ~420 euro en een 6990 is ~550 euro maar is 60% sneller, mag jij me gaan uitleggen hoe een 6990 geen bestaansrecht meer zal hebben als er een GTX 590 komt?
de GTX 590 kan nooit op dezelfde prijs komen als een 6990 zonder verlies voor Nvidia.
Op zulke kaarten maken ze ook verlies, maar het feit dat ze kunnen zeggen wij zijn de snelste doet ze heel goed. Vermoed dat AMD er ook geen winst op maakt maar das alleen gis werk.

[ Voor 6% gewijzigd door Xenomorphh op 14-03-2011 21:44 ]

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Springstof schreef op maandag 14 maart 2011 @ 21:06:
[...]

Lijkt me een terecht gevoel. Ik ga er zelf van uit dat de 590 sneller gaat zijn dan de 6990 en daarmee de 6990 (met de huidige prijzen) in principe zo goed als geen bestaansrecht meer zal hebben.
Ehm..
Je weet dat NV concessies gaat doen om de 590 op de markt te krijgen .. en die concessies zijn een stuk groter dan wat AMD heeft moeten doen voor 2x6970.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
pino22 schreef op maandag 14 maart 2011 @ 21:36:
De 6990 is nu vanaf zo'n 550 a 575 euro te krijgen, we weten niet steeds niet hoe snel de GTX590 word en wat de vanaf prijzen exact hier in NL gaan zijn.
Er is dus nog geen enkele conclusie te trekken omtrent het bestaansrecht.
Duurder dan 6950 CF. Nu wellicht nog te verdedigen met het gegeven dat de 6990 de snelste kaart is en er daarom een premium prijs voor betaald dient te worden. Als hij dat na de release van de 590 niet meer is valt dat koopargument dus weg. Ergo nVidia kan een premium prijs voor de 590 gaan vragen, de prijsbewuste koper kiest voor 6950 CF en de 6990 valt tussen wal en schip.

[ Voor 5% gewijzigd door Springstof op 14-03-2011 21:53 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Snoitkever schreef op maandag 14 maart 2011 @ 18:34:
PhysX CPU code is niet corrupt maar gebaseerd op oude code die niet is geupdate. Dus het is waar dat CPU PhysX niet optimaal loopt, maar het is niet zo dat NVIDIA dit met opzet zo geschreven heeft. Het is wel zo dat ze dit (mogelijk met opzet) niet updaten.
Waarom beweerd Jen-Hsun Huang dan dat nVidia's software een van de beste ter wereld is ?

00:58:20 van Jen-Hsun Huang zijn speech.

Strookt niet helemaal met wat jij zegt. Ik vind het nogal naïef gedacht dat nVidia dit niet met opzet gedaan zou hebben. Ze hebben er namelijk alle belang bij. Zo wordt de software namelijk afhankelijk van nVidia's GPU en dat is precies wat ze willen. Zou namelijk niet verstandig van nVidia zijn om de software voor Mutli-core, Hyperthreading, SSE(x), etc te optimaliseren. Immers maken ze PhysX in veel gevallen dan overbodig.

Maar goed ik ben zoals jij al heel erg zeker stelde een AMD fan boy.

[ Voor 5% gewijzigd door madmaxnl op 14-03-2011 23:04 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Ik ga nog 1x het "SLI vs Crossfire" discussie aantrappen:

Ome Tom heeft een leuke review hierover geplaatst.
CrossFire came out with a huge overall scaling lead over SLI, and removing the one title that didn’t reflect that average would have made the lead even bigger. Superior scaling allowed two mid-priced Radeon HD 6950s to approximate the performance of two higher-cost GeForce GTX 570s, while three HD 6950s took the performance win over three GTX 570s.

If CrossFire’s value-oriented victory in two-way and performance win in three-way configurations weren’t enough to convince us, the Radeon HD 6950's lower power certainly did. AMD started out with the highest efficiency at one card, and superb multi-GPU scaling allowed its efficiency to increase with every card we added. When’s the last time adding parts made your machine more efficient?
Zo. Is dat ook weer opgehelderd.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Dat ziet er interresant uit, zo even lezen.

De link doet het trouwens niet, deze wel als het goed is (d'r zit een komma in)

[ Voor 5% gewijzigd door Max Hunt op 14-03-2011 23:21 ]


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Om te beginnen, Crossfire schaalt echt goed, zeker met 3 kaarten. Dit is echt prima gedaan door AMD. Echter heb ik wel wat opmerkingen over de review die volgens mij leiden tot scheve conclusies.

1. Ik mis het geen gebruik maken van 3-monitor setups. Als je 2 of 3 van dit soort kaarten hebt dan is dat toch wel belangrijk lijkt mij.
2. 5 spellen en 1 benchmark vind ik wel wat weinig. Zeker omdat 2 spellen "afvallen" omdat 1 vd 2 merken niet schaalt met 3 kaarten.
3. Voor mijn gevoel proberen ze AMD er iets beter uit te laten zien. De resultaten staan als een huis, maar de manier waarop ze worden gepresenteerd, een paar voorbeelden:

Vb. 1: AvP. AMD's 3e kaart schaalt totaal niet. Hun (logische) reactie:
It appears as though this title uses only two of AMD’s cards, and that might be a problem with Catalyst Application Profiles.
Vb. 2: Stalker. nVidia's 3e kaart schaalt totaal niet. Hun reactie:
Three-way CrossFireX looks even better, with three-way SLI becoming inconsistent.
Vb. 3: Bij het analyseren van de schaling tussen 1-3 kaarten moeten ze bij AMD er even dit bij vermelden:
This, in spite of the fact that one of our games, Aliens vs. Predator, didn’t even benefit from the third AMD card.
Vb. 4: Om de efficiency te bereken tussen AMD en nVidia kiezen ze voor de test waar nVidia echt waardeloos schaalt, in plaats van dat ze hun gemiddelde waardes gebruiken. Jah, als je die grafiek zou maken voor AvP zou het er ook raar uit zien.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 09:47
Maxily schreef op dinsdag 15 maart 2011 @ 00:51:
1. Ik mis het geen gebruik maken van 3-monitor setups. Als je 2 of 3 van dit soort kaarten hebt dan is dat toch wel belangrijk lijkt mij.
ik denk dat je als wilt vergelijken met 5760x1200 (of in die richting) het 'beste' kunt kijken naar de hoogste resolutie met de meeste AA (2520x1600 4xAA).
als je naar de gemiddelden kijkt kun je zien dat de 570 steeds meer terrein verliest als je AA toevoegt en in resolutie omhoog gaat.
de trend voor nog hogere resoluties ziet er dus niet rooskleurig uit voor nvidia.

met al je andere punten ben ik het wel eens overigens.
ik heb dan ook niet alle tekst gelezen maar beperk me (zoals meestal) tot de grafiekjes.

ben wel benieuwd wat de 590 hier tegenover gaat zetten, ik mag voor nvidia hopen beter dan 570 sli.
met de steeds goedkoper wordende concurrentie zal het wel lastig worden er ook winst mee te maken.

[ Voor 4% gewijzigd door mitsumark op 15-03-2011 01:31 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Tom was anders kritisch over de HD6990. Nee, Tom is gewoon ongekleurd dus begin daar niet over. De HD6990 review titel alleen al was alles behalve AMD gezind.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Maxily schreef op dinsdag 15 maart 2011 @ 00:51:
.
3. Voor mijn gevoel proberen ze AMD er iets beter uit te laten zien.
Ik begrijp echt niet hoe je hier nu weer bij komt. Ja, ze gebruiken in beide situaties andere bewoordingen. So what. Er staat in beide gevallen omschreven dat één van de twee kaarten faalt bij gebruik van drie gpu's.
Als ze AMD er beter uit hadden willen laten zien, dan hadden ze wel HD6970's gebruikt. Of Cat 11.4. Of meer titels die AMD beter liggen en AvP weggelaten.
Over dat er 'maar' vijf titels en een synth. getest zijn: heb je ooit wel eens fatsoenlijk gebenched? Weet je wel wat een enorme puist werk dat is? Het gaat hier om drie resoluties met en zonder AA, zes verschillende setups. En dat allemaal voor een review die minder lezers trekt dan (bijvoorbeeld) een HD6990 launch review.
Nee, wat mij betreft zoek je spijkers op laag water.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Als ze AMD er beter uit hadden willen laten zien, dan hadden ze wel HD6970's gebruikt. Of Cat 11.4. Of meer titels die AMD beter liggen en AvP weggelaten.
Qua prijs lijkt mij de 6970 ook wat meer voor de hand liggen. Cat 11.4 kon niet, aangezien ze 2 maanden geleden al bezig waren met deze review. En ik ben zeker ook benieuwd naar hoe de nieuwe AMD / Nvidia drivers het zullen doen.

Ja ik weet dat benchmarken veel tijd kost, maar dat is neem ik aan vooral tijd dat de computer bezig is met het uitvoeren van scripts. Dat is natuurlijk geen excuus, ze hebben lijkt mij tijd genoeg.


Deze review, vooral de conclusie, zou heel anders hebben gelezen als er niks werd gezegd over AMD drivers, juist wel over Nvidia drivers en als ze bijvoorbeeld 3DMark 11 of Crysis hadden gebruikt bij de efficiency berekeningen.

De uiteindelijke conclusie, CrossFire schaalt beter dan SLI, zou blijven staan maar dan zou het opeens lezen alsof ze excuses bedenken voor waarom Nvidia het minder goed doet.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Maxily schreef op dinsdag 15 maart 2011 @ 10:56:
[...]
Qua prijs lijkt mij de 6970 ook wat meer voor de hand liggen. Cat 11.4 kon niet, aangezien ze 2 maanden geleden al bezig waren met deze review. En ik ben zeker ook benieuwd naar hoe de nieuwe AMD / Nvidia drivers het zullen doen.

Ja ik weet dat benchmarken veel tijd kost, maar dat is neem ik aan vooral tijd dat de computer bezig is met het uitvoeren van scripts. Dat is natuurlijk geen excuus, ze hebben lijkt mij tijd genoeg.


Deze review, vooral de conclusie, zou heel anders hebben gelezen als er niks werd gezegd over AMD drivers, juist wel over Nvidia drivers en als ze bijvoorbeeld 3DMark 11 of Crysis hadden gebruikt bij de efficiency berekeningen.

De uiteindelijke conclusie, CrossFire schaalt beter dan SLI, zou blijven staan maar dan zou het opeens lezen alsof ze excuses bedenken voor waarom Nvidia het minder goed doet.
Bij X-bit hebben ze de efficiëntie per game berekend, tevens een zeer interessante review tussen de HD6970CF en GTX570SLI.
http://www.xbitlabs.com/a...on-hd6970-crossfirex.html
(ze hebben 19 dagen over deze review gedaan, vandaar de 11,2 en 266.77 drivers)

1920x1080 en 2560x1600 zonder AA
Afbeeldingslocatie: http://www.xbitlabs.com/images/video/radeon-hd6970-crossfirex/22_cfx-sli_big.png

1920x1080 en 2560x1600 met AA
Afbeeldingslocatie: http://www.xbitlabs.com/images/video/radeon-hd6970-crossfirex/23_cfx-sli-aa_big.png

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Maxily schreef op dinsdag 15 maart 2011 @ 10:56:
[...]
Qua prijs lijkt mij de 6970 ook wat meer voor de hand liggen.
Nope. Dat zou leuk zijn als er twee videokaarten met elkaar worden vergeleken en dat is niet de insteek van deze test. Tom's test of er wijzigingen zijn in de mate waarin multi-gpu technieken schalen en dat wordt hier prima aangetoond. Ik neem aan dat je destijds ook de GTX480 vs. HD5870 multi-gpu test hebt gelezen? Die werd gewonnen door NV en toen hoorde ik dergelijke comments niet.
Cat 11.4 kon niet, aangezien ze 2 maanden geleden al bezig waren met deze review. En ik ben zeker ook benieuwd naar hoe de nieuwe AMD / Nvidia drivers het zullen doen.

Ja ik weet dat benchmarken veel tijd kost, maar dat is neem ik aan vooral tijd dat de computer bezig is met het uitvoeren van scripts. Dat is natuurlijk geen excuus, ze hebben lijkt mij tijd genoeg.
Tom's is een bedrijf. Een bedrijf dat geld verdient aan het schrijven van artikelen. Het gebruik van een testlab voor een artikel kost geld en per artikel kun je dus uitrekenen hoe hoog de kosten zijn die tegenover de opbrengsten moeten worden afgezet. Het testlab moet ook weer ingezet worden voor andere reviews en het kan niet zo zijn dat een redacteur geen toegang heeft tot data omdat het lab bezet is. Het is gewoon een verhaal van kosten en baten.
Deze review, vooral de conclusie, zou heel anders hebben gelezen als er niks werd gezegd over AMD drivers, juist wel over Nvidia drivers en als ze bijvoorbeeld 3DMark 11 of Crysis hadden gebruikt bij de efficiency berekeningen.
Dat 3dMark11 niet werd gebruikt lijkt me vrij logisch. Synthetics lijken steeds minder on staat een goede weergave van real-life performance te zijn en daar zijn ze juist voor gemaakt.
Daarnaast zou het natuurlijk geen zin hebben om power/performance efficency te testen met een game waar één van de twee fabrikanten niet zou schalen omdat een gpu in Idle blijft hangen.
De uiteindelijke conclusie, CrossFire schaalt beter dan SLI, zou blijven staan maar dan zou het opeens lezen alsof ze excuses bedenken voor waarom Nvidia het minder goed doet.
Nogmaal, je maakt je schijnbaar druk om bewoording, terwijl er in de inleiding het volgende staat te lezen:
We've already seen fantastic scaling from three-way SLI, so perhaps the biggest question is whether AMD’s scaling had really improved to the point where it can yank the trophy out of its rival’s hands.
Hier krijgt NV toch een veer in het achterste.
En lees ook vooral http://www.tomshardware.c...illes-crossfire,2878.html, waar men behoorlijk wat kritiek heeft op de HD6990 en http://www.tomshardware.c...scaling,review-32023.html, waar NV de tests won.

Ik ben van mening dat jij je indruk van dit artikel te veel af laat hangen van je persoonlijke voorkeur, want de kritiek die NV in dit laatste artikel krijgt is terecht en Tom's laat in andere artikelen zien dat het een gebalanceerde reviewsite is.

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
Kan de speech zo niet zien, maar waarom beweert elke topman dat de X van zijn bedrijf de beste van de wereld is? Wij van WC eend enzovoort.
madmaxnl schreef op maandag 14 maart 2011 @ 22:59:
Strookt niet helemaal met wat jij zegt. Ik vind het nogal naïef gedacht dat nVidia dit niet met opzet gedaan zou hebben. Ze hebben er namelijk alle belang bij. Zo wordt de software namelijk afhankelijk van nVidia's GPU en dat is precies wat ze willen. Zou namelijk niet verstandig van nVidia zijn om de software voor Mutli-core, Hyperthreading, SSE(x), etc te optimaliseren. Immers maken ze PhysX in veel gevallen dan overbodig.

Maar goed ik ben zoals jij al heel erg zeker stelde een AMD fan boy.
NVIDIA update de PhysX code inderdaad met opzet niet, maar dat is niet hetzelfde als het corrupt maken van de code. PhysX gebruikte vanaf het eerste begin bij Ageia x87 en is nooit geupdate. Zeggen dat NVIDIA de code corrupt heeft gemaakt impliceert dat PhysX bij Ageia nog SSE code gebruikt en multithreaded was en NVIDIA dat terug heeft gedraaid. Nogal een verschil. Maar inderdaad, PhysX zuigt zwaar om genoemde redenen, en zoals David Kanter het al netjes omschreef in zijn artikel dat het probleem naar boven bracht:
While as a buyer it may be frustrating to see PhysX hobbled on the CPU, it should not be surprising. Nvidia has no obligation to optimize for their competitor’s products. PhysX does not run on top of AMD GPUs, and nobody reasonably expects that it will. Not only because of the extra development and support costs, but also AMD would never want to give Nvidia early developer versions of their products. Nvidia wants PhysX to be an exclusive, and it will likely stay that way. In the case of PhysX on the CPU, there are no significant extra costs (and frankly supporting SSE is easier than x87 anyway). For Nvidia, decreasing the baseline CPU performance by using x87 instructions and a single thread makes GPUs look better. This tactic calls into question the CPU vs. GPU comparisons made using PhysX; but the name of the game at Nvidia is making the GPU look good, and PhysX certainly fits the bill in the current incarnation.

The bottom line is that Nvidia is free to hobble PhysX on the CPU by using single threaded x87 code if they wish. That choice, however, does not benefit developers or consumers though, and casts substantial doubts on the purported performance advantages of running PhysX on a GPU, rather than a CPU. There is already a large and contentious debate concerning the advantages of GPUs over CPUs and PhysX is another piece of that puzzle, but one that seems to create questions, rather than answers.
Redblader schreef op maandag 14 maart 2011 @ 21:43:
[...]
Stel: Nvidia bespaard 100 euro aan onderdelen omdat 2 chips op 1 kaart zitten, zelfs dan praten we over een prijs van meer dan 700 euro.. hoe willen ze daarmee ooit kunnen concurreren met een 6990?
NVIDIA heeft de GTX260, die ook bijna 500mm2 was, uiteindelijk voor prijzen onder de 200 euro verkocht. Die 400-450 euro prijs voor de GTX580 is vooral gebaseerd op hoeveel ze ervoor kunnen vragen omdat het een high-end kaart is (de snelste kaart tot de komt van de 6990), niet hoeveel het ze kost om te maken. NVIDIA heeft meer dan genoeg ruimte om met de prijs te spelen.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
je maakt je schijnbaar druk om bewoording
Als ik het zo nog eens terug lees, ja, wel een beetje.
Ik ben van mening dat jij je indruk van dit artikel te veel af laat hangen van je persoonlijke voorkeur
Ik probeer mijn voorkeur er buiten te houden, maar je hebt misschien gelijk.

Ik heb overigens (volgens mij) niet gezegd dat de kritiek op NV niet terecht is. Misschien dat je bedoelt op wat ik zei over Stalker SLI scaling, dat is inderdaad gewoon prut.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Vreemde vergelijking, aangezien er naast de GTX260 ook nog een GTX280 bestond die veel meer moest kosten. Uiteindelijk gaat het namelijk niet over de kosten per chip, maar per wafer. De wafer costs moeten terugverdiend worden en de opbrengsten uit de wafer zijn afhankelijk van het aantal werkende chips per wafer. Daarnaast wordt er een verdeling gemaakt tussen de verschillende chips in categorieen. In dit geval worden dus sommige chips ingezet als 570 en anderen als 580. Zomaar stellen dat chip X op basis van grootte dus hetzelfde kan kosten als chip Y is dus niet helemaal logisch.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 09:47
Daarnaast kosten high-end kaarten veel meer in ontwikkeling én worden er minder van verkocht.
De al hogere ontwikkelingskosten moeten dus verdeeld worden over minder kopers waardoor de prijs per kaart de pan uit rijst.
(ik weet niet in hoeverre ze die kosten doorberekenen over andere projecten)

[ Voor 15% gewijzigd door mitsumark op 15-03-2011 13:07 ]


Acties:
  • 0 Henk 'm!

  • Snobbieh
  • Registratie: Juli 2009
  • Laatst online: 28-05 08:35
En de GTX550 is erook :)
http://www.evga.com/articles/00618/

I7 2600K - 8GB - M550 256GB - GTX 670


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
mitsumark schreef op dinsdag 15 maart 2011 @ 13:07:
Daarnaast kosten high-end kaarten veel meer in ontwikkeling én worden er minder van verkocht.
De al hogere ontwikkelingskosten moeten dus verdeeld worden over minder kopers waardoor de prijs per kaart de pan uit rijst.
(ik weet niet in hoeverre ze die kosten doorberekenen over andere projecten)
De R&D van nieuwen technieken etc worden over alle producten die er gebruik van maken verdeeld.
Er wordt inderdaad een "high-end" kaart ontwikkeld maar deze ontwikkeling zorgt er indirect wel voor dat low en mid-end kaarten ook beter worden. Immers zijn deze lagere categorieën vaak gestripte high-end kaarten.

Minder Shaders, ROPs, TMUs etc. Waardoor de die size dus afneemt en de kosten van een chip omlaag gaan.

De R&D kosten van 4D shaders worden bijvoorbeeld niet alleen over de HD68xx en HD69xx serie terug verdiend maar ook straks op anderen kaarten die deze techniek gebruiken w.o. dus low en mid-end kaarten.
Het is dus niet zo dat de R&D kosten op een klein aantal kopers verhaald zal moeten worden.

[ Voor 15% gewijzigd door madmaxnl op 15-03-2011 18:07 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Vandaag gelanceerd. :)

Reviews ook, GeForce GTX 550 Ti levert HD5770 prestaties voor een HD6850 prijs (uitgegaan van de Newegg's goedkoopste prijzen) Ik vind het weer knap van nVidia. d:)b

Wat wel bijzonder is, is de 192bit geheugenbus met 1GB videogeheugen, ze gebruiken verschillende geheugenchips hiervoor.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Vrij bizar dat Nvidia zoveel geld durft te vragen voor een kaart die gelijk of misschien een paar % beter presteert dan de HD5770 uit oktober 2009!

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 09:47
Ik had inderdaad verwacht dat het een 6850 concurrent zou zijn (460 vervanger).

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Zou niet logisch zijn aangezien je maar max 192 Cudacore's kon hebben net zoals bij de GTS450, dus zo maar een heel stuk sneller zat er sowieso niet in.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
NVIDIA GeForce GTX 590 Final Specs Unveiled

Codename D13U-50 GF110/P1020
CUDA Cores 1024
Graphics Clock 612MHz
Processor Clock 1224MHz
Memory Clock 3420MHz
Memory Interface Width 2 x 384-bit
Memory Config 3GB GDDR5
Power Connectors Dual 8-pin
Dimensions 11" x 4.5", Dual Slot

Nu heb ik overigens ook 607MHz en 3400MHz gezien, maar verschil is klein, review(s) met twee GTX580's op 600MHz kun je dus prima gebruiken.

[ Voor 9% gewijzigd door -The_Mask- op 16-03-2011 00:03 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Niet sneller dan een HD6990 dus. Jammer, is een gemisten kans.

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Niet sneller dan een HD6990 dus.
Niet eens sneller dan de 6990 op normale snelheid, laat staan op OC snelheid. Als dit alles is dan vind ik het tegenvallen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Tja 600Mhz is gewoon niet snel genoeg.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Er is nog een reddingsboei voor de kaart: De HD6990 schaalde maar zeer matig als de clocks op 880MHz werden gezet. Als de GTX590 in staat is om fatsoenlijk omhoog geklokt te worden onder het credo 'PCI-e, who cares?', dan trappen een flink aantal enthousiasts er wel in.

Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 10:43
Edmin schreef op woensdag 16 maart 2011 @ 01:17:
Er is nog een reddingsboei voor de kaart: De HD6990 schaalde maar zeer matig als de clocks op 880MHz werden gezet. Als de GTX590 in staat is om fatsoenlijk omhoog geklokt te worden onder het credo 'PCI-e, who cares?', dan trappen een flink aantal enthousiasts er wel in.
Stel dat het gewoon goede gpu's zijn, die overgeklokt kunnen worden naar 800MHz, dan ben ik benieuwd hoeveel energie je kunt trekken. AMD heeft nog powertune, maar met de GTX 590 zou je zomaar door de 500W grens kunnen knallen. Dat is 100W door je pci-e slot en 200W door elke 8pins...

Het is maar goed dat ik wat flinke voedingen op kantoor heb liggen :P

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 26-05 03:22

pino85

Im just a Bird in the Sky

LOL

ja ben ook benieuwd naar de oc potentie van deze kaart en het verbruik.
Op het oog op stock tegen de 6990 op stock valt het me toch wel tegen van NVIDIA, of ik kan beter zeggen petje af AMD?

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • denheer
  • Registratie: Oktober 2004
  • Laatst online: 12-04 19:32
Edmin schreef op woensdag 16 maart 2011 @ 01:17:
Er is nog een reddingsboei voor de kaart: De HD6990 schaalde maar zeer matig als de clocks op 880MHz werden gezet. Als de GTX590 in staat is om fatsoenlijk omhoog geklokt te worden onder het credo 'PCI-e, who cares?', dan trappen een flink aantal enthousiasts er wel in.
Ik denk dat dit de spijker op de kop slaat.

Onder normale clocks zal de GTX590 misschien net niet snel genoeg zijn om de HD6990 te verslaan. Echter als je ze beide op hun volle OC zet dan verwacht ik dat de GTX590 duidelijk sneller zal zijn, vergelijkbaar met GTX580SLI. Dat dit een aardige slok extra energie gaat kosten zal de overclocker denk ik niet zo veel uitmaken.

Hierdoor krijgen beide uber-kaarten hun eigen plek aan te top: HD6990 is de 'normale' koning en de GTX590 de overclock koning. Beide zullen ze dan kunnen claimen de snelste te zijn, eigenlijk wel slim opgelost zo.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Edmin schreef op woensdag 16 maart 2011 @ 01:17:
Er is nog een reddingsboei voor de kaart: De HD6990 schaalde maar zeer matig als de clocks op 880MHz werden gezet.
Het verschil tussen standaard en 880MHz is natuurlijk ook niet heel erg groot.
Marc Rademaker schreef op woensdag 16 maart 2011 @ 08:10:
[...]

Stel dat het gewoon goede gpu's zijn, die overgeklokt kunnen worden naar 800MHz
800MHz schijnt niet echt gemakkelijk te gaan met alle kaarten, zelf niet met meer spanning op de GPU.
Dat is 100W door je pci-e slot en 200W door elke 8pins...
Ik denk niet dat er 100W door het PCI-e slot gaat worden getrokken, mag het ook niet hopen trouwens.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • rabor
  • Registratie: September 2002
  • Laatst online: 07:09
denheer schreef op woensdag 16 maart 2011 @ 13:46:
[...]


Ik denk dat dit de spijker op de kop slaat.

Onder normale clocks zal de GTX590 misschien net niet snel genoeg zijn om de HD6990 te verslaan. Echter als je ze beide op hun volle OC zet dan verwacht ik dat de GTX590 duidelijk sneller zal zijn, vergelijkbaar met GTX580SLI. Dat dit een aardige slok extra energie gaat kosten zal de overclocker denk ik niet zo veel uitmaken.

Hierdoor krijgen beide uber-kaarten hun eigen plek aan te top: HD6990 is de 'normale' koning en de GTX590 de overclock koning. Beide zullen ze dan kunnen claimen de snelste te zijn, eigenlijk wel slim opgelost zo.
Een overclockte HD 6990 is een stuk sneller dan een stock GTX580 SLI setup.. (link). De vraag is of de 590 in de buurt kan komen van 580-clocks zonder in de fik te vliegen..

Kepi_nl


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 23-05 11:22
Je haalt 2 dingen door elkaar. De 6990 heeft 2 standen, normaal en OC. Dat je een 6990 daarna zelf nog kan overclocken staat hier los van. De 6990 in de OC stand is langzamer dan 2 580's in SLI

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Format-C schreef op woensdag 16 maart 2011 @ 09:50:
Ik dacht meer zoiets (vergeef me mijn paint- vaardigheid):

[afbeelding]

LOL.
Waarom paint als het ook makkelijker kan. Even graven in mijn geheugen en ik vond deze weer terug:

Afbeeldingslocatie: http://www.xbitlabs.com/images/news/2005-09/asus_7800gt_dual.jpg
ASUS 7800GT Dual

Goud is geen geld


Acties:
  • 0 Henk 'm!

Anoniem: 245699

rabor schreef op woensdag 16 maart 2011 @ 15:12:
[...]
Een overclockte HD 6990 is een stuk sneller dan een stock GTX580 SLI setup.. (link). De vraag is of de 590 in de buurt kan komen van 580-clocks zonder in de fik te vliegen..
Check je eigen bron dan wel ff, want je hebt het over de HD6990 @972Mhz welke dan idd in verschillende gevallen sneller is dan de GTX580 SLI, maar dit is dus nog eens bijna 100Mhz hoger dan de oc-stand! De GTX580 SLI is daar weldegelijk 15% sneller i.v.t. de HD6990 op standaard setting (wat ook heel logisch is);

Afbeeldingslocatie: http://images.hardwarecanucks.com/image//skymtl/GPU/HD6990/HD6990-82.jpg

En dit doet gelijk sterk vermoeden dat een GTX590 @~612Mhz niet snel genoeg gaat zijn! Ook het trage geheugen van 3400Mhz gaat niet meewerken op de hogere reso's... :/
Het ziet er naar uit dat de kaart in enkele games zoals Dirt 2 sneller is, maar in veel andere niet en dan heb je dus een kaart die duurder is, meer verbruikt, maar gemiddeld niet sneller is dan de HD6990. Enfin, wellicht ff wachten met nu al conclusies trekken.... :X

[ Voor 17% gewijzigd door Anoniem: 245699 op 16-03-2011 16:32 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
denheer schreef op woensdag 16 maart 2011 @ 13:46:
[...]


Ik denk dat dit de spijker op de kop slaat.

Onder normale clocks zal de GTX590 misschien net niet snel genoeg zijn om de HD6990 te verslaan. Echter als je ze beide op hun volle OC zet dan verwacht ik dat de GTX590 duidelijk sneller zal zijn, vergelijkbaar met GTX580SLI. Dat dit een aardige slok extra energie gaat kosten zal de overclocker denk ik niet zo veel uitmaken.

Hierdoor krijgen beide uber-kaarten hun eigen plek aan te top: HD6990 is de 'normale' koning en de GTX590 de overclock koning. Beide zullen ze dan kunnen claimen de snelste te zijn, eigenlijk wel slim opgelost zo.
Hoe denk je een GTX590 op dergelijke clocks te koelen ? Water koeling ? Zet een HD6990 op water en hij kan ook makkelijk over de 1GHz heen ;)
Maxily schreef op woensdag 16 maart 2011 @ 15:47:
Je haalt 2 dingen door elkaar. De 6990 heeft 2 standen, normaal en OC. Dat je een 6990 daarna zelf nog kan overclocken staat hier los van. De 6990 in de OC stand is langzamer dan 2 580's in SLI
Hij heeft het dan ook over een overgeclockte GTX590 en deze dien je om eerlijk te vergelijken gewoon tegen over een overgeclockte HD6990 te zetten.
KAdrifter schreef op woensdag 16 maart 2011 @ 16:32:
vraagje: ik loop al een tijdje te klooien met een asus n53 laptop met een nvidia gt540m en een intel HD2000 die via Optimus een HDMI poort + VGA poort zouden moeten delen. In de praktijk werkt dat echter niet en komt er geen signaal uit de HDMI poort. Hebben jullie enig idee of er iemand is die het gelukt is om dat wel aan de praat te krijgen? (de enige 'oplossing' die ik tegenkom is je laptop terugbrengen naar de winkel en je geld terugvragen)

Alle tips zijn welkom, maar alle standaardoptie's (verse installatie, nieuwe drivers, oude drivers, ubuntu enz heb ik al geprobeerd)
Het is geen nieuws dat jou nVidia kaart niet naar behoren functioneert. Verkeerde topic ik denk dat je in een van de weinige nVidia probleem topics moet zijn.

[ Voor 24% gewijzigd door madmaxnl op 16-03-2011 16:47 ]


Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
madmaxnl schreef op woensdag 16 maart 2011 @ 16:45:

[...]


Hij heeft het dan ook over een overgeclockte GTX590 en deze dien je om eerlijk te vergelijken gewoon tegen over een overgeclockte HD6990 te zetten.
Nee hoor, volgens mij moet jij op een cursus (begrijpend) lezen:
rabor schreef op woensdag 16 maart 2011 @ 15:12:
[...]
Een overclockte HD 6990 is een stuk sneller dan een stock GTX580 SLI setup.. (link). De vraag is of de 590 in de buurt kan komen van 580-clocks zonder in de fik te vliegen..

Acties:
  • 0 Henk 'm!

  • rabor
  • Registratie: September 2002
  • Laatst online: 07:09
Anoniem: 245699 schreef op woensdag 16 maart 2011 @ 16:28:
[...]

Check je eigen bron dan wel ff, want je hebt het over de HD6990 @972Mhz welke dan idd in verschillende gevallen sneller is dan de GTX580 SLI, maar dit is dus nog eens bijna 100Mhz hoger dan de oc-stand! De GTX580 SLI is daar weldegelijk 15% sneller i.v.t. de HD6990 op standaard setting (wat ook heel logisch is);

[afbeelding]

En dit doet gelijk sterk vermoeden dat een GTX590 @~612Mhz niet snel genoeg gaat zijn! Ook het trage geheugen van 3400Mhz gaat niet meewerken op de hogere reso's... :/
Het ziet er naar uit dat de kaart in enkele games zoals Dirt 2 sneller is, maar in veel andere niet en dan heb je dus een kaart die duurder is, meer verbruikt, maar gemiddeld niet sneller is dan de HD6990. Enfin, wellicht ff wachten met nu al conclusies trekken.... :X
Denheer had het over een volle OC op beiden (6990 & 590), dus die laat ik zien. Ik had trouwens ook al ergens een test gelezen waar de 6990 stabiel op 1GHz draaide, dus ook die heeft nog wat speling. (kan die review alleen zo snel even niet vinden).

Maargoed, hier hebben ze een stock HD6990 vergeleken met een GTX580SLI-setup op GTX590 freqs.: http://plaza.fi/muropaket...us-nvidia-geforce-gtx-590 (Fins ;))
Het ligt dus behoorlijk dicht bij elkaar, dus ga ik kijken naar stroomverbruik/prijs & in dat geval lijkt me toch de AMD weer ietsie beter.., maar, de proof is in the pudding & die komt volgende week..
Springstof schreef op woensdag 16 maart 2011 @ 17:53:
[...]

Nee hoor, volgens mij moet jij op een cursus (begrijpend) lezen:

[...]
Nee hoor, hij heeft gelijk.. Ik reageer ergens op (met een piepklein speldje), dus misschien 'moet' je dat gewoon nog even lezen..

Kepi_nl


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
rabor schreef op woensdag 16 maart 2011 @ 19:31:
Maargoed, hier hebben ze een stock HD6990 vergeleken met een GTX580SLI-setup op GTX590 freqs.: http://plaza.fi/muropaket...us-nvidia-geforce-gtx-590 (Fins ;))
Het ligt dus behoorlijk dicht bij elkaar, dus ga ik kijken naar stroomverbruik/prijs & in dat geval lijkt me toch de AMD weer ietsie beter.., maar, de proof is in the pudding & die komt volgende week..
Er is alleen 1 probleem met die review waar ze duidelijk geen rekening mee hebben gehouden. De 2 GTX580's hebben allebei 16x lanes tot hun beschikking. De GTX590 zal slechts 8x lanes per GPU beschikbaar hebben en schaling daarin kan meespelen in de uiteindelijke resultaten, zelfs al is het maar een paar procent.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Dat zal toch heus wel meevallen, niet? Er zijn genoeg tests gedaan over de impact van minder beschikbare lanes voor high-end grafische kaarten. Alleen nog niet voor de GTX580?

Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
rabor schreef op woensdag 16 maart 2011 @ 19:31:
[...]
Denheer had het over een volle OC op beiden (6990 & 590), dus die laat ik zien. Ik had trouwens ook al ergens een test gelezen waar de 6990 stabiel op 1GHz draaide, dus ook die heeft nog wat speling. (kan die review alleen zo snel even niet vinden).
Je begrijpt zelf toch wel dat de claim ''volle OC'' hier kant noch wal raakt. Ter toelichting: review A bereikt OC ''A'', review B bereikt OC ''B'' en gebruiker A bereikt OC ''C''.
rabor schreef op woensdag 16 maart 2011 @ 19:31:
[...]

Nee hoor, hij heeft gelijk.. Ik reageer ergens op (met een piepklein speldje), dus misschien 'moet' je dat gewoon nog even lezen..
Je vergeleek appels met peren, namelijk een overclock 6990 (met 950 + clocks) met stock 580 SLI.

[ Voor 63% gewijzigd door Springstof op 16-03-2011 21:20 ]


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 00:05
Springstof schreef op woensdag 16 maart 2011 @ 20:45:
[...]

Je begrijpt zelf toch wel dat de claim ''volle OC'' hier kant noch wal raakt. Ter toelichting: review A bereikt OC ''A'', review B bereikt OC ''B'' en gebruiker A bereikt OC ''C''.


[...]

Je vergeleek appels met peren, namelijk een overclock 6990 (met 950 + clocks) met stock 580 SLI.
Stock GTX 580 SLI snelheden zouden anders als een flinke overclock voor een GTX 590 betekenen hoor..
Waarschijnlijk zal je ook niet veel verder kunnen komen zonder verplicht 100% fan speed te draaien want het zal wel warm worden in die kaart ;)

[ Voor 12% gewijzigd door Redblader op 16-03-2011 21:44 ]


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 09:47
[b][message=35697332,noline]
Je vergeleek appels met peren, namelijk een overclock 6990 (met 950 + clocks) met stock 580 SLI.
maar stock 580sli gelijktrekken met 590 is wel eerlijk denk je?
ik denk dat je blij mag zijn als de 590 met oc de 580 snelheden bereikt.

als de 580sli ~15% sneller is dan de 6990, en de 590 krijgt ~20% lagere specs, dan zou de 6990 zomaar ~5% sneller kunnen zijn. (uiteraard gaat dit niet helemaal op)

[ Voor 38% gewijzigd door mitsumark op 16-03-2011 23:00 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
DevilsProphet schreef op woensdag 16 maart 2011 @ 20:10:
Dat zal toch heus wel meevallen, niet? Er zijn genoeg tests gedaan over de impact van minder beschikbare lanes voor high-end grafische kaarten. Alleen nog niet voor de GTX580?
Verschil zal niet echt zichtbaar zijn waarschijnlijk, kloks zullen ook iets hoger liggen, maar al met al kun je het prima gebruiken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

-The_Mask- schreef op woensdag 16 maart 2011 @ 23:16:
[...]

Verschil zal niet echt zichtbaar zijn waarschijnlijk, kloks zullen ook iets hoger liggen, maar al met al kun je het prima gebruiken.
Wat is "iets"? 600 van Muropaketti of 620 van VR-Zone?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Daar iets tussen in, heb ik gehoort. :Y




KFA2 plans dual GTX 560 Ti graphics card
Afbeeldingslocatie: http://images.bit-tech.net/news_images/2011/03/kfa2-plan-gtx-560ti-sli-on-a-single-pcb/galaxydual-614x250.jpg

Al langsgeweest?

[ Voor 84% gewijzigd door -The_Mask- op 16-03-2011 23:29 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Hebben we daar niet een ruime tijd terug een PCB ontwerp van gezien?

Je gaat me toch niet vertellen dat die jumper links bovenin bedoeld is waar ik voor vermoed dat hij bedoeld is?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Toettoetdaan schreef op donderdag 17 maart 2011 @ 00:42:
[...]

Hebben we daar niet een ruime tijd terug een PCB ontwerp van gezien?
Met GF104's bedoel je? Dit is dus een andere. :p
Je gaat me toch niet vertellen dat die jumper links bovenin bedoeld is waar ik voor vermoed dat hij bedoeld is?
Zou kunnen, maar ja staat niks over bij dus is alleen gissen nu.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
-The_Mask- schreef op donderdag 17 maart 2011 @ 00:57:
[...]
Met GF104's bedoel je? Dit is dus een andere. :p

[...]

Zou kunnen, maar ja staat niks over bij dus is alleen gissen nu.
Op jouw foto zitten toch echt 2 GF104's ;)
The keen eyed among you may notice that the prototype board pictured below sports a pair of GF104 GPUs, similar to those found on GeForce GTX 460 cards. However, KFA2 claims that this is because it originally developed the card for the GF104 chip. The company says it's since decided to upgrade the card's GPUs to the GF114 chip found on new GeForce GTX 560 Ti cards.
http://www.bit-tech.net/n...0ti-sli-on-a-single-pcb/1

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Dual GF114 zou wel heel nice zijn :o
Alleen een GTX560 verbruikt al 170 W, dus een dual versie hiervan zal dus weer dicht tegen de 300 W grens aan gaan zitten (als het er niet over is).

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
ColinZ schreef op donderdag 17 maart 2011 @ 11:50:
Dual GF114 zou wel heel nice zijn :o
Alleen een GTX560 verbruikt al 170 W, dus een dual versie hiervan zal dus weer dicht tegen de 300 W grens aan gaan zitten (als het er niet over is).
Ach, de HD4870 heeft een TDP van 160watt, de HD4870x2 een van 286watt.
Er valt altijd wat te besparen op dubbele onderdelen die niet nodig zijn.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dubbelen GF114(GF104) is niet interresant. GTX560Ti SLI komt niet in de buurt van HD6870CF. Die laatste is ook nog eens zuiniger en goedkoper(255mm2 tegen 366mm2).

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
madmaxnl schreef op donderdag 17 maart 2011 @ 16:06:
Dubbelen GF114(GF104) is niet interresant. GTX560Ti SLI komt niet in de buurt van HD6870CF. Die laatste is ook nog eens zuiniger en goedkoper(255mm2 tegen 366mm2).
Als je en lekker overclockbare Nvidia kaart wilt is het toch best een leuk kaartje. Daarbij heb ik een Lanbox lite, dus zoon mooi wit PCB zou niet misstaan voor het raampje :P

Helaas moet ik bij deze kaart wel een dremel pakken.. maar toch...
En een HD6870x2 heb ik (helaas) nog niet gezien :P

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

madmaxnl schreef op donderdag 17 maart 2011 @ 16:06:
Dubbelen GF114(GF104) is niet interresant. GTX560Ti SLI komt niet in de buurt van HD6870CF. Die laatste is ook nog eens zuiniger en goedkoper(255mm2 tegen 366mm2).
En allesbehalve sneller, en geen Nvidia. Dus waarom post je dit eigenlijk hier?

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Bedoel je met allesbehalve sneller dat de HD6870CF niet sneller is als GTX560Ti SLI ?
Ja het is geen nVidia maar heeft er toch zeker wel mee te maken. Dus daarom post ik dit eigenlijk hier.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Toettoetdaan schreef op donderdag 17 maart 2011 @ 16:23:
[...]

Als je en lekker overclockbare Nvidia kaart wilt is het toch best een leuk kaartje. Daarbij heb ik een Lanbox lite, dus zoon mooi wit PCB zou niet misstaan voor het raampje :P
Het ziet er meer uit als een mock up board dan een werkelijk PCB. Kans is groot dat als het een werkelijk product wordt, het toch een ander kleurtje krijgt.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 25-05 17:51
Hmm ik vind het interresant worden als ze 2slots coolers hebben, en ze in combinatie met andere 560ti kunnen runnen, dan gooi ik deze gewoon naast mijn 560ti SOC. Dan heb ik tri sli klinkt best fijn vind ik! Enig idee of dat zou werken? En 6870CF is niet zo snel als 560TI sli dus beetje jammer dat bericht

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Jammer dat het wel waar is.

Afbeeldingslocatie: http://tpucdn.com/reviews/ATI/Radeon_HD_6870_CrossFire/images/perfrel_1920.gif

11% sneller dan een HD5970.

Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_560_Ti_SLI/images/perfrel_1920.gif

4% sneller dan een HD5970.

Conclusie is dat een HD6870CF sneller is als GTX560Ti SLI.

Dit is al eens langs geweest de HD6870CF sneller is dus waarom moet dit nu weer ?

[ Voor 10% gewijzigd door madmaxnl op 17-03-2011 18:26 ]


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 25-05 17:51
o god dit weer, helaas is dat een slechte rot statestiek en moet je beter kijken naar de echte sites. Je kan net zo goed de donald duck citeren.

http://www.guru3d.com/art...e-gtx-560-ti-sli-review/7

Lees nou maar hoe het echt zit. En dit zijn stock 560's mijn 560Ti SOC bijvoorbeeld verslaat de 6950, en kan opboxen tegen de 570 dus geloof me sli 560ti is sneller, die dingen kunnen nog zo ver overclocken!
Moet het nou zo lopen dat de dual gpu units moeilijker overclocken dan alsnog vernederen ze de meeste kaarten aangezien het om een DUAL gpu gaat, die kunnen dus gewoon in Quad sli of Tri sli (hoop ik) in het geval van een 3 slot cooler moet hij tri sli kunnen (1 standaard 2slot boven en de 3 slot beneden) of Je moet een mooi ruim moederbord hebben. Maar in ieder geval haal alsjeblieft niet van die slechte statestieken.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Guru3d als enige bron aanhalen voor de bewering dat NV beter is dan AMD is alsof je aan BMW vraagt hun eigen auto te testen. Kom eens met meer bewijs, want Toms had (lees een paar bladzijden terug!) laatste al gezien dat HD6950CF praktisch net zo snel was als GTX570SLi.

edit: en zeggen dat je ze kunt overklokken tot ze sneller zijn is ook kul. Je kunt een 570 of 69x0 ook overklokken.

[ Voor 17% gewijzigd door Edmin op 17-03-2011 18:44 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Ik ben het eens met Biff dat deze post van je kant noch wal raakt.

Je reageert op deze post:
ColinZ schreef op donderdag 17 maart 2011 @ 11:50:
Dual GF114 zou wel heel nice zijn :o
Alleen een GTX560 verbruikt al 170 W, dus een dual versie hiervan zal dus weer dicht tegen de 300 W grens aan gaan zitten (als het er niet over is).
En je geeft dit als antwoord:
madmaxnl schreef op donderdag 17 maart 2011 @ 16:06:
Dubbelen GF114(GF104) is niet interresant. GTX560Ti SLI komt niet in de buurt van HD6870CF. Die laatste is ook nog eens zuiniger en goedkoper(255mm2 tegen 366mm2).
Ik zie niet in waarom HD6870 CFX of die sizes erbij gehaald worden... Deze zijn namelijk geen onderdeel van de discussie, en er wordt ook niet naar gevraagd. Eigenlijk reageer je op.... niks. Een dual GTX560 zou best interessant kunnen zijn voor nV en klanten. Niet iedereen wil een AMD kaart namelijk....

[ Voor 41% gewijzigd door Format-C op 17-03-2011 18:51 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 25-05 17:51
anders ga je zelf googlen

http://www.hardwareheaven...ll-of-duty-black-ops.html

Er zijn er nog meer.... maarja ik zeg niet dat er een enorme gap tussen zit, maar de 560ti is toch echt meestal sneller. En ja het overklokken is geen kul, het gaat over hoe goed ze overclocken veel 560ti kunnen van 800 tot 950-1050. Zonder voltage tweak, geloof me dat doen meeste kaarten niet

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Een kaart die enkel door nVidia fans zal gekocht worden omdat die van nVidia is, en voor de rest niks top te bieden heeft boven de concurrentie zou ik niet bestempelen als "heel nice" (sic). Misschien is het daarom dat madmaxnl reageerde?

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 25-05 17:51
@devils waar slaat dat nou weer op? Waarom zou een dual 560ti alleen door nvidia fans gekocht worden. Ik weet niet of je weet hoeveel dual videokaarten er zijn, maar de 6990 is voor sommige te duur, de 590 ook.
Dan is de 560 in dual gpu formaat toch echt heel nice

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Daar komt nog eens bij dat sommige mensen liever 1 kaart in hun PC hebben ipv 2. :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

http://www.computerbase.d...erformancerating_mit_aaaf

Die prestaties zijn inderdaad helemaal niet slecht. Ik dacht dat je SLI bedoelde, maar twee zulke GPU's op één pcb is natuurlijk iets anders.

Zelf onderzoek ik even verder hoe het nu eigenlijk zit bij GTX560 Ti SLI vs HD6870 CFX, want ik zie wederom tegenstrijdigheden opduiken op het internets. Wat er misschien ook op kan duiden dat het verschil tussen beide setups niet zodanig significant is dat kiezen voor één van beide setups automatisch dwaas is. Nuances zijn toch zo vermoeiend om te ontdekken. ;)

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 25-05 17:51
Ik heb net even lopen zoeken, de 560 vs 6870 is meestal gelijk, maar de 560 komen meestal iets boven de 6870 uit. Wel is het zo dat er wat tegenstrijdigheid is, met sommige die een flink voordeel aan de 560 geven maar andere die juist weer een voordeel aan de 6870 geven. Maar inderdaad het is nog wachten hoe 2 gpu's op de pcb reageren, maar ik ben heel benieuwd!! Als het goed werkt ben ik in ieder geval geintreseerd :D ga ik lekker tri sli runnen, hoef ik me 560ti SOC niet te verkopen voor een 590 (al ben ik bang dat die 590 te ziek duur gaat worden, ik hoorde al van bedragen van 800 euro .... )

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11:21

Edmin

Crew Council

get on my horse!

Als je een bewering doet, is het je eigen verantwoordelijkheid om die te staven met bewijs. Het zou wat zijn als wij hier de ganse dag de beweringen van een ander in Google zouden moeten gooien.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Ach, GTX560 SLi is maar 10% sneller dan GTX580. Zo ongeveer. En dan werk je met SLi. En je zit met profielen. Je hoeft GTX560 SLi niet eens met HD6870 CFX te vergelijken om te zien dat je beter een GTX580 kan kopen, als je per sé een nV kaart wil. GTX580 is ongeveer net zo duur als GTX560 SLi namelijk. :)

(En als je dan toch AMD en/ of HD6800 CFX wil, kun je beter HD6850 CFX nemen en die opvoeren ipv HD6870 CFX. ;) )


Maar goed. Als die GTX560X2 (als die er ooit komt, LOL) 350 euro oid zou gaan kosten zou het interessant kunnen zijn. :)

[ Voor 56% gewijzigd door Format-C op 17-03-2011 19:22 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
madmaxnl schreef op donderdag 17 maart 2011 @ 16:06:
Dubbelen GF114(GF104) is niet interresant. GTX560Ti SLI komt niet in de buurt van HD6870CF. Die laatste is ook nog eens zuiniger en goedkoper(255mm2 tegen 366mm2).
Voor jou is een dual GF114 misschien niet interessant, maar misschien voor anderen wel?
Niet iedereen stelt dezelfde eisen aan een gpu. Ik stel CUDA meer op prijs dan bijvoorbeeld Eyeinfinity, iets wat ik waarschijnlijk nooit zal gebruiken. Als deze kaart goed presteert voor een relatief lage prijs zou ik niet inzien waarom het niet interessant is.

Probeer je eigen voorkeur voor AMD kaarten eens buiten de discussie te laten aub. Dat AMD kaarten beter schalen en minder verbruiken weten we nu wel. Je hoeft dit niet iedere keer erbij te halen als een nieuw nVidia product op de markt komt wat in jou ogen inferieur is aan jou geliefde AMD kaarten.
Pagina: 1 ... 9 10 Laatste

Dit topic is gesloten.