[Algemeen] nVidia Nieuws & Discussie Topic - Deel 41 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 8 Laatste
Acties:
  • 45.108 views

Acties:
  • 0 Henk 'm!

Anoniem: 196662

'T is nu toch een vrij unieke situatie waar AMD sinds de 3xxx al met beter ontwerp kwam en sinds de 4xxx ook gewoon veel aantrekkelijker wordt, maar vooral ook kan blijven. Vroeger had je gewoon om de 6maand een wissel van de wacht maar nu lijkt het er steeds meer op dat NVIDIA niet even hard gaat terug slaan.
NVIDIA lijkt haar interesse in gamers te verliezen (pc en console) door de concurrentie en dat is enkel spijtig te noemen. Maar Intel staat tegen dan misschien klaar om AMD vuur aan te schenen te leggen en dan zullen we het klein spelertje NVIDIA snel vergeten.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

neliz schreef op vrijdag 04 december 2009 @ 12:52:
[...]


Moet ik het verband nog bewijzen ook dan? omdat een paar man zich tegen hun zere groene been gestoten voelen?
Nee, maar nergens in het artikel staat dat nvidia een dikke physx middelvinger naar niet nVidia gebruikers opsteekt. Dat ik op bovenstaande quote van jou reageer heeft trouwens niet zozeer te maken met het wel of niet hebben van een groen been, maar eerder met het feit dat ik me erger aan de manier waarop je dat eerder geposte "nieuwsbericht" brengt. Dat is geen nieuwsbericht, maar jouw interpretatie daarvan.

Dat jij dit als kop gebruikt is jouw persoonlijke mening, en ik hoef geen persoonlijke meningen te zien als zijnde een nieuwsbericht, of zoals degene die het nieuwsbericht post het interpreteert. Ik heb ook liever dat je gewoon de originele kop gebruikt, en daarná eventueel je eigen mening eronder zet.

Dat jij je aan nVidia ergert dat weten we nu wel, maar dring niet je mening op.
Zo kan het wel weer. Ik ben er niet voor niets ingesprongen. Dit onderwerp is wmb nu afgesloten.

[ Voor 4% gewijzigd door Edmin op 04-12-2009 14:08 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Geforce 315

Mag gedelete worden: is dezelfde post als vorige week

Afbeeldingslocatie: http://www.donanimhaber.com/image.aspx/images/haber/geforce315_dh_fx57.jpg

[ Voor 42% gewijzigd door neliz op 08-12-2009 00:31 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
-The_Mask- schreef op woensdag 02 december 2009 @ 20:29:

NVIDIA GeForce GT315 duikt op



Board configuration Specification Description
Graphics Chip D10M2-20 (GT216) GT220
Core clock 625 MHz
Memory clock 790 MHz
Frame buffer 1GB DDR3, 128-bit
Core power 52 W (Max board power)

Just another rebrand...
Afbeeldingslocatie: http://www.donanimhaber.com/image.aspx/images/haber/geforce315_dh_fx57.jpg

Ik zie wel wat overeenkomsten. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

vandaar mijn mag gedelete worden..

zeg.. moest jij niet slapen trouwens?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Afbeeldingslocatie: http://s3.amazonaws.com/twitpic/photos/large/48101190.jpg

http://twitpic.com/smz46

[ Voor 44% gewijzigd door neliz op 08-12-2009 11:59 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • BoRRel82
  • Registratie: Mei 2004
  • Laatst online: 23-05-2020

BoRRel82

Eat, sleep, game, repeat!

lol sterke eerste post ook, schiet eens op met de release!! :o :+

Acties:
  • 0 Henk 'm!

  • BitchCrew
  • Registratie: Juni 2006
  • Laatst online: 23-05 21:57
Anoniem: 196662 schreef op vrijdag 04 december 2009 @ 13:58:
'T is nu toch een vrij unieke situatie waar AMD sinds de 3xxx al met beter ontwerp kwam en sinds de 4xxx ook gewoon veel aantrekkelijker wordt, maar vooral ook kan blijven. Vroeger had je gewoon om de 6maand een wissel van de wacht maar nu lijkt het er steeds meer op dat NVIDIA niet even hard gaat terug slaan.
NVIDIA lijkt haar interesse in gamers te verliezen (pc en console) door de concurrentie en dat is enkel spijtig te noemen. Maar Intel staat tegen dan misschien klaar om AMD vuur aan te schenen te leggen en dan zullen we het klein spelertje NVIDIA snel vergeten.
sinds 3xxxx?
nee hoor, pas sinds de 48xx reeks heeft Ati populariteit en vertrouwen van consumenten gewonnen.

Ati heeft lang onderdog en minder geweest, problematische drivers gehad enz enz.
maar ze zijn er heel sterk uit gekomen. en telkens nVidia antwoorde kwamen ze mooi terug.

vooral prijs/kwaliteit was uitstekend. -> een ware winnaar.

nvidia heeft wat 'schrik', als ze met iets komen willen/kunnen ze beter maar met iets nieuws/degelijks komen.
ze willen niet de dag erop een ati kaart zien dat ze weer eens van de kaart blaast.

Want wie vergeeft het hun, als hun volgende nieuw mid/high end product minder presteert dan Ati, veel duurder is in vergelijking tot ati.

de aller grootste Fanboys mss nog wel. maar alle andere, inculded meself, zijn ze kwijt, en ik ben zeer zeer groen van hart op dat vlak.

Voor mij is het allesinds hun laatste kans om mij als klant te behouden, if they fail, dan koopt ik mijn allereerste Ati kaart ooit :)

Zou er nu een durven kopen al zelfs, maar MW2 en win 7 en 58xx reeks gaan nie zo 100% perfect samen op het moment, en ze zijn duurder dan ze eigenlijk zijn, en moeilijk leverbaar....

Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 04-06 17:04
BitchCrew schreef op dinsdag 08 december 2009 @ 13:22:
[...]
Zou er nu een durven kopen al zelfs, maar MW2 en win 7 en 58xx reeks gaan nie zo 100% perfect samen op het moment, en ze zijn duurder dan ze eigenlijk zijn, en moeilijk leverbaar....
Gaat prima hoor heb nergens last van ;)

Computer says no


Acties:
  • 0 Henk 'm!

Anoniem: 263719

Weer een "zoethoudertje"... moeten we hier uit concluderen dat de release nog niet voor de deur staat?

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
Anoniem: 263719 schreef op dinsdag 08 december 2009 @ 17:27:
[...]


Weer een "zoethoudertje"... moeten we hier uit concluderen dat de release nog niet voor de deur staat?
Ik ben bang van wel tbh.. Wie zegt trouwens dat dat 100% zeker Fermi chips zijn?

Acties:
  • 0 Henk 'm!

Anoniem: 292676

M4gick schreef op dinsdag 08 december 2009 @ 17:47:
[...]


Ik ben bang van wel tbh.. Wie zegt trouwens dat dat 100% zeker Fermi chips zijn?
de specs zeker niet

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Jij haalt volgens mij de GT315 en de man met de duim door elkaar. ;)


Afbeeldingslocatie: http://tweakers.net/ext/f/d3OAhKhIVcNixI7IWss3hd4Z/full.jpg
Dit is dus de GT315 en de man op de andere foto laat een PC zien met schijnbaar Fermi daarin.

En nog wat.

[ Voor 42% gewijzigd door -The_Mask- op 08-12-2009 22:36 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • MMMMMM
  • Registratie: December 2003
  • Laatst online: 08-09-2020
hier stond een vraag...is nieuw topic geworden GTS250 SLI : krijg 2 schermen niet aan de praat

[ Voor 132% gewijzigd door MMMMMM op 09-12-2009 18:07 ]


Acties:
  • 0 Henk 'm!

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 18-05 13:08
MMMMMM schreef op woensdag 09 december 2009 @ 17:44:
Heb het halve forum nu gehad en NOG kom ik er niet uit :

Asrock P55 Extreme
i7-860
6 gb Geil 1333
GTS250 (maal 2)
WD 300 gb velociraptor (maal2 in raid 0)

heb de kaarten in SLI en zonder SLI geprobeerd (softwarematig in Nvidia control panel, dus de brug bleef erop) , maar krijg geen beeld op 2 monitoren (1 HDMI en 1 DVI).

Wat doe ik nu verkeerd?

OS is Win Xp 64 bit en drivers zijn laatste van Nvidia (geen beta)


Systeem is compleet nieuw, gebouwd puur voor Flight Simulator (FSX)
Dit is een nvidia nieuws topic, niet om je probleem te dumpen. Maak ff een eigen topic als je een probleem hebt.

Acties:
  • 0 Henk 'm!

  • MMMMMM
  • Registratie: December 2003
  • Laatst online: 08-09-2020
hier stond ook niet veel bijzonders

[ Voor 87% gewijzigd door MMMMMM op 09-12-2009 18:09 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024

Nvidia partners in trouble

Zoals al eerder geopperd, komt nu Fudzilla met het nieuws dat het bar en boos is voor de 'nVidia-only' AIB's. Het gebrek aan G200b producten doet ze geen goed. Fuad gaat zelfs zo ver te stellen dat sommige AIB's nog wel eens kopje onder kunnen gaan, met name wijzend naar Europa.

De keuze van XFX om ook AMD-kaarten te gaan 'produceren' en verkopen lijkt achteraf absoluut geen slechte geweest te zijn.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
dahakon schreef op woensdag 09 december 2009 @ 19:21:
dat sommige AIB's nog wel eens kopje onder kunnen gaan, met name wijzend naar Europa.
Welke nVidia only partners hebben we eigenlijk nog.
Ik weet zo EVGA, Zotac, BFG en PNY iemand nog meer?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 01-06 19:22

Edmin

Crew Council

get on my horse!

Sparkle.

Acties:
  • 0 Henk 'm!

  • TheMOD
  • Registratie: November 2008
  • Laatst online: 22-04 11:06
-The_Mask- schreef op woensdag 09 december 2009 @ 20:32:
[...]

Welke nVidia only partners hebben we eigenlijk nog.
Ik weet zo EVGA, Zotac, BFG en PNY iemand nog meer?
Sparkle toch ook? Al zie ik die niet zoveel meer...

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Point of View niet te vergeten.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Hoe kom je daar bij? :?









Staat ook al boven je he. :p
Hoe kon ik die nu vergeten, iig volgens wiki meeste verkopen in Europa...

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 22:09
Gainward/Palit/Galaxy is/zijn volgens mij weer nVidia only (Ze hebben na de 4870X2 geen ATI kaarten meer uitgebracht).
edit:
Inno3D is toch ook nVidia only?

[ Voor 22% gewijzigd door Blastpe op 09-12-2009 21:11 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Blastpe schreef op woensdag 09 december 2009 @ 20:55:
Gainward/Palit is volgens mij weer nVidia only (Ze hebben na de 4870X2 geen ATI kaarten meer uitgebracht).
Idd Gainward en Palit na de HD4870X2 niet meer gezien geen HD4890 en geen HD5xxx van hun.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • TheMOD
  • Registratie: November 2008
  • Laatst online: 22-04 11:06
-The_Mask- schreef op woensdag 09 december 2009 @ 20:54:
[...]

Hoe kom je daar bij? :?









Staat ook al boven je he. :p


[...]

Hoe kon ik die nu vergeten, iig volgens wiki meeste verkopen in Europa...
Ik zal ook eens wat zeggen... }:|

P.s. dacht toch echt dat ik eerder was dan Ed, maar blijkbaar vond Tweakers van niet... :P

[ Voor 12% gewijzigd door TheMOD op 09-12-2009 21:24 ]


  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
zotac = sapphire toch?

  • Astennu
  • Registratie: September 2001
  • Laatst online: 04-06 19:26
BitchCrew schreef op dinsdag 08 december 2009 @ 13:22:
[...]
Zou er nu een durven kopen al zelfs, maar MW2 en win 7 en 58xx reeks gaan nie zo 100% perfect samen op het moment, en ze zijn duurder dan ze eigenlijk zijn, en moeilijk leverbaar....
Ik spreel veel MW 2 en ik heb een 5850 en Win7 64 Bit. Nergens last van. Gewoon 9.11 WHQL drivers.
dahakon schreef op woensdag 09 december 2009 @ 19:21:

Nvidia partners in trouble

Zoals al eerder geopperd, komt nu Fudzilla met het nieuws dat het bar en boos is voor de 'nVidia-only' AIB's. Het gebrek aan G200b producten doet ze geen goed. Fuad gaat zelfs zo ver te stellen dat sommige AIB's nog wel eens kopje onder kunnen gaan, met name wijzend naar Europa.

De keuze van XFX om ook AMD-kaarten te gaan 'produceren' en verkopen lijkt achteraf absoluut geen slechte geweest te zijn.
XFX heeft er zeker goed aan gedaan. Maar nVidia vind dat soort dingen niet leuk. En grote nVidia only parkners krijgen ook extra's vanuit nVidia. Meer chips dan bv niet nV only parkners.
Het zou een afsplitsing kunnen zijn. Maar ik was hier niet van op de hoogte.

[ Voor 71% gewijzigd door Astennu op 10-12-2009 08:01 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Zotac is een dochterbedrijf van PC Partner, net zoals Sapphire ook onderdeel van PC Partner is. Het is opgericht omdat PC Partner nog geen uilaatklep had voor NV kaarten en Sapphire ATI exclusive is. Dus:

PC Partner:
- Zotac (NV based)
- Sapphire (AMD based)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 07:36

Cheezus

Luiaard

Astennu schreef op donderdag 10 december 2009 @ 07:57:
[...]

XFX heeft er zeker goed aan gedaan. Maar nVidia vind dat soort dingen niet leuk. En grote nVidia only parkners krijgen ook extra's vanuit nVidia. Meer chips dan bv niet nV only parkners.
[off-topic]
Psssst: het is partner
[/off-topic]

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024

Fermi A3 silicon is in the oven

Een artikel van Charlie over de mogelijke beschikbaarheid. Voor de verandering begint hij eens met het meest positieve schema voor wanneer Fermi-based videokaarten in de schappen kunnen liggen.

Verder een redelijk objectieve algemene beschouwing over hoe lang het nog kan duren. Daarbij is de ultieme vraag, hoeveel risico heeft nVidia durven nemen. Persoonlijk denk ik dat begin maart het meest logisch lijkt voor een eerste launch met een kleine batch kaarten en grotere beschikbaarheid (wat heet, met het huidige 40nm proces is 'grotere beschikbaarheid' weinig meer dan we leveren wat we kunnen, zoals ook wel is te zijn bij AMD's kaarten). ergens vanaf april.

Acties:
  • 0 Henk 'm!

  • BitchCrew
  • Registratie: Juni 2006
  • Laatst online: 23-05 21:57
Is toch nog wel lang maart hoor. en rekeninghoudend met launchprijzen en stormloop voor die nieuwe kaarten, kan het misschien wel mei, juni zijn eer de 'normale mensen' die kaarten kunnen kopen.

Ik blijf het raar vinden dat er een schaarste is van de 275, 285 kaarten.
Dit terwijl er toch minder vraag naar is door de ati 58xxx reeks.

Dat eigenlijk verwacht dat hun prijzen gingen zakken zodat ik me zo'n 275 kon aanschaffen voor 150€ :-)

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

BitchCrew schreef op vrijdag 11 december 2009 @ 10:49:
Is toch nog wel lang maart hoor. en rekeninghoudend met launchprijzen en stormloop voor die nieuwe kaarten,
Komt niet zo zeer door een te grote vraag maar door een te klein aanbod. NVidia is de productie van de GT200's aan het afbouwen. Een verdere prijsdaling zou volgens mij ook betekenen dat NVidia met verlies zou gaan verkopen en dan verkopen ze natuurlijk liever niks (al ben ik wel benieuwd hoe laag de prijzen van de GT200 kunnen gaan voordat dat zo is?)

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Ach, nog 10 weekjes, dan zijn ze er al. :Y)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • BoRRel82
  • Registratie: Mei 2004
  • Laatst online: 23-05-2020

BoRRel82

Eat, sleep, game, repeat!

RappieRappie schreef op vrijdag 11 december 2009 @ 12:30:
Ach, nog 10 weekjes, dan zijn ze er al. :Y)
Zo is het maar net, en ik mis het nog niet echt met hedendaagse spellen ^^ :o

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
dahakon schreef op woensdag 09 december 2009 @ 19:21:

Nvidia partners in trouble

Zoals al eerder geopperd, komt nu Fudzilla met het nieuws dat het bar en boos is voor de 'nVidia-only' AIB's. Het gebrek aan G200b producten doet ze geen goed. Fuad gaat zelfs zo ver te stellen dat sommige AIB's nog wel eens kopje onder kunnen gaan, met name wijzend naar Europa.

De keuze van XFX om ook AMD-kaarten te gaan 'produceren' en verkopen lijkt achteraf absoluut geen slechte geweest te zijn.
Was er niet een tijdje terug dat Nvidia zelfs een hoop AIB's wilden lozen omdat daar door de prijs omlaag kon ?

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

http://www.fudzilla.com/content/view/16807/1/

[ Voor 10% gewijzigd door Xenomorphh op 11-12-2009 14:54 ]

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

zoals ik al melde in het nvidia toekomst topic:
http://gathering.tweakers.net/forum/view_message/33061154
7 December:
Of Vandaag is bij nvidia het grote nieuws binnengekomen dat de A3 revisie goed is voor productie, of het omgekeerde. Te hopen dat we dus vandaag horen of het een Q1 of Q2 launch wordt.
http://www.semiaccurate.c...10/fermi-a3-silicon-oven/
10 December:
IT LOOKS LIKE Nvidia has put the A3 stepping of Fermi in the oven, it happened some time last week. That means that you may see cards as early as February, depending on two or three other factors.

[ Voor 68% gewijzigd door neliz op 11-12-2009 15:33 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • bladerash
  • Registratie: Mei 2005
  • Laatst online: 14-05 11:35
Fermi gebenchmarked? Vind het zelf moeilijk te geloven. Prestaties zijn te errug.

http://www.guru3d.com/new...x-360-and-380-benchmarks/

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 03-06 19:21
bladerash schreef op zondag 13 december 2009 @ 18:57:
Fermi gebenchmarked? Vind het zelf moeilijk te geloven. Prestaties zijn te errug.

http://www.guru3d.com/new...x-360-and-380-benchmarks/
Ik vroeg me al af waar de eerste zogenaamde benchmarks bleven.
Ook jammer dat er geen dx11 gegevens bijzitten.
Persoonlijk wacht ik liever op de échte benchmarks.
Nvidia wil, naar mijn idee, zoveel mogelijk potentiële radeon kopers aan het twijfelen brengen.
Áls de gegevens van hen komen natuurlijk. :)

[ Voor 4% gewijzigd door daan! op 13-12-2009 19:16 ]


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
bladerash schreef op zondag 13 december 2009 @ 18:57:
Fermi gebenchmarked? Vind het zelf moeilijk te geloven. Prestaties zijn te errug.

http://www.guru3d.com/new...x-360-and-380-benchmarks/
Ik geloof er niks van, tot een echte benchmark site haar eigen benchmark heeft gedaan.

[ Voor 6% gewijzigd door M4gick op 13-12-2009 19:18 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 04-06 19:26
BitchCrew schreef op vrijdag 11 december 2009 @ 10:49:
Is toch nog wel lang maart hoor. en rekeninghoudend met launchprijzen en stormloop voor die nieuwe kaarten, kan het misschien wel mei, juni zijn eer de 'normale mensen' die kaarten kunnen kopen.

Ik blijf het raar vinden dat er een schaarste is van de 275, 285 kaarten.
Dit terwijl er toch minder vraag naar is door de ati 58xxx reeks.

Dat eigenlijk verwacht dat hun prijzen gingen zakken zodat ik me zo'n 275 kon aanschaffen voor 150€ :-)
Zo raar is het niet dat die 275 en 285 er niet meer zijn. nVidia kan gewoon niet omlaag met de prijzen. Die kaarten zijn erg duur om te maken. Ze hebben een Grote core, 512 Bit bus, complex pcb en GDDR3. Kortom een 275 is al een stuk duurder dan een HD4890. Dus nVidia stopt gewoon met het maken van die kaarten. Zorgt dat de voorraden op zijn als Fermi. Want met de prijs omlaag heeft voor nVidia geen nut.
M4gick schreef op zondag 13 december 2009 @ 19:17:
[...]


Ik geloof er niks van, tot een echte benchmark site haar eigen benchmark heeft gedaan.
Mee eens. Maar het plaatje laat wel zien wat ik er zelf van verwacht gebaseerd op wat de geruchten over de specs verteld hebben. Maar het lijkt mij nog veel te vroeg voor leaks. Er zijn amper werkende kaarten. En dit lijken wel op inhouse nVidia slides. Maar goed tegenwoordig zijn mensen ook erg handig in het namaken van dat soort spul :P

[ Voor 22% gewijzigd door Astennu op 14-12-2009 08:25 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Astennu schreef op maandag 14 december 2009 @ 08:19:
[...]


Zo raar is het niet dat die 275 en 285 er niet meer zijn. nVidia kan gewoon niet omlaag met de prijzen. Die kaarten zijn erg duur om te maken. Ze hebben een Grote core, 512 Bit bus, complex pcb en GDDR3. Kortom een 275 is al een stuk duurder dan een HD4890. Dus nVidia stopt gewoon met het maken van die kaarten. Zorgt dat de voorraden op zijn als Fermi. Want met de prijs omlaag heeft voor nVidia geen nut.
Dat word wel vaak gezegd, maar je weet de bedragen niet die nvidia of ati betalen voor gpu's, beide fabrikanten gebruiken minder goede gpu's voor de varianten zoals de hd4850 of gtx260.
Bij ati kunnen ze dan wel meer goede chips uit een wafer halen, maar ze moeten er dan meer als mindere chips verkopen aangezien die populairder zijn onder de consument.

Nu verwacht ik ook wel dat de nvidia kaarten duurder zijn door de grote chips, maar het gddr5 geheugen is een stuk complexer dan gddr3, ati heeft dan wel een kleinere bus, maar onder de streep komt men gelijk uit.
Probleem is wel voor nvidia dat ze nu op gddr5 over moeten stappen, wat eigenlijk in opdracht van ati is ontworpen, en dat kan problemen opleveren omdat nv al jaren (sinds geforce 6xxx) een gddr3 membus gebruiken, natuurlijk is te hopen dat het hen redelijk goed afgaat, als ze geen kleine 200G/b aan bandbreedte halen hebben ze een aardig probleem met g300.

Als de gtx3xx kaarten werkelijk zo goed presteren (denk het niet) kan nvidia ook meer vragen voor hun kaarten, en moet ati lager gaan zitten met hun prijs, het is op dit moment minder voor ati dat de hd5xx kaarten moeilijk leverbaar zijn, net nu ze de cashcow op de markt hebben.
De gtx285 is nu gewoonweg niet meer concurerend genoeg, hij is even duur als een hd5850, maar levert minder performance, in de huidige kwestie is de g200b inderdaad te duur is om hem voor 100 euro in de markt te zetten, maar dat heeft niet alleen te maken met productiekosten, daar spelen zoveel factoren in mee dat je niet met zekerheid kunt zeggen dat nv veel meer betaald dan ati per chip.

Dat nvidia zijn kaarten uitfaseerd is omdat het gewoonweg niet logisch is om ze nu nog te produceren, hetzelfde was het geval met de x1xxx serie vs. g80, daar zat ati in dezelfde positie als nvidia nu, dat heeft meer met marktwerking te maken dan met productiekosten, je gaat bijvoorbeeld geen peren verkopen als iedereen alleen maar appels eet :P

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 04-06 19:26
De HD4890 gebruikt de RV790 chip. De HD4850 gebruikt de RV770. Er zijn niet veel kaarten die de RV790 gebruiken. Alleen de 4860 maar die zie je bijna niet. Kortom ik vraag me af of er veel defecte chips in de RV790 reeks zijn. Maar dan nog. AMD haalt er veel meer uit een waver. Dus het is aannemelijk dat ze per "goede" volledig functionerende chip minder betalen. Ookal zou nVidia kortingen krijgen. Dan nog is het verschil in grote dusdanig groot.

Daarnaast schijnt GDDR5 goedkoper/ even duur te zijn dan GDDR3 omdat dat inmiddels in grote hoeveelheden geproduceerd wordt door Samsung, Hynix en Qimonda. Of dit klopt weet ik niet. Maar de HD48xx en de HD47xx gebruikte ook al GDDR5. Die kaarten zijn al meer dan anderhalf jaar op de markt. Dus zo nieuw is GDDR5 dus ook niet meer. En toen de tijd konden ze die GDDR5 kaarten al tegen mooie prijzen weg zetten. Dat moet nu alleen nog maar beter lukken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • R0SSI
  • Registratie: Juni 2009
  • Laatst online: 25-05 10:48
[h1]GeForce GTX 360 and 380 Benchmarks[/h1]

Zeer waarschijnlijk fake, maar ik kwam het toevallig tegen op XtreemSystems.


Edit: Ik moet beter leren lezen...

[ Voor 13% gewijzigd door R0SSI op 14-12-2009 12:30 ]

Gamertag for Xbox: R0SSI


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

R0SSI schreef op maandag 14 december 2009 @ 12:29:

GeForce GTX 360 and 380 Benchmarks

Zeer waarschijnlijk fake, maar ik kwam het toevallig tegen op XtreemSystems.
bladerash schreef op zondag 13 december 2009 @ 18:57:
Fermi gebenchmarked? Vind het zelf moeilijk te geloven. Prestaties zijn te errug.

http://www.guru3d.com/new...x-360-and-380-benchmarks/
Psst... die zijn al gepost. Gevoelsmatig zeg ik er trouwens meteen bij dat het naar PR riekt :)

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Astennu schreef op maandag 14 december 2009 @ 10:31:
De HD4890 gebruikt de RV790 chip. De HD4850 gebruikt de RV770. Er zijn niet veel kaarten die de RV790 gebruiken. Alleen de 4860 maar die zie je bijna niet. Kortom ik vraag me af of er veel defecte chips in de RV790 reeks zijn. Maar dan nog. AMD haalt er veel meer uit een waver. Dus het is aannemelijk dat ze per "goede" volledig functionerende chip minder betalen. Ookal zou nVidia kortingen krijgen. Dan nog is het verschil in grote dusdanig groot.

Daarnaast schijnt GDDR5 goedkoper/ even duur te zijn dan GDDR3 omdat dat inmiddels in grote hoeveelheden geproduceerd wordt door Samsung, Hynix en Qimonda. Of dit klopt weet ik niet. Maar de HD48xx en de HD47xx gebruikte ook al GDDR5. Die kaarten zijn al meer dan anderhalf jaar op de markt. Dus zo nieuw is GDDR5 dus ook niet meer. En toen de tijd konden ze die GDDR5 kaarten al tegen mooie prijzen weg zetten. Dat moet nu alleen nog maar beter lukken.
Ik had het over de situatie bij de rv770 chip, bij de rv790 hebben ze een grotere hoeveelheid goede chips kunnen bakken, aangezien die hd4860 zo zeldzaam is kun je dat aannemen, bij de hd4850/70 hadden ze ook veel goede chips, alleen haalden ze niet allemaal de 750mhz, (wat ook al een aardig hoge clock is), maar toendertijd hadden ze ook al vrij vroeg een 4830 met 640 shaders.

Het ligt inderdaad meer voor de hand dat nvidia meer betaald per chip, maar ze gebruiken deze ook meer dan ati voor de professionele markt, er zijn erg veel factoren die meespelen waardoor je niet met zekerheid kan zeggen wie meer betaald, wat wel een feit is dat nvidia de g200b chip niet meer maakt daar deze nu te duur is om nog met de 40nm ati's te concurreren, welke zuiniger, goedkoper is (zelfs met die hoge prijzen van de hd58xx serie nu) en meer features heeft, het heeft geen nut om nog een gtx285 te verkopen voor 150 euro voor nvidia, de meeste mensen in dit segment kopen dan toch een hd5770.

Gddr5 is inderdaad al langer op de markt, maar nu nvidia ook Gddr5 gaat gebruiken, zal dat ook de prijzen opdrijven, punt is dat ieder bedrijf een andere strategie heeft, ati gaat voor kwantiteit (bang for buck) nvidia gaat voor kwaliteit (performance kroon), per verkochte gtx280 maakte nvidia genoeg winst tegenover de hd48xx serie van ati, er zijn genoeg high-end users die toendertijd tripple sli draaiden met die kaarten.
Het is gewoon zo dat er in het hoogste segment niet het grote geld word verdiend, dat gebeurt met de OEM systemen en de in mindere mate de achteraf gekochte mid-range kaarten, en juist daar heeft nvidia een groot aandeel, al is dat nu aardig rechtgetrokken sinds de hd4xxx kaarten.

Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
BTW...
University of Antwerp builds desktop supercomputer with 13 NVIDIA GPUs
Afbeeldingslocatie: http://www.dvhardware.net/news/2009/fastra_2/fastra_ii_reconstruction_benchmark.gif
http://www.dvhardware.net...esktop_supercomputer.html

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 04-06 19:26
Joepi schreef op maandag 14 december 2009 @ 13:26:
BTW...
University of Antwerp builds desktop supercomputer with 13 NVIDIA GPUs
[afbeelding]
http://www.dvhardware.net...esktop_supercomputer.html
Beetje raar dat een I7 940 0.18 scoort en een cluster met 512 cores maar 1.0 :S wat klopt hier niet ? 8 vs 512.

Dat betekend dus dat 5 i7 940's net zo snel zijn als een cluster. Lijkt me sterk. Is het een cluster van Pentium II's of zo ?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Astennu schreef op maandag 14 december 2009 @ 13:54:
Lijkt me sterk. Is het een cluster van Pentium II's of zo ?
Nou het is iig geen cluster met allemaal Core i7's, volgens mij kan het namelijk wel gewoon hoor. :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 04-06 19:26
-The_Mask- schreef op maandag 14 december 2009 @ 13:57:
[...]

Nou het is iig geen cluster met allemaal Core i7's, volgens mij kan het namelijk wel gewoon hoor. :)
Tuurlijk kan het ook wel maar als je met 512 Cores maar 1.01 haalt en een enkele i7 940 al 0.18. Dan zijn het hele oude CPU's. Dan denk ik echt aan Pentium II cores.

20 I7 cores kunnen die 1.0 al halen (als je de virtuele cores mee rekent 40). Dus dat zegt genoeg.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
Nou als we 512/1.01 doen krijgen we 0,00197, dus 100x zo sloom als een i7?

Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
bladerash schreef op zondag 13 december 2009 @ 18:57:
Fermi gebenchmarked? Vind het zelf moeilijk te geloven. Prestaties zijn te errug.

http://www.guru3d.com/new...x-360-and-380-benchmarks/
Waarom zou dat niet kunnen? nVidia zei maanden geleden al dat ze adh van de prestaties van de ATI kaarten er heilig van overtuigd waren dat fermi (flink) sneller zou worden.

We kunnen alleen maar hopen dat het waar is. Meer fps = beter! :P

Specs


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Naluh! schreef op maandag 14 december 2009 @ 14:11:
[...]

Waarom zou dat niet kunnen? nVidia zei maanden geleden al dat ze adh van de prestaties van de ATI kaarten er heilig van overtuigd waren dat fermi (flink) sneller zou worden.
Een GTX380 die sneller is dan Cypress ja, niet ook nog simpel Hemlock verslaat. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Astennu schreef op maandag 14 december 2009 @ 13:54:
[...]


Beetje raar dat een I7 940 0.18 scoort en een cluster met 512 cores maar 1.0 :S wat klopt hier niet ? 8 vs 512.

Dat betekend dus dat 5 i7 940's net zo snel zijn als een cluster. Lijkt me sterk. Is het een cluster van Pentium II's of zo ?
Bij een cluster heb je ook enorm veel overhead he. Alles door 1 cpu laten afhandelen of de werkload mooi verdelen tussen 512 cores en zorgen dat alles weer mooi te samen komt..
Zelf indien je er vanuit gaat dat het 100% perfect paralleliseerbaar is en je de 512 cores constant volledig kan benutten (eigenlijk mogen we hier toch grotendeels vanuit gaan als je ziet dat 13 GPU's tegelijkertijd nuttig werk kunnen doen) ga je toch een stuk overhead hebben voor het beheren van je cluster.
+ Latencies als je de verschillende toestellen via LAN gaat verbinden, en dus al moet zorgen voor een geoptimaliseerd dataprotocol enzoverder enzoverder. Die cores hangen niet meer fysiek samen aan 1 machine/moederbord he

Daarbij zoals The Mask al vermelde. Die 512 core cluster is een oudere oplossing waardoor er dus oudere cpu's hiervoor zijn gebruikt.
Ik zou het dus zelfs opmerkelijk vinden dat die cluster per core even efficient kon zijn. Echter komt dit doordat de i7 HT gebruikt waardoor er 4 virtuele cores worden bij gesimuleerd wat maar maximaal 30% efficienter is en dus niet effectief zorgt dat er 8 fysieke cores in gebruik zijn. Waardoor je kan zeggen dat die i7 met zijn 4/(5) cores het inderdaad logischerwijze per core beter doet.

On Topic: Het zijn wel dergelijke projecten/server die nVidia voor ogen heeft. En zoals men al bij de commentaren bij het stopzetten van Larrabee kon lezen, nVidia heeft juist veel (software) successen van hun CUDA technologie te danken adhv zo'n kleinere projecten die perfect aantonen dat de theorie van krachtige GPU's inzetten voor zware server/cluster taken ook in de praktijk kan leiden tot stukken hogere performanties. Echter is dit nog steeds voor maar een beperkt aantal projecten.
Ook hier ziet men dat heel de server + software is opgebouwd specifiek voor 1 applicatie.
Commercialiseren van zo'n server door een OEM is dus nog héél ver weg. En ik denk dat je als bedrijf zoals nVidia juist daarop zal moeten richten, niet enkel hardware produceren die bruikbaar is door een paar hobby projecten/onderzoeksgroepen maar die kant en klaar door een OEM geleverd kunnen worden. Maar dit is meer voer voor het nVidia toekomst topic :+

*Edit data transport vergeten te melden + gemerkt dat er ondertussen al enorm veel berichten werden geplaatst :p

[ Voor 6% gewijzigd door lightdestroyer op 14-12-2009 14:19 ]

Specs


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
-The_Mask- schreef op maandag 14 december 2009 @ 14:13:
[...]

Een GTX380 die sneller is dan Cypress ja, niet ook nog simpel Hemlock verslaat. ;)
Nou ja, zó fantastisch is de Hemlock nou ook weer niet. Het zou best mogelijk kunnen zijn. Maar goed, zelfs als de benchmarks echt zijn, het is maar 1 spel, drivers zijn zeker voor nvidia natuurlijk nog geen release drivers en de drivers van ATI zijn ook nog lang niet op niveau.

Specs


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 04-06 19:26
-The_Mask- schreef op maandag 14 december 2009 @ 14:13:
[...]

Een GTX380 die sneller is dan Cypress ja, niet ook nog simpel Hemlock verslaat. ;)
Eek nu je het zegt ja. Dit geloof ik inderdaad niet. Dat zou betekenen dat de GTX380 80% sneller is als de HD5870. Dat gaat er bij mij niet zo maar in. Eerst zien dan geloven....

Als het 30-40% is mogen ze volgens mij al in hun handjes klappen. Ik verwacht zelf eerder 20-30%.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Astennu schreef op maandag 14 december 2009 @ 15:25:
Als het 30-40% is mogen ze volgens mij al in hun handjes klappen. Ik verwacht zelf eerder 20-30%.
Je moet het maar zo zien, de architectuur krimpt gedeeltelijk van 55nm naar 40nm, daar haal je een aantal (max 30?) procent uit. Dan krijg je hogere clocks en dan heb je architecturele verbeteringen an sich.
In bepaalde situaties kun je dan twee keer zo snel zijn dan je vorige generatie, maar die benchmarks hierboven laten in niet geoptimaliseerde games een veelvoud aan performance zien die gewoon architectureel niet verantwoord zou zijn.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Da_DvD
  • Registratie: April 2004
  • Laatst online: 14-04 10:01
De GTX380 scores zijn in die slides bijna precies 2x de score van de GTX285, terwijl de architectuur geheel anders is en de drivers nog beta zijn. Yeah right ;)

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Denk ook dat die benchmarks met een grote bak zout genomen kunnen worden, als de gtx360 gelijk presteerd aan de 5870 zou dat niet verkeerd zijn, als de prijs dan ook nog goed ligt wil ik er wel eentje halen voor iets van 200-250 euro :)

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 03-06 19:21
Als de benchmarks echt waren geweest dan had Nvidia hier ECHT wel de publiciteit mee gezocht.
Daar zouden ze, als ze slim waren, een heel mediacircus van maken.
Stel je voor; bewijs dat Fermi een evergreenkiller is!
Op die manier zouden ze heel veel mensen kunnen weerhouden een HD58** te kopen.
(omdat ze dan wachten op de fermi)

De stilte van Nvidia spreekt hier boekdelen, lijkt mij.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

nvidia heeft amper een paar werkende exemplaren in huis en dan zouden deze sheets waar zijn. :?

tja laat ze nou eerst maar ns een werkende exemplaar launchen, dan zien we wel verder..... :) echter dat zal ws niet eerder dan febr/mrt zijn... :o

[ Voor 12% gewijzigd door Help!!!! op 14-12-2009 19:48 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 22:01

Nvidia GT300 yields are under 2%

Worden hele dure kaartjes zo :P

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
We zijn al wel drie maanden en een revisie verder hoor. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 15-01 11:24
Anoniem: 263922 schreef op maandag 14 december 2009 @ 17:36:
Denk ook dat die benchmarks met een grote bak zout genomen kunnen worden, als de gtx360 gelijk presteerd aan de 5870 zou dat niet verkeerd zijn, als de prijs dan ook nog goed ligt wil ik er wel eentje halen voor iets van 200-250 euro :)
Als de GTX360 gelijk presteert aan de HD5870, dan zou mij dat erg tegenvallen en nVidia waarschijnlijk ook. De GTX260 kwam vóór de HD4870 uit en die was even snel. Dat was zelfs nog een tegenvaller voor nVidia, want met de release van de HD4870 moesten de prijzen flink omlaag. De GTX360 komt meer dan een half jaar later dan de HD5870, dan mogen ze echt wel met iets beters komen dan even snel. Als ze dat niet doen dan is de kans aanwezig dat ATi alweer een refresh klaar heeft staan die de GTX380 verslaat.

specs


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Depep schreef op maandag 14 december 2009 @ 20:28:
[...]


Als de GTX360 gelijk presteert aan de HD5870, dan zou mij dat erg tegenvallen en nVidia waarschijnlijk ook.
Ik verwacht dat de HD5870 en GTX360 toch aardig aan elkaar gewaagt zullen zijn.
De GTX260 kwam vóór de HD4870 uit en die was even snel.
De GTX260 was iets trager daarom kwam nVidia ook met de GTX260 Core 216 die weer net wat sneller was.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • epo
  • Registratie: November 2000
  • Laatst online: 30-05 15:27

epo

Serieus, lees het artikel en check de datum eerst 8)7 8)7

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Depep schreef op maandag 14 december 2009 @ 20:28:
[...]
De GTX360 komt meer dan een half jaar later dan de HD5870, dan mogen ze echt wel met iets beters komen dan even snel.
Het is niet zo gemakkelijk dat als je er langer mee wacht, het vanzelf sneller wordt hè. De release van de GT300 was eigenlijk ongeveer tegelijk gepland met de release van de HD5000, zo beredeneerd zouden ze op hetzelfde niveau moeten zitten. Die zes maanden extra vertalen zich niet in extra prestaties, dat was puur extra tijd om problemen op te lossen.

Maar goed, sowieso is iets niet beter als het maar later uitkomt natuurlijk. Het hele ontwerp en de hele aanpak is anders, dus als het toevallig verkeerd uitpakt kan later ook gewoon alsnog slechter worden (en dan niet per sè in absolute prestaties maar vooral in prijs/prestatie)

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Natuurlijk kan de gt300 chip zeker wel een hap sneller zijn dan de hd5870, het is immers een nieuwe architectuur, de g80 architectuur is aan vervanging en welverdiend pensioen toe, de r600 architectuur van ati is in zijn huidige gedaante op volle sterkte, zoals de 8800gtx dat was vs. de hd2900xt.

Dus wie weet het kan alle kanten op, ati was erg snel met de hd5xxx serie, misschien hebben ze nog iets achter de hand, gt300 kan zomaar een dx11-8800gtx-verhaal worden.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 263922 schreef op maandag 14 december 2009 @ 21:42:
Natuurlijk kan de gt300 chip zeker wel een hap sneller zijn dan de hd5870
Het gaat hierover een stuk sneller dan de HD5970 en dat lijkt de meesten vrij sterk. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 15-01 11:24
bwerg schreef op maandag 14 december 2009 @ 21:35:
[...]


Het is niet zo gemakkelijk dat als je er langer mee wacht, het vanzelf sneller wordt hè. De release van de GT300 was eigenlijk ongeveer tegelijk gepland met de release van de HD5000, zo beredeneerd zouden ze op hetzelfde niveau moeten zitten. Die zes maanden extra vertalen zich niet in extra prestaties, dat was puur extra tijd om problemen op te lossen.

Maar goed, sowieso is iets niet beter als het maar later uitkomt natuurlijk. Het hele ontwerp en de hele aanpak is anders, dus als het toevallig verkeerd uitpakt kan later ook gewoon alsnog slechter worden (en dan niet per sè in absolute prestaties maar vooral in prijs/prestatie)
Later hoeft inderdaad niet sneller te betekenen. In dit geval kan het voor nVidia alleen maar beter wel het geval zijn dat hun kaarten noemenswaardig beter presteren dan de HD5870, want een zelfde voorsprong als de GTX 2xx serie vs de HD48xx serie is simpelweg niet goed genoeg meer als de kaarten pas in maart uitkomen.

specs


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

epo schreef op maandag 14 december 2009 @ 21:25:
[...]


Serieus, lees het artikel en check de datum eerst 8)7 8)7
TSja, waar zou het nieuws het eerst hebben gestaan? :P

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 327607

Ik heb al een jaartje of 2 een 8800 GTS met 640 MB geheugen. Nu wil graag iets nieuwers.
Enig advies? Wil graag rond de 200 - 250 euro maximaal uitgeven.

Acties:
  • 0 Henk 'm!

Anoniem: 196662

Anoniem: 263922 schreef op maandag 14 december 2009 @ 21:42:
Natuurlijk kan de gt300 chip zeker wel een hap sneller zijn dan de hd5870, het is immers een nieuwe architectuur, de g80 architectuur is aan vervanging en welverdiend pensioen toe, de r600 architectuur van ati is in zijn huidige gedaante op volle sterkte, zoals de 8800gtx dat was vs. de hd2900xt.

Dus wie weet het kan alle kanten op, ati was erg snel met de hd5xxx serie, misschien hebben ze nog iets achter de hand, gt300 kan zomaar een dx11-8800gtx-verhaal worden.
Je doet alsof de 8800GTX zo'n superkaart was? Ben je misschien z'n prijs vergeten of heb je er zo nooit 2 gekocht.
NVIDIA heeft een nieuwe 8800GT nodig, niet een nieuw gedrocht van een 8800GTX.

Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 15-01 11:24
Anoniem: 327607 schreef op dinsdag 15 december 2009 @ 09:40:
Ik heb al een jaartje of 2 een 8800 GTS met 640 MB geheugen. Nu wil graag iets nieuwers.
Enig advies? Wil graag rond de 200 - 250 euro maximaal uitgeven.
Reviews lezen en vooral niet in een nieuws topic vragen.
Anoniem: 196662 schreef op dinsdag 15 december 2009 @ 10:36:
[...]
NVIDIA heeft een nieuwe 8800GT nodig, niet een nieuw gedrocht van een 8800GTX.
Die 8800GT was ook alleen maar zo goedkoop omdat ze gedwongen werden door de HD3870. De 8800GTX kón gewoon zo duur zijn, omdat ATi er absoluut geen antwoord op had. De 8800GTX was een erg sterke kaart van nVidia, mensen die die in het begin hebben aangeschaft hebben 2 jaar lang een high-end kaart gehad. Zoiets is eigenlijk niet denkbaar bij videokaarten.

[ Voor 45% gewijzigd door Depep op 15-12-2009 10:41 ]

specs


Acties:
  • 0 Henk 'm!

Anoniem: 263922

-The_Mask- schreef op maandag 14 december 2009 @ 21:45:
[...]

Het gaat hierover een stuk sneller dan de HD5970 en dat lijkt de meesten vrij sterk. ;)
Ja dát lijkt mij ook vrij sterk, maar ik zeg dan ook dat hij wél een stuk sneller zou kunnen zijn dan een 5870 :z

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Anoniem: 196662 schreef op dinsdag 15 december 2009 @ 10:36:
[...]


Je doet alsof de 8800GTX zo'n superkaart was? Ben je misschien z'n prijs vergeten of heb je er zo nooit 2 gekocht.
NVIDIA heeft een nieuwe 8800GT nodig, niet een nieuw gedrocht van een 8800GTX.
Het gaat erom dat de 8800gtx in zijn tijd een goede kaart was, prijs was idd erg hoog, maar zelfs nu kan hij nog aardig meekomen, tenminste als hij niet kapot is en je hem in de oven moet gooien |:(

een nieuwe 8800gt lijkt me juist geen goede zet, op hogere resoluties liep de oude g80 hem zo eruit, laat ze dus eerst maar met een sterke gtx380 komen zodat de high-end kaarten goedkoper worden, de ultra-high-end betaal je toch de hoofdprijs voor :X

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Anoniem: 263922 schreef op dinsdag 15 december 2009 @ 10:47:
een nieuwe 8800gt lijkt me juist geen goede zet, op hogere resoluties liep de oude g80 hem zo eruit, laat ze dus eerst maar met een sterke gtx380 komen zodat de high-end kaarten goedkoper worden, de ultra-high-end betaal je toch de hoofdprijs voor :X
Ik denk niet dat een eventuele GTX380 voor minder dan €400 op de markt komt. Kans bestaat zelfs dat AMD bij de introductie de prijzen ook niet hoeft aan te passen, het heeft ze bij GT200 ook geen windeieren gelegd dat ze voor 20% meer performance 40% meer geld vragen konden.

[ Voor 18% gewijzigd door neliz op 15-12-2009 11:14 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 263922

neliz schreef op dinsdag 15 december 2009 @ 11:12:
[...]


Ik denk niet dat een eventuele GTX380 voor minder dan €400 op de markt komt. Kans bestaat zelfs dat AMD bij de introductie de prijzen ook niet hoeft aan te passen, het heeft ze bij GT200 ook geen windeieren gelegd dat ze voor 20% meer performance 40% meer geld vragen konden.
Het lijkt mij ook onwaarschijnlijk dat deze voor minder dan 400 euro op de markt komt, maar het kan wel dat de gtx360 voor 300 euro of minder op de markt gezet wordt, en daar koopt men juist de meeste kaarten omdat je daar minder betaalt per frame dan bij de gtx380 of hd5970.

Acties:
  • 0 Henk 'm!

Anoniem: 196662

Een fabrikant heeft niet het snelste nodig, hij heeft iets nodig dat zo snel mogelijk is in een aanvaardbare prijsklasse. Daarom is 8800gt top en 8800gtx flop.
Dat is wat ATI nu al een tijdje doet en elk jaar kruipt hun marktaandeel bij OEM's en zelfbouwers steeds hoger. Het is zelfs verwacht dat Q1 2010 AMD boven NVIDIA gaat komen in marktaandeel. Dan moet je als NVIDIA toch beseffen dat je ofwel fout aan het denken bent of dat je het maar moet aanvaarden en dan in kleinere markten specialiseren.
Dat tweede is imo net wat NVIDIA van plan is gaan ze dus niet meer een geduchte tegenstander zijn op de gaming markt.

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
http://www.fudzilla.com/content/view/16843/1/

Zelfs Fudzilla zegt dat ie nep is ;)

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Als NVidia het zelf ontkent heeft het ook weinig zin om vol te houden dat ze echt zijn hè :P

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Adobe Premiere Effects = CUDA Only

[ Voor 64% gewijzigd door neliz op 15-12-2009 15:42 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
Jammer dat ze nep blijken te zijn maar niet geheel onverwacht :P .


Lijkt me eigenlijk best leuk om zo'n benchmark te hoaxen en dan het net op te slingeren :D

Specs


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Anoniem: 196662 schreef op dinsdag 15 december 2009 @ 11:59:
Een fabrikant heeft niet het snelste nodig, hij heeft iets nodig dat zo snel mogelijk is in een aanvaardbare prijsklasse. Daarom is 8800gt top en 8800gtx flop.
Dat is wat ATI nu al een tijdje doet en elk jaar kruipt hun marktaandeel bij OEM's en zelfbouwers steeds hoger. Het is zelfs verwacht dat Q1 2010 AMD boven NVIDIA gaat komen in marktaandeel. Dan moet je als NVIDIA toch beseffen dat je ofwel fout aan het denken bent of dat je het maar moet aanvaarden en dan in kleinere markten specialiseren.
Dat tweede is imo net wat NVIDIA van plan is gaan ze dus niet meer een geduchte tegenstander zijn op de gaming markt.
Ik weet eigenlijk niet hoe je erop komt dat de 8800gtx een flop zou zijn, die kaarten verkochten als zoete broodjes bij de launch, juist omdat ze zo goed waren, en voor mensen die het geld er voor over hebben speelt dat de grootste rol, die gaan dan geen 8600gt kopen omdat die in een aanvaardbare prijsklasse zit.
Nvidia zette met de gt200 ook al in op de professionele markt, alleen hadden ze toen helemáál niet verwacht dat de hd4870 zo snel zou zijn, en hebben ze niet veel werk gemaakt van de gtx2xx kaarten, dat kun je ook zien aan het percentage van die chips dat bij gamen totaal niet gebruikt wordt.

De kans dat ze die fout maken bij fermi is niet zo groot, het is een hele nieuwe architectuur zoals de g80 toendertijd, en die werd ook al ingezet op de professionele markt, en niemand die er moeite mee had :+

[ Voor 5% gewijzigd door Anoniem: 263922 op 15-12-2009 19:54 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 04-06 10:43
Vergeet niet dat chips al jaren van te voren ontworpen worden, waardoor nvidia dus eigenlijk niet kon weten wat ATi er van ging bakken; dus het is nog maar de vraag of de kans minder groot bij fermi is.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Inderdaad. Sterker nog, waarschijnlijk heeft NVidia het idee achter de GT300 net zoals ze dat ook met de GT200 hadden. Net als AMD nu al een tijdje met dezelfde strategie bezig is, lijkt het logisch dat NVidia dat ook doet en ze die fout dus pas bij de generatie nà de GT300 kunnen herstellen.

Voor zover het een fout is natuurlijk, misschien zijn de GT300 kaartjes wel heel leuk als ze er eenmaal zijn.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Het duurt inderdaad een aantal jaren om een chip te ontwerpen, ik had dat ook nog erbij kunnen zetten maar ervan uitgaande dat iedereen dat wel weet dus niet gedaan, je moet niet teveel van de discussie afwijken :P

Met de gt200 heeft nvidia hun oude strategie gevolgd, een dure single gpu kaart die voor dik 600 euro verkocht zou worden, helaas kwam ati met de hd4 serie die dat hele plan onderuit haalde, de maanden daarop hebben ze dus toch de stap gewaagd naar de g200b om de marge wat te verhogen.
Bij de hd3 serie gebeurde ongeveer hetzelfde: ati gooide een "nieuwe"serie op de markt, wat niet veel meer was dan een herziene hd2900xt, welke in de gedaante van een hd3870 ongeveer even snel was, maar vooral dx10.1 bood, de 2900 kon dit ook maar door nvidia is de dx10 set eigenlijk flinkt gekortwiekt.
Toen bekend werd dat de hd3 serie gelanceerd zou worden, kwam nvidia snel met de 8800ultra, een opgepompte 8800gtx, een kaart die nauwelijks bestaansrecht had.
De g92 kwam als 8800gt op de markt, iets later de gts, en daarvoor de hd3 serie, wat nvidia ertoe bewoog om de geforce "9" uit te brengen, men kan dus wel in (relatief) korte tijd inspelen op de concurrent.
Je ziet ook dat de g92b zelfs nú nog verkocht wordt als gts250, een kaart uit de geforce 2xx serie, dat wijst er toch op dat nvidia wat bokkensprongen heeft gemaakt om kostte wat kost ati voor te blijven, ze hadden met de hd3 serie in het niet verwacht dat de hd4 meer dan het dubbele aantal aan shaders zou hebben.
Dus hebben ze enigzins de verkeerde gok gemaakt om de g200 op 65nm te maken, dat had te maken met de problemen die de geforce fx serie had: kleinste procede van de videokaarten maar toch warmer dan de kaarten van ati, jammergenoeg hebben ze ati's hd4 serie onderschat, waardoor men toch nog 55nm chips moest ontwerpen, een vlug (in videoland termen) in elkaar gedraaide gtx295 moest er aan te pas komen om na een half jaar de hd4870x2 te bestrijden.
Natuurlijk staan die ontwerpen langer vast, zoals het ook was met de geforce 6 en 7, die leken ook erg veel op elkaar, de g80 en g200 hebben die gelijkenis ook, de g92 was een tussenstap die niet in de planning lag, maar nvidia moest wel vanwege de hd3870x2, nu is de online geruchtenmachine daar ook debet aan, er lekt iets en de speculatiemachine komt op gang, en in het geval van nvidia en ati krijg je dan de beste oplossing die op dat moment mogelijk is.
Je ziet ook dat de 5970 eigenlijk niet in de buurt komt van twee 5870 kaarten in cf, het gebrek aan concurrentie is daar gevolg van, en zulke dingen gebeuren steeds weer opnieuw. :X

Zelf denk ik dat nvidia die fout die enkele jaren terug is ingezet niet meer zal maken, fermi wordt zeker weten een snelle chip, het kan gebeuren dat de rollen dan weer omgekeerd zijn, de hd5 serie is immers ook al de derde incarnatie van de r600 chip, de hd6 zal in mijn gedachte ook drastisch anders zijn dan hd5, zoals fermi dat is ten opzichte van g200.

Het blijft oneindig stuivertje wisselen, en daar profiteren wij als consument alleen maar van :9

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Van begin af aan was nVidia al van plan om een 65nm en 55nm GT200 te maken hoor, het is niet zo dat die er even tussen werd gedrukt als reactie op ATi. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Dat het mooi in het plan paste, kwam alleen maar goed uit ;)

Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 15-01 11:24
Anoniem: 263922 schreef op woensdag 16 december 2009 @ 00:04:
Toen bekend werd dat de hd3 serie gelanceerd zou worden, kwam nvidia snel met de 8800ultra, een opgepompte 8800gtx, een kaart die nauwelijks bestaansrecht had.
De g92 kwam als 8800gt op de markt, iets later de gts, en daarvoor de hd3 serie, wat nvidia ertoe bewoog om de geforce "9" uit te brengen, men kan dus wel in (relatief) korte tijd inspelen op de concurrent.
Je ziet ook dat de g92b zelfs nú nog verkocht wordt als gts250, een kaart uit de geforce 2xx serie, dat wijst er toch op dat nvidia wat bokkensprongen heeft gemaakt om kostte wat kost ati voor te blijven
Je hebt je feiten niet bepaald op een rijtje. De release van de 8800 Ultra had absoluut niets met de HD3xxx serie te maken. De launch prijs van de Ultra lag dan ook zo'n 4 keer zo hoog als de launch prijs van de HD3870. nVidia heeft toen inderdaad wel in korte tijd ingespeeld op de HD3xxx serie, maar dan met de 8800GT. En geloof me dat dat een noodsprong was. Nooit vreemd gevonden dat een G92 chip gebruikt werd op een 8800GT? De 9xxx serie was nog ver weg en plots komt ATi met een kaartje die niet zo zeer sneller is dan wat nVidia aanbiedt, maar een veel betere prijs/performance ratio biedt. Daar moest nVidia wel op reageren, de G80 was daarvoor te duur en dus niet geschikt, dus de G92 moest té vroeg voor een té lage prijs en met een onlogische naam uitgebracht worden. De enige manier waarop ze toen ATi konden counteren.

Dat de G92 nu nog steeds verkocht wordt en onder een heel andere naam is niet de manier van nVidia om ATi voor te blijven, maar om verkoop te stimuleren door marketing en door consumenten voor de gek te houden. Ik ben er van overtuigd dat er mensen zijn die een 8800GT ge-upgrade hebben met een 9800GT. Daar pakt nVidia weer winst, terwijl de consument er niets op vooruit gaat.

specs


Acties:
  • 0 Henk 'm!

Anoniem: 196662

Anoniem: 263922 schreef op woensdag 16 december 2009 @ 00:04:Je ziet ook dat de 5970 eigenlijk niet in de buurt komt van twee 5870 kaarten in cf, het gebrek aan concurrentie is daar gevolg van, en zulke dingen gebeuren steeds weer opnieuw. :X
Laten we dat logisch verklaren omdat de kloksnelheden lager liggen (max300W verbruik maar koeler gaat tot 400W voor de tweakers) en omdat hij nog maar een maand uit is en dus betere drivers kan gebruiken.
Er is belange nog geen gebrek aan concurrentie, AMD kan nog niet op lauweren rusten.

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
Anoniem: 263922 schreef op woensdag 16 december 2009 @ 00:04:

Je ziet ook dat de 5970 eigenlijk niet in de buurt komt van twee 5870 kaarten in cf, het gebrek aan concurrentie is daar gevolg van, en zulke dingen gebeuren steeds weer opnieuw. :X
Volgens mij is dat nooit zo bij een dual kaart, GTX 275 SLi is ook sneller dan een GTX 295..

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

M4gick schreef op woensdag 16 december 2009 @ 10:01:
[...]


Volgens mij is dat nooit zo bij een dual kaart, GTX 275 SLi is ook sneller dan een GTX 295..
Ohja?

Volgens mij was dat niet echt zo bij de HD4870 x2 hoor ;)

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Depep schreef op woensdag 16 december 2009 @ 00:29:
[...]


Je hebt je feiten niet bepaald op een rijtje. De release van de 8800 Ultra had absoluut niets met de HD3xxx serie te maken. De launch prijs van de Ultra lag dan ook zo'n 4 keer zo hoog als de launch prijs van de HD3870.
Men bracht inderdaad de 8800ultra uit toen de 2900xt er aan stond te komen, omdat men dacht dat deze misschien wel sneller zou zijn dan de gtx, daar heb ik even een denkfoutje gemaakt :X
nVidia heeft toen inderdaad wel in korte tijd ingespeeld op de HD3xxx serie, maar dan met de 8800GT. En geloof me dat dat een noodsprong was. Nooit vreemd gevonden dat een G92 chip gebruikt werd op een 8800GT? De 9xxx serie was nog ver weg en plots komt ATi met een kaartje die niet zo zeer sneller is dan wat nVidia aanbiedt, maar een veel betere prijs/performance ratio biedt. Daar moest nVidia wel op reageren, de G80 was daarvoor te duur en dus niet geschikt, dus de G92 moest té vroeg voor een té lage prijs en met een onlogische naam uitgebracht worden. De enige manier waarop ze toen ATi konden counteren.
Ja dat was precies het geval, maar dat is ook wat ik zei, jij hebt het misschien alleen wat duidelijker verwoord, al kwam de 9xxx serie toch redelijk snel na de 8800gt, ook zie je bij de afwerking van de 9800gx2 dat deze eigenlijk al op de planning stond, bij de originele gtx295 zie je aan de koeler dat het een aardige haastklus is geweest.
Dat de G92 nu nog steeds verkocht wordt en onder een heel andere naam is niet de manier van nVidia om ATi voor te blijven, maar om verkoop te stimuleren door marketing en door consumenten voor de gek te houden. Ik ben er van overtuigd dat er mensen zijn die een 8800GT ge-upgrade hebben met een 9800GT. Daar pakt nVidia weer winst, terwijl de consument er niets op vooruit gaat.
Dat was eigenlijk ook wat ik bedoelde, de aandacht verschoof van de hd3 serie naar de geforce 9 serie, je ziet ook nu veel 9800gt(x(+)) kaarten te koop staan, dus hun strategie pakte inderdaad goed uit

Acties:
  • 0 Henk 'm!

Anoniem: 263922

M4gick schreef op woensdag 16 december 2009 @ 10:01:
[...]


Volgens mij is dat nooit zo bij een dual kaart, GTX 275 SLi is ook sneller dan een GTX 295..
De gtx275 is een halve gtx295, 240 shaders op een 448bits bus, ook is hij evenhoog geklokt, bij ati heeft men het topmodel (hd4870) twee keer op een pcb gezet, dat was natuurlijk geen mogelijkheid met de gtx280 of gtx285, al is de single pcb versie van de gtx295 stukken koeler dan de dual-pcb, een dubbele gtx285 was dus wel mogelijk met dat ontwerp, nvidia heeft die mogelijkheid echter laten liggen omdat de gtx295 al de snelste kaart was, zoals ati nu weinig meer moeite heeft gedaan met de hd5970, bij overclocken zit je al gauw tegen de grens van de te heet wordende VRM's aan. :'(

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 263922 schreef op woensdag 16 december 2009 @ 10:56:
[...]


De gtx275 is een halve gtx295, 240 shaders op een 448bits bus, ook is hij evenhoog geklokt, bij ati heeft men het topmodel (hd4870) twee keer op een pcb gezet, dat was natuurlijk geen mogelijkheid met de gtx280 of gtx285, al is de single pcb versie van de gtx295 stukken koeler dan de dual-pcb, een dubbele gtx285 was dus wel mogelijk met dat ontwerp, nvidia heeft die mogelijkheid echter laten liggen omdat de gtx295 al de snelste kaart was, zoals ati nu weinig meer moeite heeft gedaan met de hd5970, bij overclocken zit je al gauw tegen de grens van de te heet wordende VRM's aan. :'(
Een GTX285 duo had nooit binnen de marges van de PCI-E 2.0 specificaties kunnen blijven. Dat is voor een fabrikant genoeg reden om geen officiele versie te maken. Dat Asus een zeer gelimiteerde oplage heeft gemaakt onder de naam Mars, die ook nog eens regelmatig uitvielen door koelingsproblemen, geeft ook aan waarom je dat niet zo graag moet willen.

Het is ook de reden waarom de HD5970 teruggeklokt is. Om binnen de 300Watt te kunnen blijven die PCI-E 2.0 voorschrijft. Dat je ze kunt overklokken is leuk voor de mensen die die moeite willen doen. Dat de standaard koeler problemen kan opleveren met het VRM-gedeelte is minder, maar er zijn ook al andere koeloplossingen voor die mensen die verder willen.

Een Dual-Fermi zal echter tegen hetzelfde probleem aanlopen als AMD had met de RV870. Voor een Dual-oplossing van een chip die een vermoedelijke TDP heeft van behoorlijk over de 200Watt, zul je behoorlijk wat moeten uitschakelen/onderklokken om te zorgen dat je binnen de specificaties blijft. Daarom zal ook een Fermi Dual oplossing nooit twee keer zo snel kunnen zijn als de beste single-oplossing.

Dit was behoorlijk anders met de HD4870X2 (bleef net binnen de 300Watt met dubbele HD4870 specs) of de HD3870, die ruimschoots de ruimte had om zelfs overgeklokt te worden ten opzichte van de standaard HD3870, aangezien er geen TDP-problemen waren.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 263922 schreef op woensdag 16 december 2009 @ 10:56:
[...]


De gtx275 is een halve gtx295, 240 shaders op een 448bits bus, ook is hij evenhoog geklokt,
Ho eens!
GTX295:
Video Chip Snelheid 576MHz
Geheugen Snelheid 1242MHz

GTX275:
Video Chip Snelheid 633MHz
Geheugen Snelheid 1404MHz

Redelijk logisch dat 2x GTX275 in Sli sneller is dus ;) Net als bij de HD5970 nu. Ze zijn gewoon wat afgezwakt om het verbruik binnen de perken te houden. Dat is het nadeel van grotere chips voor high-end, je kan er niet meer zonder problemen meerdere van op één PCB knallen. (oke, het kan wel, en dan krijg je de Asus Mars. Dan weten we ook waarom NVidia en Ati zoiets zelf liever niet doen :P)

[ Voor 19% gewijzigd door bwerg op 16-12-2009 11:30 ]

Heeft geen speciale krachten en is daar erg boos over.

Pagina: 1 ... 4 ... 8 Laatste

Dit topic is gesloten.