[Algemeen] nVidia Nieuwdiscussie Topic - Deel 46 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 7 ... 13 Laatste
Acties:
  • 69.625 views

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Edmin schreef op woensdag 19 mei 2010 @ 01:03:
Inderdaad, al wel twee uren oud en in een ander topic! :o

Misschien zou het hier wat gezelliger zijn als we elkaar wat minder proberen af te zeiken op dat soort puntjes en gewoon verder gaan met de discussie. Ja, soms worden zaken dubbel gepost. Nee, dat betekent niet mensen de rest niet hebben gelezen.
Dus ik mag nu ook niet gaan zeiken over je slechte zinsbouw? :|

nVidia en IBM gaan samenwerken op GPGPU gebied

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

BenchMarkReviews.com hint dat de GTX490 een 512SP GF100 is met een prijs van $/€650
As it stands now the GeForce GTX-480 is the industry's most powerful single-GPU video card, and it comes with a premium price tag. The world has yet to see what the full 512 cores of a full-blown Fermi GPU can accomplish.

NVIDIA decided on an alternate route, and binned their GPU yields based on streaming multiprocessors. The GF100 GPU is designed to have 16 streaming multiprocessors and 512 discrete cores, yet one SMP is disabled on the GeForce GTX 480 and two SMPs are disabled on the GTX 470. It would seem that a full 16-SMP 512-core version could receive the GeForce "GTX-490" name, and a price tag around $650... and there's still room for a dual-GPU graphics card in the family.

[ Voor 63% gewijzigd door neliz op 19-05-2010 09:01 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Verwijderd

Je linkt naar een Gigabyte 5870 SOC review.... ;)
EDIT: Ahh, zie dat het in de intro genoemd wordt!

Maar die 512Sp versie zetten ze natuurlijk niet uit hun hoofd, als de mogelijkheid daar is en het enigsinds rendabel wordt om dit te produceren zullen ze het niet nalaten. Denk dat het de Nvidia mensen zelf ook wel frustreerd dat ze nu een kaart hebben die eigenlijk invalide is omdat ze een streaming multiprocessor uit hebben moeten schakelen.
Probleem wordt wel dat als ze hetzelfde voltage nodig hebben als bij de 480 (wat wel te verwachten is) deze kaart dus nog warmer wordt en nog meer stroom verbruikt. Das dus niet best.... Ben benieuwd!

[ Voor 4% gewijzigd door Verwijderd op 19-05-2010 11:27 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Volgens mij heeft dit weinig met mogelijkheden of rendabelheid te maken.

Die 512sp chips zijn gewoon de weinige Fermi chips die wel 100% werkend zijn...

[ Voor 34% gewijzigd door Format-C op 19-05-2010 11:41 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 11-09 16:54
heeft de GTX480 niet een prijs van 500 dollar meegekregen.
150 dollar voor 1/15 extra prefomance met die prijst komt hij boven de prijs van de HD5970 te liggen maar de preformance zal waarschijnlijk lager zijn gezien de benches die we tot nu toe gezien hebben.

hoe durven ze eigenlijk zulke prijzen te vragen, is hier iemand die dat uitgeeft voor deze kaart.
voor 6.7% extra preformance betaal je 30% meer.
tussen 10-15% is nog wel te overzien maar 30% dat is echt van de zotte

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 12-09 19:22
ArgantosNL schreef op woensdag 19 mei 2010 @ 12:08:
hoe durven ze eigenlijk zulke prijzen te vragen, is hier iemand die dat uitgeeft voor deze kaart.
voor 6.7% extra preformance betaal je 30% meer.
tussen 10-15% is nog wel te overzien maar 30% dat is echt van de zotte
Zolang ze voor die prijs nog steeds alles verkopen wat werkend van de lopende band afrolt snap ik wel dat ze het ervoor vragen.
Blijkbaar zijn er genoeg mensen die niet voor bang/buck gaan om deze prijs te rechtvaardigen.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

daan! schreef op woensdag 19 mei 2010 @ 12:24:
Zolang ze voor die prijs nog steeds alles verkopen wat werkend van de lopende band afrolt snap ik wel dat ze het ervoor vragen.
Blijkbaar zijn er genoeg mensen die niet voor bang/buck gaan om deze prijs te rechtvaardigen.
Waar haal jij vandaan dat nVidia alles verkoopt wat van de band rolt? Zij hebben weer enorme voorraden die blijkbaar weer per week groeien (zie laatste ConCall), lekker ouderwetse nVentory.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Als de prijs flink omlaag gaat zal de vraag vanzelf stijgen...

De prijs van de GTX280 ging ook van $650,- naar $399,- En de 260 ging toen van $399 naar $299.

Zoiets zal ook wel met de 480 en 470 gebeuren, anders raken ze ze aan de straatstenen niet kwijt denk ik. Die voorraden zijn er heus niet omdat ze er zoveel verkopen. Integendeel... Ik kan me voorstellen dat ze wel wat zenuwachtig zijn bij nV momenteel...

Voor 300 tot 350 zou ik direkt een Fermi 480 halen iig. Voor 500 tot 550 peins ik er niet over. En ik denk velen met mij. Stel je voor dat je er nu 1 koopt, en je hem over een maandje, of 2 maandjes voor 2/3e van de prijs kan krijgen. Dan baal je gewoon...

Ik heb eht al eens meegemaakt met 2 GTX280's voor 1100 euro... :| Zoiets gebeurt me niet nog een keer... ;)

[ Voor 30% gewijzigd door Format-C op 19-05-2010 12:40 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 11-09 16:54
Format-C schreef op woensdag 19 mei 2010 @ 12:35:
Ik heb eht al eens meegemaakt met 2 GTX280's voor 1100 euro... :| Zoiets gebeurt me niet nog een keer... ;)
dat deed vast pijn :+

lol als je in pricewatch kijkt voor de gtx480 zie je bijna alleen maar groen vrachtwagentjes.
was bij de introductie van de HD5xxx serie wel anders, nu nogsteeds eigenlijk :P

nu weet ik ook wel waarom NV een voorraad heeft, niet omdat ze zoveel produceren maar omdat er bijna niemand iets afneemt.

Acties:
  • 0 Henk 'm!

Verwijderd

Format-C schreef op woensdag 19 mei 2010 @ 12:35:
Ik heb eht al eens meegemaakt met 2 GTX280's voor 1100 euro... :| Zoiets gebeurt me niet nog een keer... ;)
Die achterdocht zal bij meerdere potentiele kopers meespelen al is de GTX480 al iets goedkoper geintroduceerd als de 280 aanvankelijk was. verder weten we ook niet tot hoever Nvidia kan zakken met de kaarten... De GTX260/275/285 zijn EOL gemaakt omdat ze de kaarten niet goedkoper konden aanbieden en het dus weinig zin had om ze te blijven produceren. Mag hopen dat er bij de huidige kaarten nog iets rek in zit, anders gaat het een lastig verhaal worden voor Nvidia. Mede omdat ATI haar prijzen wel relatief gemakkelijk wat omlaag kan gooien.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 12-09 01:17

edward2

Schieten op de beesten

Nog een stukje 256-driver news:

http://forum.amtech.com.v...-nvidia-256-76-32bit.html

Helaas niet veel dx11 games getest, voor zover mogelijk uiteraard, maar Metro 2033 en BF2BC had er wel bij gemogen.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Hmm, ziet er niet slecht uit voorlopig, vooral in DX11 lijkt het veel beter te gaan :)

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

edward2 schreef op woensdag 19 mei 2010 @ 16:44:
Nog een stukje 256-driver news:

http://forum.amtech.com.v...-nvidia-256-76-32bit.html

Helaas niet veel dx11 games getest, voor zover mogelijk uiteraard, maar Metro 2033 en BF2BC had er wel bij gemogen.
Blijkbaar toch nog behoorlijk wat performance verbeteringen

Acties:
  • 0 Henk 'm!

Verwijderd

nVidia to drop CUDA on GTX465?

All things being equal, how do you make a product run faster? Easy. You make it simpler. Right now, there is a rumbling in Asia that nVidia will drop CUDA. KitGuru could hardly believe its ears. nVidia drops CUDA. Now THAT is dramatic. But is it correct?
http://www.kitguru.net/co...a-to-drop-cuda-on-gtx465/

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 24-08 14:47
Ik vroeg me al af hoe lang het zou duren. Straks komt het zeker ook nog op de frontpage :'(
Sommige mensen zouden gewoon een verbod moeten krijgen om iets te schrijven over GPU's. Het is niet erg als je er weinig van af weet, maar ga dan geen nieuws schrijven. Alsof "CUDA" een simpel blokje op de GPU is, even uitzetten en de chips zijn sneller, minder heet, etcetera. Alsof GTX465 opeens een compleet nieuw ontwerp zou kunnen hebben. Alsof NVIDIA een van z'n laatste troeven weg zou gooien. Wat een onzin.

Acties:
  • 0 Henk 'm!

  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:53
Wat een onzin. Het artikel suggereert dat CUDA weggehaald zou worden en dat dit de chip simpeler maakt. Om vervolgens in de laatste paragraaf te zeggen dat nVidia dan alleen nog OpenCL gaat ondersteunen. Voor OpenCL heb je dan alleen wel dezelfde hardware nodig die je net eruit hebt gesloopt. |:(
Deze persoon heeft er echt verstand van 8)7

Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 12-09 11:51
Snoitkever schreef op woensdag 19 mei 2010 @ 17:21:
[...]

Ik vroeg me al af hoe lang het zou duren. Straks komt het zeker ook nog op de frontpage :'(
Sommige mensen zouden gewoon een verbod moeten krijgen om iets te schrijven over GPU's. Het is niet erg als je er weinig van af weet, maar ga dan geen nieuws schrijven. Alsof "CUDA" een simpel blokje op de GPU is, even uitzetten en de chips zijn sneller, minder heet, etcetera. Alsof GTX465 opeens een compleet nieuw ontwerp zou kunnen hebben. Alsof NVIDIA een van z'n laatste troeven weg zou gooien. Wat een onzin.
Nou het is niet compleet onlogisch. Je hebt gelijk dat CUDA niet een blokje is in Fermi. Echter er zijn wel een aantal functionaliteiten en delen van de GPU die wel degelijk op GPGPU zijn gericht. Het zou mij niet zoveel verbazen als ze op bijv DP FP een beetje bezuinigen. Weet niet hoeveel het aan die space kost, maar in games wordt het nauwelijks gebruikt. Alleen voor GPGPU is dit interessant...

Computer says no


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 24-08 14:47
Moshe85 schreef op woensdag 19 mei 2010 @ 17:56:
[...]

Nou het is niet compleet onlogisch. Je hebt gelijk dat CUDA niet een blokje is in Fermi. Echter er zijn wel een aantal functionaliteiten en delen van de GPU die wel degelijk op GPGPU zijn gericht. Het zou mij niet zoveel verbazen als ze op bijv DP FP een beetje bezuinigen. Weet niet hoeveel het aan die space kost, maar in games wordt het nauwelijks gebruikt. Alleen voor GPGPU is dit interessant...
Je hebt een punt, maar.... dat is niet wat het artikel suggereert. Het artikel slaat nergens op. Uiteraard zou NVIDIA een "light" versie van een chip kunnen maken met daarin minder CUDA specifieke logica. Probleem is alleen dat deze logica zo diep in alle delen van de chip is geworteld dat een dergelijk ontwerp gewoon neerkomt op een compleet herontwerp van de GPU. NVIDIA heeft juist de keuze gemaakt om dezelfde architectuur te gebruiken voor zowel hun Tesla GPGPU line als hun consumenten GPU's. Waarom? Omdat het kennelijk goedkoper is om wat extra transistoren in de Geforce kaarten te hebben dan om een compleet nieuw ontwerp te maken, testen, aanpassen, drivers schrijven, etcetera. Als je ziet hoeveel moeite NVIDIA heeft gehad met het GF100 ontwerp moet je er toch niet aan denken dat ze 2 zulke ontwerpen hadden, ook al was de Geforce variant dan ietsjes minder complex?

Daar komt natuurlijk nog bij dat er ondanks alle gekrakeel van AMD fanboys en Charlie eigenlijk maar heel weinig echte "GPGPU-logica" in GF100 zit. Dual precision is eigenlijk een van de weinige features die zo direct genoemd kan worden, samen met ECC geheugen. Verder zitten er veel andere features in GF100 die belangrijk zijn voor GPGPU, maar in de meeste gevallen maken deze features 3D graphics ook gewoon sneller. Het is niet alsof grotere cache niet goed is voor performance, om maar iets te noemen.

Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 10:10
GTX465 benchmark op xtremesystems

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Als dat de nieuwe 8800gt moet worden....

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Leuk die vergelijking met de 5830... als je kijkt naar de prijs die er straks voor gevraagd wordt, dan kan je deze beter vergelijken met de 5850 die ongeveer gelijk geprijst zal zijn...

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

Dat word me wat..

[ Voor 77% gewijzigd door pino85 op 20-05-2010 00:26 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
ArgantosNL schreef op woensdag 19 mei 2010 @ 13:29:
[...]


dat deed vast pijn :+

lol als je in pricewatch kijkt voor de gtx480 zie je bijna alleen maar groen vrachtwagentjes.
was bij de introductie van de HD5xxx serie wel anders, nu nogsteeds eigenlijk :P

nu weet ik ook wel waarom NV een voorraad heeft, niet omdat ze zoveel produceren maar omdat er bijna niemand iets afneemt.
Raar he...... GTX480 is te duur. Slechte price performance. Daar had de HD5xxx serie geen last van. Prijs performance was juist super en Hij had eyefinity en DX11. Dus veel mensen wouden die kaarten hebben.

En nu nog steeds. Doordat de prijs performance beter is (en de prijs is sowieso lager) dan die van de GTX4xx en ze lager verbruik hebben gaan veel mensen voor een HD58xx kaart. En daardoor zijn die nog steeds moeilijk te krijgen.
CJ schreef op woensdag 19 mei 2010 @ 22:46:
Leuk die vergelijking met de 5830... als je kijkt naar de prijs die er straks voor gevraagd wordt, dan kan je deze beter vergelijken met de 5850 die ongeveer gelijk geprijst zal zijn...
Het is gewoon de HD5830 van nVidia. Maar je weet hoe dat gaat he.

De 5850 wordt ook vaak vergeleken met de GTX470. Terwijl qua prijs de 5870 er veel dichter op zit. De GTX465 is net als de HD5830 niet interessant genoeg.

[ Voor 22% gewijzigd door Astennu op 20-05-2010 11:39 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 11-09 16:54
zullen we maar wachten op een neutrale review van T.net, dit is echt een proNV review/bench

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

spNk schreef op woensdag 19 mei 2010 @ 22:03:
Als dat de nieuwe 8800gt moet worden....
Nee dat moet de nieuwe 8800GT niet worden. De gf104 chip moet dat worden, dit is een gekreupelde gf100.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Nou een Nvidia nieuwtje dan maar..

Ze komen met hun eigen tablet!
http://gizmodo.com/554302...et-okay-i-could-want-this

Ziet er zeer mooi uit moet ik zeggen.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

Moet zeggen dat die er idd zeer goed uit ziet!

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Zoiets zou nou perfect zijn voor in 't vliegtuig.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

http://techpowerup.com/12...DMark_Named_Detailed.html

En een nieuwe 3d mark.. met DX11 en helaas zonder physx voor de nVidia klanten :p

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Paprika schreef op donderdag 20 mei 2010 @ 14:31:
Zoiets zou nou perfect zijn voor in 't vliegtuig.
De vraag is natuurlijk wanneer we zo iets op de markt kunnen verwachten, nVidia kan dit zelf niet uitbrengen dat zal een fabrikant als HP e.d moeten doen. Tegen de tijd dat ze het op de markt hebben is de Ipad V2.0 er. Wel een leuke fail in het hands-on filmpje ATI laptopje met slide show over hoe geweldig een nVidia product wel niet is 8)7

Acties:
  • 0 Henk 'm!

Verwijderd

Mooi toch? Onder het motto, Ati voor slideshows, nVidia voor de rest :p

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op donderdag 20 mei 2010 @ 21:34:
Mooi toch? Onder het motto, Ati voor slideshows, nVidia voor de rest :p
Voornamelijk als föhn of verwarming ;) :+

[ Voor 5% gewijzigd door madmaxnl op 21-05-2010 00:33 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Xenomorphh schreef op donderdag 20 mei 2010 @ 19:20:
http://techpowerup.com/12...DMark_Named_Detailed.html

En een nieuwe 3d mark.. met DX11 en helaas zonder physx voor de nVidia klanten :p
Dat werd tijd weg met die troep en dat voortrekken. Gewoon alles eerlijk houden. Anders heb je niets aan zo'n test. Een beetje de CPU test lopen versnellen met de GPU om hogere scores te krijgen. En ga nou niet zeggen dat dat ook met games kan. Want die CPU test is nogal licht voor GPU (qua renderen) dus de GPU heeft extreem veel power over voor andere dingen.

Het is interessanter om iets van DX Compute of OpenCL te gebruiken wat alle DX11 kaarten ondersteunen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Astennu schreef op vrijdag 21 mei 2010 @ 08:04:
[...]


Dat werd tijd weg met die troep en dat voortrekken. Gewoon alles eerlijk houden. Anders heb je niets aan zo'n test. Een beetje de CPU test lopen versnellen met de GPU om hogere scores te krijgen. En ga nou niet zeggen dat dat ook met games kan. Want die CPU test is nogal licht voor GPU (qua renderen) dus de GPU heeft extreem veel power over voor andere dingen.

Het is interessanter om iets van DX Compute of OpenCL te gebruiken wat alle DX11 kaarten ondersteunen.
Helaas had ik niet goed gelezen en staat er dat het niet genoemd is. Ik zou ook graag zien dat er geen PhysX in zou zitten.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Xenomorphh schreef op vrijdag 21 mei 2010 @ 08:18:
[...]


Helaas had ik niet goed gelezen en staat er dat het niet genoemd is. Ik zou ook graag zien dat er geen PhysX in zou zitten.
Inderdaad helaas staat dat er was mooi geweest als het er zeker niet in zou zitten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

DH bericht over de GTX460 launch in mid-juli (Driekwart gieg RAM, 192 bit bus.)

Ik kreeg dit vandaag ook via een andere betrouwbare bron te horen dus.. nog even geduld met deze nieuwe 8800GT.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Verwijderd

Maar ik denk niet dat het de nieuwe 8800GT wordt. In die tijd was er namelijk weinig concurrentie. De kaart was onverslaanbaar in prestaties, en zeker voor de prijs. Nu heeft AMD gewoon veel betere kaarten. Vergeleken met vroeger, maar ik denk zelfs vergeleken met nVidia. Hij zal zeker niet beter presteren dan de HD5850 en met een prijsverlaging die AMD zich gemakkelijk kan permitteren is hier zeer lastig tegen op de boxen wat betreft prijs/ performance.

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 12-09 14:44

superwashandje

grofheid alom

nouja, de gtx460 krijgt toch een gf104? die zal ook kleiner en goedkoper (te verkopen met winst) zijn dan gf100.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Verwijderd schreef op zaterdag 22 mei 2010 @ 01:14:
Maar ik denk niet dat het de nieuwe 8800GT wordt. In die tijd was er namelijk weinig concurrentie. De kaart was onverslaanbaar in prestaties, en zeker voor de prijs. Nu heeft AMD gewoon veel betere kaarten. Vergeleken met vroeger, maar ik denk zelfs vergeleken met nVidia. Hij zal zeker niet beter presteren dan de HD5850 en met een prijsverlaging die AMD zich gemakkelijk kan permitteren is hier zeer lastig tegen op de boxen wat betreft prijs/ performance.
Hij zal ook niet beter presteren dan een GTX465. Ik denk dat ze gewoon hun standaard strategie toepassen en tegen het eind van het jaar, als je yields goed zijn een aantal GF100 producten uitfaseren ten faveure van GF104 producten met beter yields.

Qua "goedkoop en winst", wat ik begreep blijft een GF104 duurder dan een Cypress, voornamelijk omdat hij groter is. Prijs/prestatie wordt dus beter (tov GTX465) voor nVidia, maar het is nog altijd een achterstand. Ook ben ik er nog niet van overtuigd dat deze kaarten zuiniger worden dan de HD5 serie.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Verwijderd

Om maar niet te vergeten dat de eerste geruchten voor de HD6xxx serie alweer binnen beginnen te druppelen. Nu zullen die ook op 40nm zijn dus is de winst relatief kleiner, maargoed, het wel alweer een generatie verder.

[ Voor 34% gewijzigd door Verwijderd op 22-05-2010 17:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Neliz! Als ze prijs/ prestatie achter AMD aan moeten lopen en de verbruik/ prestatie ook ondermaats is, hoe kan dit dan ooit de nieuwe 8800GT worden!? Als iets het is, dan zou ik zeggen de HD5850!

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Verwijderd schreef op zaterdag 22 mei 2010 @ 17:45:
Neliz! Als ze prijs/ prestatie achter AMD aan moeten lopen en de verbruik/ prestatie ook ondermaats is, hoe kan dit dan ooit de nieuwe 8800GT worden!? Als iets het is, dan zou ik zeggen de HD5850!
Dat heet marketing.. nVidia heeft zelf nooit gezegd dat het de nieuwe 8800GT is dat is weer via via en geruchten sites.

Zo houden ze mensen af van het kopen van een kaart nu en verwachten ze dat mensen in July nog steeds dat idee vast houden "GF104=Goede prijs/prestatie" Ook al zeggen de benchmarks op dat moment anders, op dat moment krijg je weer "ja maar de drivers etc."

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Verwijderd

neliz schreef op zaterdag 22 mei 2010 @ 18:18:
[...]


Dat heet marketing.. nVidia heeft zelf nooit gezegd dat het de nieuwe 8800GT is dat is weer via via en geruchten sites.

Zo houden ze mensen af van het kopen van een kaart nu en verwachten ze dat mensen in July nog steeds dat idee vast houden "GF104=Goede prijs/prestatie" Ook al zeggen de benchmarks op dat moment anders, op dat moment krijg je weer "ja maar de drivers etc."
Modbreak:Het niet eens zijn met een statement mag uiteraard, maar dan laat je dat wel weten op een manier waarmee je niet direct op de man speelt. Check je PM.

[ Voor 14% gewijzigd door Ultraman op 23-05-2010 11:06 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Modbreak:Slechte reageren op een slechte reactie, is nog steeds slecht reageren. Check je PM.

[ Voor 83% gewijzigd door Ultraman op 23-05-2010 11:07 ]


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

En jij weet beter, want? m.a.w. formuleer maar eens een tegenargument.

Alles wat wij weten staat haaks op de argumenten die gebruikt worden in de geruchten.


bijvoorbeeld:
Hoe kan een GF104 X2 kaart (2x niveau GTX285/HD5830) sneller zijn dan een HD5970 (2x HD5870)?

En toch hapt iedereen graag als dit via nVidia bij een journalist gesuggereerd wordt.

[ Voor 53% gewijzigd door Ultraman op 23-05-2010 11:07 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 12-09 01:17

edward2

Schieten op de beesten

Tsja er wordt in dit topic ook vooral negatieve kanten belicht van de GTX4xx serie. Dat dit de enige GPU is die;

-echte trilineaire AF biedt itt ATI's brilineare AF, ook al is die hoekonafhankelijk, dat wordt teniet gedaan door de agressive optimalisaties;
-fullscene SSAA biedt in DX10/11;
-veel sneller is in zware tessalation omstandigheden;
-zeer flexibel is in AA- en SLI profielen deels door nHancer;
-min framerates in multi GPU veel hoger zijn dan in crossfire;
-perf./watt die zelden liniair verloopt.


zie ik veel minder.

Ik ben het eens dat ATI een effieciëntere oplossing biedt, maar ik als gebruiker die puur op IQ, perf. en flexibiliteit let, en wat minder op €, geeft momenteel toch echt de voorkeur aan GTX480 SLI.

Er is nu bv. een SLI profiel voor Metro2033 die in HD en 4xMSAA gewoon 60 fps geeft. Er is tevens een AA flag die AA geeft in Wolfenstein. Dat is voor mij als gamer een groot pluspunt.

Morgen misschien de 256xx drivers, en die gaan idd vooral in dx11 flinke perf. verbeteringen geven.

Met SI meld ik me weer bij ATI.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

edward2 schreef op maandag 24 mei 2010 @ 01:21:
Morgen misschien de 256xx drivers, en die gaan idd vooral in dx11 flinke perf. verbeteringen geven.
Ehm, volgens mij zijn de 256 drivers uitgesteld naar July (GF104 launch) en is er sprake van dat nVidia's "Eyefinity" er uit wordt gesloopt omdat het teveel problemen geeft.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 30-08 18:22
Je moet jezelf natuurlijk niet als spiegelbeeld voor de halve computerende wereldbevolking nemen. Dat het voor jou in die paar punten de beste oplossing is, doet niets af aan het feit dat het globale GTX480(SLI) plaatje voor gamers eerder negatief is. Dat hier dan de negatieve kanten meer belicht worden, is niet meer dan een logisch gevolg.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Verwijderd

Het zou kunnen dat in de loop van deze week reeds de officiële 256 driver verschijnt omdat er al een 257 beta driver beschikbaar is.

-> http://forums.laptopvideo...on-25715-driver-released/
-> http://www.evga.com/forums/tm.aspx?m=382809

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 12-09 01:17

edward2

Schieten op de beesten

Noel schreef op maandag 24 mei 2010 @ 02:06:
Je moet jezelf natuurlijk niet als spiegelbeeld voor de halve computerende wereldbevolking nemen. Dat het voor jou in die paar punten de beste oplossing is, doet niets af aan het feit dat het globale GTX480(SLI) plaatje voor gamers eerder negatief is. Dat hier dan de negatieve kanten meer belicht worden, is niet meer dan een logisch gevolg.
Dat begrijp ik best, maar voor het volledige plaatje vond ik dit wel het vermelden waard.

De 256xx drivers:

http://www.nvnews.net/vbu...php?p=2256849#post2256849

Later vanavond eens even testen.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

edward2 schreef op maandag 24 mei 2010 @ 13:04:
[...]


Dat begrijp ik best, maar voor het volledige plaatje vond ik dit wel het vermelden waard.
En dat is zeker ook wel ns goed om te horen. Er zijn immers ook dingen die ATI nog beter kan doen.
De 256xx drivers:

http://www.nvnews.net/vbu...php?p=2256849#post2256849

Later vanavond eens even testen.
Ben benieuwd of deze hun hogere versienummer echt waard zijn.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

http://www.fudzilla.com/content/view/18906/1/

Good lord... 375watt TDP... :|

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Ik denk dat er een goede kans is dat deze nieuwe dual-chip-kaart niet eens zal goed zal performen als een HD5970. Dan zie ik niet echt een reden om hem uit te brengen. Op verbruik zal hij ook niet kunnen concurreren en nVidia inschattende: ook niet op prijs.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 24 mei 2010 @ 16:46:
Ik denk dat er een goede kans is dat deze nieuwe dual-chip-kaart niet eens zal goed zal performen als een HD5970.
Waarop baseer je dat dan? De 5970 is een leuke kaart, maar als je naar de performance van een 480 kijkt zouden twee van die chips op één kaart toch best ver moeten kunnen komen. Of je het ook wil is een tweede, want volgens mij valt de TDP niet eens meer binnen ATX-specificaties.

Ik dacht dat we eindelijk een beetje klaar waren met almaar meer verbruikende videokaarten.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik dacht dat we het net hadden bijgelegd? Nu goed. Maar het feit is dat hier 2x GTX460 opkomen die nog zwakker zijn dan GTX470's welke weer zwakker zijn HD5870. Een HD5970 is 2x HD5870 dus beter dan 2x GTX460.

Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 12-09 08:26
Verwijderd schreef op maandag 24 mei 2010 @ 17:21:
Ik dacht dat we het net hadden bijgelegd? Nu goed. Maar het feit is dat hier 2x GTX460 opkomen die nog zwakker zijn dan GTX470's welke weer zwakker zijn HD5870. Een HD5970 is 2x HD5870 dus beter dan 2x GTX460.
Een HD 5970 = 2x HD 5850, zoals zoveel test al uitgewezen hebben. Afhankelijk van hoeveel zwakker de GTX 460 wordt ten opzichte van de GTX 470, zal het er om hangen of een GTX 490 sneller is dan een HD 5970.

Acties:
  • 0 Henk 'm!

Verwijderd

Ja, maar luister eens: de HD5850 crossfire is enkel net zo snel omdat het twee kaarten apart zijn met elk hun aparte PCI-E bus. Dit voordeel heb je niet op een dual GPU kaart dus een GTX490 zal ook niet zo goed presteren als een GTX460 in SLI.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 24 mei 2010 @ 17:21:
Ik dacht dat we het net hadden bijgelegd? Nu goed. Maar het feit is dat hier 2x GTX460 opkomen die nog zwakker zijn dan GTX470's welke weer zwakker zijn HD5870. Een HD5970 is 2x HD5870 dus beter dan 2x GTX460.
Kritische vragen stellen is geen ruzie maken ;)

Op zich klinkt je redenatie logisch, maar ik ben bang dat het niet zo simpel is. Hoewel de 5970 twee 5870's is blijkt zoals Marc hierboven al zegt dat twee 5850's soms sneller zijn.

Ik denk ook dat nVidia zich wel twee keer op z'n hoofd krabt voor een kaart die inferieur is aan Ati's kaart uit uit te brengen. Het zou kunnen, maar dat zou wel een klap in het gezicht van nVidia zijn. Ik denk dat nVidia gewoon heel wat te bewijzen heeft en je daarom niet zo makkelijk enige aanname over nieuwe kaarten kunt maken :) Misschien schudden zo nog een aas uit hun mouw: cherry picked GPU's, betere chips omdat het bakproces beter op de rails staat, een dikke overclock met een achterlijk stroomverbruik, je weet het niet.

Dus hoewel ik je gelijk moet geven dat nVidia een flinke kluif heeft aan het creëren van iets dat de 5970 verslaat zou ik het niet zo makkelijk uitsluiten. Een kat in het nauw maakt rare sprongen, denk ik dan maar.

[ Voor 4% gewijzigd door Verwijderd op 24-05-2010 18:13 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Wat ik ook denk is dat de HD5870 gewoon intern (binnen de chip!) bandbreedte problemen heeft. Dit verklaart waarom de architectuur van AMD niet zo goed meer meeschaalt richting de 1600 shaders. Ik denk dat een HD5850 op HD5870 speeds zich redelijk kan meten. Dit verklaart ook meteen waarom het voor AMD de moeite waard is een GPU uit te brengen welke enkel een nieuwe uncore heeft. Het enigste wat de uncore eigenlijk moet doen is data zo snel en efficient mogelijk rond verplaatsen binnen de chip en naar het geheugen. Als dit geen bottleneck was, dan was het het helemaal niet interessant om een Southern Islands uit te brengen. Dit bevestigd dus mijn punt dat de HD5870 intern massief gebottleneckt wordt. Zodra dat eenmaal op orde is, dan zullen we wel zien dat de 1600 shaders zo goed als lineair schalen. De toekomstige HD5870 met nieuwe uncore zal dus 2x zo snel zijn als de HD4870.

Dus ookal komt nVidia met een kaart die iets sneller is, tegen hoger verbruik en prijs, dan heeft AMD gewoon deze koningschip die zo de grond gelijkt maakt met alles en dan houdt nVidia 0% marktaandeel over omdat die chip gewoon te goed wordt.

En trouwens Camacha we zijn cool, ik kan je DM niet vinden op tweakers meer ik had hem wel gelezen maar dat kwam omdat hij toen bovenin beeld kwam. Als je hem 1x hebt gelezen is hij weg ofzo. Ik had je opmerkingen jegens AMD inderdaad wat te persoonlijk opgevat en toen je het uitlegde toen snapte ik het wel en besefde ik dat wel een beetje te snel boos was geworden.

Groeten,

OneOverPrime

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 24 mei 2010 @ 18:24:
Wat ik ook denk is dat de HD5870 gewoon intern (binnen de chip!) bandbreedte problemen heeft. Dit verklaart waarom de architectuur van AMD niet zo goed meer meeschaalt richting de 1600 shaders. Ik denk dat een HD5850 op HD5870 speeds zich redelijk kan meten. Dit verklaart ook meteen waarom het voor AMD de moeite waard is een GPU uit te brengen welke enkel een nieuwe uncore heeft. Het enigste wat de uncore eigenlijk moet doen is data zo snel en efficient mogelijk rond verplaatsen binnen de chip en naar het geheugen. Als dit geen bottleneck was, dan was het het helemaal niet interessant om een Southern Islands uit te brengen. Dit bevestigd dus mijn punt dat de HD5870 intern massief gebottleneckt wordt. Zodra dat eenmaal op orde is, dan zullen we wel zien dat de 1600 shaders zo goed als lineair schalen. De toekomstige HD5870 met nieuwe uncore zal dus 2x zo snel zijn als de HD4870.
Ik denk inderdaad wel dat Ati nu flink moet gaan optimaliseren. Ze hebben niet het voordeel met een kleiner proces in de weer te kunnen (wat ook wel zekere nadelen oplevert, maar per saldo meestal dikke winst is) dus nu zullen ze goed moeten kijken naar verbeteringen zonder de die-size (al te veel) te vergroten.
Dus ookal komt nVidia met een kaart die iets sneller is, tegen hoger verbruik en prijs, dan heeft AMD gewoon deze koningschip die zo de grond gelijkt maakt met alles en dan houdt nVidia 0% marktaandeel over omdat die chip gewoon te goed wordt.
Ik denk dat nVidia nooit richting de 0% procent zal gaan. Er blijkt en stevige basis mensen te zijn die toch altijd een nVidia-kaart wil hebben, omdat nVidia nou eenmaal een goede reputatie heeft opgebouwd, of dat op dat moment nou terecht is of niet. Ik verbaas me er soms over dat mensen gewoon zitten te wachten op de nieuwe nVidia kaart die de moeite waard zou kunnen zijn en Ati daarbij volkomen links laten liggen. Daarnaast houden OEMs ook van nVidia, omdat die naam vooral bij het publiek dat minder van één en ander op de hoogte is wel een selling point blijft (net als Intel bijvoorbeeld).

Maar ik denk dat als Ati nu redelijk vlug met de 6xxx serie op de proppen komt en daar de enorm stijgende lijn die ze de laatste tijd hebben laten zien voortzet dat nVidia het in het topsegment behoorlijk zwaar gaat krijgen, inderdaad. Schrale troost voor nVdia is wel dat dat maar een relatief klein stukje van de markt is, al doet reputatie en image ook wel wat.
En trouwens Camacha we zijn cool, ik kan je DM niet vinden op tweakers meer ik had hem wel gelezen maar dat kwam omdat hij toen bovenin beeld kwam. Als je hem 1x hebt gelezen is hij weg ofzo. Ik had je opmerkingen jegens AMD inderdaad wat te persoonlijk opgevat en toen je het uitlegde toen snapte ik het wel en besefde ik dat wel een beetje te snel boos was geworden.
Geen probleem :) Bovenin beeld onder het tabje forum zou het kopje direct messages moeten staan. Als je daar op klikt kan je je DM's teruglezen :)

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Verwijderd schreef op maandag 24 mei 2010 @ 18:40:
Ik denk dat nVidia nooit richting de 0% procent zal gaan.
Nee, als het zo door gaat met meer bang-for-buck bij evergreen, en mogelijk bij SI en NI dan is het misschien 50/50.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Verwijderd

Waarom heeft nVidia zoveel marktaandeel met zulke slechte kaarten?

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 24 mei 2010 @ 19:40:
Waarom heeft nVidia zoveel marktaandeel met zulke slechte kaarten?
Ja inderdaad dat vraag ik mij ook af :o

Somebody enlighten us pls ^^ !
Afbeeldingslocatie: http://www.we-wi.be/Images/omg_cat.gif

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 24 mei 2010 @ 19:40:
Waarom heeft nVidia zoveel marktaandeel met zulke slechte kaarten?
OEM 's en TSMC kan niet genoeg genoeg kaarten maken.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Wellicht omdat nVidia vooral met de 8800 serie erg veel goede zaken heeft gedaan in het mindshare-gebeuren, waardoor het heel erg lang kan duren eer de competitie weer een wat stevigere voet aan de grond kan krijgen. Bedenk vooral dat het bij OEMs het geval is dat ze slechts zo nu en dan contracten afsluiten, maar dan wel voor heel erg veel kaarten in 1 keer. Daar zie je langzaamaan de kentering komen voor nVidia, dankzij een erg sterke HD4k serie en een volledige DX11 lijn. Die laatste zul je vooral terug zien in de 2e helft van het jaar, met nieuwe systemen, waardoor AMD behoorlijk wat extra marktaandeel terug kan snoepen. Temeer omdat nVidia gewoonweg niets interessants heeft om tegenover de HD5750 of lager in te zetten.

Bedenk overigens dat 8.2% marktaandeel winnen in 1 kwartaal geen kattepis is. Het geeft heel goed aan dat er een ommezwaai gaande is. Waar het eindigt is moeilijk in te schatten en zal ook erg afhangen van nVidia's mogelijkheden om de lagere marktsegmenten van DX11 kaarten te voorzien.

Er zijn nog tal van andere zaken aan te brengen, maar de hoofdlijn is toch wel dat zowel OEM alswel consument niet van de een op de andere dag direct op een ander merk overspringen. Wanneer ze dit echter wel doen, kan het heel moeilijk zijn om ze weer terug te halen.

Acties:
  • 0 Henk 'm!

Verwijderd

bwerg schreef op maandag 24 mei 2010 @ 19:27:
Nee, als het zo door gaat met meer bang-for-buck bij evergreen, en mogelijk bij SI en NI dan is het misschien 50/50.
Laat ik mijzelf even corrigeren.Richting 0% gaat het al een tijdje met nVidia, maar ik denk dat ze er nooit dicht in de buurt gaan komen. Maar hoe dichter je bij een gezonde ~50/~50 uitkomt hoe beter, me dunkt. Niets beter voor de consument dan een stevige concurrentiestrijd :Y

Misschien dat nVidia dan ook eindelijk eens van die verachtelijke praktijken afstapt als je drivers incompatible maken met die van de concurrent en zo je klanten minder opties geven. Het zegt in mijn ogen veel over een bedrijf als het niet op eigen kwaliteiten kan winnen maar daarvoor in de plaats smerige trucs om de concurrent én consument dwars te zitten moet terugvallen.

Daarmee heeft nVdia veel goodwill bij mij kwijtgespeeld. Ik vind PhysX en de mogelijkheden in CS5 echt heel interessant, maar zulke onderhandse praktijken gecombineerd met relatief weinig bang-for-the-buck zorgen ervoor dat het momenteel geen serieuze overweging waard is.
Verwijderd schreef op maandag 24 mei 2010 @ 20:18:
TSMC kan niet genoeg genoeg kaarten maken.
Want TSMC maakt geen kaarten voor nVidia? Momenteel ligt het productievoordeel bij Ati, omdat die met evenveel wafers méér chips kunnen uitleveren.

[ Voor 29% gewijzigd door Verwijderd op 24-05-2010 20:31 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 24 mei 2010 @ 20:26:
[...]
Want TSMC maakt geen kaarten voor nVidia? Momenteel ligt het productievoordeel bij Ati, omdat die met evenveel wafers méér chips kunnen uitleveren.
nV heeft ook kaarten naast fermi op 40nm. Op het moment gebruikt ATI zijn wafers voor de hd 58xx reeks omdat die het meest winstgevend zijn. Als TSMC ergens in de zomer zijn 3de fab opent dan kunnen ze pas de OEM overspoelen met kaarten.

Acties:
  • 0 Henk 'm!

  • -AzErTy-
  • Registratie: Oktober 2005
  • Laatst online: 12-08 15:23
Verwijderd schreef op maandag 24 mei 2010 @ 20:26:
[...]

Laat ik mijzelf even corrigeren.Richting 0% gaat het al een tijdje met nVidia, maar ik denk dat ze er nooit dicht in de buurt gaan komen. Maar hoe dichter je bij een gezonde ~50/~50 uitkomt hoe beter, me dunkt. Niets beter voor de consument dan een stevige concurrentiestrijd :Y

Misschien dat nVidia dan ook eindelijk eens van die verachtelijke praktijken afstapt als je drivers incompatible maken met die van de concurrent en zo je klanten minder opties geven. Het zegt in mijn ogen veel over een bedrijf als het niet op eigen kwaliteiten kan winnen maar daarvoor in de plaats smerige trucs om de concurrent én consument dwars te zitten moet terugvallen.

Daarmee heeft nVdia veel goodwill bij mij kwijtgespeeld. Ik vind PhysX en de mogelijkheden in CS5 echt heel interessant, maar zulke onderhandse praktijken gecombineerd met relatief weinig bang-for-the-buck zorgen ervoor dat het momenteel geen serieuze overweging waard is.
Het is wel iets te makkelijk om zo maar van verachtelijke praktijken te spreken van Nvidia's kant vind ik.
Nvidia houdt developers een zak met geld voor en zegt:" Kunnen jullie dit voor ons doen?" Als de developer daar dan op in gaat tja dan ligt de verantwoordelijkheid toch bij hun lijkt me. Kan je beter spreken van verachtelijke bedrijven als Rocksteady en Adobe en niets houdt AMD tegen hetzelfde te doen.

Je kan de rollen ook omkeren en stellen dat AMD gewoon te cheap is om geld te smijten tegen een open standaard die kan concurreren met PhysX. Maarja dan moet AMD geld uitgeven aan iets waar Nvidia indirect van mee profiteert.

Trouwens hoe zou je zelf zijn, jij geeft geld uit en stuurt eigen ingenieurs/informatici ter plaatse en zou dan zomaar moeten zorgen dat je grootste concurrent hiervan mee profiteert? Dat is toch een beetje van de zotte hoor imho. Nvidia is geen liefdadigheidsinstelling voor alle gamers wereldwijd..

God does not play dice


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Verwijderd schreef op maandag 24 mei 2010 @ 18:24:
Wat ik ook denk is dat de HD5870 gewoon intern (binnen de chip!) bandbreedte problemen heeft. Dit verklaart waarom de architectuur van AMD niet zo goed meer meeschaalt richting de 1600 shaders. Ik denk dat een HD5850 op HD5870 speeds zich redelijk kan meten. Dit verklaart ook meteen waarom het voor AMD de moeite waard is een GPU uit te brengen welke enkel een nieuwe uncore heeft. Het enigste wat de uncore eigenlijk moet doen is data zo snel en efficient mogelijk rond verplaatsen binnen de chip en naar het geheugen. Als dit geen bottleneck was, dan was het het helemaal niet interessant om een Southern Islands uit te brengen. Dit bevestigd dus mijn punt dat de HD5870 intern massief gebottleneckt wordt. Zodra dat eenmaal op orde is, dan zullen we wel zien dat de 1600 shaders zo goed als lineair schalen. De toekomstige HD5870 met nieuwe uncore zal dus 2x zo snel zijn als de HD4870.

Dus ookal komt nVidia met een kaart die iets sneller is, tegen hoger verbruik en prijs, dan heeft AMD gewoon deze koningschip die zo de grond gelijkt maakt met alles en dan houdt nVidia 0% marktaandeel over omdat die chip gewoon te goed wordt.

En trouwens Camacha we zijn cool, ik kan je DM niet vinden op tweakers meer ik had hem wel gelezen maar dat kwam omdat hij toen bovenin beeld kwam. Als je hem 1x hebt gelezen is hij weg ofzo. Ik had je opmerkingen jegens AMD inderdaad wat te persoonlijk opgevat en toen je het uitlegde toen snapte ik het wel en besefde ik dat wel een beetje te snel boos was geworden.

Groeten,

OneOverPrime
Der zijn een paar dingen die je vergeet. Er zijn meer dingen dan shaders en geheugen bandbreedtes, namelijk raster engine's etc. dit speelt ook een zware rol bij de performance. Zie die tessalation unit van ATI. Die bottleneckt gewoon hard bij unigine heaven benchmark, waar tessalation dus extreem is. Maar volgens mij zei CJ dat ze de capaciteit van de tessalation unit gingen verdubbelen bij SI of NI (even vergeten :z).

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
-AzErTy- schreef op maandag 24 mei 2010 @ 22:31:
Kan je beter spreken van verachtelijke bedrijven als Rocksteady en Adobe en niets houdt AMD tegen hetzelfde te doen.
Voor wat mij bijstaat zal Adobe in de toekomst puur OpenCL gaan gebruiken, maar was de standaard nog niet beschikbaar tijdens het ontwikkelproces van CS5. De toekomst zou dus geen voordeel voor welke van de twee bedrijven (AMD danwel nVidia) opleveren
Je kan de rollen ook omkeren en stellen dat AMD gewoon te cheap is om geld te smijten tegen een open standaard die kan concurreren met PhysX. Maarja dan moet AMD geld uitgeven aan iets waar Nvidia indirect van mee profiteert.
Gewoon ergens een zak geld tegenaan gooien levert je niet automagisch een open standaard op. AMD doet momenteel genoeg om Open Physics te bewerkstelligen, die over OpenCL draaien. nVidia had er ook voor kunnen kiezen om PhysX over OpenCL te laten draaien, maar koos voor bescherming en daarmee voor buitensluiten van een deel van de markt, ten faveure van marketing.
Trouwens hoe zou je zelf zijn, jij geeft geld uit en stuurt eigen ingenieurs/informatici ter plaatse en zou dan zomaar moeten zorgen dat je grootste concurrent hiervan mee profiteert? Dat is toch een beetje van de zotte hoor imho. Nvidia is geen liefdadigheidsinstelling voor alle gamers wereldwijd..
De ontwikkelingen die AMD momenteel doet en ondersteunt aangaande open physics en andere open platformen kunnen ook geheel ten goede komen van nVidia, zonder dat AMD daar iets voor terug ziet. Het kan dus wel.

Boven alles denk ik dat Camacha meer doelde op het bewust onmogelijk maken van het draaien van PhysX op een nVidia-kaart, wanneer er een AMD kaart in het systeem zit (al dan niet voor het renderen van de 3d beelden). Er zijn wel meer van dit soort voorbeeldjes te verzinnen. Daarbij denk ik al gauw aan het 3D Vision Surround gebeuren dat ze 'snel' even aankondigden nadat AMD Eyefinity had getoond. Al vrees ik dat de problemen met de drivers die ze tot nog toe hebben er voor zal zorgen dat ze wellicht uiteindelijk 'gedwongen' worden door de markt om eyefinity-compliant multidisplay te gaan ondersteunen.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

GTX465 preview met benchmarks
There is a chance that newer drivers may improve the performance of the GeForce GTX 465 but so far it is not impressive at all. The new card is about as fast as the GeForce GTX 275 at resolutions up to 1920x1080 inclusive and inferior to the latter at 2560x1600
However, it is already clear that the Nvidia GeForce GTX 465 won’t be a success in its current form. At a recommended price of $279, it is but slightly cheaper than the Radeon HD 5850 but has a lower performance, comparable to that of the GeForce GTX 275. We guess a potential buyer is more likely to add $20 to buy the more expensive product from AMD instead of the new card from Nvidia.

[ Voor 77% gewijzigd door neliz op 25-05-2010 00:03 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Verwijderd

Spijtig dat ze het verbruik en geluid niet hebben getest.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Verwijderd schreef op dinsdag 25 mei 2010 @ 00:09:
Spijtig dat ze het verbruik en geluid niet hebben getest.
Het is slechts een preview.. maar ga er maar niet vanuit dat dit laag is

[ Voor 10% gewijzigd door neliz op 25-05-2010 00:10 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Tjonge, 352 shaders...en niet eens sneller dan een GTX275. Wat heeft Nvidia toch bezield om zo'n ongebalanceerde architectuur te maken wat betreft texture unit/shader verhouding.
Misschien wel goed in toekomstige DX11 games, maar komt nu toch wel erg tekort als ik dit zo zie.

anathema


Acties:
  • 0 Henk 'm!

Verwijderd

-AzErTy- schreef op maandag 24 mei 2010 @ 22:31:
Het is wel iets te makkelijk om zo maar van verachtelijke praktijken te spreken van Nvidia's kant vind ik.
Nvidia houdt developers een zak met geld voor en zegt:" Kunnen jullie dit voor ons doen?" Als de developer daar dan op in gaat tja dan ligt de verantwoordelijkheid toch bij hun lijkt me. Kan je beter spreken van verachtelijke bedrijven als Rocksteady en Adobe en niets houdt AMD tegen hetzelfde te doen.
Dat is niet wat ik bedoelde, maar dahakon zegt het goed:
dahakon schreef op maandag 24 mei 2010 @ 23:19:
Voor wat mij bijstaat zal Adobe in de toekomst puur OpenCL gaan gebruiken, maar was de standaard nog niet beschikbaar tijdens het ontwikkelproces van CS5. De toekomst zou dus geen voordeel voor welke van de twee bedrijven (AMD danwel nVidia) opleveren
Ik vind de move van Adobe teleurstellend, maar ze hebben al aangegeven dat OpenCL gewoonweg niet op tijd klaar ging zijn. Dat heeft niets met voorkeur te maken maar vooral met je klanten zo snel mogelijk zo veel mogelijk geven. Adobe neemt hun klanten dus wel serieus, want ik denk dat Adobe net even te groot is en te veel te verliezen heeft om hier doelbewust en onnodig een deel van hun klantenbestand uit te sluiten. Ik denk echter wel dat nVidia hier heel blij mee is in verder barre tijden.
dahakon schreef op maandag 24 mei 2010 @ 23:19:
Boven alles denk ik dat Camacha meer doelde op het bewust onmogelijk maken van het draaien van PhysX op een nVidia-kaart, wanneer er een AMD kaart in het systeem zit (al dan niet voor het renderen van de 3d beelden). Er zijn wel meer van dit soort voorbeeldjes te verzinnen. Daarbij denk ik al gauw aan het 3D Vision Surround gebeuren dat ze 'snel' even aankondigden nadat AMD Eyefinity had getoond. Al vrees ik dat de problemen met de drivers die ze tot nog toe hebben er voor zal zorgen dat ze wellicht uiteindelijk 'gedwongen' worden door de markt om eyefinity-compliant multidisplay te gaan ondersteunen.
Dat is inderdaad wat ik bedoelde en er zijn zoals je zegt nog wel een paar andere voorbeelden te vinden van nVidia dat krampachtig tegen de concurrent aan het aanschoppen is. Ik vind het prima dat ze PhysX gesloten maken, al is dat uiteindelijk niet eens in hun eigen voordeel (want ontwikkelaars beginnen er nauwelijks aan) maar blijf dan in godsnaam van het Ati spul af. Zorg als bedrijf dat je eigen drivers je eigen apparaten aansturen en ga niet moedwillig de concurrentie saboteren. Dan neem je je klanten daadwerkelijk niet serieus, wat ik persoonlijk toch altijd wel belangrijk vind en bovendien laat het zien dat je als bedrijf blijkbaar bar weinig vertrouwen hebt in de selling points van je bedrijf.

Het zorgt er trouwens zelfs voor dat ík in ieder geval geen nVidia kaart koop. Als PhysX naast Ati had kunnen draaien zonder gedoe dan had ik er vrij zeker zo'n kaartje naast geprikt, maar omdat ik door hun moeilijke gedrag geen garanties heb wat betreft de werking hoeft het van mij niet meer. Voor mij persoonlijk is het het grote nieuwe ding naast tesselation dat een echte verbetering wat betreft spelervaring gaat brengen.

Wat mij betreft werken dit soort zaken alleen maar averechts: ontwikkelaars beginnen niet aan PhysX of passen het heel minimaal toe omdat ze maar een vrij klein deel van de mark ermee kunnen bedienen en mensen kopen hun kaarten niet omdat ze dan niets meer met Ati mogen doen. Ik snap best dat je niet zomaar dingen aan je concurrenten gaat geven, het zijn wel zaken, maar dit is in mijn ogen geen fatsoenlijke manier van concurreren.

Ik kan er echt een beetje boos over worden, merken jullie het :p

[ Voor 3% gewijzigd door Verwijderd op 25-05-2010 00:26 ]


Acties:
  • 0 Henk 'm!

  • -AzErTy-
  • Registratie: Oktober 2005
  • Laatst online: 12-08 15:23
Ik begrijp je punt hoor maar ik kijk er gewoon iets toleranter tegenaan.
Over het ati + nvidia voor PhysX, dat was ik eerlijk vergeten dat nvidia die mogelijkheid in de hun drivers disabled heeft :F . Hacked drivers voor de win zeker? Maar inderdaad niet echt een klantvriendelijke beslissing...

God does not play dice


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 30-08 18:22
http://techreport.com/discussions.x/18968

Voor hun omzet/winst/marktaandeel gaan ze volgens mij rekenen op goedkopere mainstream kaarten (single GF104), een GTX465 die daar net boven hangt en een topmodel voor de fans (GTX480 en/of een dual GF104).

En misschien een echte Fermi2 (dus niet de GF104) over een jaartje ofzo?

[ Voor 5% gewijzigd door Noel op 25-05-2010 14:58 ]

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
NV heeft overigens de eerste officiele aankondiging gedaan over hun DX11 mobiele GPU, de GTX 480M... die gebaseerd is op de GTX465. Dus 352 SPs, 256-bit MC, maar op erg lage kloksnelheden... 425Mhz core, 850Mhz shaders en 1200Mhz GDDR5.

http://www.slashgear.com/...-notebooks-outed-2586984/
http://www.electronista.c....wins.mobile.speed.crown/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
Die dual GPU kaart die nvidia uit wil brengen zou 375 watt verstoken?!?! :o

Ik vraag me af of dat nou zo verstandig is, een kaart maken die buiten de PCI-E standaard valt :/

Specs


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 24-08 14:47
Naluh! schreef op dinsdag 25 mei 2010 @ 17:31:
Die dual GPU kaart die nvidia uit wil brengen zou 375 watt verstoken?!?! :o

Ik vraag me af of dat nou zo verstandig is, een kaart maken die buiten de PCI-E standaard valt :/
Waarom hechten mensen zoveel waarde aan KitGuru? Wie zit er achter en wat maakt dat we ze moeten geloven? Ik heb de afgelopen week al minstens vijf domme en onzinnige nieuwsberichten over NVIDIA van die kant uit zien komen en elke keer zorgt het voor discussies op forums. Wat voor bewijs hebben we alleen dat er ook maar iets van deze nogal onzinnig lijkende geruchten waar is?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Naluh! schreef op dinsdag 25 mei 2010 @ 17:31:
Die dual GPU kaart die nvidia uit wil brengen zou 375 watt verstoken?!?! :o

Ik vraag me af of dat nou zo verstandig is, een kaart maken die buiten de PCI-E standaard valt :/
Voor een erg gelimiteerde oplage, met als voornaamste doel om de performance-kroon te grijpen, hoeft het niet zo erg te zijn, zolang je maar genoeg disclaimers op de doos en in de gebruiksaanwijzing plaatst. Vraag is allen, heeft het nog nut. Sapphire, Asus en XFX hebben alledrie een HD5970 gemaakt die op HD5870 clocks loopt, zij het in gelimiteerde oplage. Een GTX490 moet wel van heel erg goede huize komen om daar overheen te gaan, als deze inderdaad op de GTX470-gebinde chips is gebasseerd. Ik vrees voor nVidia dat ze dan ofwel 100-150MHz core/ 200-300MHz shaders missen om die kaarten te verslaan, of dat de TDP eerder richting de 550-600Watt rent, wat weer andere problemen oplevert.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 30-08 18:22
Snoitkever schreef op dinsdag 25 mei 2010 @ 17:59:
Waarom hechten mensen zoveel waarde aan KitGuru?
Nieuwsdiscussie topic. ;)

Col. Hans Landa:
I love rumors! Facts can be so misleading, where rumors, true or false, are often revealing.

[ Voor 34% gewijzigd door Noel op 25-05-2010 18:15 ]

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
dahakon schreef op dinsdag 25 mei 2010 @ 18:14:
[...]


Voor een erg gelimiteerde oplage, met als voornaamste doel om de performance-kroon te grijpen, hoeft het niet zo erg te zijn, zolang je maar genoeg disclaimers op de doos en in de gebruiksaanwijzing plaatst.
Mja, alleen is het niet zo indrukwekkend meer als je om die performance-kroon te grijpen buiten de standaard moet gaan werken. En het is een trucje wat AMD natuurlijk makkelijk na kan doen, en beter waarschijnlijk aangezien hun kaarten een stuk koeler en zuiniger zijn.

Edit: Ik wil ook helemaal geen stuk hardware in mijn pc hebben dat niet normaal binnen de standaard functioneert in principe. Het lijkt mij vragen om problemen.

[ Voor 12% gewijzigd door Naluh! op 25-05-2010 18:54 ]

Specs


Acties:
  • 0 Henk 'm!

Verwijderd

Mja, en het is al geen PCI-Express kaart meer dan. Toch lastig als je je kaart niet meer als zodoende kan verkopen. Als de kaarten echt zo ver zijn teruggeklokt, lijkt het me zeer lastig voor nVidia om de HD5970 te evenaren. Als het dat niet kan, dan is het al helemaal een kansloze bedoeling. Nog meer verbruik dan de GTX480 en alle SLI nadelen van dien, om nog niet eens de snelste kaart te hebben..

Acties:
  • 0 Henk 'm!

  • Viss
  • Registratie: September 2004
  • Laatst online: 22-07 22:37
Snelle test, single & stock GTX480:

X58A-UD7
980X (25x160)
ENGTX480 (stock)
Win7 64b

197.75 vs 257.15

3D2003:
Afbeeldingslocatie: http://img.photobucket.com/albums/v292/Viss1/GTX480/197753D0388169.png

Afbeeldingslocatie: http://img.photobucket.com/albums/v292/Viss1/GTX480/257153D0390352.png

Vantage:
Afbeeldingslocatie: http://img.photobucket.com/albums/v292/Viss1/GTX480/19775VP20035.png

Afbeeldingslocatie: http://img.photobucket.com/albums/v292/Viss1/GTX480/25715VP21178.png

Heaven 2.1:
Afbeeldingslocatie: http://img.photobucket.com/albums/v292/Viss1/GTX480/197heaven21.png

Afbeeldingslocatie: http://img.photobucket.com/albums/v292/Viss1/GTX480/257heaven21.png

Acties:
  • 0 Henk 'm!

Verwijderd

DIT IS HET ERVARINGENTOPIC NIET

Acties:
  • 0 Henk 'm!

  • windwarrior
  • Registratie: Januari 2009
  • Laatst online: 12-07-2024

windwarrior

ʍıupʍɐɹɹıoɹ

offtopic:
nah ik vind dit toch wel significant voor het nieuwstopic


Verder vind ik het leuk om te zien dat het echt wel uitmaakt, een beter stukje software.

8% stijging in unigine en 5,7% in vantage en 2,5% in 3dmark06

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
deze dingen kunnen me eerlijk gezegd niets schelen, het enige wat telt is echte games om eerlijk te zijn.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Je snapt zelf ook dat als je in ELKE benchmark gains krijgt dat je dit ook aardig door kan trekken in games. En dat liet een gelekte benchmark ook al zien dat ongeveer tussen 0-10% winst wordt gehaald.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Nouu.. dit is niet helemaal waar! Er kan ook per applicatie geoptimaliseerd worden, en dan heb je er in andere applicaties niets aan. Maar het lijkt inderdaad wel dat over de gehele linie wat performancetoenames zijn.

Edit: Oh er stond elke. Dat las ik niet zo duidelijk. Dan wordt je punt een stuk sterker.

[ Voor 17% gewijzigd door Verwijderd op 25-05-2010 21:59 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nvidia Announces GeForce GTX 480M, Replaces Death Star as Ultimate Power in the Universe
Nvidia announced its newest, baddest notebook chip today, the GTX 480M, which is the world’s fastest notebook GPU, according to the company. And indeed, it might be just that.

The GTX 480M is based on Fermi architecture, and is manufactured using the 40nm process. That means it has about three times more CUDA cores than Nvidia’s previous most-powerful GPU, the GeForce 360M. How many, you ask? Try 352 cores, compared to the 360M’s 96 cores.

The 480M can support up to 2GB of DDR5 RAM, and is capable of 897 gigaflops. (The GeForce 360M maxed out at 413 gigaflops).

Additionally, the 480M supports DirectX 11, and has a tessellation engine. What is Tessellation? It’s the process by which the GPU divides up a larger object into little triangles in order to render the image. The chip also supports PhysX, 3D Vision, and 3DTV Play, which means you can hook the notebook up to a 3DTV via HDMI 1.4.

Finally, the 480M will support SLI, so if one of these bad boys isn’t enough for you, then you can add another to turn your notebook into some Mongo-like powerhouse. The GPU will make its first appearance in a rig from Clevo, but a number of systems from other manufacturers will be available by mid-June, according to Nvidia. We’re certainly looking forward to benchmarking it, so stay tuned.
edit: Sorry voor repost, had dit niet gezien. CJ had er reeds een melding van gedaan -> CJ in "[Algemeen] nVidia Nieuwdiscussie Topic -..."

[ Voor 5% gewijzigd door Verwijderd op 25-05-2010 23:46 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Grootse titel, maar op pure theoretische flops, loopt de GTX480M not altijd ruim 200Gflops achter op de Mobility Radeon HD5870 en is in crossfire te gebruiken, net zoals de GTX480M in SLI. Het zal er om spannen welke van de twee kaarten het snelste zal zijn.

Als subnotitie zou ik de blogger willen herinneren wat er met de Death Stars gebeurd is :P

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

dahakon schreef op dinsdag 25 mei 2010 @ 23:51:
Grootse titel, maar op pure theoretische flops, loopt de GTX480M not altijd ruim 200Gflops achter op de Mobility Radeon HD5870 en is in crossfire te gebruiken, net zoals de GTX480M in SLI. Het zal er om spannen welke van de twee kaarten het snelste zal zijn.

Als subnotitie zou ik de blogger willen herinneren wat er met de Death Stars gebeurd is :P
Tevens staat er niet bij of je nu ook een externe 300W voeding nodig hebt

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op dinsdag 25 mei 2010 @ 23:51:
Als subnotitie zou ik de blogger willen herinneren wat er met de Death Stars gebeurd is :P
Hehe :P
neliz schreef op dinsdag 25 mei 2010 @ 23:53:
[...]


Tevens staat er niet bij of je nu ook een externe 300W voeding nodig hebt
Let's hope not xD !

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Overigens klopt de gegeven ~900 Gflops niet. De berekening om daartoe te komen is de berekening die je zou gebruiken bij de maximale theoretische flops van de GT200 serie te vinden. Daarbij vermenigvuldig je frequentie van shaders keer het aantal shaders keer 3.

Bij de GF100 moet je echter keer 2 rekenen, door een andere setup. Dan kom je opeens nog maar tot zo'n 600 Gflops, wat opeens nog maar amper iets meer dan de helft van een Mobility Hd5870 is.

In ieder geval lijkt zo'n kaart toch nog altijd minimaal 100Watt te moeten verbruiken, kijkende naar de Desktop varianten.

Acties:
  • 0 Henk 'm!

Verwijderd

Wat maken die Gflops nu helemaal uit, voor gaming in ieder geval niet veel, de hd4870 was ook gelijkwaardig aan de gtx260, en die tweede had veeel minder Gflops.
Leuk als je dat kan zeggen in een gesprek, en vervolgens een dikke bluescreen verschijnt en je vervolgens dikke vette strepen en artifacts door je beeld hebt lopen :P
Je ziet hem al aankomen: nvt voor games.

Acties:
  • 0 Henk 'm!

Verwijderd

Maar het wordt 352 shaders vs 800 shaders. Dat is dus een opgeblazen GTX285 vs HD4870. Ik denk dat, wat performance betreft, nVidia hier wel leiding kan nemen. Maarja, dat zal wel het dubbele van de verbruik gaan kosten. Of dat nu zo gunstig is voor laptops?

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

GF104 PCB design

Afbeeldingslocatie: http://i45.tinypic.com/10rms8w.jpg

Tevens wordt er op de PCInLife forums gesproken over een slecht/goedkoop fan design, dwz, de fan is groter dan de koeler en steekt hier ook uit.
De kaart zou dus single slot kunnen zijn, maar de fan zou hier dus een stukje overheen gaan.
Ook zou de fan makkelijk in onbalans gebracht kunnen worden.

[ Voor 67% gewijzigd door neliz op 26-05-2010 07:24 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen

Pagina: 1 ... 7 ... 13 Laatste

Dit topic is gesloten.