[Algemeen] nVidia Nieuws & Discussie Topic - Deel 41 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 7 8 Laatste
Acties:
  • 45.183 views

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 31-07 02:27

Fermi GF100 is a single chip GT300-based 40nm DirectX 11 card. Nvidia plans to launch two cards that will aim to replace Geforce GTX 285 and Geforce GTX 260 in enthusiast and performance markets respectively, while the high-end dual-chip Fermi card will come after.

We don’t know how much later the dual-GPU should launch, but it should happen within one to two months. If all goes well and it doesn’t get delayed, we can hope to see it by May. Around that time, ATI might be ready with its refreshed 40nm cards that might have more juice and could compete better. However, this is only after Nvidia finally launches its GT300, Fermi-based products.

It is definitely not fun to be in Nvidia's shoes, especially when it comes to the desktop graphics card market.


Bron: Fudzilla

:9 ik gok op 400 watt voor de dual gpu :P

Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
Ik ben benieuwd of wanneer Fermi eindelijk launched we dan ook weer eerst maaaaaanden van slechte leverbaarheid gaan zien net zoals bij de ATI 5000 series.

Specs


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

M4gick schreef op dinsdag 12 januari 2010 @ 17:53:

Fermi GF100 is a single chip GT300-based 40nm DirectX 11 card. Nvidia plans to launch two cards that will aim to replace Geforce GTX 285 and Geforce GTX 260 in enthusiast and performance markets respectively, while the high-end dual-chip Fermi card will come after.

We don’t know how much later the dual-GPU should launch, but it should happen within one to two months. If all goes well and it doesn’t get delayed, we can hope to see it by May. Around that time, ATI might be ready with its refreshed 40nm cards that might have more juice and could compete better. However, this is only after Nvidia finally launches its GT300, Fermi-based products.

It is definitely not fun to be in Nvidia's shoes, especially when it comes to the desktop graphics card market.


Bron: Fudzilla

:9 ik gok op 400 watt voor de dual gpu :P
Xenomorphh in "[Algemeen] nVidia Nieuws & Discussie Top..." :P

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Naluh! schreef op dinsdag 12 januari 2010 @ 18:04:
Ik ben benieuwd of wanneer Fermi eindelijk launched we dan ook weer eerst maaaaaanden van slechte leverbaarheid gaan zien net zoals bij de ATI 5000 series.
Gezien hoe complex het is denk ik dat het nog veel erger gaat worden dan met de 5870. Ik denk dat ze @ launch amper te krijgen zullen zijn. War dat bij de HD5870 wel lukte omdat AMD aardig wat opgespaard had wat in een keer de verkoop kanalen in ging.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Nu online
Naluh! schreef op dinsdag 12 januari 2010 @ 18:04:
Ik ben benieuwd of wanneer Fermi eindelijk launched we dan ook weer eerst maaaaaanden van slechte leverbaarheid gaan zien net zoals bij de ATI 5000 series.
Wat dat betreft heeft het volgende bericht van Fud weinig goeds te melden:
Cypress yields not a problem
Written by David Stellmack
Tuesday, 12 January 2010 18:01


40nm process getting 60% to 80%

Claims that the current TSMC 40nm process that is being used for the AMD/ATI Cypress family is achieving yields of in the neighborhood of 40% don’t seem to have a shred of truth. Our sources close to TSMC claim that actually the 40nm process that is being used for the Cypress family is routinely achieving yields in the 60% to 80% range, which is actually confirmed by the fact that ATI is keeping product in the pipeline and you can actually buy boards at retail.

Chip yields seem to be the topic of discussion lately as the much larger Nvidia Fermi chip is struggling with yield issues as our sources suggest that the actual yields are as low as 20% and are not improving quickly according to sources close to the fabs. With wafer starts costing about $5K the numbers suggest that each chip would cost an astounding estimated $200 per chip which pegs the card with a sticker price of about $600.

Those in the known are claiming that Fermi despite the yield and thermal issues is only about 20% faster than Cypress, while Hemlock smokes it. The combination of low yields, high thermals, and marginally better performance than Cypress could be conspiring to place Nvida in the position of having to release the card, but have to sell it at a loss till they are able to address the issues in the next spin according to sources. Because of the situation a mole we know is suggesting that Nvidia may limit the sales of Fermi to consumers and instead use the chips for the Tesla and Quadro products where prices and margins are much better.

All of the talk of yields seems to be in some ways nothing more than a smoke screen to shine the light off of the current situation to stall sales by promising something that most consumers are likely going to be unable to buy. The moles claim you will not need a pair of 3D glasses to watch this shake out in the next few weeks.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
M4gick schreef op dinsdag 12 januari 2010 @ 17:53:
:9 ik gok op 400 watt voor de dual gpu :P
Ik 300 Watt aangezien die anders niet meer binnen de PCIe specs valt. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
whiteguy schreef op dinsdag 12 januari 2010 @ 20:38:
[...]


Wat dat betreft heeft het volgende bericht van Fud weinig goeds te melden:

[...]
Ja, ik las het :') . Slechte zaak voor de consument, krijg je als de markt wordt beheerst door 2 bedrijven.... :/

Specs


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 14:01

Fermi die means high Nvidia silicon costs ahead

[ Voor 54% gewijzigd door Blastpe op 12-01-2010 22:24 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Naluh! schreef op dinsdag 12 januari 2010 @ 21:52:
[...]

Ja, ik las het :') . Slechte zaak voor de consument, krijg je als de markt wordt beheerst door 2 bedrijven.... :/
Hoezo ? Ik vind de prijzen van AMD best netjes. Dat Winkels en Leveranciers hier nu misbruik van maken is een ander verhaal.

En het is nVidia's eigen schuld hadden ze maar met innovatie's moeten komen ipv Rebrands. Laat ze maar eens flink boetten voor hun gedrag.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 13-08 12:52
Astennu schreef op donderdag 14 januari 2010 @ 11:32:
En het is nVidia's eigen schuld hadden ze maar met innovatie's moeten komen ipv Rebrands. Laat ze maar eens flink boetten voor hun gedrag.
Dat kan nog wel even duren ben ik bang, laatst weer pijnlijk met mijn neus op de feiten gedrukt wat betreft casual customers.

Vriend van me met veel verstand van computers (zelfverklaard) had laatst een nieuwe kaart gekocht (een NVIDIA GEFORCE 9800GT met 1GB!!!1!!1 Voor maar 120 euro!!!). Toen ik hem op de hoogte bracht van het feit dat die al een jaar in mijn pc hangt onder de naam 8800GT en er ook even bij vermelde dat hij voor dat geld toch echt betere alternatieven had kunnen kopen van Ati keek meneer me aan alsof hij water zag branden. Ati beter dat Nvidia? Dat bestaat niet, Nvidia is gewoon de beste, punt uit.

Nu weet ik dat dit een vrij random, weinig unieke, persoonlijke ervaring is, maar ik denk dat het wel exemplarisch is voor hoe 'de gemiddelde consument' over deze markt denkt. Jij en ik weten dan wel hoe de vork in de steel zit, maar dat imago dat NV over de jaren heeft opgebouwd legt ze nog altijd geen windeieren.

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 13-08 16:57
Snorro schreef op donderdag 14 januari 2010 @ 11:48:
Nu weet ik dat dit een vrij random, weinig unieke, persoonlijke ervaring is, maar ik denk dat het wel exemplarisch is voor hoe 'de gemiddelde consument' over deze markt denkt. Jij en ik weten dan wel hoe de vork in de steel zit, maar dat imago dat NV over de jaren heeft opgebouwd legt ze nog altijd geen windeieren.
Dat is ook de ervaring die ik heb met anderen.
Mensen die weinig van computers weten kennen alleen de naam Nvidia.
Mensen die wel aardig wat van computers weten kennen beide namen, maar zijn er heilig van overtuigd dat Nvidia beter is.
Het lijkt erop dat alleen de mensen die zich er echt in verdiept hebben weten hoe de vork in de steel steek. (Dùh!)
Niet dat die mensen allemaal voor ATI gaan ofzo, maar ze kunnen hun keuze goed onderbouwen.
Wie weet kan ATI/AMD wat van het extra verdiende geld van de afgelopen tijd in extra PR stoppen.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 12-08 22:16
Dat soort dingen maak ik bij al mijn vrienden mee, die iets of wat verstand van computers hebben.

Acties:
  • 0 Henk 'm!

Verwijderd

Volgens Nvidia zijn alle yield problemen die ze hadden met Fermi opgelost. Nu maar wachten wanneer er een datum bekend word gemaakt.

De Tegra chip kan Nvidia nog wel boven water houden denk ik. Ik heb trouwens gemist waarom Intel geen licentie voor chipsets aan Nvidia heeft gegeven, of hebben ze dat niet bekendgemaakt?
Snorro schreef op donderdag 14 januari 2010 @ 11:48:
[...]Nu weet ik dat dit een vrij random, weinig unieke, persoonlijke ervaring is, maar ik denk dat het wel exemplarisch is voor hoe 'de gemiddelde consument' over deze markt denkt. Jij en ik weten dan wel hoe de vork in de steel zit, maar dat imago dat NV over de jaren heeft opgebouwd legt ze nog altijd geen windeieren.
Maar ik heb ook al verhalen over de 58xx serie van Ati gehoord dat er behalve de levertijden ook brakke drivers voor veel problemen zorgen, en strepen op het scherm, etc. En in het verleden heeft Ati ook veel overhittingsproblemen gehad. Die problemen heb ik niet gehad met Nvidia kaarten.

[ Voor 3% gewijzigd door Verwijderd op 14-01-2010 12:44 ]


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 14:01
Verwijderd schreef op donderdag 14 januari 2010 @ 12:43:
Volgens Nvidia zijn alle yield problemen die ze hadden met Fermi opgelost. Nu maar wachten wanneer er een datum bekend word gemaakt.
Waar heb je dat gehoord?
Het beste wat ik tot nu gehoord gelezen heb is 20%

[ Voor 9% gewijzigd door Blastpe op 14-01-2010 12:53 ]


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 25-07 21:33
En van sub 20% naar alles opgelost in een dikke week? Highly unlikely. :)

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • zero_cool89
  • Registratie: Juni 2006
  • Laatst online: 04-08 03:59
[b]Shepard schreef op donderdag 14 januari 2010 @ 12:43
Maar ik heb ook al verhalen over de 58xx serie van Ati gehoord dat er behalve de levertijden ook brakke drivers voor veel problemen zorgen, en strepen op het scherm, etc. En in het verleden heeft Ati ook veel overhittingsproblemen gehad. Die problemen heb ik niet gehad met Nvidia kaarten.
Nu wil ik geen fanboy uithangen maar ik moet je even wijzen op een nog veel grotere fout die nVidia heeft gemaakt met hun G80 chips. De chips gaan na 2-4 jaar gebruik bijna zeker kapot omdat. Nvidia heeft hier niets aan gedaan en de chips gewoon doorverkocht ook al wisten ze van dit probleem.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Verwijderd schreef op donderdag 14 januari 2010 @ 12:43:
Volgens Nvidia zijn alle yield problemen die ze hadden met Fermi opgelost. Nu maar wachten wanneer er een datum bekend word gemaakt.
Bron?

Dus... zoals hierboven aangegeven... wat moet een bedrijf anders zeggen over hun eigen producten als het tegenzit op het moment? Ik denk dat dit een retorische vraag is.

Acties:
  • 0 Henk 'm!

Verwijderd

Okay fair enough. Maar ik dacht dat ze op de CES zeiden dat ze hard bezig waren met het produceren.

En lol, verder was er op 4chan nog iemand die wel kon bewijzen dat hij bij de marketingsafdeling bij Nvidia werkte zei dat alle problemen opgelost waren, maar dat is natuurlijk geen enkel bewijs.
zero_cool89 schreef op donderdag 14 januari 2010 @ 12:53:
[...]Nu wil ik geen fanboy uithangen maar ik moet je even wijzen op een nog veel grotere fout die nVidia heeft gemaakt met hun G80 chips. De chips gaan na 2-4 jaar gebruik bijna zeker kapot omdat. Nvidia heeft hier niets aan gedaan en de chips gewoon doorverkocht ook al wisten ze van dit probleem.
Daar was ik niet van op de hoogte, kan je een linkje geven? Ik hoop dan dat mijn Nvidia kaart van 2007 dan een G82 chip heeft.

Acties:
  • 0 Henk 'm!

  • zero_cool89
  • Registratie: Juni 2006
  • Laatst online: 04-08 03:59
[b]Shepard schreef op donderdag 14 januari 2010 @ 13:00

Daar was ik niet van op de hoogte, kan je een linkje geven? Ik hoop dan dat mijn Nvidia kaart van 2007 dan een G82 chip heeft.
Kijk hier maar:
base_ in "Het doodgaan van G80GTX/Ultra kaarten"

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
Verwijderd schreef op donderdag 14 januari 2010 @ 12:43:
Volgens Nvidia zijn alle yield problemen die ze hadden met Fermi opgelost. Nu maar wachten wanneer er een datum bekend word gemaakt.

De Tegra chip kan Nvidia nog wel boven water houden denk ik. Ik heb trouwens gemist waarom Intel geen licentie voor chipsets aan Nvidia heeft gegeven, of hebben ze dat niet bekendgemaakt?


[...]


Maar ik heb ook al verhalen over de 58xx serie van Ati gehoord dat er behalve de levertijden ook brakke drivers voor veel problemen zorgen, en strepen op het scherm, etc. En in het verleden heeft Ati ook veel overhittingsproblemen gehad. Die problemen heb ik niet gehad met Nvidia kaarten.
Het verleden is een garantie voor de toekomst. Maar welke kaarten hadden dan last van oververhitting ? Ik heb vanaf de Radeon 8500 letterlijk alle mid/highend kaarten gehad. En allemaal heb ik ze overgeclockt. Kan me er geen herinneren die last van oververhitting had met de stock cooler. Bij de 9800 pro was er een serie waar de fan herrie ging maken. En vroeger gingen die kleiner coolertjes nog wel een kapot maar dat was ook bij nVidia kaarten.

Die strepen waar mensen nu last van hebben is inderdaad een raar probleem maar ik krijg niet het idee dat dat iets hardware matigs is. Plaats die die kaart op een ander moederbord werkt deze ineens perfect. Ik heb zelf 3 5850's gehad en die werken stock helemaal perfect. Alleen met hoge overclocks kan ik strepen krijgen maar dat is ook niet raar met overclocken. Elke kaart heeft namelijk zijn limieten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 12-08 18:21
-The_Mask- schreef op dinsdag 12 januari 2010 @ 20:40:
[...]

Ik 300 Watt aangezien die anders niet meer binnen de PCIe specs valt. ;)
Waarom zouden ze zich daar nu opeens wel aan houden? De 5970 zou het 'maximale' verbruiken volgens de PCIe specs. Maar de GTX 295 en 4870X2 verbruiken rustig nog veel meer!

Ik vind het maar een slap gelul, het lijkt me niet dat dit pas na de launch van de GTX 295 is ingevoerd............
spNk schreef op donderdag 14 januari 2010 @ 12:12:
Dat soort dingen maak ik bij al mijn vrienden mee, die iets of wat verstand van computers hebben.
Gewoon met de paplepel ingieten dat AMD en ATI altijd een betere prijs/kwaliteit biedt :)
Astennu schreef op donderdag 14 januari 2010 @ 13:27:
[...]
Die strepen waar mensen nu last van hebben is inderdaad een raar probleem maar ik krijg niet het idee dat dat iets hardware matigs is. Plaats die die kaart op een ander moederbord werkt deze ineens perfect. Ik heb zelf 3 5850's gehad en die werken stock helemaal perfect. Alleen met hoge overclocks kan ik strepen krijgen maar dat is ook niet raar met overclocken. Elke kaart heeft namelijk zijn limieten.
Ben je daar wel zo zeker van? Ik het andere topic gaan er toch echt verhalen rond dat nieuwe kaarten wel goed doen, verder is echt niets te zien aan de combinatie van bepaalde chipsets met deze kaarten...

Naja dit is meer iets voor in het andere topic natuurlijk ;)

[ Voor 33% gewijzigd door Stefanovic45 op 14-01-2010 13:57 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
zero_cool89 schreef op donderdag 14 januari 2010 @ 12:53:
[...]


Nu wil ik geen fanboy uithangen maar ik moet je even wijzen op een nog veel grotere fout die nVidia heeft gemaakt met hun G80 chips. De chips gaan na 2-4 jaar gebruik bijna zeker kapot omdat. Nvidia heeft hier niets aan gedaan en de chips gewoon doorverkocht ook al wisten ze van dit probleem.
HOAX!1!! ALLLEMAAL GEBASH VAN CHARLIE!!!!1!!

Tenminste dat was destijds de reactie van de fanboys ;)

Ik zit met angst en beven te kijken naar mijn laptop die ook een 'besmette' chip zou moeten hebben. :')

Specs


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

StefanvanGelder schreef op donderdag 14 januari 2010 @ 13:55:
[...]


Waarom zouden ze zich daar nu opeens wel aan houden? De 5970 zou het 'maximale' verbruiken volgens de PCIe specs. Maar de GTX 295 en 4870X2 verbruiken rustig nog veel meer!

Ik vind het maar een slap gelul, het lijkt me niet dat dit pas na de launch van de GTX 295 is ingevoerd............
Dacht ik ook, maar even nagezocht en zowel de HD4870x2 en de GTX295 hebben ook gewoon een TDP onder de 300W, waarmee het toch wel een regel lijkt te zijn. De enige kaart die er dus overheen is gegaan tot nu toe is de Mars maar dat hebben we geweten, dat ding heeft last van oververhitting en is ook echt voor diehards, dat imago moet fermi niet krijgen dus die zal echt wel onder de 300W blijven.

Opzich wel grappig, want hierdoor gaat de performance-kroon niet naar degene die de lompste chip weet te maken maar naar degene die het meeste performance per watt weet neer te zetten, immers verbruiken van beide fabrikanten de dual-GPU-kaarten evenveel en dat is dan de limiet.

[ Voor 14% gewijzigd door bwerg op 14-01-2010 14:54 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Verwijderd

Volgens die gast op 4chan die bij de nvidia marketing afdeling werkt, verbruikt de fermi meer dan de 5870.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Dat leek me al redelijk vast staan ;) al ben ik wel erg benieuwd naar idle-verbruik, dat is nu helemaal hot heb ik het idee. De g200 was ook verassend zuinig in idle...

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
StefanvanGelder schreef op donderdag 14 januari 2010 @ 13:55:

Waarom zouden ze zich daar nu opeens wel aan houden? De 5970 zou het 'maximale' verbruiken volgens de PCIe specs. Maar de GTX 295 en 4870X2 verbruiken rustig nog veel meer!
Het was waarschijnlijk niet voor niks dat er nieuwsberichten waren dat de HD5970 te veel verbruikte en dat de kloksnelheden lager liggen dan die van de HD5870, grote kans dat ATi/AMD en nVidia dan op hun vingers zijn getikt dat ze zich helemaal niet aan de PCIe standaard hebben gehouden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 12-08 22:16
Door wie? Standaarden zijn leuk om aan te houden, maar je bent niets verplicht. Zie Microsoft bijvoorbeeld.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

spNk schreef op donderdag 14 januari 2010 @ 16:49:
Door wie? Standaarden zijn leuk om aan te houden, maar je bent niets verplicht. Zie Microsoft bijvoorbeeld.
het is wel kut als er geen PCI Express logo op je doos mag staan ;)

http://www.pcisig.com/home

[ Voor 5% gewijzigd door neliz op 14-01-2010 16:51 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 12-08 22:16
Mja, de gemiddelde mens die zo'n kaart koopt weet echt wel of het PCI-E of niet is natuurlijk. :P

Acties:
  • 0 Henk 'm!

Verwijderd

spNk schreef op donderdag 14 januari 2010 @ 16:49:
Door wie? Standaarden zijn leuk om aan te houden, maar je bent niets verplicht. Zie Microsoft bijvoorbeeld.
Je kunt wel leuk een kaart bakken die 500 watt trekt met een monsterventilator er op, maar als daardoor bij de helft van je klanten het PCI-E slot doorfikt omdat je ver boven de standaard zit schiet je daar niet zo veel mee op. ;) Wat ik maar wil zeggen is dat de enige reden dat je willekeurige onderdelen in een PC kunt combineren is dat er standaarden zijn. Je zult je dus wel aan die standaarden moeten houden anders krijg je problemen.

Microsoft is hier geen goede vergelijking omdat het daarbij om software gaat. Bovendien heeft Microsoft een enorm monopolie waardoor ze in staat zijn de rest van de wereld hun standaarden op te leggen, en helaas doen ze dat ook.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-07 21:41
StefanvanGelder schreef op donderdag 14 januari 2010 @ 13:55:
[...]
Ben je daar wel zo zeker van? Ik het andere topic gaan er toch echt verhalen rond dat nieuwe kaarten wel goed doen, verder is echt niets te zien aan de combinatie van bepaalde chipsets met deze kaarten...

Naja dit is meer iets voor in het andere topic natuurlijk ;)
Ik zeg niet dat ik daar zeker van ben. Dat idee krijg ik. + een nieuwe kaart zou ook een nieuwe bios kunnen hebben. Ik vraag me af hoe hoog het persentage mensen is dat echt problemen heeft. Want die polls zeggen weinig. De mensen met problemen stemmen altijd eerder. Maar het is wel een serieus probleem dat er mensen zijn die hier last van hebben dat geef ik toe.
Naluh! schreef op donderdag 14 januari 2010 @ 14:49:
[...]

HOAX!1!! ALLLEMAAL GEBASH VAN CHARLIE!!!!1!!

Tenminste dat was destijds de reactie van de fanboys ;)

Ik zit met angst en beven te kijken naar mijn laptop die ook een 'besmette' chip zou moeten hebben. :')
Yep helaas zijn er genoeg bewijzen. Zie HP en zie hier de topics op tweakers.
-The_Mask- schreef op donderdag 14 januari 2010 @ 15:03:
[...]

Het was waarschijnlijk niet voor niks dat er nieuwsberichten waren dat de HD5970 te veel verbruikte en dat de kloksnelheden lager liggen dan die van de HD5870, grote kans dat ATi/AMD en nVidia dan op hun vingers zijn getikt dat ze zich helemaal niet aan de PCIe standaard hebben gehouden.
Ik vind het ook wel appart hoor dat de HD4870 X2 veel meer verbruikt dan de HD5970. Daar was ik best wel verbaast door. Al zit de HD5970 daar door wel netjes onder de 300 watt. Waar de HD4870 X2 daar overheen gaat. Als ze em op HD5870 Speeds laten lopen kwam er bijna 100 watt bij. Dus zit je ergens rond de 380. En dat is wel erg veel. Qua Performance per watt is dit wel een betere oplossing.

[ Voor 25% gewijzigd door Astennu op 15-01-2010 10:29 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Vooreerst mijn excuses voor mijn afwezigheid gedurende meerdere dagen, dit in combinatie met het verliezen van een klad versie voor de nieuwe TS heeft dus geleid tot een gigantische vertraging van de TS :'(

In ieder geval ik heb vanavond de nieuwe topic aangemaakt, indien iemand mede-auteur wil worden mag deze gerust een berichtje sturen naar mij.
Buiten een paar filmpjes en een demo heeft CES in feite weinig opgeleverd qua concrete data voor de GeForce Fermi kaart, zodoende is enkel het nieuws/geruchten en driver onderdeel echt upgedate.
Verwacht dus ook geen wereldschokkend nieuws in de TS.

Nieuw deeltje:

[Algemeen] nVidia Nieuws & Discussie Topic - Deel 42

Zoals steeds mogen correcties, aanvullingen, spelfouten .... altijd gemeld worden in een PM (beste van al vervuilt het topic niet) of een forum post

Nogmaals mijn excuses voor de gigantische vertraging voor het nieuwe topic, alhoewel nu hopelijk al het CES nieuws nu mooi in 1 deeltje staat geconcentreerd ipv 2 .. alle indien er niet plots nog nieuws ervan boven komt drijven ;)
(Die youtube filmpjes voorspellen niets goed in die zin :9 )

Specs


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 11-08 10:53

Edmin

Crew Council

get on my horse!

Dicht
Pagina: 1 ... 7 8 Laatste

Dit topic is gesloten.