[Algemeen] nVidia Nieuws & Discussie Topic - Deel 41 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 7 8 Laatste
Acties:
  • 45.109 views

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

daan! schreef op zaterdag 09 januari 2010 @ 15:54:
[...]

Nee, dat kunnen we niet.

We kunnen ook niet concluderen dat de cpu van een pc waar een fermi in zit watergekoeld moet zijn omdat dat toevallig op het plaatje te zien is.

Wat we aan de hand van het plaatje wel kunnen concluderen is dat Nvidia voor de presentatie alleen maar high end onderdelen in de 'fermi pc' heeft gestopt.
Bij High end PSU's is dit niet ongebruikelijk.

Wat vervolgens wel interessant wordt is speculeren of de getoonde Fermi en/of de cpu zijn overgeklokt voor deze presentatie.
Vervolgens concludeer jij dat het board in die pc een fermi is, maar hoe weten we dat dan weer zeker...... :?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
DeJaapS schreef op zaterdag 09 januari 2010 @ 16:46:
Hoi ik ben op dit moment aan het kijken naar een nieuwe PC/upgrade. En ik ben naar de 3d visions van Nvidia aan het kijken en vraag me af wat de meest economische keuze is voor het beeldscherm.

Ik weet dat mijn huidige scherm niet voldoet voor die 3d bril en Alternate heeft het volledige pakker (scherm+brilset) voor 450 euro. Is dit een goede deal? Of kan ik beter de bril los kopen en er zelf los een scherm bij halen?

En welke videoplank zou er het best op aansluiten? Aannemende dat ik mijn oude scherm nog als een 2e monitor op mijn PC aan wil sluiten?

Dit gaat in combinatie met een upgrade van het MOBO, CPU & geheugen. De HD's die ik op dit moment gebruik zijn nog nieuw en hoeven denk ik niet vervangen te worden.
Ik heb het zelf nooit gedaan, maar wel mensen gehoord die het hebben gedaan, en hun conclusies zijn:

Duur, koppijn en irritante bril. Maar wel leuk, totdat de hoofdpijn komt..

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 01-06 19:22

Edmin

Crew Council

get on my horse!

En niet hier vragen, want dit topic is uitsluitend bedoeld voor nieuws en discussie; niet voor aanschafadvies. ;)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
blieckje schreef op zaterdag 09 januari 2010 @ 13:30:
en wie zegt dat zij hier een standaard connector gebruiken?
Ik, zoals je ziet. :)
Darkasantion schreef op zaterdag 09 januari 2010 @ 13:46:
De 8 pins connector heeft dubbele aanvoer, maar is het vragelijk of dit gezien moet worden als een dubbele 8 connector, of dat het gewoon een gimmick is om ATi.AMD op het verkeerde been te zetten.
Hij heeft geen dubbele aanvoer, dit is gewoon standaard op heel veel voedingen.
De ene komt uit de voeding en de andere gaat gewoon naar een andere PEG connector.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 03-06 10:26

Darkasantion

Just keep swimming!

-The_Mask- schreef op zaterdag 09 januari 2010 @ 17:17:
[...]

Ik, zoals je ziet. :)


[...]

Hij heeft geen dubbele aanvoer, dit is gewoon standaard op heel veel voedingen.
De ene komt uit de voeding en de andere gaat gewoon naar een andere PEG connector.
Ooh, heb dat anders nog nooit gezien :o ! Als dat zo is, is mijn vorige conclusie ook waardeloos :+

Maar als dat zo is, waarom plakken zij hem dan af? Lijkt me ook wel raar. En waarom doen ze dubbele connectoren op die 8 lijnen, want gag je wel 300Watt op die 8 kabels zetten, dacht namelijk dat 150Watt al de max was voor 8-polig :?

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Darkasantion schreef op zaterdag 09 januari 2010 @ 17:21:
[...]

Ooh, heb dat anders nog nooit gezien :o ! Als dat zo is, is mijn vorige conclusie ook waardeloos :+

Maar als dat zo is, waarom plakken zij hem dan af? Lijkt me ook wel raar. En waarom doen ze dubbele connectoren op die 8 lijnen, want gag je wel 300Watt op die 8 kabels zetten, dacht namelijk dat 150Watt al de max was voor 8-polig :?
misschien mag er wel zoveel watt over de kabels maar niet op het punt waar de connector contact met de videokaart maakt.... :?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Darkasantion schreef op zaterdag 09 januari 2010 @ 17:21:
Maar als dat zo is, waarom plakken zij hem dan af? Lijkt me ook wel raar.
Misschien een n00bish vraag hoor, maar waar is duidelijk te zien dat ze hem afplakken? Dat witte in het plaatje van Neliz?

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

bwerg schreef op zaterdag 09 januari 2010 @ 17:43:
[...]

Misschien een n00bish vraag hoor, maar waar is duidelijk te zien dat ze hem afplakken? Dat witte in het plaatje van Neliz?
Inderdaad dat kunnen ook een par lijntjes getekent met paint zijn :+

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Afbeeldingslocatie: http://images.hardware.info/news/fermi_geforce_back.jpg

Afbeeldingslocatie: http://images.hardware.info/news/fermi_geforce_triple_sli.jpg

Daar zie je ook weer die dubbele aansluiting.
En waarom watergekoeld? Warmte? Overklokken? Zodat ie beter draait ,dan op stock speeds?

edit:
foto's waren al geplaatst |:(

[ Voor 6% gewijzigd door Bullus op 09-01-2010 18:01 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Xenomorphh schreef op zaterdag 09 januari 2010 @ 17:55:
[...]

Inderdaad dat kunnen ook een par lijntjes getekent met paint zijn :+
Nee dat is gewoon het woord "geforce" uitgesmeerd over de foto omdat de foto bewogen is :+

Vandaar dat ik me ook zat af te vragen of het wel echt daarover ging :P

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 10:27
Help!!!! schreef op zaterdag 09 januari 2010 @ 17:04:
[...]

Vervolgens concludeer jij dat het board in die pc een fermi is, maar hoe weten we dat dan weer zeker...... :?
Haha, nice point. Met Nvidia weet je dat natuurlijk nooit 100% zeker, maar ik heb op dit moment geen reden om anders te geloven. Jij wel?

P.S. hoe weet ik zeker dat jij bestaat? ;)

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

daan! schreef op zaterdag 09 januari 2010 @ 18:02:
[...]

geen reden om anders te geloven. Jij wel?
Nou, mag ik het zeggen? :P Omdat ze de pers graag neppen, als ze even geen echte kaart voorhanden hebben, dus wantrouwen is niet echt onredelijk meer...

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Skybullet
  • Registratie: April 2008
  • Nu online
omg wat een comotie over een logo dat half bewogen gefotografeerd is. Dat groen/witte "conspiricy afdekken van powerconnectors gebeuren " is niks meer als het logo, het in wit geschreven Geforce met het groene plaatje ernaast. 8)7

7800X3D - B650E Aorus Master - 32GB 6000Mhz - 4090 FE


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 03-06 10:26

Darkasantion

Just keep swimming!

Skybullet schreef op zaterdag 09 januari 2010 @ 18:10:
omg wat een comotie over een logo dat half bewogen gefotografeerd is. Dat groen/witte "conspiricy afdekken van powerconnectors gebeuren " is niks meer als het logo, het in wit geschreven Geforce met het groene plaatje ernaast. 8)7
Nu ik er nog eens naar kijk lijkt het inderdaad erop dat het gewoon het geforce logo is dat bewogen wordt 8)7 . Silly me.

Maargoed, heb de foto's nog eens goed bekeken, en vindt het er toch op lijken dat het 1 kabelboom is die naar die 2 connectoren gaat, waarbij 1 dan door 2 8 pins rails wordt gevoedt. Ik kan geen 2e 8 pins stekker ontdekken of iets dergelijks

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

Anoniem: 308932

waarom zitten er gaten in de fermi?

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 03-06 10:26

Darkasantion

Just keep swimming!

Kan de fan van 2 kanten lucht aanzuigen. Voornamelijk voor SLi denk ik, zodat de bovenste kaart nog een beetje verse lucht kan krijgen :)

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 01-06 19:22

Edmin

Crew Council

get on my horse!

[H] heeft een editorial over NV's multi-display tech. Lees vooral ook de laatste alinea:

NVIDIA 3D Surround

There is some interesting information from NVIDIA at CES that is somewhat disconcerting and promising all at the same time. You guys no doubt know that we love ATI Eyefinity technology. We don't love Eyefinity because it is from AMD, we love Eyefinity because it greatly enhances the PC gaming experience. Gaming on an Eyefinity configuration can be a tremendous experience. Here is a link to my personal Eyefinity setup that I use daily. I have moved up to a Radeon 5970 for the time being, but the 5870 did just fine in terms of performance. Once the Trillian 6-head card comes to market from AMD, we will likely be using one of those to do this...the HardOCP Eyefinity Dream Station. :)


I am not telling you all of this to poop on NVIDIA's parade. I am telling you all of this to let you know that we are incredibly excited about the technology and fully believe in multi-display gaming. I am doubly excited that NVIDIA is following AMD's lead on this. I could not be happier.


NVIDIA's multi-display solution has been crowned "NVIDIA Surround." NVIDIA's solution is being shown on last-gen cards and next-gen cards, which is very exciting too! NVIDIA is upping the ante a bit with a feature that is accessible on "old" hardware. NVIDIA is also throwing into the mix its 3D Vision feature (wear the 3D glasses movie type of thing) into the mix. So we get "NVIDIA 3D Vision Surround."


Now here is the good stuff. This NVIDIA Surround technology is being shown in working order this week at CES. It is also being shown working on GTX 285s as well as upcoming GF100 boards. Here are the specs that Brian Del Rizzo gave us when asked:


We have multiple demos on the show floor. Here's the breakdown:


The booth in the grand lobby is running on dual GTX285s and three Acer projectors. The projectors are 720p using CRT connectors.


The three projector display in the booth are running on dual GF100s. The DepthQ projectors are 720p and use CRT too.


The other demo we have is 3D Vision Surround running on three 1920x1080 LCD displays from Acer and Alienware using 3 dual link dvi connectors. This one is using dual GTX 285s.


We are showing a combination of Need for Speed Shift, Batman Arkham Asylum, and Avatar.


Another thing that is great to see is NVIDIA has hopefully gotten SLI working smoothly with NVIDIA Surround, where AMD is still struggling for smooth Eyefinity and CrossFire support. However, it is sort of disconcerting that the NVIDIA "needs" two GF100 cards to run the demo. In fact all the demos are SLI setups. We know a single Radeon 5870 or Radeon 5850 will run three 720P panels with ease. It will also be very interesting to see where all of this settles out in terms of price, performance, and value. And of course you can trust HardOCP to chime in on that, hopefully in late Q110.


Now keep in mind that when you enable 3D Vision (the actual 3D portion of this), it basically cuts your frame rates in half due to the way it has to draw every frame twice so your eyes and the glasses you are wearing fool you into thinking you are seeing a 3D image. I am not going to even be shy about this; I hate those damn 3D glasses. But we will give them another chance, and we will surely be giving 3D Surround a big chance. (NVIDIA is telling us this has greatly changed but I have never been shown it first hand.)


Eyefinity gaming has changed my perception of PC gaming and made me truly passionate about PC gaming again. Here is a quote from our recent Eyefinity Performance Review.


Many folks that have forsaken PC gaming for console will find Eyefinity luring them back as Eyefinity provides you with something no console can; more of the gaming world in your field of vision. Eyefinity is not just a larger screen; it is more pixels on that screen. You will see more of the gaming world than you have ever seen before.


(Editor's Note: I am still getting feedback from folks that seem to think Eyefinity is some kind of gimmick. Well it is not. Eyefinity is the real deal and has done more to enhance our gaming experiences at HardOCP than anything else has in a long time. 3dfx SLI brought me 1024x768. Then a few cards brought me 1600x1200 and then 2560x1200. Then Eyefinity brought me 5760x1200 and 3600x1920. Am I saying that Eyefinity is the single most important technology since 3dfx SLI? Yes I am. I fully believe that we are only at the tip of the ice berg.)


Certainly NVIDIA bringing its own "nFinity" to market (Yeah, that is a better name but we know you can't look like you are following AMD's tail that closely!) validates AMD's move to Eyefinity and quite frankly HardOCP's support of it. Multi-display gaming is here to stay. NVIDIA could have done this two years ago with it is current generation of parts, but it simply screwed the pooch and missed a great opportunity using technology it had already done all the grunt work on. We don't often see NVIDIA play catch up, but we are surely seeing that this year.


HardOCP is tremendously glad to see NVIDIA on board with an Eyefinity-type solution; we are all for it and excited this is happening. I think it will force game developers to better use the technology when building games. This is good for PC gamers and good for PC gaming.


I am scared about one thing though. And let me put this in laymen's terms so HardOCP is clear on its stance. I do not want to mince words here.


For god's sake NVIDIA, if you pull this bullshit where NVIDIA Surround "games" will not work on Eyefinity configurations, we are going to beat NVIDIA down repeatedly and publicly for harming the PC gaming industry. Keep those crappy proprietary PhysX policies, but if you start messing with OUR multi-display gaming and not letting it remain "open platform," I will personally lead the mob with the burning torches to the castle gates. And we will be fully prepared to use the torches. I will personally lead a boycott of NVIDIA products if I see NVIDIA harm multi-display gaming in the marketplace through an IP grab. Multi-display gaming belongs to gamers, not NVIDIA.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Nou, hij moet Eyefinity wel heel leuk vinden.... :D

En toch heeft hij wel enigszins gelijk.

Keep things open, keep things for everyone!

Persoonlijk vind ik multi display gaming nog niet zo heel interessant. Zo lang als er nog randen op monitoren (bezels?) zijn, wil ik het echt niet hebben. Het is leuk dat het kan, maar mij te duur. En té overdreven. En gebruikt me teveel stroom. Maar goed. Dat is persoonlijk. Ik vind 24" inch al leuk zat eigenlijk. :) Maar wie weet... Oooit... >:)

[ Voor 59% gewijzigd door Format-C op 09-01-2010 23:46 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 03-06 10:26

Darkasantion

Just keep swimming!

Ik moet zeggen, het is nu het feit dat ik:

1) nog bij me ouders woon, en die zullen niet blij zijn als met 3 schermen aan kom zetten
2) Het kost nogal wat, en zoveel heb ik (nog) niet :P
3) Als, dan wil ik 3x24" inch, en om dat op de hoogste IQ te draaien kost nogal wat rekenkracht, dus dat is afwachten op de volgende generatie en CF support van Eyefinty :P
4) Er moeten dunnere schermen komen, wil dan wel zo min mogelijk onderbreking tussen de 3 schermen :P

PS. Ik geef HardOCP groot gelijk, als Nvidia het aandurft om Nfinity, ik bedoel Nvidia 3D Stereo Vision alleen met "hun" games te laten werken, zal het zeker door iedereen worden geboycot.....

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Mja, dat item wat jij zegt (3) speelt voor mij ook wel mee hoor; het kost zo ontieglijk veel rekenkracht die resolutie, dat je wel Quad SLi of Quad CF met Fermi's of HD5970's nodig hebt om fatsoelijke framerates (60) te halen in een hoop nieuwe games. Dat zie ik ook niet echt zitten.... :N

Ben allang blij dat ik nu ALLES vol open kan draaien. :D

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 11:14
[b][message=33248495,noline]Zo lang als er nog randen op monitoren (bezels?) zijn, wil ik het echt niet hebben.
Dat hangt van de game af hoor :)

Beste voorbeeld is waarschijnlijk GRID, een van de weinige games die écht goed omspringt met zulke resoluties. De randen om het middelste scherm heen vallen min of meer gelijk met de stijlen van de auto waar je in zit, dus dan heb je er vrijwel geen last van!

Persoonlijk ben ik overigens niet onder de indruk van NVIDIA's "aankondiging". Het feit dat je twee kaarten nodig hebt vind ik een beetje stom; zoiets als GRID draait op mijn systeem (E8400, 5870) probleemloos (lees: 40-50 FPS, zonder drops). Nu zal dat met opkomende games wel wat minder zijn, maar daar kan de performance verbetering in DX11 veel mee helpen. Verontrustender vind ik nog het feit dat dit misschien een teken is dat GF100 het dus niet zo heel lekker doet?

De tijd zal het leren!

Acties:
  • 0 Henk 'm!

  • KneoK
  • Registratie: December 2001
  • Laatst online: 12:29

KneoK

Not in a million lightyears

Werelds schreef op zondag 10 januari 2010 @ 01:26:
[...]

Dat hangt van de game af hoor :)

Beste voorbeeld is waarschijnlijk GRID, een van de weinige games die écht goed omspringt met zulke resoluties. De randen om het middelste scherm heen vallen min of meer gelijk met de stijlen van de auto waar je in zit, dus dan heb je er vrijwel geen last van!

Persoonlijk ben ik overigens niet onder de indruk van NVIDIA's "aankondiging". Het feit dat je twee kaarten nodig hebt vind ik een beetje stom; zoiets als GRID draait op mijn systeem (E8400, 5870) probleemloos (lees: 40-50 FPS, zonder drops). Nu zal dat met opkomende games wel wat minder zijn, maar daar kan de performance verbetering in DX11 veel mee helpen. Verontrustender vind ik nog het feit dat dit misschien een teken is dat GF100 het dus niet zo heel lekker doet?

De tijd zal het leren!
Dat het op de oudere kaarten niet werkt zonder SLI is nog wat voor te zeggen, die zijn hardwarematig gewoon beperkt tot het aansturen van twee schermen maar dat het ook in de nieuwe GF100 zo geïmplementeerd is vind ik eigenlijk wel een misser, zeker als de competitie met een kaart komt waar je 6 schermen op kunt aansluiten (of er spellen draaien op 6x24" even buiten beschouwing gelaten natuurlijk).

En als stereo vision en eyefinity een beetje gemeengoed wordt denk ik dat het probleem van de randen van een monitor best creatief opgelost kan worden. Er zijn natuurlijk veel meer soorten spellen dan shooters en racegames. Flightsims kunnen aardig profiteren van drie monitoren en de randen kunnen dan mooi in de cockpit verwerkt worden, of een RTS met links je map, in het midden je troepen en rechts je basis.

Ik hoop van harte dat nVidia echt met een dijk van een kaart komt maar als een enkele GPU al met een PEG-6 en PEG-8 connector gevoed moet worden dan zal een dual-GPU kaart voorlopig niet in de planning staan en blijft Ati nog steeds de kroon spannen wat single pcb kaarten betreft.

Prijs blijft natuurlijk speculatie maar ik denk niet dat een GF100 veel minder dan een HD5970 gaat kosten en zit wat performance betreft tussen een HD5870 en HD5970 in als ik de geruchten een beetje goed interpreteer. En natuurlijk zit je met een 5970 met Crossfire afhankelijke profielen maar dat issue wordt in huidige en toekomstige spellen volgens mij steeds minder (zeker nu Ati ook met aparte profielen komt in de nieuwe drivers) dus de kaart zal lastig in de markt te zetten zijn.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Darkasantion schreef op zondag 10 januari 2010 @ 00:51:
PS. Ik geef HardOCP groot gelijk, als Nvidia het aandurft om Nfinity, ik bedoel Nvidia 3D Stereo Vision alleen met "hun" games te laten werken, zal het zeker door iedereen worden geboycot.....
Als je onder iedereen elke tweaker die niet nVidia fanboy is bedoeld heb je idd gelijk, maar ga er maar vanuit dat niet iedereen een tweaker is. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 11:14
KneoK schreef op zondag 10 januari 2010 @ 02:42:
[...]En als stereo vision en eyefinity een beetje gemeengoed wordt denk ik dat het probleem van de randen van een monitor best creatief opgelost kan worden. Er zijn natuurlijk veel meer soorten spellen dan shooters en racegames. Flightsims kunnen aardig profiteren van drie monitoren en de randen kunnen dan mooi in de cockpit verwerkt worden, of een RTS met links je map, in het midden je troepen en rechts je basis.
Shooters zullen nog het irritantste blijven denk ik zo. In een RTS kan het heel mooi zelfs, kijk maar naar Supreme Commander!

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Klinkt als paybacktime voor nVidia wat betreft het ''verraad'' van XFX. Ik keur het niet goed maar voor XFX hoop ik dat ATi competitief blijft, anders zie ik het Taiwanese bedrijf relatief snel een andere sector opzoeken in plaats van de enthousiast-kaarten van ATi te verkopen.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Kan dat zomaar?

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Barrybobslee
  • Registratie: Januari 2009
  • Laatst online: 05-06 20:33
Wat is voor een Geforce 8600GTS een goede tempratuur?
Ik zit namelijk op de 50 tot 52 graden

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Misschien kan je het hier vinden ;)

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • reneski
  • Registratie: Augustus 2009
  • Laatst online: 18-02 18:46
Heeft Nvidia al een kaart uitgebracht met DTS-HD/Dolby TrueHD support over hdmi?
Zo ja, welke? En zo nee is er al bekend wanneer en of deze komt?

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 01-06 19:22

Edmin

Crew Council

get on my horse!

Nee en nee.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Darkasantion schreef op zondag 10 januari 2010 @ 00:51:PS. Ik geef HardOCP groot gelijk, als Nvidia het aandurft om Nfinity, ik bedoel Nvidia 3D Stereo Vision alleen met "hun" games te laten werken, zal het zeker door iedereen worden geboycot.....
Waarom ?? Omdat nVidia nou eenmaal goede ideeën beter uitwerkt dan ATI :?
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op :Y)

UVD vs. PureVideo is een ander mooi voorbeeld ...

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
neliz schreef op zaterdag 09 januari 2010 @ 02:31:
[...]


Hoeveel PEG 8pins powerkabels gaan er in die GF100 kaarten?

en hoeveel zitten er in deze?
Dit bedoelde ik dus. ;)

Afbeeldingslocatie: http://tweakers.net/ext/f/UnT4BxqqEZvfjpaBhQ1015q6/full.jpg
nero355 schreef op maandag 11 januari 2010 @ 11:31:
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op :Y)
Heb je het al eens geprobeerd? Trackmania Nations kan het standaard al dus heb je alleen een brilletje nodig en dan ben je klaar om scheel te worden en hoofdpijn te krijgen. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 01-06 19:22

Edmin

Crew Council

get on my horse!

nero355 schreef op maandag 11 januari 2010 @ 11:31:
[...]

Waarom ?? Omdat nVidia nou eenmaal goede ideeën beter uitwerkt dan ATI :?
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op :Y)

UVD vs. PureVideo is een ander mooi voorbeeld ...
Ik ben anders laaiend benieuwd hoe lang het gaat duren voordat NV de eerste NV-only multimonitorgame (nee, geen 3d) gaat marketen. Zou me niets verbazen als je zelfs AA al aan je eigen hardware wil koppelen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Ik ben het wel met HardOCP eens. Ik durf te wedden dat AMD nVidia gewoon zijn gang laat gaan met games die nu eyefinity ondersteunen. Maar ik zie nVidia wel een aantal nv only games maken. In dat geval verdienen ze het wat mij betreft om er flink van langs te krijgen. Physics was al erg genoeg. Ze hebben zelfs de ex aigea klanten in de kou laten staan door die kaart niet meer te ondersteunen. En dat vind ik wel heel erg jammer.

En dat gedoe met Assasins Creed was ook heel jammerlijk. een DX10.1 patch terug draaien omdat je zelf de hardware niet hebt en vervolgens een hele tijd later wel met DX10.1 kaarten komen. En dan natuurlijk de AA in Badman.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 03-06 10:26

Darkasantion

Just keep swimming!

Edmin schreef op maandag 11 januari 2010 @ 12:54:
[...]

Ik ben anders laaiend benieuwd hoe lang het gaat duren voordat NV de eerste NV-only multimonitorgame (nee, geen 3d) gaat marketen. Zou me niets verbazen als je zelfs AA al aan je eigen hardware wil koppelen.
Laten wij dan vooral niet vergeten dat het AA was die er gewoon al in de game engine zat, maar zij hebben de betreffende developer er gewoon op gewezen. Dus ja, ik zie Nvidia er inderdaad op dit moment er wel voor aan ja om zoiets te flikken.
nero355 schreef op maandag 11 januari 2010 @ 11:31:
[...]

Waarom ?? Omdat nVidia nou eenmaal goede ideeën beter uitwerkt dan ATI :?
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op :Y)

UVD vs. PureVideo is een ander mooi voorbeeld ...
Goede ideeën beter uitwerken? Nvidia kon dit blijkbaar al 2 jaar, omdat hun "oude" kaarten dit al konden, zoals nu blijkt, maar dan alleen als het een SLi-setup is. ATI komt nu met dit concept waarbij je maar 1 kaart nodig hebt om 3(en straks 6) monitoren aan te sturen, voordat Nvidia met hun "idee" kwam.

ATi heeft gewoon een goed idee als 1e uitgewerkt, en Nvidia heeft dan maar snel iets in elkaar proberen te zetten om niet al te hard af te gaan na al het gedoe met Fermi, maar ze konden het al lang, maar hebben deze optie nooit uitgevoerd of gezien(goh das pas slim.... not!)

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

-The_Mask- schreef op maandag 11 januari 2010 @ 11:40:
Heb je het al eens geprobeerd? Trackmania Nations kan het standaard al dus heb je alleen een brilletje nodig en dan ben je klaar om scheel te worden en hoofdpijn te krijgen. ;)
Dat werkt niet op een 1900XTX of mijn tijdelijke 5770 en mijn HTPC met een 9300 ... nou ja je weet zelf ook wel hoe "snel" dat uitpakt in FPS ;)
Darkasantion schreef op maandag 11 januari 2010 @ 14:01:
ATi heeft gewoon een goed idee als 1e uitgewerkt, en Nvidia heeft dan maar snel iets in elkaar proberen te zetten om niet al te hard af te gaan na al het gedoe met Fermi, maar ze konden het al lang, maar hebben deze optie nooit uitgevoerd of gezien(goh das pas slim.... not!)
En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te laten :/ Wat dat betreft passen AMD en ATI perfect bij elkaar ...

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Astennu schreef op maandag 11 januari 2010 @ 13:55:
Ik durf te wedden dat AMD nVidia gewoon zijn gang laat gaan met games die nu eyefinity ondersteunen.
Volgens mij zie je het verkeerd om, en ondersteunt ATi eyefinity in een hoop games, en is het niet zo dat een bepaalde game eyefinity ondersteunt.


Edit; volgens mij heeft het zelfs helemaal niks met de games zelf te maken. Maar wel met de driver (ondersteuning). Edit2; en ik kan me zélfs niet voorstellen dat er games voor geoptimaliseerd zullen gaan worden, omdat het simpelweg voor veel mensen niet is weggelegd. Enkel voor wat enthousiasts.

[ Voor 30% gewijzigd door Format-C op 11-01-2010 15:13 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Format-C schreef op maandag 11 januari 2010 @ 15:09:
[...]
Volgens mij zie je het verkeerd om, en ondersteunt ATi eyefinity in een hoop games, en is het niet zo dat een bepaalde game eyefinity ondersteunt.
Volgens mij kan het twee kanten op. Games hoeven volgens mij weinig support te hebben. Meeste moet in de drivers gedaan worden. Games moeten wel Ultra Widescreen resoluties kunnen. Dus het is een beetje ja en nee. Maar volgens mij kunnen ze best een detectie inbouwen waardoor de een het niet meer kan.

Daarnaast maakt Eyefinity er niet altijd een groter scherm van. Want ze zij schermen krijgen een speciaal effect mee. (volgens mij niet in alle games).

En over dat verbruik van Fermi. 450 watt zal het echt niet zijn. De cooler van de 5970 kan wel 400 watt aan. Maar stock verbruik hij 290. Met overclocken komt hij wel in de buurt van die 400 watt. Of kan hij er zelfs overheen gaan als je de core voltages maar genoeg verhoogt. Ik denk ook niet dat nVidia over die 300 watt heen wil gaan. Omdat dit op dit moment de officiële limit is. Met een goede PSU kan je er makkelijk overheen. Maar officieel zou je op 300 watt uit komen. Of met 2x8p max 375 watt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sinester
  • Registratie: Januari 2006
  • Laatst online: 21-05 12:55

Sinester

Game Guru

nero355 schreef op maandag 11 januari 2010 @ 14:33:
[...]
[...]

En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te laten :/ Wat dat betreft passen AMD en ATI perfect bij elkaar ...
Geef is wat voorbeelden dan? kan me zo snel niks bedenken waarmee ATI net niet nVidia voorbij kon komen
Wat ik nu zie is ATI overal mee in het voordeel, maar ik kan het mis hebben

Hello there


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 10:27
Zou Nvidia dit echt gedaan hebben als payback actie?
Of is er iemand die nog een andere reden kan bedenken/weet?
nero355 schreef op maandag 11 januari 2010 @ 14:33:
En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te laten :/ Wat dat betreft passen AMD en ATI perfect bij elkaar ...
Het is verleidelijk om hier inhoudelijk op in te gaan, maar dat doe ik niet omdat dit een Nvidia nieuws & discussie (over het nieuws) topic is. Geen ATI sux Nvidia rox dus. ;)
Prima dat je een fanboy bent, maar laten we het zoveel mogelijk ontopic houden.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 11:14
[b][message=33256492,noline]En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te laten :/ Wat dat betreft passen AMD en ATI perfect bij elkaar ...
Hoe heeft ATI Eyefinity niet goed uitgewerkt dan? Ofwel je drukt jezelf een beetje vreemd uit, of je doelt op 3D technologie, wat een totaal ander punt is.

Feit blijft dat NVIDIA hun multimonitor oplossing niet goed heeft uitgewerkt; ze verplichten je meteen tot het gebruik van twee kaarten. We weten allemaal dat SLI/Crossfire (en helaas ook Hydra) niet volledig vlekkeloos werken.

En ja, ik zie het ook wel gebeuren dat ze developers zover krijgen om op ATI hardware de multimonitor opstellingen te verkrachten. Hun manier om je een (of eigenlijk twee?) kaart te verkopen die meer kost dan hij waard is ;)

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Werelds schreef op maandag 11 januari 2010 @ 15:21:
[...]

Hoe heeft ATI Eyefinity niet goed uitgewerkt dan? Ofwel je drukt jezelf een beetje vreemd uit, of je doelt op 3D technologie, wat een totaal ander punt is.

Feit blijft dat NVIDIA hun multimonitor oplossing niet goed heeft uitgewerkt; ze verplichten je meteen tot het gebruik van twee kaarten. We weten allemaal dat SLI/Crossfire (en helaas ook Hydra) niet volledig vlekkeloos werken.

En ja, ik zie het ook wel gebeuren dat ze developers zover krijgen om op ATI hardware de multimonitor opstellingen te verkrachten. Hun manier om je een (of eigenlijk twee?) kaart te verkopen die meer kost dan hij waard is ;)
Je vergeet even dat 3d gamen over 3 schermen stuk ingewikkelder is dan 3 schermen een beeld te laten genereren.. Maar toch heb je deels wel gelijk dat voor 2d ook SLI nodig is.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Astennu schreef op maandag 11 januari 2010 @ 15:17:
Maar volgens mij kunnen ze best een detectie inbouwen waardoor de een het niet meer kan.
Kijk, en als dát gebeurt, is het hek van de dam.

Als nV besluit dát te doen denk ik dat ze de lul zijn. Mensen zijn nu al een beetje zat van de manier waarop ze hun dingen doen, en als ze dat gaan doen is het echt... ehm.... :')

Maar goed. De toekomst zal het uitwijzen.


Ik hoef zowieso geen multimonitor setup. :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Eyefinity/Surround view heeft TWEE eisen voor optimale gameplay:

Een applicatie die de windows resolutie pakt en niet met een voorgebakken lijst van single monitor resoluties komt.

Flexibele gecentreerde hud. De game moet aangepast zijn om de hud altijd op het middelste scherm te zetten en niet, wat je nu vaak ziet, hud items of menu opties uitgelijnd aan de linker of rechterkant van het scherm.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Format-C schreef op maandag 11 januari 2010 @ 15:41:
Ik hoef zowieso geen multimonitor setup. :)
* Anoniem: 167751 vraagt zich af wie er volgende week een multimonitor setup heeft. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

daan! schreef op maandag 11 januari 2010 @ 15:20:
Het is verleidelijk om hier inhoudelijk op in te gaan, maar dat doe ik niet omdat dit een Nvidia nieuws & discussie (over het nieuws) topic is. Geen ATI sux Nvidia rox dus. ;)
Prima dat je een fanboy bent, maar laten we het zoveel mogelijk ontopic houden.
Dat ben ik niet : Je zou zelfs kunnen zeggen dat ik van beide vind dat ze lopen te prutsen :P

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

nero355 schreef op maandag 11 januari 2010 @ 15:49:
Dat ben ik niet : Je zou zelfs kunnen zeggen dat ik van beide vind dat ze lopen te prutsen :P
Ook al game je er niet op, ik werk al jaren multi-monitor (sinds de R300) en het is gewoon makkelijk om je game appart te hebben van je ventrillo/teamspeak/xfire/msn schermen en het werkt heerlijk zodra een game het ondersteund (Supreme Commander) bij slechts twee schermen.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 11:14
Xenomorphh schreef op maandag 11 januari 2010 @ 15:27:
[...]


Je vergeet even dat 3d gamen over 3 schermen stuk ingewikkelder is dan 3 schermen een beeld te laten genereren.. Maar toch heb je deels wel gelijk dat voor 2d ook SLI nodig is.
Uiteraard, maar ik had het puur over de multimonitor mogelijkheden, niet over het 3D gedeelte. Ik hoop voor NVIDIA dat ze qua performance ATI voor zijn met Fermi, en dat ze de kaarten voor de verandering eens voor een normale prijs beschikbaar maken, anders denk ik dat iedereen die geen merk-fan is (ikzelf bijvoorbeeld) toch naar ATI gaat (of daarbij blijft).

Acties:
  • 0 Henk 'm!

  • FSXnoob
  • Registratie: Mei 2006
  • Laatst online: 23-05 17:35
Zijn er mensen met ervaringen van gtx 285 classified ?

Ik heb deze kaart gewonnen met voten op game van het jaar, maar weet niet of ik het zelf moet houden of verkopen, de kaart is in NL 499 euro zie ik, je kan het als een gek overlocken lees ik ook op google, maar ik ben voor dat een amateur helaas.. Ook de enige kaart die werkt met EVGA EVBot tool zie ik.

Zijn er mensen die meer van deze kaart weten of ervaringen mee hebben? Ik blijf twijfelen om het te houden of verkopen en dan gewoon voor deen 285 FTW of AMP gaan zonder er aan te hoeven rotzooien...

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Tuzla schreef op maandag 11 januari 2010 @ 18:20:
Ik blijf twijfelen om het te houden of verkopen
Verkopen een HD5850 moet je wel voor kunnen halen misschien vind je zelf een gek die hem wil ruilen voor een HD5870. :P

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 01-06 19:22

Edmin

Crew Council

get on my horse!

Nieuws & discussie.

Niet ervaringen en aankoopadvies.

Wel gefeliciteerd met je kaart, overigens.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ik vind het allemaal maar een beetje vreemd.

Na jarenlang van gesteggel krijgt nVidia het eindelijk min of meer voor elkaar om 2 monitoren aan te sturen in SLI-modus, terwijl crossfire dit al jaren kan.

Vervolgens toont AMD de wereld Eyefinity, met beeldaansturing/gaming tot op 6 monitoren per kaart. Vervolgens komt nVidia, die jarenlang geen 2 schermen kon aansturen bij SLI met hun '3 monitoren' oplossing, waarbij SLI verplicht is... Dit druist overigens ook een beetje in tegen de standaard opmerkingen dat nVidia zijn driver-gebeuren altijd veel beter voor elkaar heeft dan AMD/ATI.


Punt is in ieder geval. Nu moet je, om 3 schermen aan te kunnen sturen, SLI draaien met (zoals het er nu naar uit zit) ten minste een GT200 chip, waarbij 1 van de 2 kaarten slechts 1/3 van het totale beeld berekent, dus eigenlijk voor een groot deel uit zijn neus loopt te eten.

Het zou me persoonlijk niet verbazen als er problemen kunnen ontstaan dat het ene beeld, dat door de 'tweede' kaart wordt berekend, opeens een hogere framerate haalt dan de andere 2 schermen, waardoor je er heel vreemd tegen aan kan kijken. De vraag is dan ook of nVidia hierop voorbereidt is en of ze eventuele problemen uberhaupt op kunnen lossen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
neliz schreef op maandag 11 januari 2010 @ 15:57:
[...]


Ook al game je er niet op, ik werk al jaren multi-monitor (sinds de R300) en het is gewoon makkelijk om je game appart te hebben van je ventrillo/teamspeak/xfire/msn schermen en het werkt heerlijk zodra een game het ondersteund (Supreme Commander) bij slechts twee schermen.
Bij supreme commander is het ideaal !! Op een scherm de mooie overview radar op de ander je main base. Kun je alles op tijd aan zien komen :D

Maar veder heb ik het niet perse nodig. MSN hoeft voor mij niet tegelijk. Bij sommige games mag je ook geen alt tab doen.

Alleen Ik ga tot nu toe nog liever voor een groot scherm dan Eyefinity al heeft dat grotere zicht veld wel een voordeel. Eerst had je dat ook door de resolutie maar dat is tegenwoordig niet meer. Dat ligt nu vast. Met Eyfinity kun je wel wat extra krijgen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 10:51
Over nvidia's deep dive meeting:
It was all technical. But no clock speeds, power consumption or benchmarks were being shown…yet at least," the source confirmed at the time of writing.

Source

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

http://www.fudzilla.com/content/view/17197/34/

[ Voor 34% gewijzigd door Xenomorphh op 12-01-2010 11:27 ]

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

enkele "weken" later trouwens. Misschien annoncering in April of net voor Computex?

Trouwens, is Fuad op z'n pik getrapt omdat hij het afgelopen jaar is voorgelogen en misbruikt door NVPR?
It is definitely not fun to be in Nvidia's shoes, especially when it comes to the desktop graphics card market.

[ Voor 36% gewijzigd door neliz op 12-01-2010 11:34 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 15-11-2024
Er zit wel opvallend veel meer realisme dan misplaatst optimisme in de fudzilla posts de laatste tijd. :)

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Toch vraag ik me af hoe ze het willen doen het blijkt dat 1 single chip meer hitte produceert dan een GTX285 maar 2 GTX285's konden ze al niet goed als 1 kaart verkopen. Want die viel al uit door de hitte (mars)

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Xenomorphh schreef op dinsdag 12 januari 2010 @ 11:39:
Toch vraag ik me af hoe ze het willen doen het blijkt dat 1 single chip meer hitte produceert dan een GTX285 maar 2 GTX285's konden ze al niet goed als 1 kaart verkopen. Want die viel al uit door de hitte (mars)
als je geen 2x512CC verwacht moet het wel lukken toch?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 04-06 22:01
Gewoon geen dual kaart uitbrengen :+

Of net als de 5970, clockspeeds omlaag en de beste chips er uit pikken om ze op zo'n laag mogelijk voltage te laten draaien.

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 10:51
neliz schreef op dinsdag 12 januari 2010 @ 11:46:
[...]


als je geen 2x512CC verwacht moet het wel lukken toch?
2x256CC toch? :)

[ Voor 15% gewijzigd door Blastpe op 12-01-2010 13:44 ]


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

neliz schreef op dinsdag 12 januari 2010 @ 11:46:
[...]


als je geen 2x512CC verwacht moet het wel lukken toch?
Nou 512 is misschien inderdaad veel maar ik zou er toch wel graag 400+ zien of 380 zo iets iig niet minder.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Xenomorphh schreef op dinsdag 12 januari 2010 @ 11:39:
Toch vraag ik me af hoe ze het willen doen het blijkt dat 1 single chip meer hitte produceert dan een GTX285 maar 2 GTX285's konden ze al niet goed als 1 kaart verkopen. Want die viel al uit door de hitte (mars)
Door dezelfde soort dingen te doen als AMD met de 5970. Lagere clocks of shaders uitschakelen of misschien beide. De GTX285 was ook niet exact 2x GTX285.

Bij AMD zie je wel een grappige trent:
HD3870 Single = 775-1125 GDDR4
HD3870 X2 = 825-900 GDDR3

HD4870 Single = 750-900 GDDR5
HD4870 X2 = 750-900 GDDR5

HD5870 Single = 850-1200 GDDR5
HD5970 = 725-1000 GDDR5

Shaders zijn altijd gelijk gebleven.

Maar goed het verbruik van de single kaarten wordt ook steeds iets hoger. Al heeft de 5970 een veel lager verbruik dan de HD4870 X2.

Ik weet uit me hooft niet hoe dit bij de 7900GX2 en de 9800GX2 was. Maar ik kan me voorstellen dat de GT300 GX2 meer 2x een GTX360 wordt.

[ Voor 3% gewijzigd door Astennu op 12-01-2010 12:14 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35

Fermi GF100 is a single chip GT300-based 40nm DirectX 11 card. Nvidia plans to launch two cards that will aim to replace Geforce GTX 285 and Geforce GTX 260 in enthusiast and performance markets respectively, while the high-end dual-chip Fermi card will come after.

We don’t know how much later the dual-GPU should launch, but it should happen within one to two months. If all goes well and it doesn’t get delayed, we can hope to see it by May. Around that time, ATI might be ready with its refreshed 40nm cards that might have more juice and could compete better. However, this is only after Nvidia finally launches its GT300, Fermi-based products.

It is definitely not fun to be in Nvidia's shoes, especially when it comes to the desktop graphics card market.


Bron: Fudzilla

:9 ik gok op 400 watt voor de dual gpu :P

Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
Ik ben benieuwd of wanneer Fermi eindelijk launched we dan ook weer eerst maaaaaanden van slechte leverbaarheid gaan zien net zoals bij de ATI 5000 series.

Specs


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

M4gick schreef op dinsdag 12 januari 2010 @ 17:53:

Fermi GF100 is a single chip GT300-based 40nm DirectX 11 card. Nvidia plans to launch two cards that will aim to replace Geforce GTX 285 and Geforce GTX 260 in enthusiast and performance markets respectively, while the high-end dual-chip Fermi card will come after.

We don’t know how much later the dual-GPU should launch, but it should happen within one to two months. If all goes well and it doesn’t get delayed, we can hope to see it by May. Around that time, ATI might be ready with its refreshed 40nm cards that might have more juice and could compete better. However, this is only after Nvidia finally launches its GT300, Fermi-based products.

It is definitely not fun to be in Nvidia's shoes, especially when it comes to the desktop graphics card market.


Bron: Fudzilla

:9 ik gok op 400 watt voor de dual gpu :P
Xenomorphh in "[Algemeen] nVidia Nieuws & Discussie Top..." :P

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Naluh! schreef op dinsdag 12 januari 2010 @ 18:04:
Ik ben benieuwd of wanneer Fermi eindelijk launched we dan ook weer eerst maaaaaanden van slechte leverbaarheid gaan zien net zoals bij de ATI 5000 series.
Gezien hoe complex het is denk ik dat het nog veel erger gaat worden dan met de 5870. Ik denk dat ze @ launch amper te krijgen zullen zijn. War dat bij de HD5870 wel lukte omdat AMD aardig wat opgespaard had wat in een keer de verkoop kanalen in ging.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 05-06 21:32
Naluh! schreef op dinsdag 12 januari 2010 @ 18:04:
Ik ben benieuwd of wanneer Fermi eindelijk launched we dan ook weer eerst maaaaaanden van slechte leverbaarheid gaan zien net zoals bij de ATI 5000 series.
Wat dat betreft heeft het volgende bericht van Fud weinig goeds te melden:
Cypress yields not a problem
Written by David Stellmack
Tuesday, 12 January 2010 18:01


40nm process getting 60% to 80%

Claims that the current TSMC 40nm process that is being used for the AMD/ATI Cypress family is achieving yields of in the neighborhood of 40% don’t seem to have a shred of truth. Our sources close to TSMC claim that actually the 40nm process that is being used for the Cypress family is routinely achieving yields in the 60% to 80% range, which is actually confirmed by the fact that ATI is keeping product in the pipeline and you can actually buy boards at retail.

Chip yields seem to be the topic of discussion lately as the much larger Nvidia Fermi chip is struggling with yield issues as our sources suggest that the actual yields are as low as 20% and are not improving quickly according to sources close to the fabs. With wafer starts costing about $5K the numbers suggest that each chip would cost an astounding estimated $200 per chip which pegs the card with a sticker price of about $600.

Those in the known are claiming that Fermi despite the yield and thermal issues is only about 20% faster than Cypress, while Hemlock smokes it. The combination of low yields, high thermals, and marginally better performance than Cypress could be conspiring to place Nvida in the position of having to release the card, but have to sell it at a loss till they are able to address the issues in the next spin according to sources. Because of the situation a mole we know is suggesting that Nvidia may limit the sales of Fermi to consumers and instead use the chips for the Tesla and Quadro products where prices and margins are much better.

All of the talk of yields seems to be in some ways nothing more than a smoke screen to shine the light off of the current situation to stall sales by promising something that most consumers are likely going to be unable to buy. The moles claim you will not need a pair of 3D glasses to watch this shake out in the next few weeks.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
M4gick schreef op dinsdag 12 januari 2010 @ 17:53:
:9 ik gok op 400 watt voor de dual gpu :P
Ik 300 Watt aangezien die anders niet meer binnen de PCIe specs valt. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
whiteguy schreef op dinsdag 12 januari 2010 @ 20:38:
[...]


Wat dat betreft heeft het volgende bericht van Fud weinig goeds te melden:

[...]
Ja, ik las het :') . Slechte zaak voor de consument, krijg je als de markt wordt beheerst door 2 bedrijven.... :/

Specs


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 10:51

Fermi die means high Nvidia silicon costs ahead

[ Voor 54% gewijzigd door Blastpe op 12-01-2010 22:24 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Naluh! schreef op dinsdag 12 januari 2010 @ 21:52:
[...]

Ja, ik las het :') . Slechte zaak voor de consument, krijg je als de markt wordt beheerst door 2 bedrijven.... :/
Hoezo ? Ik vind de prijzen van AMD best netjes. Dat Winkels en Leveranciers hier nu misbruik van maken is een ander verhaal.

En het is nVidia's eigen schuld hadden ze maar met innovatie's moeten komen ipv Rebrands. Laat ze maar eens flink boetten voor hun gedrag.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 09:18
Astennu schreef op donderdag 14 januari 2010 @ 11:32:
En het is nVidia's eigen schuld hadden ze maar met innovatie's moeten komen ipv Rebrands. Laat ze maar eens flink boetten voor hun gedrag.
Dat kan nog wel even duren ben ik bang, laatst weer pijnlijk met mijn neus op de feiten gedrukt wat betreft casual customers.

Vriend van me met veel verstand van computers (zelfverklaard) had laatst een nieuwe kaart gekocht (een NVIDIA GEFORCE 9800GT met 1GB!!!1!!1 Voor maar 120 euro!!!). Toen ik hem op de hoogte bracht van het feit dat die al een jaar in mijn pc hangt onder de naam 8800GT en er ook even bij vermelde dat hij voor dat geld toch echt betere alternatieven had kunnen kopen van Ati keek meneer me aan alsof hij water zag branden. Ati beter dat Nvidia? Dat bestaat niet, Nvidia is gewoon de beste, punt uit.

Nu weet ik dat dit een vrij random, weinig unieke, persoonlijke ervaring is, maar ik denk dat het wel exemplarisch is voor hoe 'de gemiddelde consument' over deze markt denkt. Jij en ik weten dan wel hoe de vork in de steel zit, maar dat imago dat NV over de jaren heeft opgebouwd legt ze nog altijd geen windeieren.

Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 10:27
Snorro schreef op donderdag 14 januari 2010 @ 11:48:
Nu weet ik dat dit een vrij random, weinig unieke, persoonlijke ervaring is, maar ik denk dat het wel exemplarisch is voor hoe 'de gemiddelde consument' over deze markt denkt. Jij en ik weten dan wel hoe de vork in de steel zit, maar dat imago dat NV over de jaren heeft opgebouwd legt ze nog altijd geen windeieren.
Dat is ook de ervaring die ik heb met anderen.
Mensen die weinig van computers weten kennen alleen de naam Nvidia.
Mensen die wel aardig wat van computers weten kennen beide namen, maar zijn er heilig van overtuigd dat Nvidia beter is.
Het lijkt erop dat alleen de mensen die zich er echt in verdiept hebben weten hoe de vork in de steel steek. (Dùh!)
Niet dat die mensen allemaal voor ATI gaan ofzo, maar ze kunnen hun keuze goed onderbouwen.
Wie weet kan ATI/AMD wat van het extra verdiende geld van de afgelopen tijd in extra PR stoppen.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Dat soort dingen maak ik bij al mijn vrienden mee, die iets of wat verstand van computers hebben.

Acties:
  • 0 Henk 'm!

Anoniem: 339353

Volgens Nvidia zijn alle yield problemen die ze hadden met Fermi opgelost. Nu maar wachten wanneer er een datum bekend word gemaakt.

De Tegra chip kan Nvidia nog wel boven water houden denk ik. Ik heb trouwens gemist waarom Intel geen licentie voor chipsets aan Nvidia heeft gegeven, of hebben ze dat niet bekendgemaakt?
Snorro schreef op donderdag 14 januari 2010 @ 11:48:
[...]Nu weet ik dat dit een vrij random, weinig unieke, persoonlijke ervaring is, maar ik denk dat het wel exemplarisch is voor hoe 'de gemiddelde consument' over deze markt denkt. Jij en ik weten dan wel hoe de vork in de steel zit, maar dat imago dat NV over de jaren heeft opgebouwd legt ze nog altijd geen windeieren.
Maar ik heb ook al verhalen over de 58xx serie van Ati gehoord dat er behalve de levertijden ook brakke drivers voor veel problemen zorgen, en strepen op het scherm, etc. En in het verleden heeft Ati ook veel overhittingsproblemen gehad. Die problemen heb ik niet gehad met Nvidia kaarten.

[ Voor 3% gewijzigd door Anoniem: 339353 op 14-01-2010 12:44 ]


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 10:51
Anoniem: 339353 schreef op donderdag 14 januari 2010 @ 12:43:
Volgens Nvidia zijn alle yield problemen die ze hadden met Fermi opgelost. Nu maar wachten wanneer er een datum bekend word gemaakt.
Waar heb je dat gehoord?
Het beste wat ik tot nu gehoord gelezen heb is 20%

[ Voor 9% gewijzigd door Blastpe op 14-01-2010 12:53 ]


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 15-11-2024
En van sub 20% naar alles opgelost in een dikke week? Highly unlikely. :)

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • zero_cool89
  • Registratie: Juni 2006
  • Laatst online: 18-09-2024
[b]Shepard schreef op donderdag 14 januari 2010 @ 12:43
Maar ik heb ook al verhalen over de 58xx serie van Ati gehoord dat er behalve de levertijden ook brakke drivers voor veel problemen zorgen, en strepen op het scherm, etc. En in het verleden heeft Ati ook veel overhittingsproblemen gehad. Die problemen heb ik niet gehad met Nvidia kaarten.
Nu wil ik geen fanboy uithangen maar ik moet je even wijzen op een nog veel grotere fout die nVidia heeft gemaakt met hun G80 chips. De chips gaan na 2-4 jaar gebruik bijna zeker kapot omdat. Nvidia heeft hier niets aan gedaan en de chips gewoon doorverkocht ook al wisten ze van dit probleem.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Anoniem: 339353 schreef op donderdag 14 januari 2010 @ 12:43:
Volgens Nvidia zijn alle yield problemen die ze hadden met Fermi opgelost. Nu maar wachten wanneer er een datum bekend word gemaakt.
Bron?

Dus... zoals hierboven aangegeven... wat moet een bedrijf anders zeggen over hun eigen producten als het tegenzit op het moment? Ik denk dat dit een retorische vraag is.

Acties:
  • 0 Henk 'm!

Anoniem: 339353

Okay fair enough. Maar ik dacht dat ze op de CES zeiden dat ze hard bezig waren met het produceren.

En lol, verder was er op 4chan nog iemand die wel kon bewijzen dat hij bij de marketingsafdeling bij Nvidia werkte zei dat alle problemen opgelost waren, maar dat is natuurlijk geen enkel bewijs.
zero_cool89 schreef op donderdag 14 januari 2010 @ 12:53:
[...]Nu wil ik geen fanboy uithangen maar ik moet je even wijzen op een nog veel grotere fout die nVidia heeft gemaakt met hun G80 chips. De chips gaan na 2-4 jaar gebruik bijna zeker kapot omdat. Nvidia heeft hier niets aan gedaan en de chips gewoon doorverkocht ook al wisten ze van dit probleem.
Daar was ik niet van op de hoogte, kan je een linkje geven? Ik hoop dan dat mijn Nvidia kaart van 2007 dan een G82 chip heeft.

Acties:
  • 0 Henk 'm!

  • zero_cool89
  • Registratie: Juni 2006
  • Laatst online: 18-09-2024
[b]Shepard schreef op donderdag 14 januari 2010 @ 13:00

Daar was ik niet van op de hoogte, kan je een linkje geven? Ik hoop dan dat mijn Nvidia kaart van 2007 dan een G82 chip heeft.
Kijk hier maar:
base_ in "Het doodgaan van G80GTX/Ultra kaarten"

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Anoniem: 339353 schreef op donderdag 14 januari 2010 @ 12:43:
Volgens Nvidia zijn alle yield problemen die ze hadden met Fermi opgelost. Nu maar wachten wanneer er een datum bekend word gemaakt.

De Tegra chip kan Nvidia nog wel boven water houden denk ik. Ik heb trouwens gemist waarom Intel geen licentie voor chipsets aan Nvidia heeft gegeven, of hebben ze dat niet bekendgemaakt?


[...]


Maar ik heb ook al verhalen over de 58xx serie van Ati gehoord dat er behalve de levertijden ook brakke drivers voor veel problemen zorgen, en strepen op het scherm, etc. En in het verleden heeft Ati ook veel overhittingsproblemen gehad. Die problemen heb ik niet gehad met Nvidia kaarten.
Het verleden is een garantie voor de toekomst. Maar welke kaarten hadden dan last van oververhitting ? Ik heb vanaf de Radeon 8500 letterlijk alle mid/highend kaarten gehad. En allemaal heb ik ze overgeclockt. Kan me er geen herinneren die last van oververhitting had met de stock cooler. Bij de 9800 pro was er een serie waar de fan herrie ging maken. En vroeger gingen die kleiner coolertjes nog wel een kapot maar dat was ook bij nVidia kaarten.

Die strepen waar mensen nu last van hebben is inderdaad een raar probleem maar ik krijg niet het idee dat dat iets hardware matigs is. Plaats die die kaart op een ander moederbord werkt deze ineens perfect. Ik heb zelf 3 5850's gehad en die werken stock helemaal perfect. Alleen met hoge overclocks kan ik strepen krijgen maar dat is ook niet raar met overclocken. Elke kaart heeft namelijk zijn limieten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 04-06 22:01
-The_Mask- schreef op dinsdag 12 januari 2010 @ 20:40:
[...]

Ik 300 Watt aangezien die anders niet meer binnen de PCIe specs valt. ;)
Waarom zouden ze zich daar nu opeens wel aan houden? De 5970 zou het 'maximale' verbruiken volgens de PCIe specs. Maar de GTX 295 en 4870X2 verbruiken rustig nog veel meer!

Ik vind het maar een slap gelul, het lijkt me niet dat dit pas na de launch van de GTX 295 is ingevoerd............
spNk schreef op donderdag 14 januari 2010 @ 12:12:
Dat soort dingen maak ik bij al mijn vrienden mee, die iets of wat verstand van computers hebben.
Gewoon met de paplepel ingieten dat AMD en ATI altijd een betere prijs/kwaliteit biedt :)
Astennu schreef op donderdag 14 januari 2010 @ 13:27:
[...]
Die strepen waar mensen nu last van hebben is inderdaad een raar probleem maar ik krijg niet het idee dat dat iets hardware matigs is. Plaats die die kaart op een ander moederbord werkt deze ineens perfect. Ik heb zelf 3 5850's gehad en die werken stock helemaal perfect. Alleen met hoge overclocks kan ik strepen krijgen maar dat is ook niet raar met overclocken. Elke kaart heeft namelijk zijn limieten.
Ben je daar wel zo zeker van? Ik het andere topic gaan er toch echt verhalen rond dat nieuwe kaarten wel goed doen, verder is echt niets te zien aan de combinatie van bepaalde chipsets met deze kaarten...

Naja dit is meer iets voor in het andere topic natuurlijk ;)

[ Voor 33% gewijzigd door Stefanovic45 op 14-01-2010 13:57 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
zero_cool89 schreef op donderdag 14 januari 2010 @ 12:53:
[...]


Nu wil ik geen fanboy uithangen maar ik moet je even wijzen op een nog veel grotere fout die nVidia heeft gemaakt met hun G80 chips. De chips gaan na 2-4 jaar gebruik bijna zeker kapot omdat. Nvidia heeft hier niets aan gedaan en de chips gewoon doorverkocht ook al wisten ze van dit probleem.
HOAX!1!! ALLLEMAAL GEBASH VAN CHARLIE!!!!1!!

Tenminste dat was destijds de reactie van de fanboys ;)

Ik zit met angst en beven te kijken naar mijn laptop die ook een 'besmette' chip zou moeten hebben. :')

Specs


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

StefanvanGelder schreef op donderdag 14 januari 2010 @ 13:55:
[...]


Waarom zouden ze zich daar nu opeens wel aan houden? De 5970 zou het 'maximale' verbruiken volgens de PCIe specs. Maar de GTX 295 en 4870X2 verbruiken rustig nog veel meer!

Ik vind het maar een slap gelul, het lijkt me niet dat dit pas na de launch van de GTX 295 is ingevoerd............
Dacht ik ook, maar even nagezocht en zowel de HD4870x2 en de GTX295 hebben ook gewoon een TDP onder de 300W, waarmee het toch wel een regel lijkt te zijn. De enige kaart die er dus overheen is gegaan tot nu toe is de Mars maar dat hebben we geweten, dat ding heeft last van oververhitting en is ook echt voor diehards, dat imago moet fermi niet krijgen dus die zal echt wel onder de 300W blijven.

Opzich wel grappig, want hierdoor gaat de performance-kroon niet naar degene die de lompste chip weet te maken maar naar degene die het meeste performance per watt weet neer te zetten, immers verbruiken van beide fabrikanten de dual-GPU-kaarten evenveel en dat is dan de limiet.

[ Voor 14% gewijzigd door bwerg op 14-01-2010 14:54 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Anoniem: 339353

Volgens die gast op 4chan die bij de nvidia marketing afdeling werkt, verbruikt de fermi meer dan de 5870.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Dat leek me al redelijk vast staan ;) al ben ik wel erg benieuwd naar idle-verbruik, dat is nu helemaal hot heb ik het idee. De g200 was ook verassend zuinig in idle...

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
StefanvanGelder schreef op donderdag 14 januari 2010 @ 13:55:

Waarom zouden ze zich daar nu opeens wel aan houden? De 5970 zou het 'maximale' verbruiken volgens de PCIe specs. Maar de GTX 295 en 4870X2 verbruiken rustig nog veel meer!
Het was waarschijnlijk niet voor niks dat er nieuwsberichten waren dat de HD5970 te veel verbruikte en dat de kloksnelheden lager liggen dan die van de HD5870, grote kans dat ATi/AMD en nVidia dan op hun vingers zijn getikt dat ze zich helemaal niet aan de PCIe standaard hebben gehouden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Door wie? Standaarden zijn leuk om aan te houden, maar je bent niets verplicht. Zie Microsoft bijvoorbeeld.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

spNk schreef op donderdag 14 januari 2010 @ 16:49:
Door wie? Standaarden zijn leuk om aan te houden, maar je bent niets verplicht. Zie Microsoft bijvoorbeeld.
het is wel kut als er geen PCI Express logo op je doos mag staan ;)

http://www.pcisig.com/home

[ Voor 5% gewijzigd door neliz op 14-01-2010 16:51 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Mja, de gemiddelde mens die zo'n kaart koopt weet echt wel of het PCI-E of niet is natuurlijk. :P

Acties:
  • 0 Henk 'm!

Anoniem: 59888

spNk schreef op donderdag 14 januari 2010 @ 16:49:
Door wie? Standaarden zijn leuk om aan te houden, maar je bent niets verplicht. Zie Microsoft bijvoorbeeld.
Je kunt wel leuk een kaart bakken die 500 watt trekt met een monsterventilator er op, maar als daardoor bij de helft van je klanten het PCI-E slot doorfikt omdat je ver boven de standaard zit schiet je daar niet zo veel mee op. ;) Wat ik maar wil zeggen is dat de enige reden dat je willekeurige onderdelen in een PC kunt combineren is dat er standaarden zijn. Je zult je dus wel aan die standaarden moeten houden anders krijg je problemen.

Microsoft is hier geen goede vergelijking omdat het daarbij om software gaat. Bovendien heeft Microsoft een enorm monopolie waardoor ze in staat zijn de rest van de wereld hun standaarden op te leggen, en helaas doen ze dat ook.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
StefanvanGelder schreef op donderdag 14 januari 2010 @ 13:55:
[...]
Ben je daar wel zo zeker van? Ik het andere topic gaan er toch echt verhalen rond dat nieuwe kaarten wel goed doen, verder is echt niets te zien aan de combinatie van bepaalde chipsets met deze kaarten...

Naja dit is meer iets voor in het andere topic natuurlijk ;)
Ik zeg niet dat ik daar zeker van ben. Dat idee krijg ik. + een nieuwe kaart zou ook een nieuwe bios kunnen hebben. Ik vraag me af hoe hoog het persentage mensen is dat echt problemen heeft. Want die polls zeggen weinig. De mensen met problemen stemmen altijd eerder. Maar het is wel een serieus probleem dat er mensen zijn die hier last van hebben dat geef ik toe.
Naluh! schreef op donderdag 14 januari 2010 @ 14:49:
[...]

HOAX!1!! ALLLEMAAL GEBASH VAN CHARLIE!!!!1!!

Tenminste dat was destijds de reactie van de fanboys ;)

Ik zit met angst en beven te kijken naar mijn laptop die ook een 'besmette' chip zou moeten hebben. :')
Yep helaas zijn er genoeg bewijzen. Zie HP en zie hier de topics op tweakers.
-The_Mask- schreef op donderdag 14 januari 2010 @ 15:03:
[...]

Het was waarschijnlijk niet voor niks dat er nieuwsberichten waren dat de HD5970 te veel verbruikte en dat de kloksnelheden lager liggen dan die van de HD5870, grote kans dat ATi/AMD en nVidia dan op hun vingers zijn getikt dat ze zich helemaal niet aan de PCIe standaard hebben gehouden.
Ik vind het ook wel appart hoor dat de HD4870 X2 veel meer verbruikt dan de HD5970. Daar was ik best wel verbaast door. Al zit de HD5970 daar door wel netjes onder de 300 watt. Waar de HD4870 X2 daar overheen gaat. Als ze em op HD5870 Speeds laten lopen kwam er bijna 100 watt bij. Dus zit je ergens rond de 380. En dat is wel erg veel. Qua Performance per watt is dit wel een betere oplossing.

[ Voor 25% gewijzigd door Astennu op 15-01-2010 10:29 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Vooreerst mijn excuses voor mijn afwezigheid gedurende meerdere dagen, dit in combinatie met het verliezen van een klad versie voor de nieuwe TS heeft dus geleid tot een gigantische vertraging van de TS :'(

In ieder geval ik heb vanavond de nieuwe topic aangemaakt, indien iemand mede-auteur wil worden mag deze gerust een berichtje sturen naar mij.
Buiten een paar filmpjes en een demo heeft CES in feite weinig opgeleverd qua concrete data voor de GeForce Fermi kaart, zodoende is enkel het nieuws/geruchten en driver onderdeel echt upgedate.
Verwacht dus ook geen wereldschokkend nieuws in de TS.

Nieuw deeltje:

[Algemeen] nVidia Nieuws & Discussie Topic - Deel 42

Zoals steeds mogen correcties, aanvullingen, spelfouten .... altijd gemeld worden in een PM (beste van al vervuilt het topic niet) of een forum post

Nogmaals mijn excuses voor de gigantische vertraging voor het nieuwe topic, alhoewel nu hopelijk al het CES nieuws nu mooi in 1 deeltje staat geconcentreerd ipv 2 .. alle indien er niet plots nog nieuws ervan boven komt drijven ;)
(Die youtube filmpjes voorspellen niets goed in die zin :9 )

Specs


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 01-06 19:22

Edmin

Crew Council

get on my horse!

Dicht
Pagina: 1 ... 7 8 Laatste

Dit topic is gesloten.