PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik heb het zelf nooit gedaan, maar wel mensen gehoord die het hebben gedaan, en hun conclusies zijn:DeJaapS schreef op zaterdag 09 januari 2010 @ 16:46:
Hoi ik ben op dit moment aan het kijken naar een nieuwe PC/upgrade. En ik ben naar de 3d visions van Nvidia aan het kijken en vraag me af wat de meest economische keuze is voor het beeldscherm.
Ik weet dat mijn huidige scherm niet voldoet voor die 3d bril en Alternate heeft het volledige pakker (scherm+brilset) voor 450 euro. Is dit een goede deal? Of kan ik beter de bril los kopen en er zelf los een scherm bij halen?
En welke videoplank zou er het best op aansluiten? Aannemende dat ik mijn oude scherm nog als een 2e monitor op mijn PC aan wil sluiten?
Dit gaat in combinatie met een upgrade van het MOBO, CPU & geheugen. De HD's die ik op dit moment gebruik zijn nog nieuw en hoeven denk ik niet vervangen te worden.
Duur, koppijn en irritante bril. Maar wel leuk, totdat de hoofdpijn komt..
Ik, zoals je ziet.blieckje schreef op zaterdag 09 januari 2010 @ 13:30:
en wie zegt dat zij hier een standaard connector gebruiken?
Hij heeft geen dubbele aanvoer, dit is gewoon standaard op heel veel voedingen.Darkasantion schreef op zaterdag 09 januari 2010 @ 13:46:
De 8 pins connector heeft dubbele aanvoer, maar is het vragelijk of dit gezien moet worden als een dubbele 8 connector, of dat het gewoon een gimmick is om ATi.AMD op het verkeerde been te zetten.
De ene komt uit de voeding en de andere gaat gewoon naar een andere PEG connector.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ooh, heb dat anders nog nooit gezien-The_Mask- schreef op zaterdag 09 januari 2010 @ 17:17:
[...]
Ik, zoals je ziet.
[...]
Hij heeft geen dubbele aanvoer, dit is gewoon standaard op heel veel voedingen.
De ene komt uit de voeding en de andere gaat gewoon naar een andere PEG connector.
Maar als dat zo is, waarom plakken zij hem dan af? Lijkt me ook wel raar. En waarom doen ze dubbele connectoren op die 8 lijnen, want gag je wel 300Watt op die 8 kabels zetten, dacht namelijk dat 150Watt al de max was voor 8-polig
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
misschien mag er wel zoveel watt over de kabels maar niet op het punt waar de connector contact met de videokaart maakt....Darkasantion schreef op zaterdag 09 januari 2010 @ 17:21:
[...]
Ooh, heb dat anders nog nooit gezien! Als dat zo is, is mijn vorige conclusie ook waardeloos
![]()
Maar als dat zo is, waarom plakken zij hem dan af? Lijkt me ook wel raar. En waarom doen ze dubbele connectoren op die 8 lijnen, want gag je wel 300Watt op die 8 kabels zetten, dacht namelijk dat 150Watt al de max was voor 8-polig
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Misschien een n00bish vraag hoor, maar waar is duidelijk te zien dat ze hem afplakken? Dat witte in het plaatje van Neliz?Darkasantion schreef op zaterdag 09 januari 2010 @ 17:21:
Maar als dat zo is, waarom plakken zij hem dan af? Lijkt me ook wel raar.
Heeft geen speciale krachten en is daar erg boos over.
Inderdaad dat kunnen ook een par lijntjes getekent met paint zijnbwerg schreef op zaterdag 09 januari 2010 @ 17:43:
[...]
Misschien een n00bish vraag hoor, maar waar is duidelijk te zien dat ze hem afplakken? Dat witte in het plaatje van Neliz?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Daar zie je ook weer die dubbele aansluiting.
En waarom watergekoeld? Warmte? Overklokken? Zodat ie beter draait ,dan op stock speeds?
edit:
foto's waren al geplaatst

[ Voor 6% gewijzigd door Bullus op 09-01-2010 18:01 ]
|2600k|Asus 290|
Nee dat is gewoon het woord "geforce" uitgesmeerd over de foto omdat de foto bewogen isXenomorphh schreef op zaterdag 09 januari 2010 @ 17:55:
[...]
Inderdaad dat kunnen ook een par lijntjes getekent met paint zijn
Vandaar dat ik me ook zat af te vragen of het wel echt daarover ging
Heeft geen speciale krachten en is daar erg boos over.
Haha, nice point. Met Nvidia weet je dat natuurlijk nooit 100% zeker, maar ik heb op dit moment geen reden om anders te geloven. Jij wel?Help!!!! schreef op zaterdag 09 januari 2010 @ 17:04:
[...]
Vervolgens concludeer jij dat het board in die pc een fermi is, maar hoe weten we dat dan weer zeker......
P.S. hoe weet ik zeker dat jij bestaat?
Nou, mag ik het zeggen?
Heeft geen speciale krachten en is daar erg boos over.

7800X3D - B650E Aorus Master - 32GB 6000Mhz - 4090 FE
Nu ik er nog eens naar kijk lijkt het inderdaad erop dat het gewoon het geforce logo is dat bewogen wordtSkybullet schreef op zaterdag 09 januari 2010 @ 18:10:
omg wat een comotie over een logo dat half bewogen gefotografeerd is. Dat groen/witte "conspiricy afdekken van powerconnectors gebeuren " is niks meer als het logo, het in wit geschreven Geforce met het groene plaatje ernaast.

Maargoed, heb de foto's nog eens goed bekeken, en vindt het er toch op lijken dat het 1 kabelboom is die naar die 2 connectoren gaat, waarbij 1 dan door 2 8 pins rails wordt gevoedt. Ik kan geen 2e 8 pins stekker ontdekken of iets dergelijks
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Kan de fan van 2 kanten lucht aanzuigen. Voornamelijk voor SLi denk ik, zodat de bovenste kaart nog een beetje verse lucht kan krijgenAnoniem: 308932 schreef op zaterdag 09 januari 2010 @ 20:07:
waarom zitten er gaten in de fermi?
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
NVIDIA 3D Surround
There is some interesting information from NVIDIA at CES that is somewhat disconcerting and promising all at the same time. You guys no doubt know that we love ATI Eyefinity technology. We don't love Eyefinity because it is from AMD, we love Eyefinity because it greatly enhances the PC gaming experience. Gaming on an Eyefinity configuration can be a tremendous experience. Here is a link to my personal Eyefinity setup that I use daily. I have moved up to a Radeon 5970 for the time being, but the 5870 did just fine in terms of performance. Once the Trillian 6-head card comes to market from AMD, we will likely be using one of those to do this...the HardOCP Eyefinity Dream Station.
I am not telling you all of this to poop on NVIDIA's parade. I am telling you all of this to let you know that we are incredibly excited about the technology and fully believe in multi-display gaming. I am doubly excited that NVIDIA is following AMD's lead on this. I could not be happier.
NVIDIA's multi-display solution has been crowned "NVIDIA Surround." NVIDIA's solution is being shown on last-gen cards and next-gen cards, which is very exciting too! NVIDIA is upping the ante a bit with a feature that is accessible on "old" hardware. NVIDIA is also throwing into the mix its 3D Vision feature (wear the 3D glasses movie type of thing) into the mix. So we get "NVIDIA 3D Vision Surround."
Now here is the good stuff. This NVIDIA Surround technology is being shown in working order this week at CES. It is also being shown working on GTX 285s as well as upcoming GF100 boards. Here are the specs that Brian Del Rizzo gave us when asked:
We have multiple demos on the show floor. Here's the breakdown:
The booth in the grand lobby is running on dual GTX285s and three Acer projectors. The projectors are 720p using CRT connectors.
The three projector display in the booth are running on dual GF100s. The DepthQ projectors are 720p and use CRT too.
The other demo we have is 3D Vision Surround running on three 1920x1080 LCD displays from Acer and Alienware using 3 dual link dvi connectors. This one is using dual GTX 285s.
We are showing a combination of Need for Speed Shift, Batman Arkham Asylum, and Avatar.
Another thing that is great to see is NVIDIA has hopefully gotten SLI working smoothly with NVIDIA Surround, where AMD is still struggling for smooth Eyefinity and CrossFire support. However, it is sort of disconcerting that the NVIDIA "needs" two GF100 cards to run the demo. In fact all the demos are SLI setups. We know a single Radeon 5870 or Radeon 5850 will run three 720P panels with ease. It will also be very interesting to see where all of this settles out in terms of price, performance, and value. And of course you can trust HardOCP to chime in on that, hopefully in late Q110.
Now keep in mind that when you enable 3D Vision (the actual 3D portion of this), it basically cuts your frame rates in half due to the way it has to draw every frame twice so your eyes and the glasses you are wearing fool you into thinking you are seeing a 3D image. I am not going to even be shy about this; I hate those damn 3D glasses. But we will give them another chance, and we will surely be giving 3D Surround a big chance. (NVIDIA is telling us this has greatly changed but I have never been shown it first hand.)
Eyefinity gaming has changed my perception of PC gaming and made me truly passionate about PC gaming again. Here is a quote from our recent Eyefinity Performance Review.
Many folks that have forsaken PC gaming for console will find Eyefinity luring them back as Eyefinity provides you with something no console can; more of the gaming world in your field of vision. Eyefinity is not just a larger screen; it is more pixels on that screen. You will see more of the gaming world than you have ever seen before.
(Editor's Note: I am still getting feedback from folks that seem to think Eyefinity is some kind of gimmick. Well it is not. Eyefinity is the real deal and has done more to enhance our gaming experiences at HardOCP than anything else has in a long time. 3dfx SLI brought me 1024x768. Then a few cards brought me 1600x1200 and then 2560x1200. Then Eyefinity brought me 5760x1200 and 3600x1920. Am I saying that Eyefinity is the single most important technology since 3dfx SLI? Yes I am. I fully believe that we are only at the tip of the ice berg.)
Certainly NVIDIA bringing its own "nFinity" to market (Yeah, that is a better name but we know you can't look like you are following AMD's tail that closely!) validates AMD's move to Eyefinity and quite frankly HardOCP's support of it. Multi-display gaming is here to stay. NVIDIA could have done this two years ago with it is current generation of parts, but it simply screwed the pooch and missed a great opportunity using technology it had already done all the grunt work on. We don't often see NVIDIA play catch up, but we are surely seeing that this year.
HardOCP is tremendously glad to see NVIDIA on board with an Eyefinity-type solution; we are all for it and excited this is happening. I think it will force game developers to better use the technology when building games. This is good for PC gamers and good for PC gaming.
I am scared about one thing though. And let me put this in laymen's terms so HardOCP is clear on its stance. I do not want to mince words here.
For god's sake NVIDIA, if you pull this bullshit where NVIDIA Surround "games" will not work on Eyefinity configurations, we are going to beat NVIDIA down repeatedly and publicly for harming the PC gaming industry. Keep those crappy proprietary PhysX policies, but if you start messing with OUR multi-display gaming and not letting it remain "open platform," I will personally lead the mob with the burning torches to the castle gates. And we will be fully prepared to use the torches. I will personally lead a boycott of NVIDIA products if I see NVIDIA harm multi-display gaming in the marketplace through an IP grab. Multi-display gaming belongs to gamers, not NVIDIA.
En toch heeft hij wel enigszins gelijk.
Keep things open, keep things for everyone!
Persoonlijk vind ik multi display gaming nog niet zo heel interessant. Zo lang als er nog randen op monitoren (bezels?) zijn, wil ik het echt niet hebben. Het is leuk dat het kan, maar mij te duur. En té overdreven. En gebruikt me teveel stroom. Maar goed. Dat is persoonlijk. Ik vind 24" inch al leuk zat eigenlijk.
[ Voor 59% gewijzigd door Format-C op 09-01-2010 23:46 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
1) nog bij me ouders woon, en die zullen niet blij zijn als met 3 schermen aan kom zetten
2) Het kost nogal wat, en zoveel heb ik (nog) niet
3) Als, dan wil ik 3x24" inch, en om dat op de hoogste IQ te draaien kost nogal wat rekenkracht, dus dat is afwachten op de volgende generatie en CF support van Eyefinty
4) Er moeten dunnere schermen komen, wil dan wel zo min mogelijk onderbreking tussen de 3 schermen
PS. Ik geef HardOCP groot gelijk, als Nvidia het aandurft om Nfinity, ik bedoel Nvidia 3D Stereo Vision alleen met "hun" games te laten werken, zal het zeker door iedereen worden geboycot.....
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!

Ben allang blij dat ik nu ALLES vol open kan draaien.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat hangt van de game af hoor[b][message=33248495,noline]Zo lang als er nog randen op monitoren (bezels?) zijn, wil ik het echt niet hebben.
Beste voorbeeld is waarschijnlijk GRID, een van de weinige games die écht goed omspringt met zulke resoluties. De randen om het middelste scherm heen vallen min of meer gelijk met de stijlen van de auto waar je in zit, dus dan heb je er vrijwel geen last van!
Persoonlijk ben ik overigens niet onder de indruk van NVIDIA's "aankondiging". Het feit dat je twee kaarten nodig hebt vind ik een beetje stom; zoiets als GRID draait op mijn systeem (E8400, 5870) probleemloos (lees: 40-50 FPS, zonder drops). Nu zal dat met opkomende games wel wat minder zijn, maar daar kan de performance verbetering in DX11 veel mee helpen. Verontrustender vind ik nog het feit dat dit misschien een teken is dat GF100 het dus niet zo heel lekker doet?
De tijd zal het leren!
Dat het op de oudere kaarten niet werkt zonder SLI is nog wat voor te zeggen, die zijn hardwarematig gewoon beperkt tot het aansturen van twee schermen maar dat het ook in de nieuwe GF100 zo geïmplementeerd is vind ik eigenlijk wel een misser, zeker als de competitie met een kaart komt waar je 6 schermen op kunt aansluiten (of er spellen draaien op 6x24" even buiten beschouwing gelaten natuurlijk).Werelds schreef op zondag 10 januari 2010 @ 01:26:
[...]
Dat hangt van de game af hoor
Beste voorbeeld is waarschijnlijk GRID, een van de weinige games die écht goed omspringt met zulke resoluties. De randen om het middelste scherm heen vallen min of meer gelijk met de stijlen van de auto waar je in zit, dus dan heb je er vrijwel geen last van!
Persoonlijk ben ik overigens niet onder de indruk van NVIDIA's "aankondiging". Het feit dat je twee kaarten nodig hebt vind ik een beetje stom; zoiets als GRID draait op mijn systeem (E8400, 5870) probleemloos (lees: 40-50 FPS, zonder drops). Nu zal dat met opkomende games wel wat minder zijn, maar daar kan de performance verbetering in DX11 veel mee helpen. Verontrustender vind ik nog het feit dat dit misschien een teken is dat GF100 het dus niet zo heel lekker doet?
De tijd zal het leren!
En als stereo vision en eyefinity een beetje gemeengoed wordt denk ik dat het probleem van de randen van een monitor best creatief opgelost kan worden. Er zijn natuurlijk veel meer soorten spellen dan shooters en racegames. Flightsims kunnen aardig profiteren van drie monitoren en de randen kunnen dan mooi in de cockpit verwerkt worden, of een RTS met links je map, in het midden je troepen en rechts je basis.
Ik hoop van harte dat nVidia echt met een dijk van een kaart komt maar als een enkele GPU al met een PEG-6 en PEG-8 connector gevoed moet worden dan zal een dual-GPU kaart voorlopig niet in de planning staan en blijft Ati nog steeds de kroon spannen wat single pcb kaarten betreft.
Prijs blijft natuurlijk speculatie maar ik denk niet dat een GF100 veel minder dan een HD5970 gaat kosten en zit wat performance betreft tussen een HD5870 en HD5970 in als ik de geruchten een beetje goed interpreteer. En natuurlijk zit je met een 5970 met Crossfire afhankelijke profielen maar dat issue wordt in huidige en toekomstige spellen volgens mij steeds minder (zeker nu Ati ook met aparte profielen komt in de nieuwe drivers) dus de kaart zal lastig in de markt te zetten zijn.
Als je onder iedereen elke tweaker die niet nVidia fanboy is bedoeld heb je idd gelijk, maar ga er maar vanuit dat niet iedereen een tweaker is.Darkasantion schreef op zondag 10 januari 2010 @ 00:51:
PS. Ik geef HardOCP groot gelijk, als Nvidia het aandurft om Nfinity, ik bedoel Nvidia 3D Stereo Vision alleen met "hun" games te laten werken, zal het zeker door iedereen worden geboycot.....
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Shooters zullen nog het irritantste blijven denk ik zo. In een RTS kan het heel mooi zelfs, kijk maar naar Supreme Commander!KneoK schreef op zondag 10 januari 2010 @ 02:42:
[...]En als stereo vision en eyefinity een beetje gemeengoed wordt denk ik dat het probleem van de randen van een monitor best creatief opgelost kan worden. Er zijn natuurlijk veel meer soorten spellen dan shooters en racegames. Flightsims kunnen aardig profiteren van drie monitoren en de randen kunnen dan mooi in de cockpit verwerkt worden, of een RTS met links je map, in het midden je troepen en rechts je basis.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ik zit namelijk op de 50 tot 52 graden
Heeft geen speciale krachten en is daar erg boos over.
Zo ja, welke? En zo nee is er al bekend wanneer en of deze komt?
Waarom ?? Omdat nVidia nou eenmaal goede ideeën beter uitwerkt dan ATIDarkasantion schreef op zondag 10 januari 2010 @ 00:51:PS. Ik geef HardOCP groot gelijk, als Nvidia het aandurft om Nfinity, ik bedoel Nvidia 3D Stereo Vision alleen met "hun" games te laten werken, zal het zeker door iedereen worden geboycot.....
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op
UVD vs. PureVideo is een ander mooi voorbeeld ...
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Dit bedoelde ik dus.neliz schreef op zaterdag 09 januari 2010 @ 02:31:
[...]
Hoeveel PEG 8pins powerkabels gaan er in die GF100 kaarten?
en hoeveel zitten er in deze?

Heb je het al eens geprobeerd? Trackmania Nations kan het standaard al dus heb je alleen een brilletje nodig en dan ben je klaar om scheel te worden en hoofdpijn te krijgen.nero355 schreef op maandag 11 januari 2010 @ 11:31:
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik ben anders laaiend benieuwd hoe lang het gaat duren voordat NV de eerste NV-only multimonitorgame (nee, geen 3d) gaat marketen. Zou me niets verbazen als je zelfs AA al aan je eigen hardware wil koppelen.nero355 schreef op maandag 11 januari 2010 @ 11:31:
[...]
Waarom ?? Omdat nVidia nou eenmaal goede ideeën beter uitwerkt dan ATI
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op
UVD vs. PureVideo is een ander mooi voorbeeld ...
En dat gedoe met Assasins Creed was ook heel jammerlijk. een DX10.1 patch terug draaien omdat je zelf de hardware niet hebt en vervolgens een hele tijd later wel met DX10.1 kaarten komen. En dan natuurlijk de AA in Badman.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Laten wij dan vooral niet vergeten dat het AA was die er gewoon al in de game engine zat, maar zij hebben de betreffende developer er gewoon op gewezen. Dus ja, ik zie Nvidia er inderdaad op dit moment er wel voor aan ja om zoiets te flikken.Edmin schreef op maandag 11 januari 2010 @ 12:54:
[...]
Ik ben anders laaiend benieuwd hoe lang het gaat duren voordat NV de eerste NV-only multimonitorgame (nee, geen 3d) gaat marketen. Zou me niets verbazen als je zelfs AA al aan je eigen hardware wil koppelen.
Goede ideeën beter uitwerken? Nvidia kon dit blijkbaar al 2 jaar, omdat hun "oude" kaarten dit al konden, zoals nu blijkt, maar dan alleen als het een SLi-setup is. ATI komt nu met dit concept waarbij je maar 1 kaart nodig hebt om 3(en straks 6) monitoren aan te sturen, voordat Nvidia met hun "idee" kwam.nero355 schreef op maandag 11 januari 2010 @ 11:31:
[...]
Waarom ?? Omdat nVidia nou eenmaal goede ideeën beter uitwerkt dan ATI
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op
UVD vs. PureVideo is een ander mooi voorbeeld ...
ATi heeft gewoon een goed idee als 1e uitgewerkt, en Nvidia heeft dan maar snel iets in elkaar proberen te zetten om niet al te hard af te gaan na al het gedoe met Fermi, maar ze konden het al lang, maar hebben deze optie nooit uitgevoerd of gezien(goh das pas slim.... not!)
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Dat werkt niet op een 1900XTX of mijn tijdelijke 5770 en mijn HTPC met een 9300 ... nou ja je weet zelf ook wel hoe "snel" dat uitpakt in FPS-The_Mask- schreef op maandag 11 januari 2010 @ 11:40:
Heb je het al eens geprobeerd? Trackmania Nations kan het standaard al dus heb je alleen een brilletje nodig en dan ben je klaar om scheel te worden en hoofdpijn te krijgen.
En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te latenDarkasantion schreef op maandag 11 januari 2010 @ 14:01:
ATi heeft gewoon een goed idee als 1e uitgewerkt, en Nvidia heeft dan maar snel iets in elkaar proberen te zetten om niet al te hard af te gaan na al het gedoe met Fermi, maar ze konden het al lang, maar hebben deze optie nooit uitgevoerd of gezien(goh das pas slim.... not!)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Volgens mij zie je het verkeerd om, en ondersteunt ATi eyefinity in een hoop games, en is het niet zo dat een bepaalde game eyefinity ondersteunt.Astennu schreef op maandag 11 januari 2010 @ 13:55:
Ik durf te wedden dat AMD nVidia gewoon zijn gang laat gaan met games die nu eyefinity ondersteunen.
Edit; volgens mij heeft het zelfs helemaal niks met de games zelf te maken. Maar wel met de driver (ondersteuning). Edit2; en ik kan me zélfs niet voorstellen dat er games voor geoptimaliseerd zullen gaan worden, omdat het simpelweg voor veel mensen niet is weggelegd. Enkel voor wat enthousiasts.
[ Voor 30% gewijzigd door Format-C op 11-01-2010 15:13 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Volgens mij kan het twee kanten op. Games hoeven volgens mij weinig support te hebben. Meeste moet in de drivers gedaan worden. Games moeten wel Ultra Widescreen resoluties kunnen. Dus het is een beetje ja en nee. Maar volgens mij kunnen ze best een detectie inbouwen waardoor de een het niet meer kan.Format-C schreef op maandag 11 januari 2010 @ 15:09:
[...]
Volgens mij zie je het verkeerd om, en ondersteunt ATi eyefinity in een hoop games, en is het niet zo dat een bepaalde game eyefinity ondersteunt.
Daarnaast maakt Eyefinity er niet altijd een groter scherm van. Want ze zij schermen krijgen een speciaal effect mee. (volgens mij niet in alle games).
En over dat verbruik van Fermi. 450 watt zal het echt niet zijn. De cooler van de 5970 kan wel 400 watt aan. Maar stock verbruik hij 290. Met overclocken komt hij wel in de buurt van die 400 watt. Of kan hij er zelfs overheen gaan als je de core voltages maar genoeg verhoogt. Ik denk ook niet dat nVidia over die 300 watt heen wil gaan. Omdat dit op dit moment de officiële limit is. Met een goede PSU kan je er makkelijk overheen. Maar officieel zou je op 300 watt uit komen. Of met 2x8p max 375 watt.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Geef is wat voorbeelden dan? kan me zo snel niks bedenken waarmee ATI net niet nVidia voorbij kon komennero355 schreef op maandag 11 januari 2010 @ 14:33:
[...]
[...]
En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te latenWat dat betreft passen AMD en ATI perfect bij elkaar ...
Wat ik nu zie is ATI overal mee in het voordeel, maar ik kan het mis hebben
Hello there
Zou Nvidia dit echt gedaan hebben als payback actie?
Of is er iemand die nog een andere reden kan bedenken/weet?
Het is verleidelijk om hier inhoudelijk op in te gaan, maar dat doe ik niet omdat dit een Nvidia nieuws & discussie (over het nieuws) topic is. Geen ATI sux Nvidia rox dus.nero355 schreef op maandag 11 januari 2010 @ 14:33:
En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te latenWat dat betreft passen AMD en ATI perfect bij elkaar ...
Prima dat je een fanboy bent, maar laten we het zoveel mogelijk ontopic houden.
Hoe heeft ATI Eyefinity niet goed uitgewerkt dan? Ofwel je drukt jezelf een beetje vreemd uit, of je doelt op 3D technologie, wat een totaal ander punt is.[b][message=33256492,noline]En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te latenWat dat betreft passen AMD en ATI perfect bij elkaar ...
Feit blijft dat NVIDIA hun multimonitor oplossing niet goed heeft uitgewerkt; ze verplichten je meteen tot het gebruik van twee kaarten. We weten allemaal dat SLI/Crossfire (en helaas ook Hydra) niet volledig vlekkeloos werken.
En ja, ik zie het ook wel gebeuren dat ze developers zover krijgen om op ATI hardware de multimonitor opstellingen te verkrachten. Hun manier om je een (of eigenlijk twee?) kaart te verkopen die meer kost dan hij waard is
Je vergeet even dat 3d gamen over 3 schermen stuk ingewikkelder is dan 3 schermen een beeld te laten genereren.. Maar toch heb je deels wel gelijk dat voor 2d ook SLI nodig is.Werelds schreef op maandag 11 januari 2010 @ 15:21:
[...]
Hoe heeft ATI Eyefinity niet goed uitgewerkt dan? Ofwel je drukt jezelf een beetje vreemd uit, of je doelt op 3D technologie, wat een totaal ander punt is.
Feit blijft dat NVIDIA hun multimonitor oplossing niet goed heeft uitgewerkt; ze verplichten je meteen tot het gebruik van twee kaarten. We weten allemaal dat SLI/Crossfire (en helaas ook Hydra) niet volledig vlekkeloos werken.
En ja, ik zie het ook wel gebeuren dat ze developers zover krijgen om op ATI hardware de multimonitor opstellingen te verkrachten. Hun manier om je een (of eigenlijk twee?) kaart te verkopen die meer kost dan hij waard is
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Kijk, en als dát gebeurt, is het hek van de dam.Astennu schreef op maandag 11 januari 2010 @ 15:17:
Maar volgens mij kunnen ze best een detectie inbouwen waardoor de een het niet meer kan.
Als nV besluit dát te doen denk ik dat ze de lul zijn. Mensen zijn nu al een beetje zat van de manier waarop ze hun dingen doen, en als ze dat gaan doen is het echt... ehm....
Maar goed. De toekomst zal het uitwijzen.
Ik hoef zowieso geen multimonitor setup.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Een applicatie die de windows resolutie pakt en niet met een voorgebakken lijst van single monitor resoluties komt.
Flexibele gecentreerde hud. De game moet aangepast zijn om de hud altijd op het middelste scherm te zetten en niet, wat je nu vaak ziet, hud items of menu opties uitgelijnd aan de linker of rechterkant van het scherm.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
* Anoniem: 167751 vraagt zich af wie er volgende week een multimonitor setup heeft.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat ben ik niet : Je zou zelfs kunnen zeggen dat ik van beide vind dat ze lopen te prutsendaan! schreef op maandag 11 januari 2010 @ 15:20:
Het is verleidelijk om hier inhoudelijk op in te gaan, maar dat doe ik niet omdat dit een Nvidia nieuws & discussie (over het nieuws) topic is. Geen ATI sux Nvidia rox dus.
Prima dat je een fanboy bent, maar laten we het zoveel mogelijk ontopic houden.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ook al game je er niet op, ik werk al jaren multi-monitor (sinds de R300) en het is gewoon makkelijk om je game appart te hebben van je ventrillo/teamspeak/xfire/msn schermen en het werkt heerlijk zodra een game het ondersteund (Supreme Commander) bij slechts twee schermen.nero355 schreef op maandag 11 januari 2010 @ 15:49:
Dat ben ik niet : Je zou zelfs kunnen zeggen dat ik van beide vind dat ze lopen te prutsen
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Uiteraard, maar ik had het puur over de multimonitor mogelijkheden, niet over het 3D gedeelte. Ik hoop voor NVIDIA dat ze qua performance ATI voor zijn met Fermi, en dat ze de kaarten voor de verandering eens voor een normale prijs beschikbaar maken, anders denk ik dat iedereen die geen merk-fan is (ikzelf bijvoorbeeld) toch naar ATI gaat (of daarbij blijft).Xenomorphh schreef op maandag 11 januari 2010 @ 15:27:
[...]
Je vergeet even dat 3d gamen over 3 schermen stuk ingewikkelder is dan 3 schermen een beeld te laten genereren.. Maar toch heb je deels wel gelijk dat voor 2d ook SLI nodig is.
Ik heb deze kaart gewonnen met voten op game van het jaar, maar weet niet of ik het zelf moet houden of verkopen, de kaart is in NL 499 euro zie ik, je kan het als een gek overlocken lees ik ook op google, maar ik ben voor dat een amateur helaas.. Ook de enige kaart die werkt met EVGA EVBot tool zie ik.
Zijn er mensen die meer van deze kaart weten of ervaringen mee hebben? Ik blijf twijfelen om het te houden of verkopen en dan gewoon voor deen 285 FTW of AMP gaan zonder er aan te hoeven rotzooien...
Verkopen een HD5850 moet je wel voor kunnen halen misschien vind je zelf een gek die hem wil ruilen voor een HD5870.Tuzla schreef op maandag 11 januari 2010 @ 18:20:
Ik blijf twijfelen om het te houden of verkopen
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Niet ervaringen en aankoopadvies.
Wel gefeliciteerd met je kaart, overigens.
Na jarenlang van gesteggel krijgt nVidia het eindelijk min of meer voor elkaar om 2 monitoren aan te sturen in SLI-modus, terwijl crossfire dit al jaren kan.
Vervolgens toont AMD de wereld Eyefinity, met beeldaansturing/gaming tot op 6 monitoren per kaart. Vervolgens komt nVidia, die jarenlang geen 2 schermen kon aansturen bij SLI met hun '3 monitoren' oplossing, waarbij SLI verplicht is... Dit druist overigens ook een beetje in tegen de standaard opmerkingen dat nVidia zijn driver-gebeuren altijd veel beter voor elkaar heeft dan AMD/ATI.
Punt is in ieder geval. Nu moet je, om 3 schermen aan te kunnen sturen, SLI draaien met (zoals het er nu naar uit zit) ten minste een GT200 chip, waarbij 1 van de 2 kaarten slechts 1/3 van het totale beeld berekent, dus eigenlijk voor een groot deel uit zijn neus loopt te eten.
Het zou me persoonlijk niet verbazen als er problemen kunnen ontstaan dat het ene beeld, dat door de 'tweede' kaart wordt berekend, opeens een hogere framerate haalt dan de andere 2 schermen, waardoor je er heel vreemd tegen aan kan kijken. De vraag is dan ook of nVidia hierop voorbereidt is en of ze eventuele problemen uberhaupt op kunnen lossen.
Bij supreme commander is het ideaal !! Op een scherm de mooie overview radar op de ander je main base. Kun je alles op tijd aan zien komenneliz schreef op maandag 11 januari 2010 @ 15:57:
[...]
Ook al game je er niet op, ik werk al jaren multi-monitor (sinds de R300) en het is gewoon makkelijk om je game appart te hebben van je ventrillo/teamspeak/xfire/msn schermen en het werkt heerlijk zodra een game het ondersteund (Supreme Commander) bij slechts twee schermen.
Maar veder heb ik het niet perse nodig. MSN hoeft voor mij niet tegelijk. Bij sommige games mag je ook geen alt tab doen.
Alleen Ik ga tot nu toe nog liever voor een groot scherm dan Eyefinity al heeft dat grotere zicht veld wel een voordeel. Eerst had je dat ook door de resolutie maar dat is tegenwoordig niet meer. Dat ligt nu vast. Met Eyfinity kun je wel wat extra krijgen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
It was all technical. But no clock speeds, power consumption or benchmarks were being shown…yet at least," the source confirmed at the time of writing.
Source
Miss you CJ....:'( en nee... ik kan niet aan samples komen
[ Voor 34% gewijzigd door Xenomorphh op 12-01-2010 11:27 ]
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
enkele "weken" later trouwens. Misschien annoncering in April of net voor Computex?
Trouwens, is Fuad op z'n pik getrapt omdat hij het afgelopen jaar is voorgelogen en misbruikt door NVPR?
It is definitely not fun to be in Nvidia's shoes, especially when it comes to the desktop graphics card market.
[ Voor 36% gewijzigd door neliz op 12-01-2010 11:34 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
als je geen 2x512CC verwacht moet het wel lukken toch?Xenomorphh schreef op dinsdag 12 januari 2010 @ 11:39:
Toch vraag ik me af hoe ze het willen doen het blijkt dat 1 single chip meer hitte produceert dan een GTX285 maar 2 GTX285's konden ze al niet goed als 1 kaart verkopen. Want die viel al uit door de hitte (mars)
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Of net als de 5970, clockspeeds omlaag en de beste chips er uit pikken om ze op zo'n laag mogelijk voltage te laten draaien.
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
2x256CC toch?neliz schreef op dinsdag 12 januari 2010 @ 11:46:
[...]
als je geen 2x512CC verwacht moet het wel lukken toch?
[ Voor 15% gewijzigd door Blastpe op 12-01-2010 13:44 ]
Nou 512 is misschien inderdaad veel maar ik zou er toch wel graag 400+ zien of 380 zo iets iig niet minder.neliz schreef op dinsdag 12 januari 2010 @ 11:46:
[...]
als je geen 2x512CC verwacht moet het wel lukken toch?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Door dezelfde soort dingen te doen als AMD met de 5970. Lagere clocks of shaders uitschakelen of misschien beide. De GTX285 was ook niet exact 2x GTX285.Xenomorphh schreef op dinsdag 12 januari 2010 @ 11:39:
Toch vraag ik me af hoe ze het willen doen het blijkt dat 1 single chip meer hitte produceert dan een GTX285 maar 2 GTX285's konden ze al niet goed als 1 kaart verkopen. Want die viel al uit door de hitte (mars)
Bij AMD zie je wel een grappige trent:
HD3870 Single = 775-1125 GDDR4
HD3870 X2 = 825-900 GDDR3
HD4870 Single = 750-900 GDDR5
HD4870 X2 = 750-900 GDDR5
HD5870 Single = 850-1200 GDDR5
HD5970 = 725-1000 GDDR5
Shaders zijn altijd gelijk gebleven.
Maar goed het verbruik van de single kaarten wordt ook steeds iets hoger. Al heeft de 5970 een veel lager verbruik dan de HD4870 X2.
Ik weet uit me hooft niet hoe dit bij de 7900GX2 en de 9800GX2 was. Maar ik kan me voorstellen dat de GT300 GX2 meer 2x een GTX360 wordt.
[ Voor 3% gewijzigd door Astennu op 12-01-2010 12:14 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Fermi GF100 is a single chip GT300-based 40nm DirectX 11 card. Nvidia plans to launch two cards that will aim to replace Geforce GTX 285 and Geforce GTX 260 in enthusiast and performance markets respectively, while the high-end dual-chip Fermi card will come after.
We don’t know how much later the dual-GPU should launch, but it should happen within one to two months. If all goes well and it doesn’t get delayed, we can hope to see it by May. Around that time, ATI might be ready with its refreshed 40nm cards that might have more juice and could compete better. However, this is only after Nvidia finally launches its GT300, Fermi-based products.
It is definitely not fun to be in Nvidia's shoes, especially when it comes to the desktop graphics card market.
Bron: Fudzilla
Xenomorphh in "[Algemeen] nVidia Nieuws & Discussie Top..."M4gick schreef op dinsdag 12 januari 2010 @ 17:53:
Fermi GF100 is a single chip GT300-based 40nm DirectX 11 card. Nvidia plans to launch two cards that will aim to replace Geforce GTX 285 and Geforce GTX 260 in enthusiast and performance markets respectively, while the high-end dual-chip Fermi card will come after.
We don’t know how much later the dual-GPU should launch, but it should happen within one to two months. If all goes well and it doesn’t get delayed, we can hope to see it by May. Around that time, ATI might be ready with its refreshed 40nm cards that might have more juice and could compete better. However, this is only after Nvidia finally launches its GT300, Fermi-based products.
It is definitely not fun to be in Nvidia's shoes, especially when it comes to the desktop graphics card market.
Bron: Fudzilla
ik gok op 400 watt voor de dual gpu
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Gezien hoe complex het is denk ik dat het nog veel erger gaat worden dan met de 5870. Ik denk dat ze @ launch amper te krijgen zullen zijn. War dat bij de HD5870 wel lukte omdat AMD aardig wat opgespaard had wat in een keer de verkoop kanalen in ging.Naluh! schreef op dinsdag 12 januari 2010 @ 18:04:
Ik ben benieuwd of wanneer Fermi eindelijk launched we dan ook weer eerst maaaaaanden van slechte leverbaarheid gaan zien net zoals bij de ATI 5000 series.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Wat dat betreft heeft het volgende bericht van Fud weinig goeds te melden:Naluh! schreef op dinsdag 12 januari 2010 @ 18:04:
Ik ben benieuwd of wanneer Fermi eindelijk launched we dan ook weer eerst maaaaaanden van slechte leverbaarheid gaan zien net zoals bij de ATI 5000 series.
Cypress yields not a problem
Written by David Stellmack
Tuesday, 12 January 2010 18:01
40nm process getting 60% to 80%
Claims that the current TSMC 40nm process that is being used for the AMD/ATI Cypress family is achieving yields of in the neighborhood of 40% don’t seem to have a shred of truth. Our sources close to TSMC claim that actually the 40nm process that is being used for the Cypress family is routinely achieving yields in the 60% to 80% range, which is actually confirmed by the fact that ATI is keeping product in the pipeline and you can actually buy boards at retail.
Chip yields seem to be the topic of discussion lately as the much larger Nvidia Fermi chip is struggling with yield issues as our sources suggest that the actual yields are as low as 20% and are not improving quickly according to sources close to the fabs. With wafer starts costing about $5K the numbers suggest that each chip would cost an astounding estimated $200 per chip which pegs the card with a sticker price of about $600.
Those in the known are claiming that Fermi despite the yield and thermal issues is only about 20% faster than Cypress, while Hemlock smokes it. The combination of low yields, high thermals, and marginally better performance than Cypress could be conspiring to place Nvida in the position of having to release the card, but have to sell it at a loss till they are able to address the issues in the next spin according to sources. Because of the situation a mole we know is suggesting that Nvidia may limit the sales of Fermi to consumers and instead use the chips for the Tesla and Quadro products where prices and margins are much better.
All of the talk of yields seems to be in some ways nothing more than a smoke screen to shine the light off of the current situation to stall sales by promising something that most consumers are likely going to be unable to buy. The moles claim you will not need a pair of 3D glasses to watch this shake out in the next few weeks.
Ik 300 Watt aangezien die anders niet meer binnen de PCIe specs valt.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ja, ik las hetwhiteguy schreef op dinsdag 12 januari 2010 @ 20:38:
[...]
Wat dat betreft heeft het volgende bericht van Fud weinig goeds te melden:
[...]

Fermi die means high Nvidia silicon costs ahead
[ Voor 54% gewijzigd door Blastpe op 12-01-2010 22:24 ]
Hoezo ? Ik vind de prijzen van AMD best netjes. Dat Winkels en Leveranciers hier nu misbruik van maken is een ander verhaal.Naluh! schreef op dinsdag 12 januari 2010 @ 21:52:
[...]
Ja, ik las het. Slechte zaak voor de consument, krijg je als de markt wordt beheerst door 2 bedrijven....
En het is nVidia's eigen schuld hadden ze maar met innovatie's moeten komen ipv Rebrands. Laat ze maar eens flink boetten voor hun gedrag.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat kan nog wel even duren ben ik bang, laatst weer pijnlijk met mijn neus op de feiten gedrukt wat betreft casual customers.Astennu schreef op donderdag 14 januari 2010 @ 11:32:
En het is nVidia's eigen schuld hadden ze maar met innovatie's moeten komen ipv Rebrands. Laat ze maar eens flink boetten voor hun gedrag.
Vriend van me met veel verstand van computers (zelfverklaard) had laatst een nieuwe kaart gekocht (een NVIDIA GEFORCE 9800GT met 1GB!!!1!!1 Voor maar 120 euro!!!). Toen ik hem op de hoogte bracht van het feit dat die al een jaar in mijn pc hangt onder de naam 8800GT en er ook even bij vermelde dat hij voor dat geld toch echt betere alternatieven had kunnen kopen van Ati keek meneer me aan alsof hij water zag branden. Ati beter dat Nvidia? Dat bestaat niet, Nvidia is gewoon de beste, punt uit.
Nu weet ik dat dit een vrij random, weinig unieke, persoonlijke ervaring is, maar ik denk dat het wel exemplarisch is voor hoe 'de gemiddelde consument' over deze markt denkt. Jij en ik weten dan wel hoe de vork in de steel zit, maar dat imago dat NV over de jaren heeft opgebouwd legt ze nog altijd geen windeieren.
Dat is ook de ervaring die ik heb met anderen.Snorro schreef op donderdag 14 januari 2010 @ 11:48:
Nu weet ik dat dit een vrij random, weinig unieke, persoonlijke ervaring is, maar ik denk dat het wel exemplarisch is voor hoe 'de gemiddelde consument' over deze markt denkt. Jij en ik weten dan wel hoe de vork in de steel zit, maar dat imago dat NV over de jaren heeft opgebouwd legt ze nog altijd geen windeieren.
Mensen die weinig van computers weten kennen alleen de naam Nvidia.
Mensen die wel aardig wat van computers weten kennen beide namen, maar zijn er heilig van overtuigd dat Nvidia beter is.
Het lijkt erop dat alleen de mensen die zich er echt in verdiept hebben weten hoe de vork in de steel steek. (Dùh!)
Niet dat die mensen allemaal voor ATI gaan ofzo, maar ze kunnen hun keuze goed onderbouwen.
Wie weet kan ATI/AMD wat van het extra verdiende geld van de afgelopen tijd in extra PR stoppen.
Anoniem: 339353
De Tegra chip kan Nvidia nog wel boven water houden denk ik. Ik heb trouwens gemist waarom Intel geen licentie voor chipsets aan Nvidia heeft gegeven, of hebben ze dat niet bekendgemaakt?
Maar ik heb ook al verhalen over de 58xx serie van Ati gehoord dat er behalve de levertijden ook brakke drivers voor veel problemen zorgen, en strepen op het scherm, etc. En in het verleden heeft Ati ook veel overhittingsproblemen gehad. Die problemen heb ik niet gehad met Nvidia kaarten.Snorro schreef op donderdag 14 januari 2010 @ 11:48:
[...]Nu weet ik dat dit een vrij random, weinig unieke, persoonlijke ervaring is, maar ik denk dat het wel exemplarisch is voor hoe 'de gemiddelde consument' over deze markt denkt. Jij en ik weten dan wel hoe de vork in de steel zit, maar dat imago dat NV over de jaren heeft opgebouwd legt ze nog altijd geen windeieren.
[ Voor 3% gewijzigd door Anoniem: 339353 op 14-01-2010 12:44 ]
Waar heb je dat gehoord?Anoniem: 339353 schreef op donderdag 14 januari 2010 @ 12:43:
Volgens Nvidia zijn alle yield problemen die ze hadden met Fermi opgelost. Nu maar wachten wanneer er een datum bekend word gemaakt.
Het beste wat ik tot nu gehoord gelezen heb is 20%
[ Voor 9% gewijzigd door Blastpe op 14-01-2010 12:53 ]
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Nu wil ik geen fanboy uithangen maar ik moet je even wijzen op een nog veel grotere fout die nVidia heeft gemaakt met hun G80 chips. De chips gaan na 2-4 jaar gebruik bijna zeker kapot omdat. Nvidia heeft hier niets aan gedaan en de chips gewoon doorverkocht ook al wisten ze van dit probleem.[b]Shepard schreef op donderdag 14 januari 2010 @ 12:43
Maar ik heb ook al verhalen over de 58xx serie van Ati gehoord dat er behalve de levertijden ook brakke drivers voor veel problemen zorgen, en strepen op het scherm, etc. En in het verleden heeft Ati ook veel overhittingsproblemen gehad. Die problemen heb ik niet gehad met Nvidia kaarten.
Bron?Anoniem: 339353 schreef op donderdag 14 januari 2010 @ 12:43:
Volgens Nvidia zijn alle yield problemen die ze hadden met Fermi opgelost. Nu maar wachten wanneer er een datum bekend word gemaakt.
Dus... zoals hierboven aangegeven... wat moet een bedrijf anders zeggen over hun eigen producten als het tegenzit op het moment? Ik denk dat dit een retorische vraag is.
Anoniem: 339353
En lol, verder was er op 4chan nog iemand die wel kon bewijzen dat hij bij de marketingsafdeling bij Nvidia werkte zei dat alle problemen opgelost waren, maar dat is natuurlijk geen enkel bewijs.
Daar was ik niet van op de hoogte, kan je een linkje geven? Ik hoop dan dat mijn Nvidia kaart van 2007 dan een G82 chip heeft.zero_cool89 schreef op donderdag 14 januari 2010 @ 12:53:
[...]Nu wil ik geen fanboy uithangen maar ik moet je even wijzen op een nog veel grotere fout die nVidia heeft gemaakt met hun G80 chips. De chips gaan na 2-4 jaar gebruik bijna zeker kapot omdat. Nvidia heeft hier niets aan gedaan en de chips gewoon doorverkocht ook al wisten ze van dit probleem.
Kijk hier maar:[b]Shepard schreef op donderdag 14 januari 2010 @ 13:00
Daar was ik niet van op de hoogte, kan je een linkje geven? Ik hoop dan dat mijn Nvidia kaart van 2007 dan een G82 chip heeft.
base_ in "Het doodgaan van G80GTX/Ultra kaarten"
Het verleden is een garantie voor de toekomst. Maar welke kaarten hadden dan last van oververhitting ? Ik heb vanaf de Radeon 8500 letterlijk alle mid/highend kaarten gehad. En allemaal heb ik ze overgeclockt. Kan me er geen herinneren die last van oververhitting had met de stock cooler. Bij de 9800 pro was er een serie waar de fan herrie ging maken. En vroeger gingen die kleiner coolertjes nog wel een kapot maar dat was ook bij nVidia kaarten.Anoniem: 339353 schreef op donderdag 14 januari 2010 @ 12:43:
Volgens Nvidia zijn alle yield problemen die ze hadden met Fermi opgelost. Nu maar wachten wanneer er een datum bekend word gemaakt.
De Tegra chip kan Nvidia nog wel boven water houden denk ik. Ik heb trouwens gemist waarom Intel geen licentie voor chipsets aan Nvidia heeft gegeven, of hebben ze dat niet bekendgemaakt?
[...]
Maar ik heb ook al verhalen over de 58xx serie van Ati gehoord dat er behalve de levertijden ook brakke drivers voor veel problemen zorgen, en strepen op het scherm, etc. En in het verleden heeft Ati ook veel overhittingsproblemen gehad. Die problemen heb ik niet gehad met Nvidia kaarten.
Die strepen waar mensen nu last van hebben is inderdaad een raar probleem maar ik krijg niet het idee dat dat iets hardware matigs is. Plaats die die kaart op een ander moederbord werkt deze ineens perfect. Ik heb zelf 3 5850's gehad en die werken stock helemaal perfect. Alleen met hoge overclocks kan ik strepen krijgen maar dat is ook niet raar met overclocken. Elke kaart heeft namelijk zijn limieten.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Waarom zouden ze zich daar nu opeens wel aan houden? De 5970 zou het 'maximale' verbruiken volgens de PCIe specs. Maar de GTX 295 en 4870X2 verbruiken rustig nog veel meer!-The_Mask- schreef op dinsdag 12 januari 2010 @ 20:40:
[...]
Ik 300 Watt aangezien die anders niet meer binnen de PCIe specs valt.
Ik vind het maar een slap gelul, het lijkt me niet dat dit pas na de launch van de GTX 295 is ingevoerd............
Gewoon met de paplepel ingieten dat AMD en ATI altijd een betere prijs/kwaliteit biedtspNk schreef op donderdag 14 januari 2010 @ 12:12:
Dat soort dingen maak ik bij al mijn vrienden mee, die iets of wat verstand van computers hebben.
Ben je daar wel zo zeker van? Ik het andere topic gaan er toch echt verhalen rond dat nieuwe kaarten wel goed doen, verder is echt niets te zien aan de combinatie van bepaalde chipsets met deze kaarten...Astennu schreef op donderdag 14 januari 2010 @ 13:27:
[...]
Die strepen waar mensen nu last van hebben is inderdaad een raar probleem maar ik krijg niet het idee dat dat iets hardware matigs is. Plaats die die kaart op een ander moederbord werkt deze ineens perfect. Ik heb zelf 3 5850's gehad en die werken stock helemaal perfect. Alleen met hoge overclocks kan ik strepen krijgen maar dat is ook niet raar met overclocken. Elke kaart heeft namelijk zijn limieten.
Naja dit is meer iets voor in het andere topic natuurlijk
[ Voor 33% gewijzigd door Stefanovic45 op 14-01-2010 13:57 ]
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
HOAX!1!! ALLLEMAAL GEBASH VAN CHARLIE!!!!1!!zero_cool89 schreef op donderdag 14 januari 2010 @ 12:53:
[...]
Nu wil ik geen fanboy uithangen maar ik moet je even wijzen op een nog veel grotere fout die nVidia heeft gemaakt met hun G80 chips. De chips gaan na 2-4 jaar gebruik bijna zeker kapot omdat. Nvidia heeft hier niets aan gedaan en de chips gewoon doorverkocht ook al wisten ze van dit probleem.
Tenminste dat was destijds de reactie van de fanboys
Ik zit met angst en beven te kijken naar mijn laptop die ook een 'besmette' chip zou moeten hebben.
Dacht ik ook, maar even nagezocht en zowel de HD4870x2 en de GTX295 hebben ook gewoon een TDP onder de 300W, waarmee het toch wel een regel lijkt te zijn. De enige kaart die er dus overheen is gegaan tot nu toe is de Mars maar dat hebben we geweten, dat ding heeft last van oververhitting en is ook echt voor diehards, dat imago moet fermi niet krijgen dus die zal echt wel onder de 300W blijven.StefanvanGelder schreef op donderdag 14 januari 2010 @ 13:55:
[...]
Waarom zouden ze zich daar nu opeens wel aan houden? De 5970 zou het 'maximale' verbruiken volgens de PCIe specs. Maar de GTX 295 en 4870X2 verbruiken rustig nog veel meer!
Ik vind het maar een slap gelul, het lijkt me niet dat dit pas na de launch van de GTX 295 is ingevoerd............
Opzich wel grappig, want hierdoor gaat de performance-kroon niet naar degene die de lompste chip weet te maken maar naar degene die het meeste performance per watt weet neer te zetten, immers verbruiken van beide fabrikanten de dual-GPU-kaarten evenveel en dat is dan de limiet.
[ Voor 14% gewijzigd door bwerg op 14-01-2010 14:54 ]
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 339353
Heeft geen speciale krachten en is daar erg boos over.
Het was waarschijnlijk niet voor niks dat er nieuwsberichten waren dat de HD5970 te veel verbruikte en dat de kloksnelheden lager liggen dan die van de HD5870, grote kans dat ATi/AMD en nVidia dan op hun vingers zijn getikt dat ze zich helemaal niet aan de PCIe standaard hebben gehouden.StefanvanGelder schreef op donderdag 14 januari 2010 @ 13:55:
Waarom zouden ze zich daar nu opeens wel aan houden? De 5970 zou het 'maximale' verbruiken volgens de PCIe specs. Maar de GTX 295 en 4870X2 verbruiken rustig nog veel meer!
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
het is wel kut als er geen PCI Express logo op je doos mag staanspNk schreef op donderdag 14 januari 2010 @ 16:49:
Door wie? Standaarden zijn leuk om aan te houden, maar je bent niets verplicht. Zie Microsoft bijvoorbeeld.
http://www.pcisig.com/home
[ Voor 5% gewijzigd door neliz op 14-01-2010 16:51 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 59888
Je kunt wel leuk een kaart bakken die 500 watt trekt met een monsterventilator er op, maar als daardoor bij de helft van je klanten het PCI-E slot doorfikt omdat je ver boven de standaard zit schiet je daar niet zo veel mee op.spNk schreef op donderdag 14 januari 2010 @ 16:49:
Door wie? Standaarden zijn leuk om aan te houden, maar je bent niets verplicht. Zie Microsoft bijvoorbeeld.
Microsoft is hier geen goede vergelijking omdat het daarbij om software gaat. Bovendien heeft Microsoft een enorm monopolie waardoor ze in staat zijn de rest van de wereld hun standaarden op te leggen, en helaas doen ze dat ook.
Ik zeg niet dat ik daar zeker van ben. Dat idee krijg ik. + een nieuwe kaart zou ook een nieuwe bios kunnen hebben. Ik vraag me af hoe hoog het persentage mensen is dat echt problemen heeft. Want die polls zeggen weinig. De mensen met problemen stemmen altijd eerder. Maar het is wel een serieus probleem dat er mensen zijn die hier last van hebben dat geef ik toe.StefanvanGelder schreef op donderdag 14 januari 2010 @ 13:55:
[...]
Ben je daar wel zo zeker van? Ik het andere topic gaan er toch echt verhalen rond dat nieuwe kaarten wel goed doen, verder is echt niets te zien aan de combinatie van bepaalde chipsets met deze kaarten...
Naja dit is meer iets voor in het andere topic natuurlijk
Yep helaas zijn er genoeg bewijzen. Zie HP en zie hier de topics op tweakers.Naluh! schreef op donderdag 14 januari 2010 @ 14:49:
[...]
HOAX!1!! ALLLEMAAL GEBASH VAN CHARLIE!!!!1!!
Tenminste dat was destijds de reactie van de fanboys![]()
Ik zit met angst en beven te kijken naar mijn laptop die ook een 'besmette' chip zou moeten hebben.
Ik vind het ook wel appart hoor dat de HD4870 X2 veel meer verbruikt dan de HD5970. Daar was ik best wel verbaast door. Al zit de HD5970 daar door wel netjes onder de 300 watt. Waar de HD4870 X2 daar overheen gaat. Als ze em op HD5870 Speeds laten lopen kwam er bijna 100 watt bij. Dus zit je ergens rond de 380. En dat is wel erg veel. Qua Performance per watt is dit wel een betere oplossing.-The_Mask- schreef op donderdag 14 januari 2010 @ 15:03:
[...]
Het was waarschijnlijk niet voor niks dat er nieuwsberichten waren dat de HD5970 te veel verbruikte en dat de kloksnelheden lager liggen dan die van de HD5870, grote kans dat ATi/AMD en nVidia dan op hun vingers zijn getikt dat ze zich helemaal niet aan de PCIe standaard hebben gehouden.
[ Voor 25% gewijzigd door Astennu op 15-01-2010 10:29 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ray-tracing
Hair
http://www.youtube.com/watch?v=jcXmV5Je_gc
http://www.youtube.com/watch?v=5Juxq2tqHyI
http://www.youtube.com/watch?v=4Ie0t_LkImk
http://www.youtube.com/watch?v=W-0iFBiLw_k
[ Voor 74% gewijzigd door neliz op 15-01-2010 21:50 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
In ieder geval ik heb vanavond de nieuwe topic aangemaakt, indien iemand mede-auteur wil worden mag deze gerust een berichtje sturen naar mij.
Buiten een paar filmpjes en een demo heeft CES in feite weinig opgeleverd qua concrete data voor de GeForce Fermi kaart, zodoende is enkel het nieuws/geruchten en driver onderdeel echt upgedate.
Verwacht dus ook geen wereldschokkend nieuws in de TS.
Nieuw deeltje:
[Algemeen] nVidia Nieuws & Discussie Topic - Deel 42
Zoals steeds mogen correcties, aanvullingen, spelfouten .... altijd gemeld worden in een PM (beste van al vervuilt het topic niet) of een forum post
Nogmaals mijn excuses voor de gigantische vertraging voor het nieuwe topic, alhoewel nu hopelijk al het CES nieuws nu mooi in 1 deeltje staat geconcentreerd ipv 2 .. alle indien er niet plots nog nieuws ervan boven komt drijven
(Die youtube filmpjes voorspellen niets goed in die zin
Dit topic is gesloten.