Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Idle kan nog wel eens een leuke verassing worden!Format-C schreef op vrijdag 08 januari 2010 @ 15:13:
Ben benieuwd of de Fermi idle ook zo zuinig is. (Net zoals de HD5000 serie.)
Ik kan het me niet voorstellen.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Hoeveel PEG 8pins powerkabels gaan er in die GF100 kaarten?
en hoeveel zitten er in deze?




Fermi lekker zuinig .. WHOOPS!
(er zal vast wel iemand zwetend op de CES rondlopen die nu alle kasten aan het dichtschroeven is)
[ Voor 13% gewijzigd door neliz op 09-01-2010 03:10 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
6+8, net zoals op die triple SLi foto? Dus wat is hier anders aan, behalve dat het een stroom vreter wordt?neliz schreef op zaterdag 09 januari 2010 @ 02:31:
[...]
Hoeveel PEG 8pins powerkabels gaan er in die GF100 kaarten?
en hoeveel zitten er in deze?
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
Fermi lekker zuinig .. WHOOPS!Zoals ik in mei al schreef, de FX5800 en HD2900XT krijgen er een broertje bij.
(er zal vast wel iemand zwetend op de CES rondlopen die nu alle kasten aan het dichtschroeven is)
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
2 x 8 peg = 300w
1 x 6 peg = 75w
pcie slot = 75 w
Dat is te gek voor woorden eigenlijk.
Anoniem: 58485
450 Watt is een belachelijk vermogen dat echt niet gekoeld kan worden met die stock-koeler.
Dat weet ik eigenlijk bijna wel zeker. Het gespecificeerde vermogen van een peg connector gaat over de connector, niet over de gebruikte kabels.Anoniem: 58485 schreef op zaterdag 09 januari 2010 @ 10:32:
Ik denk eerder dat het een design is van de PSU dan dat het iets te maken heeft met paralelle-voeding.
Of ze er nou een dubbele kabel naar toe laten lopen of een enkele dikke maakt niet zoveel uit, het contact tussen kaart en kabel is het zwakke punt, en daar zal hij ook gaan uitfikken als ze werkelijk 2 keer zoveel vermogen door de connector willen trekken.
http://www.flickr.com/pho...in/set-72157623157899998/

Miss you CJ....:'( en nee... ik kan niet aan samples komen
edit: ziet er wel erg provisorisch uit BTW.
[ Voor 24% gewijzigd door Edmin op 09-01-2010 11:19 ]
Wat, dat wit-met-groene?neliz schreef op zaterdag 09 januari 2010 @ 11:14:
Okay, er is dus officieel iets aan de hand: PEG connecters zijn nu afgedekt!
Ik hoop niet dat je dat bedoeld
[ Voor 9% gewijzigd door bwerg op 09-01-2010 11:57 ]
Heeft geen speciale krachten en is daar erg boos over.
Is toch duidelijk dat het een 6 en 8 pins is die aan 1 kabelboom zitten wat je veel vaker ziet bij voedingen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Het punt is niet of het allemaal samengetieribbed is in 1 boom. De 8-pin connector krijgt sap aangeleverd van 2 verschillende kabels, waar je normaal 1 kabel zou verwachten. Wat daar nu precies achter zit, is dus hetgene waarover gespeculeerd wordt. Het is in ieder geval interessant te noemen dat er een mogelijkheid is dat de A2 stepping dusdanig veel stroom nodig had, dat ~100% belasting niet gegarandeerd stabiel zou kunnen zijn op 300 Watt.-The_Mask- schreef op zaterdag 09 januari 2010 @ 11:40:
Vraag mij af waar jullie moeilijk over doen?
Is toch duidelijk dat het een 6 en 8 pins is die aan 1 kabelboom zitten wat je veel vaker ziet bij voedingen.
Nee, dat is niet zo lees mij post nog maar eens.dahakon schreef op zaterdag 09 januari 2010 @ 11:46:
De 8-pin connector krijgt sap aangeleverd van 2 verschillende kabels,
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 58485
Je bedoeld de veel-al-gebruikte stock-koeler van Nvidia op o.a hun Geforce en Quaddro series?Edmin schreef op zaterdag 09 januari 2010 @ 10:35:
De koeler van de HD5970 is ontworpen voor 400W. Waarom zou 450W voor deze kaart niet kunnen?
Ik denk het niet hoor. 450W aan stroom is een hele hoop warmte wat zo'n koeler moet afwerken. Daarnaast werkt het niet in elke kast lekker een kaart die zoveel warmte verstookt de rest van de componenten te verwarmen.
Maar die dingen zijn wel stevig genoeg hoor. Ook een 6 pins connector gaat er niet al te eenvoudig in een PEG-slot. Daar is enigzins wel over nagedacht.primusz schreef op zaterdag 09 januari 2010 @ 10:48:
[...]
Dat weet ik eigenlijk bijna wel zeker. Het gespecificeerde vermogen van een peg connector gaat over de connector, niet over de gebruikte kabels.
Of ze er nou een dubbele kabel naar toe laten lopen of een enkele dikke maakt niet zoveel uit, het contact tussen kaart en kabel is het zwakke punt, en daar zal hij ook gaan uitfikken als ze werkelijk 2 keer zoveel vermogen door de connector willen trekken.
Hoeft toch niets met de kaart te maken te hebben maar eerder een design-by-psu?dahakon schreef op zaterdag 09 januari 2010 @ 11:46:
[...]
Het punt is niet of het allemaal samengetieribbed is in 1 boom. De 8-pin connector krijgt sap aangeleverd van 2 verschillende kabels, waar je normaal 1 kabel zou verwachten. Wat daar nu precies achter zit, is dus hetgene waarover gespeculeerd wordt. Het is in ieder geval interessant te noemen dat er een mogelijkheid is dat de A2 stepping dusdanig veel stroom nodig had, dat ~100% belasting niet gegarandeerd stabiel zou kunnen zijn op 300 Watt.
Dat zijn gewoon 3 custom kabels samengepropt tot 1 die de kaart in gaan. Kan om een modulaire voeding gaan met daarin een cable-sleeve om de kabels samen te voegen.
CES: NVIDIA shows Fermi
"eyefinity like also for GT200 based cards" ,zonder DP? beter..Over at the NVIDIA booth at CES NVIDIA mostly is showing off 3D Vision related gear, a lot of Tegra and ION items. But if you look a little closer, then you'll spot a nice screen with three monitors running 3D Vision. What's empowering that setup is in fact a Fermi based setup. So yea, it's abundantly clear that Fermi finally is closing in on a release. Now there where some rumor that the Fermi cards would be on display, and this is not the case. The cards you mostly see photographed at other sites are in fact not Fermi, but GTX 285 cards -- yes yes.
Anyway, this is all we can show your Fermi wise. Mind you that the three monitor 'Eyefinity like' support will become available with a driver very soon for not only Fermi, but also all GT200 based cards like GTX 260,275,280, 285 and GTX 295. Not bad we like that.
|2600k|Asus 290|
Het probleem:Bullus schreef op zaterdag 09 januari 2010 @ 12:06:CES: NVIDIA shows Fermi
[...]
"eyefinity like also for GT200 based cards" ,zonder DP? beter..
Je hebt tenminste 2 GF100 kaarten nodig, danwel GT200 (niet goedkoop)
Je hebt 3 monitoren nodig die 120Hz aankunnen (evenmin goedkoop)
Het (financieel) voordeel dat je geen DP nodig hebt is daarmee dan ook gelijk geheel teniet gedaan. Verder is het opzich natuurlijk wel een interessante ontwikkeling, maar ik persoonlijk blijf erbij dat ik liever zonder brilletje op game. Mijn eigen normale bril is al meer dan genoeg.
Dat je twee kaarten nodig hebt is wel een minpunt, maar ik dacht ergens gelezen te hebben dat met drie monitoren, er twee door kaart A worden aangestuurd en de laatste monitor door kaart B. Dat zou wel een groot nadeel zijn, het rekenwerk is dan zwaar onevenredig verdeeld en je haalt dan geen optimale performance. (correct me if I'm wrong)
[ Voor 52% gewijzigd door bwerg op 09-01-2010 12:51 ]
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 317606
Het liefst van al heb je een 200 Hz monitor, 100 Hz per oog. Samsung heeft overigens zijn eerste 3D TV aangekondigd (http://www.sony.nl/product/t32-lx-series/kdl-40lx900), 2010 wordt het jaar waarin 3D een flinke toeloop zal nemen.dahakon schreef op zaterdag 09 januari 2010 @ 12:33:
[...]
Het probleem:
Je hebt tenminste 2 GF100 kaarten nodig, danwel GT200 (niet goedkoop)
Je hebt 3 monitoren nodig die 120Hz aankunnen (evenmin goedkoop)
Daar hoef je de komende tien jaar niet op de rekenen. Philips liet dit tien jaar geleden al zien en toen werd het in de ijskast gezet. Je had er niks aan, klein scherm, je moest op een vaste positie voor je monitor zitten of het werkte niet etc. Het zal er ooit wel komen, maar niet op korte termijn.Het (financieel) voordeel dat je geen DP nodig hebt is daarmee dan ook gelijk geheel teniet gedaan. Verder is het opzich natuurlijk wel een interessante ontwikkeling, maar ik persoonlijk blijf erbij dat ik liever zonder brilletje op game. Mijn eigen normale bril is al meer dan genoeg.
Tja, de techniek is polarisatie. Voor een 3D film (zie Avatar) zijn ook twee projectoren nodig.bwerg schreef op zaterdag 09 januari 2010 @ 12:49:
Is die Nvidia-versie van eyefinity dan alleen mogelijk met 3D-vision? Lijkt me sterk, waarom zou het in 3D-vision wel kunnen en met 'normaal' beeld niet...
Dat je twee kaarten nodig hebt is wel een minpunt, maar ik dacht ergens gelezen te hebben dat met drie monitoren, er twee door kaart A worden aangestuurd en de laatste monitor door kaart B. Dat zou wel een groot nadeel zijn, het rekenwerk is dan zwaar onevenredig verdeeld en je haalt dan geen optimale performance. (correct me if I'm wrong)
[ Voor 24% gewijzigd door Anoniem: 317606 op 09-01-2010 13:01 ]
Dat heb ik dus ook ergens gelezen, kan me alleen niet meer heugen waar. Het kan ook niet anders, aangezien 1 van de monitoren op de 2e kaart aangesloten dient te worden. Het is een antwoord op Eyefinity, maar of het echt goed uitpakt, dat valt nog te bezien.bwerg schreef op zaterdag 09 januari 2010 @ 12:49:
Dat je twee kaarten nodig hebt is wel een minpunt, maar ik dacht ergens gelezen te hebben dat met drie monitoren, er twee door kaart A worden aangestuurd en de laatste monitor door kaart B. Dat zou wel een groot nadeel zijn, het rekenwerk is dan zwaar onevenredig verdeeld en je haalt dan geen optimale performance. (correct me if I'm wrong)
Volgens mij niet, één projector met 'dubbel beeld' zou genoeg moeten zijn. Anyway, de rol van de projector is niet hetzelfde als die van een GPU. Zie maar bij 3d-vision zonder die eyefinity-achtige opstelling, dat kan ook met één kaart.Anoniem: 317606 schreef op zaterdag 09 januari 2010 @ 12:59:
Tja, de techniek is polarisatie. Voor een 3D film (zie Avatar) zijn ook twee projectoren nodig.
Heeft geen speciale krachten en is daar erg boos over.
[ Voor 53% gewijzigd door neliz op 09-01-2010 13:06 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ok er is SLI nodig. Voldoet 1 GTX295 dan? (2x dvi 1x HDMI)neliz schreef op zaterdag 09 januari 2010 @ 13:05:
nvidia's "eyefinity" vereist inderdaad sli op gt200. Er is gewoon en 2D mode (dus 3d surround is niet vereist) en het is waarschijnlijk een bestaande software oplossing.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Anoniem: 317606
Dat kan nietbwerg schreef op zaterdag 09 januari 2010 @ 13:04:
[...]
Volgens mij niet, één projector met 'dubbel beeld' zou genoeg moeten zijn. Anyway, de rol van de projector is niet hetzelfde als die van een GPU. Zie maar bij 3d-vision zonder die eyefinity-achtige opstelling, dat kan ook met één kaart.
http://www.enermax.co.uk/...-supply/revolution85.html
New: DXXI ready!
Full support of most current >300W DX11 graphics cards due to minimum two 6+2P (8P) PCI-E connectors
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Welles
Er moeten wel twee verschillende beelden gerenderd worden maar dat kan één kaart toch ook. Kost wat rekenkracht, maar goed, waarom niet.
Volgens de NVidia-site is er ook maar één geforce-kaart nodig voor 3d-vision.
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 317606
Yep ... Crossfireneliz schreef op zaterdag 09 januari 2010 @ 13:23:
Enermax doet ook een duit in het zakje:
http://www.enermax.co.uk/...-supply/revolution85.html
[...]
De huidige 3D vision is shutter glass, zie boven wat ik daarover zei. De techniek met Fermi is polarisatie, en dat kan niet met één videokaart.bwerg schreef op zaterdag 09 januari 2010 @ 13:24:
[...]
Welles
Er moeten wel twee verschillende beelden gerenderd worden maar dat kan één kaart toch ook. Kost wat rekenkracht, maar goed, waarom niet.
Volgens de NVidia-site is er ook maar één geforce-kaart nodig voor 3d-vision.
[ Voor 50% gewijzigd door Anoniem: 317606 op 09-01-2010 13:29 ]
en wie zegt dat zij hier een standaard connector gebruiken? 't zou niet de eerste fabrikant zijn die (voor zijn preproductiemodel) niet de normale standaard volgt.-The_Mask- schreef op zaterdag 09 januari 2010 @ 11:48:
[...]
Nee, dat is niet zo lees mij post nog maar eens.
Ik hoop echter dat het niet zo is.
Bovendien lijkt het of niet alle connectoren van de 8-pins met dubbele bekabeling is aangesloten (maar ik weet niet welke connectie waarvoor dient).
Waarschijnlijk zal dit in het productiemodel verholpen zijn
zijn er eigenlijk al cijferresultaten/brenchmarkresultaten bekend??
Fermi is eindelijk live getoond, maar gebruik 6+8 pins stroom connectoren, dus gebruikt meer dan 225 Watt. De 8 pins connector heeft dubbele aanvoer, maar is het vragelijk of dit gezien moet worden als een dubbele 8 connector, of dat het gewoon een gimmick is om ATi.AMD op het verkeerde been te zetten.
Nu hebben alvast 2 betrouwbare fabrikanten van koelers aangegeven dat men eerst naar Nvidia zelf moet met koelers voor Fermi, omdat deze erg veel hitte opwekt(en dus veel stroom verbruikt). Cooler Master heeft meerdere keren het ontwerp moeten aanpassen voordat deze 'Fermi certified" was.
Als de 6+8 pins een gimmick is, waarom gaat Nvidia het eerst laten zien, om het later te verstoppen? Of dachten zij dat ze zelfs naar Fake-Fermi de pers weer te slim af waren? Dat men niet erop zou letten, en nu dat het wel gebeurt, men het snel maar onvoldoende verstopt? (Kunt nog steeds dubbele kabelboom zien.) Als het echt een gimmick, zou ik het lekker laten zien, denkt iedereen dat het 450 Watt is, en later is het ineens 300 Watt, niemand die dat dan verwacht
We kunnen dus concluderen dat die kabelboom geen gimmick is, omdat we koeling van Fermi dusdanig moeilijk is dat zelfs gerenomeerde bedrijven als Cooler Master en ThermalTake meerdere keren hun ontwerp moesten aanpassen voordat deze goed genoeg waren.... 300Watt kaarten hebben wij al gehad, dus zo moeilijk is een ervoor koeler niet, maar 400+Watt koelen is nog redelijk onbekend terrein, en erg moeilijk.....
Verder vindt ik, als het echt geen gimmick is, dat Nvidia nogal dom en/of arrogant naar de pers toe bezig is. Je verneukt ze eerst met een fake board die je gewoon staat te presenteren als "the real thing", en pas als er terechte opmerking over komen geef je toe dat het fake is. En dan ga je nu gewoon iets presenteren als een 300Watt product, terwijl het gewoon een +400Watt product is, maar zodra de pers hier iets over gaat opmerken, ga je het weer verstoppen.....
Echt, welke kneus op de PR-afdeling van Nvidia heeft er bedacht dat de presentatie van de kaart met die dubbele kabels goed was, of heeft dit ooit goedgekeurd? Ze vragen er nu gewoon om om afgebrand te worden in de pers. Maargoed, als die dingen echt 450 Watt verstoken, verbranden ze nu al bijna
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Nee, dat kunnen we niet.Darkasantion schreef op zaterdag 09 januari 2010 @ 13:46:
We kunnen dus concluderen dat die kabelboom geen gimmick is,
We kunnen ook niet concluderen dat de cpu van een pc waar een fermi in zit watergekoeld moet zijn omdat dat toevallig op het plaatje te zien is.
Wat we aan de hand van het plaatje wel kunnen concluderen is dat Nvidia voor de presentatie alleen maar high end onderdelen in de 'fermi pc' heeft gestopt.
Bij High end PSU's is dit niet ongebruikelijk.
Wat vervolgens wel interessant wordt is speculeren of de getoonde Fermi en/of de cpu zijn overgeklokt voor deze presentatie.
Anoniem: 58485
Er zijn toch geen benchmarks gedraaid verder? Alleen een tech-demo. Daar hoef je de zooi niet voor te océn hoor. Maar wellicht is de CPU en GPU een klein tikje omhooggezet, no big deal. Als Nvidia met hun model de zooi moet océn om een beetje performance te laten zien is het slecht gesteld.daan! schreef op zaterdag 09 januari 2010 @ 15:54:
[...]
Wat vervolgens wel interessant wordt is speculeren of de getoonde Fermi en/of de cpu zijn overgeklokt voor deze presentatie.
Ik weet dat mijn huidige scherm niet voldoet voor die 3d bril en Alternate heeft het volledige pakker (scherm+brilset) voor 450 euro. Is dit een goede deal? Of kan ik beter de bril los kopen en er zelf los een scherm bij halen?
En welke videoplank zou er het best op aansluiten? Aannemende dat ik mijn oude scherm nog als een 2e monitor op mijn PC aan wil sluiten?
Dit gaat in combinatie met een upgrade van het MOBO, CPU & geheugen. De HD's die ik op dit moment gebruik zijn nog nieuw en hoeven denk ik niet vervangen te worden.
Anoniem: 292676
ik zou eerlijk gezegt nog wat reviews lezen, blijkt dat je er koppijn van krijgtDeJaapS schreef op zaterdag 09 januari 2010 @ 16:46:
Hoi ik ben op dit moment aan het kijken naar een nieuwe PC/upgrade. En ik ben naar de 3d visions van Nvidia aan het kijken en vraag me af wat de meest economische keuze is voor het beeldscherm.
Ik weet dat mijn huidige scherm niet voldoet voor die 3d bril en Alternate heeft het volledige pakker (scherm+brilset) voor 450 euro. Is dit een goede deal? Of kan ik beter de bril los kopen en er zelf los een scherm bij halen?
En welke videoplank zou er het best op aansluiten? Aannemende dat ik mijn oude scherm nog als een 2e monitor op mijn PC aan wil sluiten?
Dit gaat in combinatie met een upgrade van het MOBO, CPU & geheugen. De HD's die ik op dit moment gebruik zijn nog nieuw en hoeven denk ik niet vervangen te worden.
Vervolgens concludeer jij dat het board in die pc een fermi is, maar hoe weten we dat dan weer zeker......daan! schreef op zaterdag 09 januari 2010 @ 15:54:
[...]
Nee, dat kunnen we niet.
We kunnen ook niet concluderen dat de cpu van een pc waar een fermi in zit watergekoeld moet zijn omdat dat toevallig op het plaatje te zien is.
Wat we aan de hand van het plaatje wel kunnen concluderen is dat Nvidia voor de presentatie alleen maar high end onderdelen in de 'fermi pc' heeft gestopt.
Bij High end PSU's is dit niet ongebruikelijk.
Wat vervolgens wel interessant wordt is speculeren of de getoonde Fermi en/of de cpu zijn overgeklokt voor deze presentatie.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik heb het zelf nooit gedaan, maar wel mensen gehoord die het hebben gedaan, en hun conclusies zijn:DeJaapS schreef op zaterdag 09 januari 2010 @ 16:46:
Hoi ik ben op dit moment aan het kijken naar een nieuwe PC/upgrade. En ik ben naar de 3d visions van Nvidia aan het kijken en vraag me af wat de meest economische keuze is voor het beeldscherm.
Ik weet dat mijn huidige scherm niet voldoet voor die 3d bril en Alternate heeft het volledige pakker (scherm+brilset) voor 450 euro. Is dit een goede deal? Of kan ik beter de bril los kopen en er zelf los een scherm bij halen?
En welke videoplank zou er het best op aansluiten? Aannemende dat ik mijn oude scherm nog als een 2e monitor op mijn PC aan wil sluiten?
Dit gaat in combinatie met een upgrade van het MOBO, CPU & geheugen. De HD's die ik op dit moment gebruik zijn nog nieuw en hoeven denk ik niet vervangen te worden.
Duur, koppijn en irritante bril. Maar wel leuk, totdat de hoofdpijn komt..
Ik, zoals je ziet.blieckje schreef op zaterdag 09 januari 2010 @ 13:30:
en wie zegt dat zij hier een standaard connector gebruiken?
Hij heeft geen dubbele aanvoer, dit is gewoon standaard op heel veel voedingen.Darkasantion schreef op zaterdag 09 januari 2010 @ 13:46:
De 8 pins connector heeft dubbele aanvoer, maar is het vragelijk of dit gezien moet worden als een dubbele 8 connector, of dat het gewoon een gimmick is om ATi.AMD op het verkeerde been te zetten.
De ene komt uit de voeding en de andere gaat gewoon naar een andere PEG connector.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ooh, heb dat anders nog nooit gezien-The_Mask- schreef op zaterdag 09 januari 2010 @ 17:17:
[...]
Ik, zoals je ziet.
[...]
Hij heeft geen dubbele aanvoer, dit is gewoon standaard op heel veel voedingen.
De ene komt uit de voeding en de andere gaat gewoon naar een andere PEG connector.
Maar als dat zo is, waarom plakken zij hem dan af? Lijkt me ook wel raar. En waarom doen ze dubbele connectoren op die 8 lijnen, want gag je wel 300Watt op die 8 kabels zetten, dacht namelijk dat 150Watt al de max was voor 8-polig
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
misschien mag er wel zoveel watt over de kabels maar niet op het punt waar de connector contact met de videokaart maakt....Darkasantion schreef op zaterdag 09 januari 2010 @ 17:21:
[...]
Ooh, heb dat anders nog nooit gezien! Als dat zo is, is mijn vorige conclusie ook waardeloos
![]()
Maar als dat zo is, waarom plakken zij hem dan af? Lijkt me ook wel raar. En waarom doen ze dubbele connectoren op die 8 lijnen, want gag je wel 300Watt op die 8 kabels zetten, dacht namelijk dat 150Watt al de max was voor 8-polig
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Misschien een n00bish vraag hoor, maar waar is duidelijk te zien dat ze hem afplakken? Dat witte in het plaatje van Neliz?Darkasantion schreef op zaterdag 09 januari 2010 @ 17:21:
Maar als dat zo is, waarom plakken zij hem dan af? Lijkt me ook wel raar.
Heeft geen speciale krachten en is daar erg boos over.
Inderdaad dat kunnen ook een par lijntjes getekent met paint zijnbwerg schreef op zaterdag 09 januari 2010 @ 17:43:
[...]
Misschien een n00bish vraag hoor, maar waar is duidelijk te zien dat ze hem afplakken? Dat witte in het plaatje van Neliz?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Daar zie je ook weer die dubbele aansluiting.
En waarom watergekoeld? Warmte? Overklokken? Zodat ie beter draait ,dan op stock speeds?
edit:
foto's waren al geplaatst

[ Voor 6% gewijzigd door Bullus op 09-01-2010 18:01 ]
|2600k|Asus 290|
Nee dat is gewoon het woord "geforce" uitgesmeerd over de foto omdat de foto bewogen isXenomorphh schreef op zaterdag 09 januari 2010 @ 17:55:
[...]
Inderdaad dat kunnen ook een par lijntjes getekent met paint zijn
Vandaar dat ik me ook zat af te vragen of het wel echt daarover ging
Heeft geen speciale krachten en is daar erg boos over.
Haha, nice point. Met Nvidia weet je dat natuurlijk nooit 100% zeker, maar ik heb op dit moment geen reden om anders te geloven. Jij wel?Help!!!! schreef op zaterdag 09 januari 2010 @ 17:04:
[...]
Vervolgens concludeer jij dat het board in die pc een fermi is, maar hoe weten we dat dan weer zeker......
P.S. hoe weet ik zeker dat jij bestaat?
Nou, mag ik het zeggen?
Heeft geen speciale krachten en is daar erg boos over.

7800X3D - B650E Aorus Master - 32GB 6000Mhz - 4090 FE
Nu ik er nog eens naar kijk lijkt het inderdaad erop dat het gewoon het geforce logo is dat bewogen wordtSkybullet schreef op zaterdag 09 januari 2010 @ 18:10:
omg wat een comotie over een logo dat half bewogen gefotografeerd is. Dat groen/witte "conspiricy afdekken van powerconnectors gebeuren " is niks meer als het logo, het in wit geschreven Geforce met het groene plaatje ernaast.

Maargoed, heb de foto's nog eens goed bekeken, en vindt het er toch op lijken dat het 1 kabelboom is die naar die 2 connectoren gaat, waarbij 1 dan door 2 8 pins rails wordt gevoedt. Ik kan geen 2e 8 pins stekker ontdekken of iets dergelijks
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Kan de fan van 2 kanten lucht aanzuigen. Voornamelijk voor SLi denk ik, zodat de bovenste kaart nog een beetje verse lucht kan krijgenAnoniem: 308932 schreef op zaterdag 09 januari 2010 @ 20:07:
waarom zitten er gaten in de fermi?
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
NVIDIA 3D Surround
There is some interesting information from NVIDIA at CES that is somewhat disconcerting and promising all at the same time. You guys no doubt know that we love ATI Eyefinity technology. We don't love Eyefinity because it is from AMD, we love Eyefinity because it greatly enhances the PC gaming experience. Gaming on an Eyefinity configuration can be a tremendous experience. Here is a link to my personal Eyefinity setup that I use daily. I have moved up to a Radeon 5970 for the time being, but the 5870 did just fine in terms of performance. Once the Trillian 6-head card comes to market from AMD, we will likely be using one of those to do this...the HardOCP Eyefinity Dream Station.
I am not telling you all of this to poop on NVIDIA's parade. I am telling you all of this to let you know that we are incredibly excited about the technology and fully believe in multi-display gaming. I am doubly excited that NVIDIA is following AMD's lead on this. I could not be happier.
NVIDIA's multi-display solution has been crowned "NVIDIA Surround." NVIDIA's solution is being shown on last-gen cards and next-gen cards, which is very exciting too! NVIDIA is upping the ante a bit with a feature that is accessible on "old" hardware. NVIDIA is also throwing into the mix its 3D Vision feature (wear the 3D glasses movie type of thing) into the mix. So we get "NVIDIA 3D Vision Surround."
Now here is the good stuff. This NVIDIA Surround technology is being shown in working order this week at CES. It is also being shown working on GTX 285s as well as upcoming GF100 boards. Here are the specs that Brian Del Rizzo gave us when asked:
We have multiple demos on the show floor. Here's the breakdown:
The booth in the grand lobby is running on dual GTX285s and three Acer projectors. The projectors are 720p using CRT connectors.
The three projector display in the booth are running on dual GF100s. The DepthQ projectors are 720p and use CRT too.
The other demo we have is 3D Vision Surround running on three 1920x1080 LCD displays from Acer and Alienware using 3 dual link dvi connectors. This one is using dual GTX 285s.
We are showing a combination of Need for Speed Shift, Batman Arkham Asylum, and Avatar.
Another thing that is great to see is NVIDIA has hopefully gotten SLI working smoothly with NVIDIA Surround, where AMD is still struggling for smooth Eyefinity and CrossFire support. However, it is sort of disconcerting that the NVIDIA "needs" two GF100 cards to run the demo. In fact all the demos are SLI setups. We know a single Radeon 5870 or Radeon 5850 will run three 720P panels with ease. It will also be very interesting to see where all of this settles out in terms of price, performance, and value. And of course you can trust HardOCP to chime in on that, hopefully in late Q110.
Now keep in mind that when you enable 3D Vision (the actual 3D portion of this), it basically cuts your frame rates in half due to the way it has to draw every frame twice so your eyes and the glasses you are wearing fool you into thinking you are seeing a 3D image. I am not going to even be shy about this; I hate those damn 3D glasses. But we will give them another chance, and we will surely be giving 3D Surround a big chance. (NVIDIA is telling us this has greatly changed but I have never been shown it first hand.)
Eyefinity gaming has changed my perception of PC gaming and made me truly passionate about PC gaming again. Here is a quote from our recent Eyefinity Performance Review.
Many folks that have forsaken PC gaming for console will find Eyefinity luring them back as Eyefinity provides you with something no console can; more of the gaming world in your field of vision. Eyefinity is not just a larger screen; it is more pixels on that screen. You will see more of the gaming world than you have ever seen before.
(Editor's Note: I am still getting feedback from folks that seem to think Eyefinity is some kind of gimmick. Well it is not. Eyefinity is the real deal and has done more to enhance our gaming experiences at HardOCP than anything else has in a long time. 3dfx SLI brought me 1024x768. Then a few cards brought me 1600x1200 and then 2560x1200. Then Eyefinity brought me 5760x1200 and 3600x1920. Am I saying that Eyefinity is the single most important technology since 3dfx SLI? Yes I am. I fully believe that we are only at the tip of the ice berg.)
Certainly NVIDIA bringing its own "nFinity" to market (Yeah, that is a better name but we know you can't look like you are following AMD's tail that closely!) validates AMD's move to Eyefinity and quite frankly HardOCP's support of it. Multi-display gaming is here to stay. NVIDIA could have done this two years ago with it is current generation of parts, but it simply screwed the pooch and missed a great opportunity using technology it had already done all the grunt work on. We don't often see NVIDIA play catch up, but we are surely seeing that this year.
HardOCP is tremendously glad to see NVIDIA on board with an Eyefinity-type solution; we are all for it and excited this is happening. I think it will force game developers to better use the technology when building games. This is good for PC gamers and good for PC gaming.
I am scared about one thing though. And let me put this in laymen's terms so HardOCP is clear on its stance. I do not want to mince words here.
For god's sake NVIDIA, if you pull this bullshit where NVIDIA Surround "games" will not work on Eyefinity configurations, we are going to beat NVIDIA down repeatedly and publicly for harming the PC gaming industry. Keep those crappy proprietary PhysX policies, but if you start messing with OUR multi-display gaming and not letting it remain "open platform," I will personally lead the mob with the burning torches to the castle gates. And we will be fully prepared to use the torches. I will personally lead a boycott of NVIDIA products if I see NVIDIA harm multi-display gaming in the marketplace through an IP grab. Multi-display gaming belongs to gamers, not NVIDIA.
En toch heeft hij wel enigszins gelijk.
Keep things open, keep things for everyone!
Persoonlijk vind ik multi display gaming nog niet zo heel interessant. Zo lang als er nog randen op monitoren (bezels?) zijn, wil ik het echt niet hebben. Het is leuk dat het kan, maar mij te duur. En té overdreven. En gebruikt me teveel stroom. Maar goed. Dat is persoonlijk. Ik vind 24" inch al leuk zat eigenlijk.
[ Voor 59% gewijzigd door Format-C op 09-01-2010 23:46 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
1) nog bij me ouders woon, en die zullen niet blij zijn als met 3 schermen aan kom zetten
2) Het kost nogal wat, en zoveel heb ik (nog) niet
3) Als, dan wil ik 3x24" inch, en om dat op de hoogste IQ te draaien kost nogal wat rekenkracht, dus dat is afwachten op de volgende generatie en CF support van Eyefinty
4) Er moeten dunnere schermen komen, wil dan wel zo min mogelijk onderbreking tussen de 3 schermen
PS. Ik geef HardOCP groot gelijk, als Nvidia het aandurft om Nfinity, ik bedoel Nvidia 3D Stereo Vision alleen met "hun" games te laten werken, zal het zeker door iedereen worden geboycot.....
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!

Ben allang blij dat ik nu ALLES vol open kan draaien.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat hangt van de game af hoor[b][message=33248495,noline]Zo lang als er nog randen op monitoren (bezels?) zijn, wil ik het echt niet hebben.
Beste voorbeeld is waarschijnlijk GRID, een van de weinige games die écht goed omspringt met zulke resoluties. De randen om het middelste scherm heen vallen min of meer gelijk met de stijlen van de auto waar je in zit, dus dan heb je er vrijwel geen last van!
Persoonlijk ben ik overigens niet onder de indruk van NVIDIA's "aankondiging". Het feit dat je twee kaarten nodig hebt vind ik een beetje stom; zoiets als GRID draait op mijn systeem (E8400, 5870) probleemloos (lees: 40-50 FPS, zonder drops). Nu zal dat met opkomende games wel wat minder zijn, maar daar kan de performance verbetering in DX11 veel mee helpen. Verontrustender vind ik nog het feit dat dit misschien een teken is dat GF100 het dus niet zo heel lekker doet?
De tijd zal het leren!
Dat het op de oudere kaarten niet werkt zonder SLI is nog wat voor te zeggen, die zijn hardwarematig gewoon beperkt tot het aansturen van twee schermen maar dat het ook in de nieuwe GF100 zo geïmplementeerd is vind ik eigenlijk wel een misser, zeker als de competitie met een kaart komt waar je 6 schermen op kunt aansluiten (of er spellen draaien op 6x24" even buiten beschouwing gelaten natuurlijk).Werelds schreef op zondag 10 januari 2010 @ 01:26:
[...]
Dat hangt van de game af hoor
Beste voorbeeld is waarschijnlijk GRID, een van de weinige games die écht goed omspringt met zulke resoluties. De randen om het middelste scherm heen vallen min of meer gelijk met de stijlen van de auto waar je in zit, dus dan heb je er vrijwel geen last van!
Persoonlijk ben ik overigens niet onder de indruk van NVIDIA's "aankondiging". Het feit dat je twee kaarten nodig hebt vind ik een beetje stom; zoiets als GRID draait op mijn systeem (E8400, 5870) probleemloos (lees: 40-50 FPS, zonder drops). Nu zal dat met opkomende games wel wat minder zijn, maar daar kan de performance verbetering in DX11 veel mee helpen. Verontrustender vind ik nog het feit dat dit misschien een teken is dat GF100 het dus niet zo heel lekker doet?
De tijd zal het leren!
En als stereo vision en eyefinity een beetje gemeengoed wordt denk ik dat het probleem van de randen van een monitor best creatief opgelost kan worden. Er zijn natuurlijk veel meer soorten spellen dan shooters en racegames. Flightsims kunnen aardig profiteren van drie monitoren en de randen kunnen dan mooi in de cockpit verwerkt worden, of een RTS met links je map, in het midden je troepen en rechts je basis.
Ik hoop van harte dat nVidia echt met een dijk van een kaart komt maar als een enkele GPU al met een PEG-6 en PEG-8 connector gevoed moet worden dan zal een dual-GPU kaart voorlopig niet in de planning staan en blijft Ati nog steeds de kroon spannen wat single pcb kaarten betreft.
Prijs blijft natuurlijk speculatie maar ik denk niet dat een GF100 veel minder dan een HD5970 gaat kosten en zit wat performance betreft tussen een HD5870 en HD5970 in als ik de geruchten een beetje goed interpreteer. En natuurlijk zit je met een 5970 met Crossfire afhankelijke profielen maar dat issue wordt in huidige en toekomstige spellen volgens mij steeds minder (zeker nu Ati ook met aparte profielen komt in de nieuwe drivers) dus de kaart zal lastig in de markt te zetten zijn.
Als je onder iedereen elke tweaker die niet nVidia fanboy is bedoeld heb je idd gelijk, maar ga er maar vanuit dat niet iedereen een tweaker is.Darkasantion schreef op zondag 10 januari 2010 @ 00:51:
PS. Ik geef HardOCP groot gelijk, als Nvidia het aandurft om Nfinity, ik bedoel Nvidia 3D Stereo Vision alleen met "hun" games te laten werken, zal het zeker door iedereen worden geboycot.....
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Shooters zullen nog het irritantste blijven denk ik zo. In een RTS kan het heel mooi zelfs, kijk maar naar Supreme Commander!KneoK schreef op zondag 10 januari 2010 @ 02:42:
[...]En als stereo vision en eyefinity een beetje gemeengoed wordt denk ik dat het probleem van de randen van een monitor best creatief opgelost kan worden. Er zijn natuurlijk veel meer soorten spellen dan shooters en racegames. Flightsims kunnen aardig profiteren van drie monitoren en de randen kunnen dan mooi in de cockpit verwerkt worden, of een RTS met links je map, in het midden je troepen en rechts je basis.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ik zit namelijk op de 50 tot 52 graden
Heeft geen speciale krachten en is daar erg boos over.
Zo ja, welke? En zo nee is er al bekend wanneer en of deze komt?
Waarom ?? Omdat nVidia nou eenmaal goede ideeën beter uitwerkt dan ATIDarkasantion schreef op zondag 10 januari 2010 @ 00:51:PS. Ik geef HardOCP groot gelijk, als Nvidia het aandurft om Nfinity, ik bedoel Nvidia 3D Stereo Vision alleen met "hun" games te laten werken, zal het zeker door iedereen worden geboycot.....
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op
UVD vs. PureVideo is een ander mooi voorbeeld ...
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Dit bedoelde ik dus.neliz schreef op zaterdag 09 januari 2010 @ 02:31:
[...]
Hoeveel PEG 8pins powerkabels gaan er in die GF100 kaarten?
en hoeveel zitten er in deze?

Heb je het al eens geprobeerd? Trackmania Nations kan het standaard al dus heb je alleen een brilletje nodig en dan ben je klaar om scheel te worden en hoofdpijn te krijgen.nero355 schreef op maandag 11 januari 2010 @ 11:31:
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik ben anders laaiend benieuwd hoe lang het gaat duren voordat NV de eerste NV-only multimonitorgame (nee, geen 3d) gaat marketen. Zou me niets verbazen als je zelfs AA al aan je eigen hardware wil koppelen.nero355 schreef op maandag 11 januari 2010 @ 11:31:
[...]
Waarom ?? Omdat nVidia nou eenmaal goede ideeën beter uitwerkt dan ATI
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op
UVD vs. PureVideo is een ander mooi voorbeeld ...
En dat gedoe met Assasins Creed was ook heel jammerlijk. een DX10.1 patch terug draaien omdat je zelf de hardware niet hebt en vervolgens een hele tijd later wel met DX10.1 kaarten komen. En dan natuurlijk de AA in Badman.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Laten wij dan vooral niet vergeten dat het AA was die er gewoon al in de game engine zat, maar zij hebben de betreffende developer er gewoon op gewezen. Dus ja, ik zie Nvidia er inderdaad op dit moment er wel voor aan ja om zoiets te flikken.Edmin schreef op maandag 11 januari 2010 @ 12:54:
[...]
Ik ben anders laaiend benieuwd hoe lang het gaat duren voordat NV de eerste NV-only multimonitorgame (nee, geen 3d) gaat marketen. Zou me niets verbazen als je zelfs AA al aan je eigen hardware wil koppelen.
Goede ideeën beter uitwerken? Nvidia kon dit blijkbaar al 2 jaar, omdat hun "oude" kaarten dit al konden, zoals nu blijkt, maar dan alleen als het een SLi-setup is. ATI komt nu met dit concept waarbij je maar 1 kaart nodig hebt om 3(en straks 6) monitoren aan te sturen, voordat Nvidia met hun "idee" kwam.nero355 schreef op maandag 11 januari 2010 @ 11:31:
[...]
Waarom ?? Omdat nVidia nou eenmaal goede ideeën beter uitwerkt dan ATI
Als dit in de praktijk ook beter uitpakt dan de ATI tegenhanger dan zie je mij straks vrolijk op 3 schermen gamen met een 3D bril op
UVD vs. PureVideo is een ander mooi voorbeeld ...
ATi heeft gewoon een goed idee als 1e uitgewerkt, en Nvidia heeft dan maar snel iets in elkaar proberen te zetten om niet al te hard af te gaan na al het gedoe met Fermi, maar ze konden het al lang, maar hebben deze optie nooit uitgevoerd of gezien(goh das pas slim.... not!)
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Dat werkt niet op een 1900XTX of mijn tijdelijke 5770 en mijn HTPC met een 9300 ... nou ja je weet zelf ook wel hoe "snel" dat uitpakt in FPS-The_Mask- schreef op maandag 11 januari 2010 @ 11:40:
Heb je het al eens geprobeerd? Trackmania Nations kan het standaard al dus heb je alleen een brilletje nodig en dan ben je klaar om scheel te worden en hoofdpijn te krijgen.
En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te latenDarkasantion schreef op maandag 11 januari 2010 @ 14:01:
ATi heeft gewoon een goed idee als 1e uitgewerkt, en Nvidia heeft dan maar snel iets in elkaar proberen te zetten om niet al te hard af te gaan na al het gedoe met Fermi, maar ze konden het al lang, maar hebben deze optie nooit uitgevoerd of gezien(goh das pas slim.... not!)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Volgens mij zie je het verkeerd om, en ondersteunt ATi eyefinity in een hoop games, en is het niet zo dat een bepaalde game eyefinity ondersteunt.Astennu schreef op maandag 11 januari 2010 @ 13:55:
Ik durf te wedden dat AMD nVidia gewoon zijn gang laat gaan met games die nu eyefinity ondersteunen.
Edit; volgens mij heeft het zelfs helemaal niks met de games zelf te maken. Maar wel met de driver (ondersteuning). Edit2; en ik kan me zélfs niet voorstellen dat er games voor geoptimaliseerd zullen gaan worden, omdat het simpelweg voor veel mensen niet is weggelegd. Enkel voor wat enthousiasts.
[ Voor 30% gewijzigd door Format-C op 11-01-2010 15:13 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Volgens mij kan het twee kanten op. Games hoeven volgens mij weinig support te hebben. Meeste moet in de drivers gedaan worden. Games moeten wel Ultra Widescreen resoluties kunnen. Dus het is een beetje ja en nee. Maar volgens mij kunnen ze best een detectie inbouwen waardoor de een het niet meer kan.Format-C schreef op maandag 11 januari 2010 @ 15:09:
[...]
Volgens mij zie je het verkeerd om, en ondersteunt ATi eyefinity in een hoop games, en is het niet zo dat een bepaalde game eyefinity ondersteunt.
Daarnaast maakt Eyefinity er niet altijd een groter scherm van. Want ze zij schermen krijgen een speciaal effect mee. (volgens mij niet in alle games).
En over dat verbruik van Fermi. 450 watt zal het echt niet zijn. De cooler van de 5970 kan wel 400 watt aan. Maar stock verbruik hij 290. Met overclocken komt hij wel in de buurt van die 400 watt. Of kan hij er zelfs overheen gaan als je de core voltages maar genoeg verhoogt. Ik denk ook niet dat nVidia over die 300 watt heen wil gaan. Omdat dit op dit moment de officiële limit is. Met een goede PSU kan je er makkelijk overheen. Maar officieel zou je op 300 watt uit komen. Of met 2x8p max 375 watt.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Geef is wat voorbeelden dan? kan me zo snel niks bedenken waarmee ATI net niet nVidia voorbij kon komennero355 schreef op maandag 11 januari 2010 @ 14:33:
[...]
[...]
En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te latenWat dat betreft passen AMD en ATI perfect bij elkaar ...
Wat ik nu zie is ATI overal mee in het voordeel, maar ik kan het mis hebben
Hello there
Zou Nvidia dit echt gedaan hebben als payback actie?
Of is er iemand die nog een andere reden kan bedenken/weet?
Het is verleidelijk om hier inhoudelijk op in te gaan, maar dat doe ik niet omdat dit een Nvidia nieuws & discussie (over het nieuws) topic is. Geen ATI sux Nvidia rox dus.nero355 schreef op maandag 11 januari 2010 @ 14:33:
En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te latenWat dat betreft passen AMD en ATI perfect bij elkaar ...
Prima dat je een fanboy bent, maar laten we het zoveel mogelijk ontopic houden.
Hoe heeft ATI Eyefinity niet goed uitgewerkt dan? Ofwel je drukt jezelf een beetje vreemd uit, of je doelt op 3D technologie, wat een totaal ander punt is.[b][message=33256492,noline]En dat is het ATI probleem : We bedenken iets, maar werken het niet helemaal uit waardoor we elke keer NET NIET nVidia voorbij kunnen komen voor een periode die lang genoeg is om eindelijk een flink marktaandeel te pakken en nooit meer los te latenWat dat betreft passen AMD en ATI perfect bij elkaar ...
Feit blijft dat NVIDIA hun multimonitor oplossing niet goed heeft uitgewerkt; ze verplichten je meteen tot het gebruik van twee kaarten. We weten allemaal dat SLI/Crossfire (en helaas ook Hydra) niet volledig vlekkeloos werken.
En ja, ik zie het ook wel gebeuren dat ze developers zover krijgen om op ATI hardware de multimonitor opstellingen te verkrachten. Hun manier om je een (of eigenlijk twee?) kaart te verkopen die meer kost dan hij waard is
Je vergeet even dat 3d gamen over 3 schermen stuk ingewikkelder is dan 3 schermen een beeld te laten genereren.. Maar toch heb je deels wel gelijk dat voor 2d ook SLI nodig is.Werelds schreef op maandag 11 januari 2010 @ 15:21:
[...]
Hoe heeft ATI Eyefinity niet goed uitgewerkt dan? Ofwel je drukt jezelf een beetje vreemd uit, of je doelt op 3D technologie, wat een totaal ander punt is.
Feit blijft dat NVIDIA hun multimonitor oplossing niet goed heeft uitgewerkt; ze verplichten je meteen tot het gebruik van twee kaarten. We weten allemaal dat SLI/Crossfire (en helaas ook Hydra) niet volledig vlekkeloos werken.
En ja, ik zie het ook wel gebeuren dat ze developers zover krijgen om op ATI hardware de multimonitor opstellingen te verkrachten. Hun manier om je een (of eigenlijk twee?) kaart te verkopen die meer kost dan hij waard is
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Kijk, en als dát gebeurt, is het hek van de dam.Astennu schreef op maandag 11 januari 2010 @ 15:17:
Maar volgens mij kunnen ze best een detectie inbouwen waardoor de een het niet meer kan.
Als nV besluit dát te doen denk ik dat ze de lul zijn. Mensen zijn nu al een beetje zat van de manier waarop ze hun dingen doen, en als ze dat gaan doen is het echt... ehm....
Maar goed. De toekomst zal het uitwijzen.
Ik hoef zowieso geen multimonitor setup.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Een applicatie die de windows resolutie pakt en niet met een voorgebakken lijst van single monitor resoluties komt.
Flexibele gecentreerde hud. De game moet aangepast zijn om de hud altijd op het middelste scherm te zetten en niet, wat je nu vaak ziet, hud items of menu opties uitgelijnd aan de linker of rechterkant van het scherm.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
* Anoniem: 167751 vraagt zich af wie er volgende week een multimonitor setup heeft.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat ben ik niet : Je zou zelfs kunnen zeggen dat ik van beide vind dat ze lopen te prutsendaan! schreef op maandag 11 januari 2010 @ 15:20:
Het is verleidelijk om hier inhoudelijk op in te gaan, maar dat doe ik niet omdat dit een Nvidia nieuws & discussie (over het nieuws) topic is. Geen ATI sux Nvidia rox dus.
Prima dat je een fanboy bent, maar laten we het zoveel mogelijk ontopic houden.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ook al game je er niet op, ik werk al jaren multi-monitor (sinds de R300) en het is gewoon makkelijk om je game appart te hebben van je ventrillo/teamspeak/xfire/msn schermen en het werkt heerlijk zodra een game het ondersteund (Supreme Commander) bij slechts twee schermen.nero355 schreef op maandag 11 januari 2010 @ 15:49:
Dat ben ik niet : Je zou zelfs kunnen zeggen dat ik van beide vind dat ze lopen te prutsen
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Uiteraard, maar ik had het puur over de multimonitor mogelijkheden, niet over het 3D gedeelte. Ik hoop voor NVIDIA dat ze qua performance ATI voor zijn met Fermi, en dat ze de kaarten voor de verandering eens voor een normale prijs beschikbaar maken, anders denk ik dat iedereen die geen merk-fan is (ikzelf bijvoorbeeld) toch naar ATI gaat (of daarbij blijft).Xenomorphh schreef op maandag 11 januari 2010 @ 15:27:
[...]
Je vergeet even dat 3d gamen over 3 schermen stuk ingewikkelder is dan 3 schermen een beeld te laten genereren.. Maar toch heb je deels wel gelijk dat voor 2d ook SLI nodig is.
Ik heb deze kaart gewonnen met voten op game van het jaar, maar weet niet of ik het zelf moet houden of verkopen, de kaart is in NL 499 euro zie ik, je kan het als een gek overlocken lees ik ook op google, maar ik ben voor dat een amateur helaas.. Ook de enige kaart die werkt met EVGA EVBot tool zie ik.
Zijn er mensen die meer van deze kaart weten of ervaringen mee hebben? Ik blijf twijfelen om het te houden of verkopen en dan gewoon voor deen 285 FTW of AMP gaan zonder er aan te hoeven rotzooien...
Verkopen een HD5850 moet je wel voor kunnen halen misschien vind je zelf een gek die hem wil ruilen voor een HD5870.Tuzla schreef op maandag 11 januari 2010 @ 18:20:
Ik blijf twijfelen om het te houden of verkopen
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Niet ervaringen en aankoopadvies.
Wel gefeliciteerd met je kaart, overigens.
Na jarenlang van gesteggel krijgt nVidia het eindelijk min of meer voor elkaar om 2 monitoren aan te sturen in SLI-modus, terwijl crossfire dit al jaren kan.
Vervolgens toont AMD de wereld Eyefinity, met beeldaansturing/gaming tot op 6 monitoren per kaart. Vervolgens komt nVidia, die jarenlang geen 2 schermen kon aansturen bij SLI met hun '3 monitoren' oplossing, waarbij SLI verplicht is... Dit druist overigens ook een beetje in tegen de standaard opmerkingen dat nVidia zijn driver-gebeuren altijd veel beter voor elkaar heeft dan AMD/ATI.
Punt is in ieder geval. Nu moet je, om 3 schermen aan te kunnen sturen, SLI draaien met (zoals het er nu naar uit zit) ten minste een GT200 chip, waarbij 1 van de 2 kaarten slechts 1/3 van het totale beeld berekent, dus eigenlijk voor een groot deel uit zijn neus loopt te eten.
Het zou me persoonlijk niet verbazen als er problemen kunnen ontstaan dat het ene beeld, dat door de 'tweede' kaart wordt berekend, opeens een hogere framerate haalt dan de andere 2 schermen, waardoor je er heel vreemd tegen aan kan kijken. De vraag is dan ook of nVidia hierop voorbereidt is en of ze eventuele problemen uberhaupt op kunnen lossen.
Bij supreme commander is het ideaal !! Op een scherm de mooie overview radar op de ander je main base. Kun je alles op tijd aan zien komenneliz schreef op maandag 11 januari 2010 @ 15:57:
[...]
Ook al game je er niet op, ik werk al jaren multi-monitor (sinds de R300) en het is gewoon makkelijk om je game appart te hebben van je ventrillo/teamspeak/xfire/msn schermen en het werkt heerlijk zodra een game het ondersteund (Supreme Commander) bij slechts twee schermen.
Maar veder heb ik het niet perse nodig. MSN hoeft voor mij niet tegelijk. Bij sommige games mag je ook geen alt tab doen.
Alleen Ik ga tot nu toe nog liever voor een groot scherm dan Eyefinity al heeft dat grotere zicht veld wel een voordeel. Eerst had je dat ook door de resolutie maar dat is tegenwoordig niet meer. Dat ligt nu vast. Met Eyfinity kun je wel wat extra krijgen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
It was all technical. But no clock speeds, power consumption or benchmarks were being shown…yet at least," the source confirmed at the time of writing.
Source
Miss you CJ....:'( en nee... ik kan niet aan samples komen
[ Voor 34% gewijzigd door Xenomorphh op 12-01-2010 11:27 ]
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
enkele "weken" later trouwens. Misschien annoncering in April of net voor Computex?
Trouwens, is Fuad op z'n pik getrapt omdat hij het afgelopen jaar is voorgelogen en misbruikt door NVPR?
It is definitely not fun to be in Nvidia's shoes, especially when it comes to the desktop graphics card market.
[ Voor 36% gewijzigd door neliz op 12-01-2010 11:34 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
als je geen 2x512CC verwacht moet het wel lukken toch?Xenomorphh schreef op dinsdag 12 januari 2010 @ 11:39:
Toch vraag ik me af hoe ze het willen doen het blijkt dat 1 single chip meer hitte produceert dan een GTX285 maar 2 GTX285's konden ze al niet goed als 1 kaart verkopen. Want die viel al uit door de hitte (mars)
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Of net als de 5970, clockspeeds omlaag en de beste chips er uit pikken om ze op zo'n laag mogelijk voltage te laten draaien.
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
2x256CC toch?neliz schreef op dinsdag 12 januari 2010 @ 11:46:
[...]
als je geen 2x512CC verwacht moet het wel lukken toch?
[ Voor 15% gewijzigd door Blastpe op 12-01-2010 13:44 ]
Nou 512 is misschien inderdaad veel maar ik zou er toch wel graag 400+ zien of 380 zo iets iig niet minder.neliz schreef op dinsdag 12 januari 2010 @ 11:46:
[...]
als je geen 2x512CC verwacht moet het wel lukken toch?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Door dezelfde soort dingen te doen als AMD met de 5970. Lagere clocks of shaders uitschakelen of misschien beide. De GTX285 was ook niet exact 2x GTX285.Xenomorphh schreef op dinsdag 12 januari 2010 @ 11:39:
Toch vraag ik me af hoe ze het willen doen het blijkt dat 1 single chip meer hitte produceert dan een GTX285 maar 2 GTX285's konden ze al niet goed als 1 kaart verkopen. Want die viel al uit door de hitte (mars)
Bij AMD zie je wel een grappige trent:
HD3870 Single = 775-1125 GDDR4
HD3870 X2 = 825-900 GDDR3
HD4870 Single = 750-900 GDDR5
HD4870 X2 = 750-900 GDDR5
HD5870 Single = 850-1200 GDDR5
HD5970 = 725-1000 GDDR5
Shaders zijn altijd gelijk gebleven.
Maar goed het verbruik van de single kaarten wordt ook steeds iets hoger. Al heeft de 5970 een veel lager verbruik dan de HD4870 X2.
Ik weet uit me hooft niet hoe dit bij de 7900GX2 en de 9800GX2 was. Maar ik kan me voorstellen dat de GT300 GX2 meer 2x een GTX360 wordt.
[ Voor 3% gewijzigd door Astennu op 12-01-2010 12:14 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dit topic is gesloten.