Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Soldeerpunten op de achterkant van de kaart bij de gpu's hebben een rechthoekige vorm, dus dit wijst idd op gebruik van de GF114 chip (GF104 lijkt nu nog wat onwaarschijnlijk).Verwijderd schreef op vrijdag 07 januari 2011 @ 20:58:
Sooow wat een beest van een kaart, die 2 8 pins pci-e stekkers voorspellen minder goeds...
Hoop eigenlijk dat ze toch 2 gf114 chips gebruiken, twee gf110's zouden toch te flink over hun TDP heen gaan,vraag me trouwens af of dit de stock koeler wordt.

Andere toekomstige kaart van EVGA;


Een custom GTX570 met verkorte pcb. Onderste plaatje laat zien hoeveel korter dan reference design.
[ Voor 5% gewijzigd door Verwijderd op 07-01-2011 21:14 ]
Verwijderd
Ehh, op dat moment wel ja, maar heb op de frontpage gelezen dat het vrijwel zeker om een evga-only kaart gaat.-The_Mask- schreef op vrijdag 07 januari 2011 @ 21:07:
[...]
Stockkoeler? Je denkt dus dat nVidia hem uit gaat brengen?
[...]
Tja octa-sli is er nog niet hè.
En ik weet best dat er nog geen octa sli is, was meer omdat de 7900gx2, 7950gx2, 9800gx2 en gtx295 ook maar een enkele sli connector hebben, en met de dubbele pci-e 8pins stekkers gokte ik dan ook dat het om een dual-gpu kaart gaat, zonder eigenlijk nog maar de achterkant van het pcb gezien te hebben, al lag het wel voor de hand. Misschien dat ik een beetje te enthiousiast was maar het was toch leuk om een nieuwe dual-gpu nvidia kaart te zien, een echte gtx595 van nvidia zich er waarschijnlijk nog niet in atm
Weet trouwens niet waarom je me quote, je bevestigt eigenlijk enkel mijn reactie, of begreep je me niet?
Zoja, ben ik nu hopelijk wat duidelijker geweest
@MW1F
Die ingekorte gtx570 is een mooie ontwikkeling, zit leuk spul aan te komen van evga
@dahakon
Bij dual-gpu kaarten is het verbruik per videokaart netto een stuk lager, zo heeft de gtx260 55nm bijvoorbeeld een TDP van 171watt, waar de gtx295 een TDP van 289watt heeft. Dat is toch 342watt vs 289watt, waar de gtx295 ook nog eens meer shader cores heeft, het verschil met een gelijkwaardige teruggeclockte gtx275 sli opstelling zal dan iets rond de 65-70 watt zijn.
Er is dus nog aardig wat speling om de dual gf114 (als het al zo is) zo te tweaken dat ze weerstand kunnen bieden tegen de hd6990, al wordt dat ook aardig gelijkspel denk ik zo.
Het is maar de vraag hoe snel de hd6990 gaat worden, de hd6970 verbruikt meer dan een hd5870, het zal allemaal wat lastiger worden dan bij de hd5970.
Punt is echter dat een volle GF104 (ofwel GF114) meer stroom zal verbruiken dan de huidige top GF104 kaart, de GTX460 1GB, daar namelijk nog een cluster wordt ingeschakeld. TDP zal dus al gauw nog een zetje van zo'n 10Watt kunnen krijgen, over de 160Watt die het nu heeft. Ze zullen dus behoorlijk strak moeten gaan binnen, wat de hoeveelheden beschikbare kaarten ook niet ten goede zal komen. Onmogelijk zal het allemaal niet zijn misschien, maar het zou wel direct kunnen verklaren waarom het EVGA-only zou kunnen zijn. Bovendien blijft de vraag hangen of het werkelijke TDP niet, zoals bij HD4870X2 en GTX295 overschreden zal worden bij bepaalde belasting.
Verwijderd
De gemiddelde consument die dit soort kaaten kopen kijken niet naar het TDP gebruik.Verwijderd schreef op vrijdag 07 januari 2011 @ 20:58:
Sooow wat een beest van een kaart, die 2 8 pins pci-e stekkers voorspellen minder goeds...
Hoop eigenlijk dat ze toch 2 gf114 chips gebruiken, twee gf110's zouden toch te flink over hun TDP heen gaan,vraag me trouwens af of dit de stock koeler wordt.
Ik gok ook op de gtx595 btw, er zit maar een enkele sli-stekker op, een gtx560 lijkt me aardig onmogelijk, zou wel wat zijn, new gpu-clockspeed record: gtx560 SR-classified oc'ed to 2133mhz core, 7ghz gddr5 qdr and 4266mhz on the shader units![]()
![]()
Well, let's see what the future brings us
Het zou mij zelf in inder geval niets uitmaken of het nu 200 of 400 watt verbruikt.
Ik hoop op 2 gf110 chips.
Ojah een nieuwtje nvidia heeft performance drivers uitgegeven voor de 500 series.
Er valt dus zeker ng wat extra uit de gf110 chip te halen. Maar daar ging ik ook al wel van uit gezien
het gpu gebruik in heel veel games.
Verwijderd
In deze review is te zien dat een dual-gpu kaart op basis van de gtx460 heel goed te doen is: http://www.techpowerup.co...IS/Radeon_HD_6970/27.html
Je ziet bij de card power consumption-max tabel dat de hd5970 op 304 watt zit, een hd5870 doet 212 watt.
De hd6970 verbruikt 287watt, een gtx570 298.
Als amd op basis van de hd6970 een hd6990 maakt, zou die kaart flink over de 300 watt gaan, ik denk dan ook dat ze wat aan de kloksnelheden en shader count gaan doen, maar hij zal, zoals ik het me nu voorstel, niet zo snel zijn als een hd6950 in cfx.
Nvidia zelf zal vast (denk ik) proberen 2 gtx570 gpu's op een kaart te solderen, wat ook weer de nodige uitdagingen met zich meebrengt, ik denk dat zowel ati als nvidia gpu's binnen zodat de snelheidswinst tov een single kaart nog wel te verantwoorden is, binnen de 300watt TDP grens.
Als het maar iets van, zeg eens, 25% scheelt met de single-gpu high-end parts gaan ze natuurlijk niet veel dual-gpu kaarten verkopen.
Als je naar de gtx460 kijkt met zijn 155watt is een dual-gpu gtx560 kaart in zijn geheel geen onmogelijke opgave, zeker als je het verbruik van andere dual-gpu kaarten tegenover hun gelijkwaardige dual single-gpu kaarten opstellingen vergelijkt.
Zelfs als een enkele gtx560 een 175watt TDP zou krijgen valt die dual-gf114 evga kaart mooi binnen de 300watt gestelde norm.
Een dual gpu op basis van gf114 chips zou zelfs nog wat hogere clocks mee kunnen krijgen, de gtx460 blijft netjes binnen zijn TDP, situaties zoals bij de gtx480 zijn dan ook uit te sluiten.
Die evga kaart komt er wel, en hij voldoet aan het 300watt TDP, die dubbele 8pins pci-e stekkers zullen vast de nodige overclock headroom geven, er zal vast en zeker ook een nette vermogensverziening opzitten.
Het is wachten wanneer de hd6990 komt, het is niet uitgesloten dat amd de nodige gebinde stock op zit te bouwen voor die kaarten zodat bij de lancering genoeg kaarten beschikbaar zijn, van de gtx595 zijn al behoorlijk lang speculaties, maar of die kaart nog gaat verschijnen is maar de vraag.
Die evga kaart is een goede kandidaat voor de performance-crown over te nemen van de hd5970, al betekent dat niet zo veel voor nvidia daar het een non-reference kaart is, ook al is evga erg dik met nvidia
TDP is het maximale vermogen wat, in dit geval, een videokaart trekt, er wordt geen TDP verbruiktVerwijderd schreef op zaterdag 08 januari 2011 @ 20:10:
[...]
De gemiddelde consument die dit soort kaaten kopen kijken niet naar het TDP gebruik.
Het zou mij zelf in inder geval niets uitmaken of het nu 200 of 400 watt verbruikt.
Het maakt mij ook niet veel uit, maar er is niet voor niets een norm van 300watt gesteld, anders liep het de spuigaten uit met het verbruik van videokaarten.
De kaarten moeten ook voldoen aan die norm, anders mogen ze nog niet eens op de markt gebracht worden dacht ik, als het wel mocht was die dual gf100 kaart van asus ook al op de markt gebracht.
De asus Mars zat dan wel weer iets boven de 300watt, maar dat ding was nauwelijks bruikbaar met de stock koeler, een dual gf100 zou volgens geruchten rond de 500watt (of zefls meer!) verbruiken, dan zitten toch zeker 5 slots van je moederbord gevuld met koelblok.
Twee gf110 gpu's zullen niet veel lager uitkomen lijkt me, dat is nauwelijks levensvatbaar

[ Voor 26% gewijzigd door Verwijderd op 08-01-2011 20:43 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Verder gebruik ik de nieuwe performance BETA drivers
http://www.nvidia.com/obj...t-266.35-beta-driver.html
This is the first release from the Release 265 family of drivers (versions 265.xx to 269.xx). You can read more about this family of drivers on GeForce.com.
This driver package supports GeForce 6, 7, 8, 9, 100, 200, 300, 400, and 500-series desktop GPUs as well as ION desktop GPUs.
New in Release 266.35
GPU Support
Supports the newly released GeForce GTX 580 and GeForce GTX 570 GPUs.
Performance
Increases performance for GeForce 400 Series and 500 Series GPUs in several PC games vs. the latest Release 260 drivers. The following are examples of some of the most significant improvements measured on Windows 7. Results will vary depending on your GPU and system configuration:
GeForce GTX 580:
Up to 7% in Battlefield Bad Company 2 (1920x1200 4xAA/16xAF)
Up to 12% in Battleforge (SLI 1920x1200 4xAA/16xAF Very High)
Up to 11% in Call of Duty: Modern Warfare 2 (SLI 1920x1200 4xAA/16xAF)
Up to 7% in Dirt 2 (SLI 1920x1200 4xAA/16xAF)
Up to 7% in Far Cry 2 (1920x1200 4xAA/16xAF)
Up to 5% in Just Cause 2 (1920x1200 4xAA/16xAF Dark Tower)
Up to 5% in S.T.A.L.K.E.R.: Call of Pripyat (SLI – 1920x1200 4xAA/16xAF)
Up to 9% in Stone Giant (SLI 1920x1200, DOF on)
Up to 8% in Unigine Heaven v2.1 (SLI 1920x1200 4xAA/16xAF)
Improves performance in Final Fantasy XI on GeForce 400 Series and 500 Series GPUs.
Visual Quality
Adds ambient occlusion support for one of the most popular games of the year: Starcraft II: Wings of Liberty. Ambient occlusion improves the quality of lighting, shadows, and depth perception in many parts of the game. Learn more on GeForce.com.
NVIDIA 3D Vision
With Release 260 and 265 drivers, the installation process for 3D Vision has changed. Please view this knowledgebase article for more information on the changes.
Adds support for 3DVisionLive.com Beta 2:
Adds supports for 3D photo sharing and viewing
Adds new 3D video clips to the website
Includes several bug fixes
Adds 3D Vision Window Mode support for the following games and applications:
Games
Aion
Crazy Racing Kart Rider
Crossfire
Dragon Nest
EverQuest 2
Guild Wars 2
NED
PopKart
QQ Dance QQ
QQ Xian Xia
Tian Long Ba Bu
World of Warcraft – Burning Crusade
World of Warcraft – Wrath of the Lich King
Xun Xian
Zhu Xian 2
Google Earth
Improvements to 3DVisionLive
Adds support for new 3D Vision Desktop LCD monitors: Hannstar HS233, I-O Data 3D231XBR, Lenovo L2363dwA, Planar SA2311W
Adds support for new 3D Vision projectors: Acer X1261P, Sanyo PDG-DXL2000
Adds support for new DLP HDTVs: Mitsubishi WD-83838, WD-83738, WD-73838, WD-73837, WD-73738, WD-73638, WD-73C10, WD-65838, WD-65738, WD-65638, WD-65C10, WD-60738, WD-60638, WD-60C10, L75-A91.
Added the following 3D Vision game profiles:
Arcania: Gothic 4
Crazy Racing Kart Rider 크레이지레이싱 카트라이더
Crossfire 穿越火线
Darksiders
DC Universe Online
Dragon Nest
Front Mission Evolved
Guild Wars 2
Hank Haney's World Golf
Lineage 2
Medal of Honor (2010) Multiplayer
Medal of Honor (2010) Single Player
NED
Need for Speed Hot Pursuit
NVIDIA Demo: Aliens vs. Triangles
NVIDIA Demo Endless City
PopKart 跑跑卡丁车
QQ Dance QQ 炫舞
QQ Xian Xia Zhuan QQ 仙侠传
Tian Long Ba Bu 天龙八部
TRON: Evolution
Vizerra (fullscreen version)
World Rally Championship 2010
Xun Xian 寻仙
Update the following 3D Vision game profiles
Lost Planet 2 – rating is now changed to Fair
Tom Clancy’s H.A.W.X. 2- rating has been changed to 3D Vision Ready
NVIDIA Surround
Improved performance for 3-way and 4-way SLI configurations
Updated 3D Vision Surround and NVIDIA Surround game support list. Please visit the 3D Vision Surround web page for a full list of supported games.
NVIDIA SLI
Adds SLI profiles for the following PC games:
Alien vs. Triangles Demo
Endless City Demo
Lionheart: Kings Crusade
Moscow Racer: Legends of USSR
Rift: Planes of Telara
Shaun White Skateboarding
Enhances SLI profiles for the following PC games:
Age of Conan
Arcania: Gothic 4
Civilization V - DX11
Lost Planet 2
World Of Warcraft
Other
Installs HD Audio driver version 1.1.13.1
Installs PhysX System Software to version 9.10.0514
Supports playing back Blu-ray 3D discs when connecting your GPU to an HDMI 1.4 3D TV. Playback requires compatible software application from CyberLink, ArcSoft, Roxio, or Corel. For GPU and system requirements, visit the NVIDIA Blu-ray 3D website.
Supports lossless DTS-HD Master Audio and Dolby TrueHD audio bitstreaming support for compatible Blu-ray movies with GeForce GTX 460, GTS 450, and GT 430 GPUs.
Supports high definition 24-bit, 96 and 192 KHz multi-channel audio sampling rate support for compatible Blu-ray movies with GeForce 400 and 500 series, GT 240, GT 220 and 210 GPUs.
Supports the new GPU-accelerated features in Adobe CS5.
Supports GPU-acceleration for smoother online HD videos with Adobe Flash 10.1. Learn more here.
Supports the new version of MotionDSP's video enhancement software, vReveal, which adds support for HD output. NVIDIA customers can download a free version of vReveal that supports up to SD output here.
Supports DirectCompute with Windows 7 and GeForce 8-series and later GPUs.
Supports OpenCL 1.0 (Open Computing Language) for all GeForce 8-series and later GPUs.
Supports OpenGL 3.3 for GeForce 8-series and later GPUs.
Supports OpenGL 4.1 on GeForce 400 series and later GPUs.
Supports single GPU and NVIDIA SLI technology on DirectX 9, DirectX 10, DirectX 11, and OpenGL, including 3-way SLI, Quad SLI, and SLI support on SLI-certified Intel X58-based motherboards.
Supports GPU overclocking and temperature monitoring by installing NVIDIA System Tools software.
Users without US English operating systems can select their language and download the International driver here.
Release Notes (v266.35)
Control Panel User's Guide
GeForce 500 series:
GTX 580, GTX 570
GeForce 400 series:
GT 430, GTX 465, GTX 480, GTX 470, GTS 450, GTX 460, GTX 460 SE
GeForce 200 series:
205, GTX 285, GTX 260, GT 240, GTS 240, 210, GTX 295, GTX 275, GTS 250, GT 220, GT 230, GTX 280, G210
GeForce 100 series:
GT 120, G 100, GT 140, GT 130
GeForce 9 series:
9500 GS, 9200, 9100, 9300, 9600 GSO, 9800 GT, 9800 GX2, 9600 GT, 9500 GT, 9400, 9400 GT, 9600 GS, 9800 GTX/GTX+, 9300 GS, 9300 GE
GeForce 8 series:
8300, 8400 SE, 8100 / nForce 720a, 8500 GT, 8800 GTS 512, 8400 GS, 8400, 8300 GS, 8800 GS, 8800 GTS, 8800 GT, 8600 GTS, 8600 GT, 8800 Ultra, 8600 GS, 8200 / nForce 730a, 8800 GTX, 8200
GeForce 7 series:
7900 GTX, 7800 GTX, 7100 / NVIDIA nForce 620i, 7500 LE, 7650 GS, 7050 PV / NVIDIA nForce 630a, 7950 GX2, 7600 GS, 7550 LE, 7300 GS, 7300 GT, 7300 SE / 7200 GS, 7100 / NVIDIA nForce 630i, 7300 LE, 7900 GS, 7100 GS, 7350 LE, 7150 / NVIDIA nForce 630i, 7025 / NVIDIA nForce 630a, 7800 SLI, 7050 / NVIDIA nForce 630i, 7050 / NVIDIA nForce 610i, 7600 LE, 7600 GT, 7950 GT, 7800 GS, 7900 GT/GTO
GeForce 6 series:
6800 GS, 6100 nForce 405, 6100 nForce 400, 6100 nForce 420, 6250, 6600 GT, 6800 LE, 6800 XE, 6150SE nForce 430, 6800 GS/XT, 6200 A-LE, 6200 TurboCache, 6700 XL, 6150 LE, 6610 XL, 6800, 6600 VE, 6150LE / Quadro NVS 210S, 6150, 6600, 6800 Ultra, 6200 LE, 6800 GT, 6100, 6200, 6200SE TurboCache, 6500, 6800 XT, 6600 LE
ION series:
ION, ION LE
Verwijderd
Je doet er goed aan dat bericht te cut-pasten naar het ervaringen topic, die hele lap tekst van de nieuwe driver mag je dan weglaten, driver nummer vermelden is genoeg dunkt me
Verwijderd
ik kan geen dergelijk topic vinden die over de gtx500 series gaat.
CPU is een core i7 920 op 4200mhz
Dan haal je het maximale er wel uit.
Je hebt pas een bottleneck als iets niet speelbaar is.
/ontopic/
[ Voor 87% gewijzigd door Format-C op 08-01-2011 22:01 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat het dan ver buiten de PCI-e-specs valt en dat er dan 2 8-pins en een 6-pins stekker nodig zijn maakt EVGA wel uit. En 400W ga je echt niet gemakkelijk koelen, het maakt de gemiddelde consument wel uit als het een stofzuiger-koeling is of je per sé waterkoeling nodig hebt.Verwijderd schreef op zaterdag 08 januari 2011 @ 20:10:
Het zou mij zelf in inder geval niets uitmaken of het nu 200 of 400 watt verbruikt.
Die 300W-grens is er niet voor niets (al gaan kaarten daar wel een beetje overheen, maar niet heel ver eroverheen).
[ Voor 30% gewijzigd door bwerg op 08-01-2011 22:58 ]
Heeft geen speciale krachten en is daar erg boos over.
Verwijderd
- http://ic.tweakimg.net/ext/i/imagelarge/1294432401.jpeg
Dan gaat Nvidia met zo'n 10% voorsprong aan de leiding, enig nadeel is dat het stroomverbruik zeer waarschijnlijk wel stukkie hoger ligt.
Verwijderd
De gemiddelde consument koop geen kaart van 450 euro en maakt warmte en gebruik niets uit.bwerg schreef op zaterdag 08 januari 2011 @ 22:56:
[...]
Dat het dan ver buiten de PCI-e-specs valt en dat er dan 2 8-pins en een 6-pins stekker nodig zijn maakt EVGA wel uit. En 400W ga je echt niet gemakkelijk koelen, het maakt de gemiddelde consument wel uit als het een stofzuiger-koeling is of je per sé waterkoeling nodig hebt.
Die 300W-grens is er niet voor niets (al gaan kaarten daar wel een beetje overheen, maar niet heel ver eroverheen).
Als je het snelste wil hebben kijk je daar niet naar.
Ik snap dat gemiereneuk nooit om een 25-50 wat verschil. Bij de nieuwe pcie 3.0 gaan de wattage's zelfs een stuk omhoog als maximum lolzz
[ Voor 9% gewijzigd door Verwijderd op 09-01-2011 10:34 ]
Gemiereneuk over 25~50 Watt is geen gemiereneuk. 50 Watt meer vraagt veel meer van de koeling, dus maakt de kaart meer herrie. Verder voldoe je dan niet meer aan de PCI-Express standaard, dus mis je certificering en dus kunnen de OEM's(een hele grote klant op de grafische markt) niet meer jouw kaarten kopen en maak je dik verlies.Verwijderd schreef op zondag 09 januari 2011 @ 10:32:
[...]
De gemiddelde consument koop geen kaart van 450 euro en maakt warmte en gebruik niets uit.
Als je het snelste wil hebben kijk je daar niet naar.
Ik snap dat gemiereneuk nooit om een 25-50 wat verschil. Bij de nieuwe pcie 3.0 gaan de wattage's zelfs een stuk omhoog als maximum lolzz
En bij PCI-Express 3 gaan de Wattages niet omhoog, zijn nog steeds maximaal 300 Watt.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Het is in der daad nog een beetje grof:Verwijderd schreef op zondag 09 januari 2011 @ 01:40:
Om een positieve Nvidia noot toe tevoegen lijkt het er sterk op dat ze met de GTX485M iig ook de sterkste mobiele gpu in huis hebben. Het is wat grof vergelijken en zeker niet 1 op1, maar als uit deze review blijkt dat de GTX485M 57-69% sneller is dan de HD5870M en dit plaatje klopt;
- http://ic.tweakimg.net/ext/i/imagelarge/1294432401.jpeg
Dan gaat Nvidia met zo'n 10% voorsprong aan de leiding, enig nadeel is dat het stroomverbruik zeer waarschijnlijk wel stukkie hoger ligt.
In the 3D Mark 2006 comparison, our test system even achieves the new leading score: 20206 points weren't reached by any reviewed laptop so far. The GTX 480M is 23% slower, the HD5870 even 57%. Exiting: According to first benchmarks the new HD 6970M "Blackcomb", AMD's high-end graphics solution, gets 17300 to 20155 points (M17x Sandy Bridge) in the 3D Mark 2006. So, the Nvidia GTX 485M graphics would be 17% faster or possibly on the same level. The 485M also beats the 6970M in our score of the 3D Mark Vantage test (13524 versus 11771 points, Eurocom X8100 with Clarksfield CPU).
However, our test system is already equipped with Intel's Sandy Bridge, while the reference systems have to make do with Clarksfield or Bloomfield processors. Considering the huge performance gain we reported about in our comprehensive special article, the GTX 485M test platform could take advantage of the new CPU generation. So, the competition with the AMD HD 6970M stays interesting and we hope to get hold of a test system with this graphics card and Sandy Bridge hardware soon.
Ik kom niet veel OEM's tegen met bijvoorbeeld een 5970. Ik heb dus niet de indruk dat bij dergelijke high end producten OEM's een significant deel uitmaken, maar wellicht heb jij cijfers, die het tegenovergestelde aantonen.Darkasantion schreef op zondag 09 januari 2011 @ 12:12:
[...]
dus mis je certificering en dus kunnen de OEM's(een hele grote klant op de grafische markt) niet meer jouw kaarten kopen en maak je dik verlies.
Goed punt, er zijn zat kaarten die over de 300 watt gaan, maar op papier doen ze dat niet dus zitten ze nog aan de spec's.Springstof schreef op zondag 09 januari 2011 @ 13:14:
[...]
Ik kom niet veel OEM's tegen met bijvoorbeeld een 5970. Ik heb dus niet de indruk dat bij dergelijke high end producten OEM's een significant deel uitmaken, maar wellicht heb jij cijfers, die het tegenovergestelde aantonen.
En de markt van de echte kaarten boven de 300watt (Asus MARS kaarten of mischien de aankomende GTX590/HD6990) is echt zo klein dat OEM's daar niet eens aan beginnen.
[ Voor 29% gewijzigd door madmaxnl op 09-01-2011 13:33 ]
Gaan we nu zien dat ARM door nVidia wordt gedropt?
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Hoe kom je daarbij ? ARM is de toekomst voor nVidia in potentie veel meer waar dan 1,5 miljard dollar krijgen verspreid over zes jaar.bladerash schreef op maandag 10 januari 2011 @ 23:34:
[...]
Gaan we nu zien dat ARM door nVidia wordt gedropt?
Intel pays NVIDIA $1.5b in patent truce, Apple still hurt
Duidelijker dus.[ Voor 92% gewijzigd door madmaxnl op 11-01-2011 00:00 ]
En tegelijkertijd een potentiële dreiging voor Intel wat meer schade dan 1,5 miljard kan richten in de winst.madmaxnl schreef op maandag 10 januari 2011 @ 23:40:
Hoe kom je daarbij ? ARM is de toekomst voor nVidia in potentie veel meer waar dan 1,5 miljard dollar krijgen verspreid over zes jaar.Intel pays NVIDIA $1.5b in patent truce, Apple still hurt
Duidelijker dus.
Als Intel bereid is om retailers te betalen geen AMD te verkopen, zijn ze ook wel bereid nVidia te betalen geen ARM te gebruiken. 1,5 miljard is veel geld, misschien heeft een deel hiervan het doel om nVidia tevreden te houden. Maar dit zal wel weer onderhands gebeuren.
We zullen dit wel niet gepubliceerd zien maar merken het vanzelf wel als Tegra3 of hoe de opvolger ook mag heten niet verschijnt.
Is dit nou echt zo ver gezocht dat het niet kan kloppen dan?
Niet, nVidia is de enige die daar relatief een krachtige gpu in kan proppen zodat de APU vlot genoeg is een desktop te draaien. Een echte atom killer want die kan niet eens youtube filmpjes fatsoenlijk afspelen zonder ION. En die is weer van nVidia. Zonder een redelijke gpu is het binnen een korte tijdsbestek alleen nog maar tussen Tegra2 en Ontario.Edmin schreef op dinsdag 11 januari 2011 @ 00:39:
En hoe zie je Intel dan alle ARM producenten uitkopen?
De andere producenten van ARM? Die lopen nog lichtjaren achter met gpu performance. Met alleen een Cortex zijn ze er nog niet.
Ten tweede, ik denk niet dat NVIDIA een licentie wil. Waarom zouden ze, het is wel duidelijk uit resultaten uit het verleden dat een x86 chip weinig toekomst heeft behalve bij Intel (en een klein beetje bij AMD). x86 is gewoon een waardeloze ISA en de enige reden dat Intel er zoveel performance uit weet te halen is het feit dat Intel het geld heeft om bizar veel R&D te doen en belangrijker nog, dat Intel gewoon met afstand de beste chipbakker is. Dit is ook de enige reden dat Intel straks Atom in een stroombudget van een telefoon weet te krijgen, omdat gewoon op productiegebied een stap voorlopen op alle andere chipbakkers.
sorry, maar dat is gewoon onzin. Tegra 2 is maar een beetje beter dan wat andere ARM producenten op dit moment hebben en de enige reden dat ARM-SOC GPUs weinig performance hebben is het stroombudget waar ze in moeten passen. Met een ruimer budget kunnen de ARM-SOC GPUs makkelijk concurreren met Intel's eigen IGPs.bladerash schreef op dinsdag 11 januari 2011 @ 01:49:
[...]
Niet, nVidia is de enige die daar relatief een krachtige gpu in kan proppen zodat de APU vlot genoeg is een desktop te draaien. Een echte atom killer want die kan niet eens youtube filmpjes fatsoenlijk afspelen zonder ION. En die is weer van nVidia. Zonder een redelijke gpu is het binnen een korte tijdsbestek alleen nog maar tussen Tegra2 en Ontario.
De andere producenten van ARM? Die lopen nog lichtjaren achter met gpu performance. Met alleen een Cortex zijn ze er nog niet.
SorrySnoitkever schreef op dinsdag 11 januari 2011 @ 02:23:
sorry, maar dat is gewoon onzin. Tegra 2 is maar een beetje beter dan wat andere ARM producenten op dit moment hebben en de enige reden dat ARM-SOC GPUs weinig performance hebben is het stroombudget waar ze in moeten passen. Met een ruimer budget kunnen de ARM-SOC GPUs makkelijk concurreren met Intel's eigen IGPs.
Ik was ook te ver doorgegaan met me paranoïsme dat ik me gezond verstand ook niet meer bij had gebruikt bij het typen van dat stuk.
Verwijderd
De status quo blijft gehanteerd. Er gaat niks nieuws gebeuren, behalve dan 1,5 miljard naar Nvidia en Nvidia is natuurlijk bezig met Project Denver. Intel gaat echter geen Nvidia-gpu's inbouwen in zijn chipsets of zo. Sandy Bridge maakt namelijk al gebruik van Nvidia-patenten.
Yeah well. The Dude abides.
Wel pijnlijk dat ze nu zelf een settlement hebben gesloten met Intel terwijl ze er in hun spotprent nog zo kritisch over waren toen Intel dat met AMD deed.
madmaxnl schreef op dinsdag 11 januari 2011 @ 17:42:
Waarschijnlijk het enige wat ik leuk en goed vind van nVidia: de spotprenten die ze maken van Intel.
Wel pijnlijk dat ze nu zelf een settlement hebben gesloten met Intel terwijl ze er in hun spotprent nog zo kritisch over waren toen Intel dat met AMD deed.
Ik denk niet dat de 1.5 miljard het belangrijkste onderdeel van de deal is. Natuurlijk zal NVIDIA daar blij mee zijn en alles, maar deze deal is veel interessanter dan alleen dat geldbedrag, en wel op het gebied van patenten. NVIDIA heeft een enorme lading GPU patenten, Intel heeft een enorme lading CPU patenten. Intel maakt IGPs die ongetwijfeld op een flink aantal patenten van NVIDIA inbreuk maken. Daar zou NVIDIA Intel flink mee dwars kunnen zitten. Omgekeerd hebben we nog geen week geleden (volgens mij geen toeval) gehoord dat NVIDIA druk bezig is met een eigen CPU gebaseerd op ARM. Ik durf te wedden dat ondanks de andere ISA Intel genoeg patenten heeft die betrekking hebben op technologieën in Denver.Marc Rademaker schreef op dinsdag 11 januari 2011 @ 10:43:
De status quo blijft gehanteerd. Er gaat niks nieuws gebeuren, behalve dan 1,5 miljard naar Nvidia en Nvidia is natuurlijk bezig met Project Denver. Intel gaat echter geen Nvidia-gpu's inbouwen in zijn chipsets of zo. Sandy Bridge maakt namelijk al gebruik van Nvidia-patenten.
Intel en NVIDIA hebben dus ingezien dat ze beiden waarschijnlijk eeuwig door kunnen vechten op dat gebied, maar dat geen van beiden er belang bij heeft. Nou heeft NVIDIA vanwege anti-competitief sentiment in de EU en VS een voordeel in deze situatie, en ze hebben ook geen interesse meer in de chipset business, met als gevolg de 1.5 miljard dollar. Maar ik zie de rest van de deal als veel interessanter dan dat bedrag.
Deze deal moet dat nu goed maken.
Voer voor het Radeon topic.
[ Voor 24% gewijzigd door Edmin op 11-01-2011 20:59 ]
Op wie, en waarop is dat een reaktie?
Je blijft maar bezig met trollen... Om doodmoe van te worden... Sorry hoor dat ik wat aangebrand reageer, maar jonge..... Pfff...

1, 2, 3, 4, 5, 6, 7, 8, 9, 10...
[ Voor 72% gewijzigd door Format-C op 11-01-2011 20:24 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
11,12,13.............Format-C schreef op dinsdag 11 januari 2011 @ 20:18:
WTF heeft dat laatste er nou mee te maken? CF beter dan SLi op 3 monitoren...
Op wie, en waarop is dat een reaktie?
Je blijft maar bezig met trollen... Om doodmoe van te worden... Sorry hoor dat ik wat aangebrand reageer, maar jonge..... Pfff...![]()
1, 2, 3, 4, 5, 6, 7, 8, 9, 10...
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Een trol is een bewuste post om mensen kwaad te maken of te beledigen. Het ergste wat ik doe is een discussie starten met een dergelijke statement.
Ontopic:

Aandelen van nVidia zijn flink omhoog geschoten sinds januari
[ Voor 17% gewijzigd door Tyranium op 11-01-2011 20:45 ]
In 6 dagen van ~16 dollar naar ~21 dollar per aandeel is niet niks.
[ Voor 26% gewijzigd door madmaxnl op 11-01-2011 20:57 ]
Omdat je een smilie plaatst, kan het als provocerend worden gezien hier in het nVidia topic.madmaxnl schreef op dinsdag 11 januari 2011 @ 20:38:
Ik snap het niet, hoezo een trol ?
Een trol is een bewuste post om mensen kwaad te maken of te beledigen. Het ergste wat ik doe is een discussie starten met een dergelijke statement.
Verder vind ik het persoonlijk net zo goed nVidia nieuws als AMD nieuws, zoals zo vaak is het met elkaar verbonden.
Denk eigenlijk dat het wel met Denver en de Intel settlement te maken heeft en wellicht met relatief positief nieuws over Tegra2.madmaxnl schreef op dinsdag 11 januari 2011 @ 20:55:
Goede CES voor nVidia idem voor AMD(ook qua aandeel) maar die verkloten het vervolgens weer met hun CEO akkefietje. Ook is het goede nieuws over de deal met Intel voor nVidia goed voor de aandelen. Denver is nog te weinig over bekend om de aandelen z'n stoot te geven.
In 6 dagen van ~16 dollar naar ~21 dollar per aandeel is niet niks.
Als je de big picture bekijkt zie je een wereld waarin handheld devices zoals smartphones, tablets etc in sneltreinvaart een enorme invloed krijgen waarbij de bekende desktops in belang afnemen. Helemaal als je kijkt op een termijn van 5 a 10 jaar. Wellicht is binnen die periode zo'n device sterk genoeg voor 80% vd consumenten om 100% van de dingen te doen die ze willen. Thuis prik je je handheld dan in een dockingstation die gekoppeld is aan een groter scherm met toetsenbord. Uhh dit gaat natuurlijk wireless...

Dit is een groeimarkt, een markt waar je in wilt zitten. Een markt waar nog veel mogelijk is en ARM based Socs erg succesvol zijn en waar Intel nog geen heer en meester is.
Een markt die potentieel zelfs een partij als intel heel veel pijn kan gaan doen of zelfs een kopje kleiner maken als ze niet opletten.
Dit terwijl nVidia haar traditionele inkomstbronnen aan het opdrogen zijn (geen chipset business meer, kunnen de CPU+GPU trend niet volgen ivm ontbreken x86 licentie, instapgpu's worden irrelevant agv de CPU+GPU).
Ik kan me voorstellen dat beleggers in 1 keer weer meer vertrouwen hebben op een succesvolle toekomst omdat nVidia heeft aangegeven te willen gaan strijden in een markt die wat kan opleveren.
Dit betekend uiteraard niet dat nvidia gaat slagen maar ze strijden ergens voor.
Daarnaast is er nu niet alleen duidelijkheid inzake de toekomstrichting maar zijn ook dure, (management) intensieve en een duidelijke strategie verhinderende lawsuits beeindigd. Deze helderheid wordt ook altijd gewaardeerd.
Verder is 1.5mld in de kassa een toename vd bezittingen. Geld kan evt. ook aan aandeelhouders uitgekeerd worden.Laatste zal niet gebeuren maar kan zeker ook tot hogere waardering leiden.
[ Voor 16% gewijzigd door Help!!!! op 11-01-2011 21:26 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
In dit geval is de troll die jij hanteert de volgende:madmaxnl schreef op dinsdag 11 januari 2011 @ 20:38:
Ik snap het niet, hoezo een trol ?
Een trol is een bewuste post om mensen kwaad te maken of te beledigen. Het ergste wat ik doe is een discussie starten met een dergelijke statement.
Het zal dan waar zijn dat CF op de 6800 en 6900 serie beter schaalt, maar als je dat post zonder dat je op iemand reageert, of dit telkens aangeeft terwijl dit niet eens terzake doet of onderdeel van een discussie is, is het gewoon onnodig, overbodig, en frustrerend voor mij, en volgens mij ook voor anderen. Als jij zelf vindt dat je niemand frustreert, denk ik dat je het mis hebt. Ik ga ook niet lukraak posten in topics dat nVidia beter is dan AMD, of Intel beter is dan AMD, of whatever beter is dan whatever. Dat is geoon onnodig. Mensen kunnen zelf ook lezen en hun conclusies trekken. Jij start geen discussie, maar eerder een flamewar.Ook is een gevolgde methode het uitlokken van reacties of discussies over niet ter zake doende onderwerpen of schijnargumenten te geven, met als enkel doel om gebruikers binnen de gemeenschap opzettelijk en bewust te frustreren.
Ik zou het iig waarderen als je het achterwege laat, en ontopic post. En niet lukraak van zulke opmerkingen en/of posts plaatst die onnodig zijn.
Just my 2 cents, en verder vind ik je een beste kerel.
[ Voor 15% gewijzigd door Format-C op 11-01-2011 22:29 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Kthxbye!
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Core i7 930 @3500MHz | ASUS P6X58D Premium | Corsair Dominator 6G | eVGA 8800 GTS 512 KIA - RMA ---> HD6950 CFX | Dell U2711
Verwijderd
Daar staat in de conclusie het volgende tabelletje;

Hier valt duidelijk uit op te maken dat tot 1920 de GTX570 het prima bij kan benen en zelfs (zeer) lichtjes aan de leiding gaat. Bij 2560 neemt de HD6970 het stokje over en profiteert duidelijk van z'n grotere geheugen.
Anders gesteld; hier komt de GTX570 wat tekort...
Dat zie je zelfs bij 2560(8x) i.v.t. de GTX580 waar de voorsprong is geslonken tot 6%, terwijl het bij 1920 nog 16% was.
Dit is natuurlijk maar één review, maar bij Computerbase zie je onder deze pagina een beetje hetzelfde.
Maar dit is eigenlijk geen nieuws...
Sorry maar ik zie toch echt wat anders. Ik zie twee totaal verschillende kaarten welke toevallig ook niet evenveel videogeheugen hebben. Dan kun je er natuurlijk van maken dat het alleen aan het geheugen ligt (tuurlijk het is logisch) maar waarom kan het niet gewoon aan de architectuur liggen kaarten zijn immers totaal verschillend. Je kunt hier echt pas een uitspraak overdoen als je een één neemt met dubbel zoveel geheugen en een normale.Verwijderd schreef op woensdag 12 januari 2011 @ 01:22:
Bij 2560 neemt de HD6970 het stokje over en profiteert duidelijk van z'n grotere geheugen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
KitGuru heeft de adviesprijs van NVIDIA's GeForce GTX 560 bekendgemaakt. Die bedraagt 279 dollar. Ook blijkt de launch van de GTX 560 te zijn uitgesteld, een nieuwe verwachting is midden februari.
De GF114-GPU (hernoemde GF104) heeft 384 shaders met een klokfrequenties van 1640MHz. Het 1GB grote GDDR5-geheugen draait op 1000MHz (4000MHz effectief). Dat is via een 256-bit geheugenbus verbonden met een GPU, die dan weer op 820MHz draait. Het TDP is 180 watt, twintig watt meer dan dat van de GeForce GTX 460.
[ Voor 11% gewijzigd door Verwijderd op 12-01-2011 07:22 ]
Damn, dat is duurder dan ik verwacht had..:(Verwijderd schreef op woensdag 12 januari 2011 @ 07:17:
Op bouweenpc.nl staat dat de GTX 560 uitgesteld gaat worden tot februari en krijgt hij een TDP van 180 met een adviesprijs van $279.
KitGuru heeft de adviesprijs van NVIDIA's GeForce GTX 560 bekendgemaakt. Die bedraagt 279 dollar. Ook blijkt de launch van de GTX 560 te zijn uitgesteld, een nieuwe verwachting is midden februari.
De GF114-GPU (hernoemde GF104) heeft 384 shaders met een klokfrequenties van 1640MHz. Het 1GB grote GDDR5-geheugen draait op 1000MHz (4000MHz effectief). Dat is via een 256-bit geheugenbus verbonden met een GPU, die dan weer op 820MHz draait. Het TDP is 180 watt, twintig watt meer dan dat van de GeForce GTX 460.
[ Voor 91% gewijzigd door vinom op 12-01-2011 08:00 ]
Verwijderd
[ Voor 95% gewijzigd door Verwijderd op 12-01-2011 10:10 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Het leuke is dat het ook nog niet eens klopt wat die fanboy zegt.Format-C schreef op dinsdag 11 januari 2011 @ 20:18:
WTF heeft dat laatste er nou mee te maken? CF beter dan SLi op 3 monitoren...
Op wie, en waarop is dat een reaktie?
Je blijft maar bezig met trollen... Om doodmoe van te worden... Sorry hoor dat ik wat aangebrand reageer, maar jonge..... Pfff...![]()
1, 2, 3, 4, 5, 6, 7, 8, 9, 10...
Het werkt namelijk even goed op beide. Dit is indd wel trollen en fanboy gedrag erg jammer na het zien van wat posts.
Momenteel is er nog niet veel. Misschien de Palit met 2 fans, maar volgens mij hebben POV en eVGA nu de lead in hogere corespeeds op non-reference kaarten. Ik zou nog even wachten tot de fabrikanten met hun eigen designs uitkomen. Over het algemeen heb je dan wel wat robuustere kaarten.
EDIT: de post van silverwolf III is al weg
[ Voor 40% gewijzigd door Deathchant op 12-01-2011 10:19 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Verwijderd
Dat mag, ik niet.-The_Mask- schreef op woensdag 12 januari 2011 @ 01:29:
[...]
Sorry maar ik zie toch echt wat anders.
Ik ook... en trek daar middels twee vergelijken een vrij logische conclusie uit. Van 1680 naar 1920 met of zonder AA zit er niet al te veel verschil in. Vanaf 2560 (ongeveer twee keer zoveel pixels) begint er opeens een groter verschil te onstaan, ik zie het verschil in geheugen grote daar als grootste reden van.Ik zie twee totaal verschillende kaarten welke toevallig ook niet evenveel videogeheugen hebben.
Maargoed, dit hoort eigenlijk ook in BGG Aanschaf videokaarten thuis...
[ Voor 5% gewijzigd door Verwijderd op 12-01-2011 10:41 ]
TDP klopt, maar die was ook al een tijd bekend. De prijs klopt ook, aangezien 279 dollar ook de prijs van de GTX470 is. De GTX560 krijgt dus ook ongeveer dezelfde prijs als de GTX470 nu.Verwijderd schreef op woensdag 12 januari 2011 @ 07:17:
Op bouweenpc.nl staat dat de GTX 560 uitgesteld gaat worden tot februari en krijgt hij een TDP van 180 met een adviesprijs van $279.
Dat was al heeeel lang bekend.De GF114-GPU (hernoemde GF104) heeft 384 shaders met een klokfrequenties van 1640MHz. Het 1GB grote GDDR5-geheugen draait op 1000MHz (4000MHz effectief). Dat is via een 256-bit geheugenbus verbonden met een GPU, die dan weer op 820MHz draait.
Enige is dus dat die is uitgesteld, van 20 januari naar dus februari nu.
Dat zei ik, logisch is het wel maar dat zegt nog steeds niet veel.Verwijderd schreef op woensdag 12 januari 2011 @ 10:40:
Ik ook... en trek daar middels twee vergelijken een vrij logische conclusie uit.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik denk dat jullie beiden wel gelijk hebben. Natuurlijk profiteert de 6970 van zijn 2GB geheugen op hogere resoluties met AA, maar om te kunnen zeggen hoeveel deze winst nu precies (in %) is, zal het toch even wachten zijn op de 1GB versies van de 6970/6950. Dan is er pas echt een goede vergelijking mogelijk.Verwijderd schreef op woensdag 12 januari 2011 @ 10:40:
[...]
Dat mag, ik niet.
[...]
Ik ook... en trek daar middels twee vergelijken een vrij logische conclusie uit. Van 1680 naar 1920 met of zonder AA zit er niet al te veel verschil in. Vanaf 2560 (ongeveer twee keer zoveel pixels) begint er opeens een groter verschil te onstaan, ik zie het verschil in geheugen grote daar als grootste reden van.
Maargoed, dit hoort eigenlijk ook in BGG Aanschaf videokaarten thuis...
Verwijderd
[ Voor 7% gewijzigd door Verwijderd op 12-01-2011 11:54 ]
Hoog onzingehalte in je post...
[ Voor 99% gewijzigd door Noel op 12-01-2011 12:33 ]
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Verwijderd
ja helaas kan ik niet echt lang wachten want ik heb nu een pc zonder graka aangezien mijn 5850 RMA is en het geld van de kaart binnen kort terug gestort word.Deathchant schreef op woensdag 12 januari 2011 @ 10:18:
@Zilvere wolf nummer3: Klopt. Ik weet niet hoeveel non-reference GTX580 kaarten er al zijn, maar deze worden meestal in een 2e launch geintroduceerd: andere koelers, clockspeeds e.d.
Momenteel is er nog niet veel. Misschien de Palit met 2 fans, maar volgens mij hebben POV en eVGA nu de lead in hogere corespeeds op non-reference kaarten. Ik zou nog even wachten tot de fabrikanten met hun eigen designs uitkomen. Over het algemeen heb je dan wel wat robuustere kaarten.
EDIT: de post van silverwolf III is al weg == heb hem naar BBG video kaarten geplaats))
Maar ik heb van diverse fora gelezen dat de kaart uitstekend presteert zonder dat er veel warmte word gecreëerd.
Verwijderd
Omdat ik nieuwschierig was heb ik je posts maar eens doorgenomen (en dat waren er gelukkig niet zoveel) en dan kom ik op deze post van je uit;Verwijderd schreef op woensdag 12 januari 2011 @ 11:53:
Ik heb wel tests gezien. En ook een deze dagen wel gepost ergens. Het grote verschil is zo'n 5 fps gemiddeld genomen en vind daar voor die 1gb extra echt niet nodig.
- Verwijderd in 'nieuws: 'Goedkopere HD 6950 en 6970 met 1GB geheugen op komst''
Waar je refereert naar een artikel waar de HD5870 1gb wordt vergeleken met de 2gb... Denk niet dat je de conclusies hiervan rechtstreeks kan copy/pasten naar die van de HD6950/6970!
Enfin, volgens mij hoort dit ook niet thuis in dit Nvidia topic!
Deze GTX580 wel;

http://www.nordichardware...er-and-bigger-cooler.html
[ Voor 12% gewijzigd door Verwijderd op 12-01-2011 13:14 ]
Verwijderd
OMG OMG OMGVerwijderd schreef op woensdag 12 januari 2011 @ 13:12:
[...]
Omdat ik nieuwschierig was heb ik je posts maar eens doorgenomen (en dat waren er gelukkig niet zoveel) en dan kom ik op deze post van je uit;
- Verwijderd in 'nieuws: 'Goedkopere HD 6950 en 6970 met 1GB geheugen op komst''
Waar je refereert naar een artikel waar de HD5870 1gb wordt vergeleken met de 2gb... Denk niet dat je de conclusies hiervan rechtstreeks kan copy/pasten naar die van de HD6950/6970!
Enfin, volgens mij hoort dit ook niet thuis in dit Nvidia topic!
Deze GTX580 wel;
[afbeelding]
http://www.nordichardware...er-and-bigger-cooler.html
Ok ik wacht wel dat ding ziet er egt super Geil uit en de specs Zijn ook nog eens stukken beter dan de standaard versie (enig idee wanneer de release is van dit monster)
Ehm lol? nieuws: CES: Asus toont HD 6970 met speciale koeler en 6 video-uitgangenVerwijderd schreef op woensdag 12 januari 2011 @ 13:28:
[...]
OMG OMG OMG
Ok ik wacht wel dat ding ziet er egt super Geil uit en de specs Zijn ook nog eens stukken beter dan de standaard versie (enig idee wanneer de release is van dit monster)
mhuu ha ha kan de 6970 niet tegen op tri slot koeler met twee maal DVI en een display poort en een HDMI OMG
Zelfde koeler, 2x dvi, 4x displayport, allemaal bruikbaar, daar kan de GTX 580 niet tegenop
Persoonlijk vind ik een koeler die drie slots inbeslag neemt nogal overdreveen. Dan blijft er zelfs op high-end moederborden weinig plek over voor een tweede kaart, laat staan een geluids- of raid-kaart...
Verwijderd
Zal ik die post voorjou nog maar WEER eens posten dan. Zie de Edit staks maar ff.Noel schreef op woensdag 12 januari 2011 @ 12:32:
Welke test? Waar gepost? Welke kaart? Een gemiddelde van fps waarden?
Hoog onzingehalte in je post...
http://www.tomshardware.c...5870-eyefinity6,2595.html
Als je een beetje door bladerd zie je het verschil tussen 1gb en 2 gb tests in games.
Onzinnig mischien want had het al vaker gepost, blijf namelijk niet aan de gang.
[ Voor 29% gewijzigd door Verwijderd op 12-01-2011 14:08 ]
Verwijderd
Ha jij verpest mijn Glorie momentje weer hoor ha ha lolsMarc Rademaker schreef op woensdag 12 januari 2011 @ 13:56:
[...]
Ehm lol? nieuws: CES: Asus toont HD 6970 met speciale koeler en 6 video-uitgangen
Zelfde koeler, 2x dvi, 4x displayport, allemaal bruikbaar, daar kan de GTX 580 niet tegenop
Persoonlijk vind ik een koeler die drie slots inbeslag neemt nogal overdreveen. Dan blijft er zelfs op high-end moederborden weinig plek over voor een tweede kaart, laat staan een geluids- of raid-kaart...
en ja ik heb wat zitten puzzelen op mijn mobo(P6T6 Revolution) en het past (duhu) maar ik kan dan mijn raid kaart voor mijn hdds niet meer kwijt en mijn WIFI kaart dus het word toch maar de standaard versie zet die wel in SLI mhuhahah
Maar ja van ATI had je het kunnen verwachten natuurlijk AMD/ATI wil altijd meer dan de concurrent (helaas gaat dit in veel gevallen van de kwaliteit af zie het strepen probleem warm + ati+artifacts)
Ja, want NVIDIA heeft nooit problemen, en die problemen die jij noemt komen ook voor bij iedereen met welke chip van ATI dan ookVerwijderd schreef op woensdag 12 januari 2011 @ 14:08:
[...]
Ha jij verpest mijn Glorie momentje weer hoor ha ha lols
en ja ik heb wat zitten puzzelen op mijn mobo(P6T6 Revolution) en het past (duhu) maar ik kan dan mijn raid kaart voor mijn hdds niet meer kwijt en mijn WIFI kaart dus het word toch maar de standaard versie zet die wel in SLI mhuhahah(nieuw glorie moment)
Maar ja van ATI had je het kunnen verwachten natuurlijk AMD/ATI wil altijd meer dan de concurrent (helaas gaat dit in veel gevallen van de kwaliteit af zie het strepen probleem warm + ati+artifacts)

Gelukkig werp je even een objectieve blik op de zaken.
Een drie-slots koeler vind ik ook een beetje veel van het goede. Zulke high-end (en meestal overdreven dure) kaarten worden alleen door serieuze tweakers gekocht die er ook een beetje verstand van hebben. Laat het nu juist die mensen zijn die ook graag wel eens SLI of CFX draaien, met een bergje harde schijven en fatsoenlijke geluidskaart. Blijft knap weinig ruimte over op die manier, en is gewoon niet bepaald interessant behalve voor de pats factor
Ik ben veel nieuwsgieriger naar de GTX 560, en dan met name naar wat ze nog uit die verrassend goede chip kunnen persen met wat extra tweaks. Hij klokte in ieder geval al vrij aardig, deze zou het alleen maar beter moeten doen.
@ vPro: wel een compleet andere kaart en drivers, niet echt representatief of wel?
Kunnen we niet beter kijken naar het "doodgaan van 8800 kaarten" topic?Verwijderd schreef op woensdag 12 januari 2011 @ 14:08:
[...]
Maar ja van ATI had je het kunnen verwachten natuurlijk AMD/ATI wil altijd meer dan de concurrent (helaas gaat dit in veel gevallen van de kwaliteit af zie het strepen probleem warm + ati+artifacts)
Verwijderd
Ik denk dat het verschil met enkele kaarten wel groter zal zijn dan het was bij de 460 - maar zelfs bij die kaart zie je al jouw 5 FPS verschil in sommige games, en dan gaat het om een veel langzamere kaart met 256 MB verschil, waarvan de 768 MB variant vaak niet eens op 2560x1600 wordt getest (dus zelfs bij 1080p is het al goed zichtbaar). Ik vind het dan ook jammer dat er nog geen aanwijzingen zijn dat er een 560 met 1.25 of zelfs 1.5 GB komt; het is de soort kaart die leuk is om in een SLI opstelling te zetten, en ik denk dat een grotere buffer dan echt wel tot z'n recht kan komen.
Verwijderd
Inderdaad...en dan nog steeds 82 graden worden.....Marc Rademaker schreef op woensdag 12 januari 2011 @ 13:56:
Persoonlijk vind ik een koeler die drie slots inbeslag neemt nogal overdreveen.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Want ik ben nu aan het regelen voor een GTX460, maar als de GTX560 de zelfde prijs krijgt en sneller.
dan ben ik gek om nu een gtx460 te kopen.
Angelo NL / Global Cargo VTC
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Liefhebber van Tweakers
Aldus Fudzilla.Several early benchmarks of Nvidia’s upcoming GTX 560 Ti board were posted at the chiphell.com discussion board and the results look quite promising.
According to the figures, the 560 managed to outperform the old 460 by about 25 percent and the same goes for AMD’s HD 6870. Surprisingly, the 560 is very close to the Cayman based HD 6950, at least in 3Dmark.
The card scores P4118 in 3Dmark 11, while the Vantage score stands at P20644. As expected, the GTX 560 Ti ended up with 384 shaders, 32 ROPs, 1024MB of GDDR5 memory and a 256-bit bus with a total memory bandwidth of 128.3GB/s. The default GPU clock appears to be 823MHz, while the shaders and memory ended up at 1645MHz and 1002MHz respectively. This is quite a bit faster than the GTX 460, although some factory overclocked GTX 460 boards ended up at 850MHz.
Mind you, the results should be taken with a grain of salt, but nonetheless the GTX 560 appears to deliver impressive performance. It should be able to match AMD’s HD 6950, so at this point it all comes down to the price. The GTX 560 should launch later this month and January 25 is being tossed around as the launch date.
Ja want iedereen heeft 6 monitoren thuis staan héMarc Rademaker schreef op woensdag 12 januari 2011 @ 13:56:
[...]
Ehm lol? nieuws: CES: Asus toont HD 6970 met speciale koeler en 6 video-uitgangen
Zelfde koeler, 2x dvi, 4x displayport, allemaal bruikbaar, daar kan de GTX 580 niet tegenop
2x Dvi en hdmi is zat, wil je dan toch een of andere exotische setup pak dan zon eyefinity kaart.
Die koeler is echt leip, als je dan toch 3 slots gaat gebruiken kun je zowat wel een mini waterkoeler monteren(ala h50-h70 idee) Lijkt me niet dat dat ding verkoopt, je bent gelijk 3 en qua ligging soms 4 slots kwijt voor 1 kaart

if (!coffee) {
Work = false; }
nVidia zet het als vervanger van de GTX470 neer, prestaties en prijs zitten dan ook op ongeveer hetzelfde niveau.Pykow schreef op donderdag 13 januari 2011 @ 11:07:
Wat gaat de prijs worden van de GTX 560 ? 200 euro of veel meer ?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Zeker, stond ook op het punt om de GB 460 te kopen nu maar eventjes wachten dan, buiten het feit dat ik ook nog mn mobo+cpu+ram ga vervangen is het budget er ook ff doorheenDeathchant schreef op donderdag 13 januari 2011 @ 13:20:
hmmm 25 januari de launch....dan vraag ik me af wanneer de 2nd release komt, met de eigen cooling designs e.d. Ik vind die toch altijd wel meerwaarde hebben, vooral vanwege de pre-overklok en de goeie coolingsolutions. Ik was zo gebrand op de Gigabyte GTX460 SOC, maar ik kan beter wachten
Hopelijk komt die koeler van de pricewatch: Gigabyte GV-N460OC-1GI ook op de 560, is een erg stille en goed presterende koeler
if (!coffee) {
Work = false; }
Ik hoop de koeler van de SOC of een mooie GoldenSample van Gainward. Maar ja, de laatste tijd stellen ze me wat teleur, zeker wat betreft de gtx460. Daarom viel mijn oog op de SOC van Gigabyte.
En hoe koeler hoe beter. Of dat nou vapor chamber of heatpipes zijn, of een combinatie. I don't care
Hopelijk gaan ze nu niet weer zo moeilijk doen met VRM koeling enzo...pffff
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Verwijderd
@Deathchant; Op een gegeven moment moet je gewoon knopen doorhakken anders zit je over 3 jaar nog zonder nieuwe videokaart...
Verwijderd
Maar ik denk dat het meer richting de gtx460 koeler zal gaan.
Volgens nV ~30% sneller dan de GTX460 dus...
Binnenkort tijd om op zoek te gaan naar een leuk 2e hands 460je voor SLI
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ow, het is geen kwestie van geen knopen doorhakken hoorVerwijderd schreef op donderdag 13 januari 2011 @ 16:19:
@Deathchant; Op een gegeven moment moet je gewoon knopen doorhakken anders zit je over 3 jaar nog zonder nieuwe videokaart...
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Same here, ik bid nog steeds voor een iets snellere variant op de GTX580, ik heb nog 3 maanden dus hopelijk komt er iets kleins aan, een GTX585 ofzo?Deathchant schreef op vrijdag 14 januari 2011 @ 11:23:
[...]
Ow, het is geen kwestie van geen knopen doorhakken hoorik heb tijd ZAT. Het geld blijft lekker op de bank staan, dus....Het probleem was dat het geheugen dat ik voor X58 wilde nog niet leverbaar was en dat ik nog niet zeker was van het moederbord. Maar dat hoeft nu niet meer
Dus ik wacht gewoon lekker
(jaja weet het, had het al met iemand erover gehad en de kans is miniem of helemaal niet dat dit zal gebeuren maar ik heb precies hetzelfde, geld staat op de bank en ik speel de "waiting game").
Kepler komt in 2011 maar wanneer denken jullie, ergens aan het eind of midden 2011?
[ Voor 5% gewijzigd door Sm0k3r op 14-01-2011 11:54 ]
"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."
Eind 2011 voor een high-end kaart waarschijnlijk, grote 28nm GPU's zullen ook wel weer een probleem zijn voor TMSC aangezien er nu al geruchten gaan over wat problemen bij TMSC op 28nm.Sm0k3r schreef op vrijdag 14 januari 2011 @ 11:47:
Kepler komt in 2011 maar wanneer denken jullie, ergens aan het eind of midden 2011?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
NEEEEEEEEE (ben niet echt verbaasd, dit is overdrijven btw).-The_Mask- schreef op vrijdag 14 januari 2011 @ 12:02:
[...]
Eind 2011 voor een high-end kaart waarschijnlijk, grote 28nm GPU's zullen ook wel weer een probleem zijn voor TMSC aangezien er nu al geruchten gaan over wat problemen bij TMSC op 28nm.
Ok wat zal ik doen dan, over 3 maanden een GTX580 kopen inclusief andere koeling (thermalright Shaman of Spitfire en clocken) of weer wachten en PC gamen nog een tijdje laten voor wat het is...
De Kepler specs of wat nvidia ons doet geloven zijn eigenlijk redelijk extreem en interessant genoeg om te wachten omdat hij 3x zo snel is i.t.t. de Fermi.
"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."
NVIDIA laat altijd een heleboel geloven. Voordat die kaarten uit zijn is het net eind 2011 begin 2012. Lekker nu een price-performance kaart kopen, je zit altijd te wachten op het nieuwste van het nieuwste op deze manier; er staat altijd wel weer iets nieuws op de planning.Sm0k3r schreef op vrijdag 14 januari 2011 @ 12:32:
De Kepler specs of wat nvidia ons doet geloven zijn eigenlijk redelijk extreem en interessant genoeg om te wachten omdat hij 3x zo snel is i.t.t. de Fermi.
Interesse in een custom build workstation, voor gaming, wetenschappelijke toepassingen, of puur om de stijl? Contact @ https://vogd.design
Drie keer zo veel DP Gflops per watt als Fermi ja. SP en DP zijn twee dingen. SP is vooral voor gamen belangrijk en DP is vooral voor GPGPU belangrijk. M.a.w. DP is leuk maar op dit moment "nutteloos" tenzij je veel waarde hecht aan GPGPU. Daarbij komt ook nog eens dat het dus DP GFLOPS per Watt is. Over Kepler kunnen we dus niks zeggen. Immers hebben we het over verhoudingen. Kan dus best dat Kepler langzamer is als Fermi.Sm0k3r schreef op vrijdag 14 januari 2011 @ 12:32:
De Kepler specs of wat nvidia ons doet geloven zijn eigenlijk redelijk extreem en interessant genoeg om te wachten omdat hij 3x zo snel is i.t.t. de Fermi.
Kepler zal i.t.t. wat op de slide stond pas in 2012 het licht zien want Fermi is i.t.t. wat op de slide stond niet in 2009 uit gekomen maar in 2010. Wachten op iets beter in Hardwareland is eindeloos en slechts als op korte termijn iets beters uitkomt verstandig.
Dit heb ik zelf ondervonden met het wachten op Bulldozer
Betreffende slide trouwens:

[ Voor 5% gewijzigd door madmaxnl op 14-01-2011 14:06 ]
Verwijderd
Dit is niet 100% van elkaar afhankelijk natuurlijk. Het is echt niet zo dat er één team aan beide projecten werkt en dat door de vertraging van Fermi automatisch Kepler ook vertraagd is. Het kan zijn dat ze wat resources extra hebben moeten gebruiken voor Fermi die ze anders voor Kepler hadden ingezet, maar er wordt echt wel aan doorgewerkt hoor. Daarbij is het natuurlijk een kleine kans dat bij Kepler dezelfde problemen gaan plaatsvinden als bij Fermi. Denk dat het TQM proces wel een schop onder de kont heeft gekregen.madmaxnl schreef op vrijdag 14 januari 2011 @ 14:06:
[...]
Kepler zal i.t.t. wat op de slide stond pas in 2012 het licht zien want Fermi is i.t.t. wat op de slide stond niet in 2009 uit gekomen maar in 2010.
Verwijderd
Verwijderd
En toch zei je het zo, pas het dan even aan voor je het post...madmaxnl schreef op vrijdag 14 januari 2011 @ 14:06:
[...]
Kepler zal i.t.t. wat op de slide stond pas in 2012 het licht zien want Fermi is i.t.t. wat op de slide stond niet in 2009 uit gekomen maar in 2010. Wachten op iets beter in Hardwareland is eindeloos en slechts als op korte termijn iets beters uitkomt verstandig.
Ik persoonlijk neem het echter ook met een korrel zout, de vertraging bij fermi draagt ook wel aan die verwachting bij, net zoals het bij jou doet.
[Algemeen] nVidia Nieuwdiscussie Topic - Deel 51
Blijkbaar is de nvidia website weer eens aangepast (specificaties van grafische kaarten gedeelte)en tis deze keer,voor de verandering, er niet slechter op geworden de specs staan nu mooi duidelijk uitleesbaar.
Ook hebben de oude "echte" gpu reeksen een refresh gekregen, wss ten gevolge van de PR rond de miljardste GPU die gefabriceerd is geweest voor nvidia>
(de gpu's die niet onder nVidia naam werden verkocht worden hierbij niet meegeteld, riva TNT bv ..)
2 opmerkelijke puntjes
• Linken naar reviews zijn toegevoegd -->


• Er wordt voor de gtx580 enkel een min voeding van 600watt vermeld geen tdp... ;/ je zal hun dus er niet op pakken dat het meer is dan officieel aangeduid want officieel duiden ze niets meer aan -___-
En zeg nu nog eens dat Tegra2 en het Tegra platform geen succes kan worden, veel te veel links moeten bijvoegen over al die tablets die Tegra2 zouden gaan gebruiken

Dit topic is gesloten.