Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Zal de zin even hervormen: Nu was G80/G92 ook wel geweldig, daar zul je me nooit slecht over horen praten (met uitzondering van de slechte productie waarden *kuch*underfill*kuch* dan).
Anoniem: 304087
Je bent wel van het trollen hé. Volgens mij is het hier niet bedoeld om ouwe koeien uit de sloot te halen die niet waar zijn, tenminste niet volgens nieuws bronnen, enkel hier wat op tweakers en voor de rest van de wereld bijna nergens.
[ Voor 13% gewijzigd door Anoniem: 304087 op 05-10-2012 16:02 ]
Anoniem: 304087
[ Voor 69% gewijzigd door Anoniem: 304087 op 05-10-2012 16:07 ]
[ Voor 23% gewijzigd door Fid3lity op 05-10-2012 16:08 ]
Anoniem: 304087
En nee we gaan er indd niet meer overnieuw mee beginnen, doe dat dan ook niet@!!
Edit
Ontopic maar weer, dit is veel leuker dan trollen en flamen
Nvidia GTX 650 Ti krijgt meer Cuda-cores dan verwacht
http://www.eteknix.com/ne...-ti-specifications-change
[ Voor 71% gewijzigd door Anoniem: 304087 op 05-10-2012 16:13 ]
Wat er door de mods is gezegd komt neer op "hou de discussies on-topic en ga niet op elkaar persoonlijk in." En waar kom jij dan vervolgens mee aanzetten?Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 16:08:
Nogmaals we zouden het er niet meer over hebben of het nu wel of niet aan mij gericht is, daar gaat het namelijk niet om over mij en ik zeur niet ik zeg wat er door de mods werd gezegt.
Als je zo graag conform policy discussieert begin daar dan ook zelf mee.
Niemand doet dat.En nee we gaan er indd niet meer overnieuw mee beginnen, doe dat dan ook niet@!!
[ Voor 8% gewijzigd door Fid3lity op 05-10-2012 16:15 ]
Anoniem: 304087
[ Voor 50% gewijzigd door Anoniem: 304087 op 07-10-2012 10:34 ]
Hoho, wacht even. Dat er geen oude koeien uit de sloot gehaald mogen worden is een ding, maar de G80 underfill een NEP probleem noemen? Er is zelfs een class-action suit door Dell, HP en Apple aangespannen tegen Nvidia waarin deze laatste heeft geschikt. Die schikking is nog geen twee jaar geleden (December 2010) en was weldegelijk een echt bestaand probleem. En in elk geval mijn 8800 was er door getroffen; met m'n eerste 9800 heb ik wellicht gewoon pech gehad, aangezien de tweede nog steeds probleemloos draait (of het is inderdaad een "redesign"). Het probleem was in elk geval weldegelijk echt en een grove fout van Nvidia's kant.Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 16:04:
Dat we dit niet meer zouden doen, maar gebeurd toch weer daarom zeg ik het ook. Het gaat er verder niet om dat het niet op mij gericht was het gaat me er gewoon om dat er geen ouwe koeien meer uit de sloot worden gehaald zoals de g80 nep problemen, maar goed hier staat tweakers nog al bekend om en daarom geen videokaarten meer te testen krijgen, of nog maar amper.
En om dit een ontopic spin te geven: gelukkig blijken dezelfde geruchten over GF100/GF110 vooralsnog niet te kloppen.
[ Voor 5% gewijzigd door Werelds op 05-10-2012 16:23 . Reden: typo ]
Anoniem: 304087
Maar over de mid en low end van nvidia die komen nu veel te laat vind ik.
@ 550ti bvb. En ook nog eens zonder sli mogelijkheden.
Nee het is niet de zo veelste keer dat ik dingen ontken, heb er alleen een andere kijk op. Maar volgens de AMD fan is dat nog al zwaar geloof ik, ik word hier trouwens ook voor nvidia fan uitgemaakt?Noel schreef op vrijdag 05 oktober 2012 @ 22:15:
[...]
Het is al de zoveelste keer dat je een bekend probleem afdoet als nep, leugens, anti-nvidia,... Get real.
Tja, als er eens een leuk nieuws artikel is die het bevestigd zal ik het eerder geloven. Als er maar een paar honderd kaarten (van de 10 duizenden) werken via een overtruuk zegt niet zo veel. Maar goed nog een die er lekker over door wil gaan blijkbaar.
[ Voor 97% gewijzigd door Anoniem: 304087 op 06-10-2012 11:44 ]
Het is al de zoveelste keer dat je een bekend probleem afdoet als nep, leugens, anti-nvidia,... Get real.Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 16:20:
Oké, het was dus een echt probleem en indd blij dat het tot nu toe nog niet weer is voorgekomen tot nu toe dan he.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Hiet is een van de vele voorbeelden. En van iedereen hier ben jij de enige met zo'n ontkennende houding dat je er gewoon niet aan toe lijkt te willen geven. Het is een serieus probleem en er is meer dan genoeg over te vinden.Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 16:20:
Nee het is niet de zo veelste keer dat ik dingen ontken, heb er alleen een andere kijk op. Maar volgens de AMD fan is dat nog al zwaar geloof ik?
Tja, als er eens een leuk nieuws artikel is die het bevestigd zal ik het eerder geloven. Als er maar een paar honderd kaarten (van de 10 duizenden) werken via een overtruuk zegt niet zo veel. Maar goed nog een die er lekker over door wil gaan blijkbaar.
Oke, ik vind dit soort discussies stom en reageer er daarom zo min mogelijk op. Maar ik wil even zeggen dat ik me erg erger aan het feit dat als jij gewoon feiten gemist hebt, dat "een andere mening" is, dat als mensen jouw meningen tegenspreken, dat een persoonlijke aanval zou zijn, en dat mensen die daar tegenin gaan dan wél weer AMD-fans zijn, over persoonlijke aanvallen gesproken. Als je de details van een onderwerp niet kent (zoals de details over G80, waar meerdere nieuwsartikelen en statements van bedrijven als apple over geweest zijn), reageer dan niet, net zoals ik vaak ergens niet op in ga als ik mijn eigen mening niet gefundeerd genoeg vind.Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 16:20:
Nee het is niet de zo veelste keer dat ik dingen ontken, heb er alleen een andere kijk op. Maar volgens de AMD fan is dat nog al zwaar geloof ik?
Als je het er gewoon bij had gelaten dat g80 al lang niet meer relevant is, en dat dat niet genoemd hoeft te worden, dan had ik je helemaal gelijk gegeven, en dat een inhoudelijke discussie nu echt geen zin meer heeft wil ik bij deze dus ook even zeggen, niemand heeft daar nog wat aan en alles is al 10x uitgekauwd.
En nee, ook dit is geen trollen en geen persoonlijke aanval. Dit gaat over de manier van discussiëren.
[ Voor 19% gewijzigd door bwerg op 06-10-2012 11:26 ]
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 304087
Dit monster zal momenteel wel de snelste gpgpu zijn.
Een ook al zou dat zo zijn (wat natuurlijk niet zo is), het is niet verboden.Noel schreef op vrijdag 05 oktober 2012 @ 22:15:
[...]
Het is al de zoveelste keer dat je een bekend probleem afdoet als nep, leugens, anti-nvidia,... Get real.
[ Voor 68% gewijzigd door Anoniem: 304087 op 07-10-2012 11:03 ]
Anoniem: 304087

Ik ga er daarom ook maar niet meer op in want je leest toch alleen wat je wil lezen
en voor de rest heb je oogkleppen op.
Ik ontken niets als ik niet weet dat er geen nieuws over is waar nvidia of dergelijke de boel onderzoekt en het probleem boven water ligt.3XPER7 schreef op zaterdag 06 oktober 2012 @ 11:11:
[...]
Hiet is een van de vele voorbeelden. En van iedereen hier ben jij de enige met zo'n ontkennende houding dat je er gewoon niet aan toe lijkt te willen geven. Het is een serieus probleem en er is meer dan genoeg over te vinden.
[ Voor 255% gewijzigd door Anoniem: 304087 op 07-10-2012 10:38 ]
Anoniem: 304087
Las net een stukje dat de gtx780 niet een gk110 gpu zal bevatten. Ik kan alleen niet de pagina openen want die laad niet bij mij.bitshape schreef op donderdag 04 oktober 2012 @ 22:17:
[...]
GK110 gaat wel komen in de vorm van GTX780, maart/april 2013. Misschien dat hij wel iets vroeger komt om AMD dwars te zitten, maar dat is niet zeker.
Als je nu al twijfelt, en E500,- is een flink bedrag, zou ik zeker even geduld hebben om dat te belonen met het nieuwstevanhetnieuwste met een 384bit memory-bus.
Als je wat zegt, doe het dan goed (een linkje zou fijn zijn...Anoniem: 304087 schreef op zaterdag 06 oktober 2012 @ 12:06:
[...]
Las net een stukje dat de gtx780 niet een gk110 gpu zal bevatten. Ik kan alleen niet de pagina openen want die laad niet bij mij.

"and perhaps this new core API has support DirectX 11.1 (Kepler supports first-generation DirectX 11)"Rumor: NVIDIA GeForce GTX 780 GPU will not be based on GK110
Earlier this month the web circulating rumors suggesting that the future Nvidia GeForce GTX 780 GPU would be based on the GK110 nuckeo , the epitome of the unreleased second generation Kepler architecture , and a few days ago Nvidia revealed itself which will be available in configurations with between 2496-2880 shader processors in Tesla cGPUs K20 Series.
OBR Hardware informs us, these rumors are false, because the future geforce GTX 780 will be based on a new core GK110 completely different; core on which promise to provide more details later, but there’s no need to speculate too much to deduce that This is the core GK112 released yet .
So far little is known about GK112, but it would be very difficult to deduce that following the nomenclature of Nvidia gk112 would be based on the same variant of Kepler-focused architecture used in GK110 GPGPU computing, so it is likely that GPCs possesses four (576 shader processors each shaders in total 2304), each consisting of three SMX, which in turn have 192 shader processors each.
We still have very little data that allow us to deduce the number of texture units (TMUs) and rendering (ROPs), but one could assume that would use a memory bus of 384 bits and perhaps this new core API has support DirectX 11.1 (Kepler supports first-generation DirectX 11). GK112 cropped versions of other products could shape future Nvidia GeForce GTX 770 and 760 Ti. We will keep you informed.
Is dat zo? Naar mijn weten support de huidige Kepler-lineup Dx11.1, GT610/620/630 (Fermi) natuurlijk uitgezonderd. Met dit soort uitspraken neem ik juist het gehele artikel met een korreltje zout...
Het blijven overigens geruchten, maar Nvidia kan best een consumer-versie uitbrengen waarin eea is gestript en daardoor hogere kloks te behalen zijn. Het blijft vooralsnog speculeren, muv de 384bits memory-bus.OBR Hardware: Exclusive! - Some GeForce GTX 7x0 details ...
At this moment there are no known details about the GeForce 600 successors and I will not say that I know anything. One thing is certain, and the information comes from the traditionally well-informed source. Successor GeForce GTX 670/680 will NOT be based on core GK110. These cards will be based on a completely different, new core ... more detail later.
[ Voor 7% gewijzigd door bitshape op 06-10-2012 15:10 ]
avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Kepler GK110 was built first and foremost for Tesla, and its goal was to be the highest performing
parallel computing microprocessor in the world. GK110 not only greatly exceeds the raw compute
horsepower delivered by Fermi, but it does so efficiently, consuming significantly less power and
generating much less heat output.
A full Kepler GK110 implementation includes 15 SMX units and six 64‐bit memory controllers. Different
products will use different configurations of GK110. For example, some products may deploy 13 or 14
SMXs.
[ Voor 58% gewijzigd door bitshape op 06-10-2012 16:34 ]
avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
Mee eens maar de link deed het niet en kon hem ook niet eens kopieren omdat hij vast liep.bitshape schreef op zaterdag 06 oktober 2012 @ 14:32:
[...]
Als je wat zegt, doe het dan goed (een linkje zou fijn zijn...):
Edit
Review gtx650Ti is gelekt.
http://wccftech.com/nvidi...d-7850-gaming-benchmarks/
Overall performance

[ Voor 94% gewijzigd door Anoniem: 304087 op 07-10-2012 10:52 ]
Gezien de prijs in de regio van de 7850 gaat liggen
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Anoniem: 304087
550Ti's zijn verkocht, bron, want naar mijn weten verkopen die momenteel nog?
Als ik zo kijk naar de performance zit dat iig wel goed met de 650 ti. Die komt boven de concurerende kaarten uit (7770) hij mag dan ook iets duurder gaan kosten
Edit
Ik heb hem maar even als nieuwstip ingestuurd.
[ Voor 52% gewijzigd door Anoniem: 304087 op 07-10-2012 10:32 ]
Jah maar je bent ofwel niet op de hoogte van wat er in de pc wereld is of je wilt echt nvidia als je trager gaat maar even veel betaaltThe GTX 650 Ti uses a small PCB design which makes use of a single 6-Pin connector to power up and display outputs include Dual Link DVI and HDMI port. The card would be priced around $159-$179 at launch depending on vendors which puts it against the Radeon HD 7850 since it has the same price range after the recent price-cuts.
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Bedoelde ik met het echt willen van Nvidia omwillen van die eventuele voordelenAnoniem: 172410 schreef op zondag 07 oktober 2012 @ 10:34:
Of je gaat voor CUDA en/of PhysX natuurlijk
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Anoniem: 304087
Je hebt er gewoon bronnen bij te vermelen, word mij ook telekens gevraagd anders heb je er niets aan blijkt volgens 3expert.yzx schreef op zondag 07 oktober 2012 @ 10:33:
And I quote from your source
[...]
Jah maar je bent ofwel niet op de hoogte van wat er in de pc wereld is of je wilt echt nvidia als je trager gaat maar even veel betaalt
Persoonlijk vind ik het niet zo'n probleem. Verder zijn dit natuurlijk nog geen vaste prijzen natuurlijk puur speculatief en daar kunnen we dus nog niet zo veel mee, zoals ook vermeld staat. Ik verwacht dat hij tussen de 7770 en 7850 in gaat zitten, lijkt me ook vrij logisch en zit de 550ti op een goede concurerende plek.
[ Voor 15% gewijzigd door Anoniem: 304087 op 07-10-2012 10:59 ]
Hij zegt dat het het artikel is die je zelf net aanhaalde.Anoniem: 304087 schreef op zondag 07 oktober 2012 @ 10:44:
[...]
Je hebt er gewoon bronnen bij te vermelen, word mij ook telekens gevraagd anders heb je er niets aan blijkt volgens 3expert.
Maar inderdaad, die prijzen kunnen altijd nog veranderen. Een prijs van tevoren voorspellen gaat vaak fout. Als het wat goedkoper wordt dan wat ze in dat artikel vermelden kan het wel goed zijn, anders lijkt het gewoon te duur.
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 304087
Nu nog enkel die van de 550ti
[ Voor 28% gewijzigd door Anoniem: 304087 op 07-10-2012 11:09 ]
[ Voor 156% gewijzigd door A87 op 08-10-2012 12:39 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
The reason we have a limit on max voltage is very simply to prevent damage to the GPU chips. At NVIDIA we know that our customers want to push their GPUs to the limit. We are all for it, and as a matter of fact NVIDIA has always prioritized support for hardware enthusiasts by providing tools to access hardware settings and by supporting our board partners in creating overclocked enthusiast products. Leading up to the GeForce GTX 680 release for example, we worked closely with developers of 3rd party overclocking utilities to make sure they fully supported GeForce GTX 680 and GPU Boost on the day of launch.
Anoniem: 172410
Dit zou nog net kunnen, aangezien ze XY2 nog niet hebben gebruikt. Als je dan echter kijkt naar release schedule slaat het als een tang op een varken, ze hebben de hele reeks top-down gedaan, maar GK100 zou dan ruim een half jaar laten gekomen zijn.-The_Mask- schreef op zaterdag 06 oktober 2012 @ 16:36:
O ja, kan natuurlijk ook zijn dat er nooit een GK100 is geweest of dat ze de naampjes hebben opgeschuift. GK100 is GK110 geworden en GK110 is GK112 geworden. Alles is mogelijk en niks is zeker.
Nee, dan schrijf ik dat gerucht dat de 780 geen volwaardige GK110 zou zijn eerder toe aan een licht gecastreerde chip, met wat uitgeschakelde clusters of een GK112 die net als XY4 net iets anders is ingedeeld
Anoniem: 304087
Ik vind het helemaal niet logisch gezien gpu's sowieso kapot gaan bij te veel overvoltage en nu in eens is dat een probleem bij een kaart die heel erg makkelijk te overvolten is. Bij een kaart waar het wat moeilijker gaat zoals de dc2 is het geen probleem?
Maar goed het gaat dus niet om brakke gpu's maar omdat er een automatisch voltage control op zit
die al tot de max van zijn kunnen gaat voor normaal gebruik. Dit is trouwens altijd zo bij gpu's dus niets nieuws onder de zon.
50 euro meer dan de goedkoopste reference! Goed moment
2e Lightning kaart wordt dit. Vind het altijd weer de moeite waard om zon stuk art te zien.
Zijn de yields nu ook beter? Dus dat je overclockers hoger komen? Of niet....
Aangezien de 680 nogal slecht leverbaar was een lange poos...
[ Voor 125% gewijzigd door A87 op 08-10-2012 11:49 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Anoniem: 304087
Genoeg over te vinden iig.
https://www.google.nl/#hl...365e9d29&biw=1920&bih=935
[ Voor 36% gewijzigd door Anoniem: 304087 op 08-10-2012 12:12 ]
Anoniem: 304087
reviews: GTX 650 Ti: goedkoop gamen
HWI review 650TI
http://nl.hardware.info/r...x-650-ti-review-conclusie
Beetje de zelfde conclusie en wat ik na de gelekte review ook al zij.
[ Voor 13% gewijzigd door Anoniem: 304087 op 09-10-2012 15:19 ]
Anoniem: 304087
[ Voor 11% gewijzigd door Anoniem: 304087 op 09-10-2012 16:06 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Voor SLI of CF zou ik toch wel minimaal voor een 2GB kaart gaan.Anoniem: 304087 schreef op dinsdag 09 oktober 2012 @ 15:59:
Opzich jammer dat er geen sli mogelijkheid is. Hier dwing je mee om toch voor een 7770 te gaan of sterkere kaarten zoals de gtx660ti of hd 7850. Of ik zeg nu wat geks, dat kan ook.
Anoniem: 304087
SLI review 560TI als vorbeeld.
http://www.guru3d.com/art..._560_ti_sli_review,9.html
[ Voor 20% gewijzigd door Anoniem: 304087 op 09-10-2012 17:32 ]
Anoniem: 304087
In deze video zeggen ze ook dat SLI er niet opzit om product kosten laag te houden, en omdat het ook niet echt iets is voor de doelgroep die bij de GTX650Ti hoort.Anoniem: 304087 schreef op dinsdag 09 oktober 2012 @ 17:05:
Daar ben ik het mee eens als je op hogere resoluties dan 1920x1080 gaat gamen maar tot 1920x1080 kan sli uitkomen om een hogere fps te halen en of hogere instellingen. Er komen verder ook nog 2GB varianten uit.
SLI review 560TI
http://www.guru3d.com/art..._560_ti_sli_review,9.html
Video: YouTube: NVIDIA GeForce GTX 650 Ti FAQs vanaf 1:18.
Geen SLI ondersteunen zou kunnen schelen in de lagen PCB die nodig zijn, verder schrijft TPU:
Bron: http://www.techpowerup.co...0_Ti_Power_Edition/4.htmlNVIDIA's GK106 processor is produced on a 28 nm process at TSMC, Taiwan. The transistor count is 2.54 billion. Compared to the GK106 on the GTX 660, the package size (green stuff) is reduced. The only explanation for this is that the pin count has been lowered, most probably for a narrower memory interface, and possibly due to reduced power requirements.
Het is goed mogelijk dat de GK106 die bedoeld is voor de GTX650Ti ook geen pinnen heeft voor SLI en dat het fysiek dus niet eens mogelijk is om SLI toe te voegen aan deze kaarten.
(Tenzij je een GTX660 chip pakt, maar waarom zou een fabrikant dat doen?)
Tevens haal je de GTX560 TI aan, maar dat is wel een kaart van een heel ander kaliber, die werd gepositioneerd tegen de HD6870, niet tegen de HD6770, en heeft ondanks dat hij 1GB VRAM heeft toch een bandbreedte van 128GB/s. Dat is op geen enkele manier vergelijkbaar met een GTX550Ti met 86GB/s die in een lager segment gepositioneerd is.
De GTX460 786MB had ook 86GB/s, welke prima schaalde in SLI dus die zou je beter kunnen aanhalen, maar vergeet niet dat dat toch zeker twee jaar geleden is. Destijds was dat een mooie oplossing als je niet op hoger dan 1920x1200 speelde.
Dus dan moeten in de toekomst de GTX 750, 840 en 920 ook maar SLI hebben?Anoniem: 304087 schreef op dinsdag 09 oktober 2012 @ 17:27:
Om te laten zien dat je bij weinig performance nog nut kan hebben aan sli, gezien deze kaart ongeveer net zo presteerd als een 560TI 1GB.
Anoniem: 304087
Zou er echt zoveel bespaard kunnen worden met het weghalen van SLI? AMD heeft Crossfire mogenlijkheden op een kaart als de HD6670, waar alle data gewoon door de PCI-E poorten wordt geperst, en je dus geen apart Crossfire kabeltje (en dus ook geen aansluitpunt) nodig hebt.Toettoetdaan schreef op dinsdag 09 oktober 2012 @ 17:35:
Geen SLI ondersteunen zou kunnen schelen in de lagen PCB die nodig zijn, verder schrijft TPU:
Dat is afhankelijk voor welke techniek de fabrikant kiest en wat ze daarvoor willen opofferen.dahakon schreef op dinsdag 09 oktober 2012 @ 20:04:
[...]
Zou er echt zoveel bespaard kunnen worden met het weghalen van SLI? AMD heeft Crossfire mogenlijkheden op een kaart als de HD6670, waar alle data gewoon door de PCI-E poorten wordt geperst, en je dus geen apart Crossfire kabeltje (en dus ook geen aansluitpunt) nodig hebt.
De SLI connector is 26 pinnen, dat betekend dat ze met het weglaten van SLI 26 verbindingen minder moeten aanleggen vanaf de chip naar de connector. Dat kan zomaar een PCB laag schelen.
De voordelen van SLI en CF bridges zijn dat je ongeveer 1GB bandbreedte zonder vertragingen hebt tussen verschillende chips. Vroeger werkte SLI ook zonder bridge, maar dan had je twee kaarten die op PCI-e x8 liepen terwijl ze met bridge wel op x16 pruttelde. (ik weet niet of het nog steeds zonder bridge kan)
Nu worden die bridgen vooral gebruikt voor de informatie die zo snel mogelijk op de andere chip aanwezig moet zijn. Denk aan synchronisatie signalen.
Als je dat via het chipset verzend (over de PCI-e lanes) dan zit daar een relatief veel grotere vertraging in.
AMD kiest er met zijn CrossFireX voor dat je een kaart kunt combineren met een interne chip, welke fysiek geen CF aansluiting heeft. (Ze zouden wel een CF aansluiting op het moederbord kunnen maken, maar dat zou ook weer zijn eigen on-praktisch eigenschappen met zich meebrengen)
AMD heeft er dus voor gekozen om die directe verbinding op te geven om CF in dit soort opstellingen mogelijk te maken. Echter hiervoor zullen ze waarschijnlijk wel een beetje CF scaling moeten inleveren.
nVidia hoeft dit soort technieken niet te ontwikkelen omdat ze geen chipsets(meer) of (x86)APU maken met een GPU er in die gecombineerd zou kunnen worden.
Desondanks is het voornamelijk een keuze van nVidia, ik ben er zeker van dat als ze het echt willen, dat ze het ook mogelijk kunnen maken zonder bridge.
http://www.geforce.co.uk/drivers/results/49976/nvidiaupdate
Versie 306.97 - WHQL
Zeer handig voor Windows 8, GTX 650 Ti, en mensen die Borderlands 2 en de nieuwe WoW uitbreiding willen spelen
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Strak dat ze extra performance uit de WoW engine hebben kunnen krijgenXanderDrake schreef op woensdag 10 oktober 2012 @ 18:40:
Nieuwe WHQL Drivers uit:
http://www.geforce.co.uk/drivers/results/49976/nvidiaupdate
Versie 306.97 - WHQL
Zeer handig voor Windows 8, GTX 650 Ti, en mensen die Borderlands 2 en de nieuwe WoW uitbreiding willen spelen
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Anoniem: 304087
Installeren verloopt ook lekker via driver update en dan clean install en zonder de pc op nieuw op te hoeven starten na het updaten.
Strategie? Wel zie ik steeds improvements voor de GTX680 en de GTX660Ti.
Volgens mij doen ze bij AMD ook maar telkens HD7800 en HD7700 (ipv HD7870,HD7850 enz...)t!n0 schreef op woensdag 10 oktober 2012 @ 20:23:
Waarom wordt er nooit aangegeven wat de winsten zijn voor de GTX670 kaarten?
Strategie? Wel zie ik steeds improvements voor de GTX680 en de GTX660Ti.
Het wordt anders wel een erg onoverzichtelijk lijstje.
Volgens Charlie van SemiAccurate zal de GTX780 (of hoe de GK114 ook mag gaan heten) 15% prestatie winst tegenover de GK104 hebben en op zijn vroegst beschikbaar komen in maart 2013. Maar waarschijnlijk grootschalig leverbaar in april/juni 2013.
Bron: http://semiaccurate.com/2...ng-on-with-nvidias-gk114/
3XPER7 schreef op vrijdag 12 oktober 2012 @ 16:50:
Pardon? Ik zie daar nergens de naam GTX 780 voorbij komen, alleen GK-114.
Het is in der daad een beetje een persoonlijke aanname, maar gezien ze nog steeds op 28nm blijven en het TDP budget niet magisch is vergroot kun je er redelijk vanuit gaan dat er niet nog een andere chip boven zit die de GTX780 naam gaat dragen.GTX780 (of hoe de GK114 ook mag gaan heten)
Anoniem: 304087
GK104. Daar was Charlie goed over te spreken.Toettoetdaan schreef op vrijdag 12 oktober 2012 @ 16:38:
[...]
Welk onderwerp? Dat Charlie soms zijn voorkeur uit voor een bepaalde fabrikant of dat de volgende generatie GPU's nog steeds 28nm zijn? Dat lijkt me allemaal wel triviaal.
Verder verwacht ik deze keer een GK110 als gtx780 omdat dat mij het meest logisch lijkt echter
blijft het speculeren welke gpu het word met welke naam. Nvidia is weer eens stil, maar dat is ook niet zo
gek als ze niet waar kunnen maken wat ze zeggen blijkt uit het verleden.
[ Voor 56% gewijzigd door Anoniem: 304087 op 12-10-2012 19:03 ]
Lijkt me niet gek als de GK 110 in maart komt
[ Voor 36% gewijzigd door A87 op 12-10-2012 18:32 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Bedenk wel dat ze, omdat ze nog steeds op 28nm zullen werken, niet veel ruimte over hebben wat TDP betreft. Een GK110 achtige GPU zou veel verbruik en die-space 'verspillen' aan GPGPU achtige dingen en vervolgens een teleurstellende winst boeken op de GK104 wat game's betreft.Anoniem: 304087 schreef op vrijdag 12 oktober 2012 @ 18:03:
[...]
GK104. Daar was Charlie goed over te spreken.
Verder verwacht ik deze keer een GK110 als gtx780 omdat dat mij het meest logisch lijkt echter
blijft het speculeren welke gpu het word met welke naam. Nvidia is weer eens stil, maar dat is ook niet zo
gek als ze niet waar kunnen maken wat ze zeggen blijkt uit het verleden.
Persoonlijk denk ik dat we nog even moeten wachten op het volgende procedé voordat we een GK110 achtige chip weer in de consumenten line-up zien.
Anoniem: 304087 schreef op vrijdag 12 oktober 2012 @ 18:03:
Edit
Rumor: NVIDIA Skipping GeForce 600 Series - GTX 780 Performance Slide Shown
[afbeelding]
http://www.legitreviews.com/news/12046/
Ik kan het niet meer vinden, maar in het verleden zijn hier al teveel woorden aan vuil gemaakt.Sun, Dec 18, 2011
Dus ik wil je vriendelijk doch dringend verzoeken dit plaatje niet meer aan te halen.
Anoniem: 304087
Het probleem is meer dat als genoeg mensen valse geruchten verspreiden dat we dan allemaal op het eind geen fatsoenlijke inschatting meer kunnen maken. Ook worden dit soort geruchten uiteindelijk door grotere site's opgepikt waarvan je normaal verwacht dat ze goede info posten.Anoniem: 304087 schreef op vrijdag 12 oktober 2012 @ 18:41:
Maar kan maar zo kloppen en het is gewoon een gerucht waar niemand zich druk om hoeft te maken. Vraag me ook af wat er mis is met dat soort plaatjes die je overal wel op fora gepost ziet worden, met in het achterhoofd dat het niet meer dan een gerucht is? Vind de prestaties zelfs nog tegenvallen op dat plaatje.
Én dat zorgt er weer voor dat mensen valse informatie in hun berekeningen en argumentatie mee nemen.
Het zorgt dus voor een hoop verspilling van tijd en topic pagina's, hier kun je de vorige discussie over dit plaatje vinden: Anoniem: 429466 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54"
Begrijp je zelf wel wat je zegt als je het terugleest?Anoniem: 304087 schreef op vrijdag 12 oktober 2012 @ 18:41:
Maar kan maar zo kloppen en het is gewoon een gerucht waar niemand zich druk om hoeft te maken. Vraag me ook af wat er mis is met dat soort plaatjes die je overal wel op fora gepost ziet worden, met in het achterhoofd dat het niet meer dan een gerucht is? Vind de prestaties zelfs nog tegenvallen op dat plaatje.
Core i5 4670k, 8gb, MSI GTX460 HAWK TA
Anoniem: 304087
Nou, bij deze zal ik hem dan ook maar weg halen, want wil hier geen problemen veroorzakenToettoetdaan schreef op vrijdag 12 oktober 2012 @ 18:53:
[...]
Het probleem is meer dat als genoeg mensen valse geruchten verspreiden dat we dan allemaal op het eind geen fatsoenlijke inschatting meer kunnen maken. Ook worden dit soort geruchten uiteindelijk door grotere site's opgepikt waarvan je normaal verwacht dat ze goede info posten.
Én dat zorgt er weer voor dat mensen valse informatie in hun berekeningen en argumentatie mee nemen.
Het zorgt dus voor een hoop verspilling van tijd en topic pagina's, hier kun je de vorige discussie over dit plaatje vinden: Anoniem: 429466 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54"
100%rickyy schreef op vrijdag 12 oktober 2012 @ 18:54:
[...]
Begrijp je zelf wel wat je zegt als je het terugleest?
[ Voor 12% gewijzigd door Anoniem: 304087 op 12-10-2012 19:06 ]
Supercomputers en workstation gebruikers willen maar al te graag overstappen van 40nm kaarten (bijv. C2050 of C2070) naar energie efficiëntere/krachtigere 28nm kaarten. En ik kan me eigenlijk niet zo goed voorstellen dat ze een 'aparte' GPUGPU kaart zouden ontwikkelen speciaal voor het Tesla/Quadro segment. Zeker nu AMD zich ook meer aan het richten is op GPUGPU voor de consumentenmarkt met de 7xxx serie.Toettoetdaan schreef op vrijdag 12 oktober 2012 @ 18:32:
Bedenk wel dat ze, omdat ze nog steeds op 28nm zullen werken, niet veel ruimte over hebben wat TDP betreft. Een GK110 achtige GPU zou veel verbruik en die-space 'verspillen' aan GPGPU achtige dingen en vervolgens een teleurstellende winst boeken op de GK104 wat game's betreft.
Persoonlijk denk ik dat we nog even moeten wachten op het volgende procedé voordat we een GK110 achtige chip weer in de consumenten line-up zien.
Uitgaande van de naamgeving zou ook veel logischer zijn dat 'Big Kepler' (GK100/GK110) een grote complexe chip wordt met een volledige featureset en GPUGPU capabilities, aangezien de GF100 (GTX480) en GF110 (GTX580) dit ook waren en op deze kaarten de Tesla's/Quadro's op gebaseerd zijn (of andersom).
De 'gamerskaarten' GF104 (GTX460), GF114 (GTX560) en GK104 (GTX680) missen een aantal van die fancy features waardoor er dure die-size bespaard wordt/is. Features die game prestaties niet erg beïnvloeden en waardoor de kaarten goedkoper gemaakt kunnen worden. Kleinere (minder complexe) die's geven immers hogere yields en er passen er meer in een waffer.
Gezien de historische die-sizes van de topmodelen (600mm2 voor GTX280, 520mm2 voor 480/580) en de GK104 met maar ~300mm2 denk ik dat daar ook nog wel wat ruimte voor een groter broertje is. De GTX680 heeft een TDP van ~200W op stock en bied dus nog wat ruimte (580/480 hadden een TDP van 250W), zeker als de chip 10-15% efficiënter wordt.
Waarschijnlijk heeft NV door problemen (slechte yields of beperkte beschikbaarheid van 28nm capaciteit) ervoor gekozen om een GK100 uit te stellen en de concurrentie met AMD aan te gaan met een hoger geklokte GK104 dan misschien origineel was gepland. Als TSMC en NV het 28nm process goed onder de knie hebben/krijgen en de yields hoog genoeg zijn, zie ik geen reden waarom er geen GK100/GK110 zal komen. Veel tech sites speculeren dan ook dat de GK104 eigenlijk een GTX660 had moeten worden.
Wat is nou de beste manier? Eerst handmatig oude driver weghalen en nieuwe downloaden van Vividia site en installeren? Of WHQL via Windows update?
Lijkt me dat die oude driver rommel onnodig is en ruimte inneemt, maar wel weer read/writes op mijn SSD..
Ik installeer video drivers meestal handmatig ipv met windows update.
[ Voor 30% gewijzigd door Format-C op 13-10-2012 17:35 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat snap ik, maar waarom?Format-C schreef op zaterdag 13 oktober 2012 @ 17:34:
Driver de-installeren, driversweeper draaien, opnieuw opstarten, mapje nV kán je leegmaken (maakt niks uit, neemt alleen ruimte in beslag), nieuwe driver erop zetten, opnieuw opstarten, klaar.
Ik installeer video drivers meestal handmatig ipv met windows update.
Klopt, ik zelf heb ook altijd gezegd dat GK104 voor de GTX660 was bedoeld. En dat de GK110 voor de GTX680 bedoeld was, maar door problemen en vertragingen dat niet is gelukt. Anderzijds was de GTX580 origineel nooit bedoelt voor de consumenten markt. (Maar dat is een ander verhaal)VictordeHolland schreef op vrijdag 12 oktober 2012 @ 19:51:
[...]
Supercomputers en workstation gebruikers willen maar al te graag overstappen van 40nm kaarten (bijv. C2050 of C2070) naar energie efficiëntere/krachtigere 28nm kaarten. En ik kan me eigenlijk niet zo goed voorstellen dat ze een 'aparte' GPUGPU kaart zouden ontwikkelen speciaal voor het Tesla/Quadro segment. Zeker nu AMD zich ook meer aan het richten is op GPUGPU voor de consumentenmarkt met de 7xxx serie.
Uitgaande van de naamgeving zou ook veel logischer zijn dat 'Big Kepler' (GK100/GK110) een grote complexe chip wordt met een volledige featureset en GPUGPU capabilities, aangezien de GF100 (GTX480) en GF110 (GTX580) dit ook waren en op deze kaarten de Tesla's/Quadro's op gebaseerd zijn (of andersom).
De 'gamerskaarten' GF104 (GTX460), GF114 (GTX560) en GK104 (GTX680) missen een aantal van die fancy features waardoor er dure die-size bespaard wordt/is. Features die game prestaties niet erg beïnvloeden en waardoor de kaarten goedkoper gemaakt kunnen worden. Kleinere (minder complexe) die's geven immers hogere yields en er passen er meer in een waffer.
Gezien de historische die-sizes van de topmodelen (600mm2 voor GTX280, 520mm2 voor 480/580) en de GK104 met maar ~300mm2 denk ik dat daar ook nog wel wat ruimte voor een groter broertje is. De GTX680 heeft een TDP van ~200W op stock en bied dus nog wat ruimte (580/480 hadden een TDP van 250W), zeker als de chip 10-15% efficiënter wordt.
Waarschijnlijk heeft NV door problemen (slechte yields of beperkte beschikbaarheid van 28nm capaciteit) ervoor gekozen om een GK100 uit te stellen en de concurrentie met AMD aan te gaan met een hoger geklokte GK104 dan misschien origineel was gepland. Als TSMC en NV het 28nm process goed onder de knie hebben/krijgen en de yields hoog genoeg zijn, zie ik geen reden waarom er geen GK100/GK110 zal komen. Veel tech sites speculeren dan ook dat de GK104 eigenlijk een GTX660 had moeten worden.
Echter GK110 is er inmiddels onderweg! De Tesla K20(C2070 C2050) zal gebruik maken van de GK110. Met waarschijnlijk een TDP van 300watt. Helaas lijkt het er sterk op dat de GK110 exclusie voor de Tesla K20 is.
Bron: http://www.xbitlabs.com/n...sla_K20_Accelerators.html
Bron2: http://www.nvidia.com/obj...tion-solutions-tesla.html
Bron3: http://nl.hardware.info/n...ils-gk110-kepler-gpu-vrij
Bron: http://nl.hardware.info/n...ils-gk110-kepler-gpu-vrijNvidia heeft vooralsnog geen plannen om een GeForce kaart met deze chip naar de consumentenmarkt te brengen. In plaats daarvan focust het zich op de professionele markt, waar deze GPU in een Tesla K20 videokaart geplaatst zal worden. Naast de K20 komt Nvidia ook met een Tesla K10 kaart op de markt, die beschikt over een tweetal kleinere GK104 GPU's. Beide kaarten zullen een TDP hebben van tegen de 300 watt. De K10 moet per direct beschikbaar zijn, deze K20 op basis van de GK110 komt wat later.
Op de consumenten markt zit daar de GTX690, die het al erg goed doet, nVidia zou alleen maar in zijn eigen vaarwater komen met een chip die veel duurder is om te maken.
De profecionele variant van de GTX690, de Tesla K10 is er in mijn ogen puur om de tijd te overbruggen die de Tesla K20 te laat is. En dan alleen voor de single precision floating points, want de K20 gaat de double precision performance van de K10 echt ver 5 tot 10 voudigen.
De situatie voor nVidia is op dit moment best goed met de huidige line-up en gezien de volgende generatie nog steeds 'beperkt' is tot 28nm denk ik dat je de huidige line-up gewoon door kunt trekken met mogelijk +15% prestatie winst. (Voor de chips die daadwerkelijk vernieuwd worden)
+15% Bron: http://semiaccurate.com/2...ng-on-with-nvidias-gk114/
Bedankt!Anoniem: 304087 schreef op vrijdag 12 oktober 2012 @ 19:03:
[...]
Nou, bij deze zal ik hem dan ook maar weg halen, want wil hier geen problemen veroorzaken
Anoniem: 172410
De rek die een vernieuwing van GK104 naar GK114 kan geven, zal niet zo hoog zijn als dat je gewoon een GK110 van de plank pakt, en met 12 tot 14 ingeschakelde SMX'en en een 384bit membus theoretisch al zo'n 50% sneller bent. Dan nog de clock's en TDP balanceren en het vapor-chamber koelblok (van de gtx580) erop zetten, en klaar is je GTX780 die dan prima de concurrentie met AMD kan aangaan.Anoniem: 172410 schreef op zondag 14 oktober 2012 @ 01:51:
Gaat die GK110 voor consumenten nog komen? Nu begrijp ik er helemaal niets meer van. Sowieso komt AMD begin 2013 met de volgende generatie, is dat misschien een geschikt moment?
Maar eerst zal AMD met wat nieuws op de proppen komen, en kan Nvidia de Tesla K20 kaarten produceren, waarbij ze de minder gelukte Die's later op een GTX770/780 kunnen plaatsen. En dan bedoel ik niet defecte transistors wat veel hier denken, maar een te hoge TDP (warmteafgifte) cq. lekstromen voor toepassing als een K20.
Ik ga nog steeds voor een introductiedatum van Q1-2013, het blijft toch leuk dat speculeren...
[ Voor 4% gewijzigd door bitshape op 14-10-2012 11:36 ]
avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD
Anoniem: 172410
Fixed that for yat!n0 schreef op zondag 14 oktober 2012 @ 09:32:
Weet je wat nvidia AMD daarop zegt? 'dat bepalen wij wel'
Anoniem: 263922
Anoniem: 172410
Dat moet maar blijken. Vooralsnog heeft AMD op GPU-gebied erg veel in de melk te brokkelen.Anoniem: 263922 schreef op maandag 15 oktober 2012 @ 00:31:
Denk niet dat AMD zo veel te zeggen heeft, als je de laatste berichten over ontslagen er op na slaat...
als we op die tour gaan: Q2-2013. het duurt steeds langer voordat er nieuwe series uitkomen namelijkbitshape schreef op zondag 14 oktober 2012 @ 11:32:
[...]
Ik ga nog steeds voor een introductiedatum van Q1-2013, het blijft toch leuk dat speculeren...
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Anoniem: 245699
Het is denk ik niet zo dat de projecten die al ~1-2 jaar lopen nu opeens stop gezet worden... AMD zal dus gewoon verder gaan met het doorontwikkelen van nieuwe gpu's.Anoniem: 263922 schreef op maandag 15 oktober 2012 @ 00:31:
Denk niet dat AMD zo veel te zeggen heeft, als je de laatste berichten over ontslagen er op na slaat...
Anoniem: 304087
Indd, nvidia kan niet achter blijven echter als er maar 15% prestatie winsten zijn hoeft nvidia niet met wat nieuws te komen want dan gaan ze redelijk gelijk op met de 600 series, misschien wel iets sneller maar nietAnoniem: 172410 schreef op maandag 15 oktober 2012 @ 00:07:
[...]
Fixed that for yaAls AMD met een strakke nieuwe serie komt zal Nvidia toch wel moeten reageren om er niet te stevig van langs te krijgen.
zo snel dat nvidia kompleet links komt te liggen en dus gewoon een generatie over kunnen slaan.
1600mhz oid?
Vanavond ff kijken wat haalbaar is met hogere voltages
[ Voor 28% gewijzigd door A87 op 15-10-2012 13:08 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Anoniem: 304087
Bij welke koeling? 1400 is zoon beetje het hoogste wat ik op het www ben tegengekomen op lucht koeling.A87 schreef op maandag 15 oktober 2012 @ 13:07:
Weet iemand welke potentie een 680 heeft, zijnde als 28nm chip.
1600mhz oid?
Vanavond ff kijken wat haalbaar is met hogere voltages.
There has been a lot of speculation about Nvidia’s GK110 GPU, specifically whether it will end up on the desktop or not. The short answer is that yes, it will.
The GK110 architecture is not a good candidate for the desktop because the main advances over GK104 are massive DP FP power that consumers will never use and putting back in HPC features that were removed to save power. Some of the HPC tech will show up in consumer benchmarks, but nothing close to commensurate with the die area they consume. The transistors added to GK110 also burn power for very little added gain. Performance per watt is going to suffer badly.
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Dat had ik niet verwacht... de GK110 is een soort dubbele GK104 met meer GPGPU power, wat uiteraard het verbruik niet ten goede komt. (Vergelijk de HD7870 en de HD7970 op performance per watt per mm² en je ziet wat GPGPU kost)TomasH schreef op maandag 15 oktober 2012 @ 15:27:
Charlie doet ook zijn zegje: http://semiaccurate.com/2...ke-a-consumer-gk110-card/.
De 300watt GTX690 doet dit met performance per watt:

Het is gewoon niet mogelijk dat een GK110 gebaseerde kaart hier overheen komt. Tenzij nVidia de beste chips van de waffer niet voor de Tesla K20 reserveert. Maar zelfs dan zijn de resultaten in die afbeelding voor voornamelijk games, terwijl een meer GPGPU georiënteerde daar sowieso al een nadeel heeft.
Dan krijgen we straks een GTX780 gebaseerd op de GK110 en een GTX790 op twee GK114's. Waarbij de GTX780 makkelijk de prestaties van de GTX790 verdubbeld op GPGPU applicaties...
Anoniem: 245699
Hoeft niet, dat was de GTX580 immers ook niet. Het hoeft natuurlijk niet zo te zijn dat de GK110 dezelfde portie leakage heeft als de GF100 (GTX480) toendertijd. Wil niet zeggen dat de performance/watt natuurlijk weer een stuk minder goed wordt vergeleken met de huidige GK104 en weer meer te vergelijken zal zijn met de GF110 gok ik zo.yzx schreef op maandag 15 oktober 2012 @ 15:28:
Dus de GK110 wordt weer een centrale verwarming aldus Charlie
[ Voor 22% gewijzigd door Anoniem: 245699 op 15-10-2012 17:23 ]
Anoniem: 304087
Anoniem: 304087
[ Voor 22% gewijzigd door Anoniem: 304087 op 16-10-2012 13:07 ]
Anoniem: 304087
[ Voor 22% gewijzigd door Anoniem: 304087 op 16-10-2012 16:52 ]
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 304087
Zeker wel maar die is niet uitgekomen door te veel problemen waarschijnlijk of omdat AMD met niets snellers kwam en dus de echte high end hebben geschrapt. Waar ik persoonlijk wel van baal want had liever een snellere kaart gezien dan de gtx680.bwerg schreef op dinsdag 16 oktober 2012 @ 16:53:
Als de snelste single-GPU-kaart op aarde mid-range is, bestaat high-end dan überhaupt niet of zo?
Anoniem: 304087
Ik denk dat daar wel een grove berekening van is te maken, met nadruk op grof.TomasH schreef op dinsdag 16 oktober 2012 @ 17:02:
Moet ik gaan uitleggen dat GK100/110 helemaal niet veel extra gameprestaties had gebracht, omdat het net als GF100 meer een HPC-chip was?
Iets van de efficiëntie in games per transistor berekenen over de HD7870 en de HD7970, daar de verhouding van nemen, en die verhouding vervolgens gooien over de efficiëntie per transistor van de GTX680 en dat opschalen naar het aantal transistors die de GK110 zou hebben.
Dat zou een extreem grover berekening zijn, maar het lijkt me wel leuk dus laten we het maar meteen doen:
In de berekening gebruik ik de informatie uit de HD7970 GHz Edition revieuw op Techpowerup: http://www.techpowerup.co..._7970_GHz_Edition/28.html
De GHz Edition omdat dan beide kaarten dezelfde core clock hebben en verder ga ik uit van de relatieve performance op 1920*1200. (Ik zou graag die van alle resoluties gebruiken, maar de 1280x800 resolutie vind ik net wat teveel verstoren in deze performance klasse)
De HD7970 GHz Edition is 36,99% sneller dan een HD7870. 40,84
De HD7970 heeft 53,93% meer transistors dan de HD7870. (4.31 miljard vs 2.8 miljard)
De performance per transistor verhouding is dus: 91,5:100 ofwel 0,915:1
De GK110 zou 102,86% meer transistors hebben dan de GTX680 (GK104). (7.1 miljard vs 3.5 miljard)
De performance van de GK110 op gelijke clock zou dus 202,86*0,915 = 185.62 zijn van de GTX680.
De GK110 zou dus 85.62% sneller zijn ofwel de GTX680 zou 53,88% van de performance van een GK110 hebben.
Tegen over de GTX690 zou de GK110 22,5% sneller zijn in games
Berekend met: http://www.techpowerup.co...A/GeForce_GTX_690/28.html
Nogmaals dit is extreem grof, zo ga ik er grofweg vanuit dat de nVidia een vergelijkbare GPGPU stap maakt als AMD tussen de HD7870 en HD7970 doet, ga ik er vanuit dat de GK110 op gelijke clocks kan lopen als de GK104 en bovenal maak ik een vergelijking tussen twee extreem verschillende architecturen.
Die 85.62% en 22,5% zouden dus optimaal zijn, maar ik ga er zelf niet vanuit dat dat zo is, zo is het bijzonder lastig om genoeg geheugen bandbreedte voor zo een extreem grote chip te creëren, iets wat nVidia zelf ook zegt:
Bron: http://www.tomshardware.c...-k20-gk110-gpu,15683.htmlThe memory bus has been upgraded to 384-bit with six 64-bit controllers in parallel. As for memory capacity itself, Nvidia did not specify. When pushed for an answer, Huang said simply, "Not enough."
To clarify, he added, "As much fast memory as possible behind 384 bits," but no matter what, it will "likely not be enough, because the problems [the K20 is] trying to solve are so huge."
Ook ga ik er vanuit dat niet alle cuda units ingeschakeld zijn. (Ik denk dat ze maximaal 14 van de 15 inschakelen a la GTX480) en ik denk ook niet dat een chip van die grootte op gelijke clock kan werken als de GK104 terwijl de zuinigere versies er al uit zijn gehaald voor de Tesla K20.
Persoonlijk ga ik voor een best case scenario van 70% en 15% over de GTX680 en de GTX690.
Dit topic is gesloten.