[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 30 Laatste
Acties:
  • 125.311 views

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Haha :$

Zal de zin even hervormen: Nu was G80/G92 ook wel geweldig, daar zul je me nooit slecht over horen praten (met uitzondering van de slechte productie waarden *kuch*underfill*kuch* dan).

;)

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Je bent wel van het trollen hé. Volgens mij is het hier niet bedoeld om ouwe koeien uit de sloot te halen die niet waar zijn, tenminste niet volgens nieuws bronnen, enkel hier wat op tweakers en voor de rest van de wereld bijna nergens.

[ Voor 13% gewijzigd door Anoniem: 304087 op 05-10-2012 16:02 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Man, dat was een geintje en niet eens op jouw gericht. Wat is nu de reden dat je daar weer op ingaat? Waar hebben we het nou een pagina geleden nog over gehad?

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Dat we dit niet meer zouden doen, maar gebeurd toch weer daarom zeg ik het ook. Het gaat er verder niet om dat het niet op mij gericht was het gaat me er gewoon om dat er geen ouwe koeien meer uit de sloot worden gehaald zoals de g80 nep problemen, maar goed hier staat tweakers nog al bekend om en daarom geen videokaarten meer te testen krijgen, of nog maar amper.

[ Voor 69% gewijzigd door Anoniem: 304087 op 05-10-2012 16:07 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Nogmaals: het is niet aan jou gericht, dus waarom zeur jij eigenlijk? Ik zie Werelds er geen problemen mee hebben.. We gaan toch ook niet weer opnieuw diep in op de G80 / G92 problemen?

[ Voor 23% gewijzigd door Fid3lity op 05-10-2012 16:08 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Nogmaals we zouden het er niet meer over hebben of het nu wel of niet aan mij gericht is daar gaat het namelijk niet om over mij en ik zeur niet ik zeg wat er door de mods werd gezegt.

En nee we gaan er indd niet meer overnieuw mee beginnen, doe dat dan ook niet@!!

Edit

Ontopic maar weer, dit is veel leuker dan trollen en flamen ;)
Nvidia GTX 650 Ti krijgt meer Cuda-cores dan verwacht
http://www.eteknix.com/ne...-ti-specifications-change

[ Voor 71% gewijzigd door Anoniem: 304087 op 05-10-2012 16:13 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 16:08:
Nogmaals we zouden het er niet meer over hebben of het nu wel of niet aan mij gericht is, daar gaat het namelijk niet om over mij en ik zeur niet ik zeg wat er door de mods werd gezegt.
Wat er door de mods is gezegd komt neer op "hou de discussies on-topic en ga niet op elkaar persoonlijk in." En waar kom jij dan vervolgens mee aanzetten?
Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 16:01:
[...]

Je bent wel van het trollen hé.
Als je zo graag conform policy discussieert begin daar dan ook zelf mee.
En nee we gaan er indd niet meer overnieuw mee beginnen, doe dat dan ook niet@!!
Niemand doet dat.

[ Voor 8% gewijzigd door Fid3lity op 05-10-2012 16:15 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Zullen we er niet over door gaan en ontopic gaan zoals ik doe, dat trollen en flamen is gewoon nergens goed voor en dat was gewoon een troll en daar mee lok je flames uit.

[ Voor 50% gewijzigd door Anoniem: 304087 op 07-10-2012 10:34 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 16:04:
Dat we dit niet meer zouden doen, maar gebeurd toch weer daarom zeg ik het ook. Het gaat er verder niet om dat het niet op mij gericht was het gaat me er gewoon om dat er geen ouwe koeien meer uit de sloot worden gehaald zoals de g80 nep problemen, maar goed hier staat tweakers nog al bekend om en daarom geen videokaarten meer te testen krijgen, of nog maar amper.
Hoho, wacht even. Dat er geen oude koeien uit de sloot gehaald mogen worden is een ding, maar de G80 underfill een NEP probleem noemen? Er is zelfs een class-action suit door Dell, HP en Apple aangespannen tegen Nvidia waarin deze laatste heeft geschikt. Die schikking is nog geen twee jaar geleden (December 2010) en was weldegelijk een echt bestaand probleem. En in elk geval mijn 8800 was er door getroffen; met m'n eerste 9800 heb ik wellicht gewoon pech gehad, aangezien de tweede nog steeds probleemloos draait (of het is inderdaad een "redesign"). Het probleem was in elk geval weldegelijk echt en een grove fout van Nvidia's kant.

En om dit een ontopic spin te geven: gelukkig blijken dezelfde geruchten over GF100/GF110 vooralsnog niet te kloppen.

[ Voor 5% gewijzigd door Werelds op 05-10-2012 16:23 . Reden: typo ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Oké, het was dus een echt probleem en indd blij dat het tot nu toe nog niet weer is voorgekomen tot nu toe dan he.

Maar over de mid en low end van nvidia die komen nu veel te laat vind ik.
@ 550ti bvb. En ook nog eens zonder sli mogelijkheden.
Noel schreef op vrijdag 05 oktober 2012 @ 22:15:
[...]


Het is al de zoveelste keer dat je een bekend probleem afdoet als nep, leugens, anti-nvidia,... Get real.
Nee het is niet de zo veelste keer dat ik dingen ontken, heb er alleen een andere kijk op. Maar volgens de AMD fan is dat nog al zwaar geloof ik, ik word hier trouwens ook voor nvidia fan uitgemaakt?
Tja, als er eens een leuk nieuws artikel is die het bevestigd zal ik het eerder geloven. Als er maar een paar honderd kaarten (van de 10 duizenden) werken via een overtruuk zegt niet zo veel. Maar goed nog een die er lekker over door wil gaan blijkbaar.

[ Voor 97% gewijzigd door Anoniem: 304087 op 06-10-2012 11:44 ]


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 25-06 00:45
Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 16:20:
Oké, het was dus een echt probleem en indd blij dat het tot nu toe nog niet weer is voorgekomen tot nu toe dan he.
Het is al de zoveelste keer dat je een bekend probleem afdoet als nep, leugens, anti-nvidia,... Get real.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 16:20:

Nee het is niet de zo veelste keer dat ik dingen ontken, heb er alleen een andere kijk op. Maar volgens de AMD fan is dat nog al zwaar geloof ik?
Tja, als er eens een leuk nieuws artikel is die het bevestigd zal ik het eerder geloven. Als er maar een paar honderd kaarten (van de 10 duizenden) werken via een overtruuk zegt niet zo veel. Maar goed nog een die er lekker over door wil gaan blijkbaar.
Hiet is een van de vele voorbeelden. En van iedereen hier ben jij de enige met zo'n ontkennende houding dat je er gewoon niet aan toe lijkt te willen geven. Het is een serieus probleem en er is meer dan genoeg over te vinden.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 304087 schreef op vrijdag 05 oktober 2012 @ 16:20:
Nee het is niet de zo veelste keer dat ik dingen ontken, heb er alleen een andere kijk op. Maar volgens de AMD fan is dat nog al zwaar geloof ik?
Oke, ik vind dit soort discussies stom en reageer er daarom zo min mogelijk op. Maar ik wil even zeggen dat ik me erg erger aan het feit dat als jij gewoon feiten gemist hebt, dat "een andere mening" is, dat als mensen jouw meningen tegenspreken, dat een persoonlijke aanval zou zijn, en dat mensen die daar tegenin gaan dan wél weer AMD-fans zijn, over persoonlijke aanvallen gesproken. Als je de details van een onderwerp niet kent (zoals de details over G80, waar meerdere nieuwsartikelen en statements van bedrijven als apple over geweest zijn), reageer dan niet, net zoals ik vaak ergens niet op in ga als ik mijn eigen mening niet gefundeerd genoeg vind.

Als je het er gewoon bij had gelaten dat g80 al lang niet meer relevant is, en dat dat niet genoemd hoeft te worden, dan had ik je helemaal gelijk gegeven, en dat een inhoudelijke discussie nu echt geen zin meer heeft wil ik bij deze dus ook even zeggen, niemand heeft daar nog wat aan en alles is al 10x uitgekauwd.

En nee, ook dit is geen trollen en geen persoonlijke aanval. Dit gaat over de manier van discussiëren.

[ Voor 19% gewijzigd door bwerg op 06-10-2012 11:26 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Zijn er al test van de GK110 te vinden want de K20 is geloof ik al lang aan het werk in een supercomputer?
Dit monster zal momenteel wel de snelste gpgpu zijn.
Noel schreef op vrijdag 05 oktober 2012 @ 22:15:
[...]


Het is al de zoveelste keer dat je een bekend probleem afdoet als nep, leugens, anti-nvidia,... Get real.
Een ook al zou dat zo zijn (wat natuurlijk niet zo is), het is niet verboden. ;)

[ Voor 68% gewijzigd door Anoniem: 304087 op 07-10-2012 11:03 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Weetje, waarom zoek je er zelf niet eens naar?

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Lees eens terug jullie halen mij zelf de woorden uit de mond. :X :)
Ik ga er daarom ook maar niet meer op in want je leest toch alleen wat je wil lezen
en voor de rest heb je oogkleppen op.
3XPER7 schreef op zaterdag 06 oktober 2012 @ 11:11:
[...]


Hiet is een van de vele voorbeelden. En van iedereen hier ben jij de enige met zo'n ontkennende houding dat je er gewoon niet aan toe lijkt te willen geven. Het is een serieus probleem en er is meer dan genoeg over te vinden.
Ik ontken niets als ik niet weet dat er geen nieuws over is waar nvidia of dergelijke de boel onderzoekt en het probleem boven water ligt.

[ Voor 255% gewijzigd door Anoniem: 304087 op 07-10-2012 10:38 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

bitshape schreef op donderdag 04 oktober 2012 @ 22:17:
[...]

GK110 gaat wel komen in de vorm van GTX780, maart/april 2013. Misschien dat hij wel iets vroeger komt om AMD dwars te zitten, maar dat is niet zeker.
Als je nu al twijfelt, en E500,- is een flink bedrag, zou ik zeker even geduld hebben om dat te belonen met het nieuwstevanhetnieuwste met een 384bit memory-bus. :9
Las net een stukje dat de gtx780 niet een gk110 gpu zal bevatten. Ik kan alleen niet de pagina openen want die laad niet bij mij.

Acties:
  • 0 Henk 'm!

  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

Anoniem: 304087 schreef op zaterdag 06 oktober 2012 @ 12:06:
[...]

Las net een stukje dat de gtx780 niet een gk110 gpu zal bevatten. Ik kan alleen niet de pagina openen want die laad niet bij mij.
Als je wat zegt, doe het dan goed (een linkje zou fijn zijn... :O ):
Rumor: NVIDIA GeForce GTX 780 GPU will not be based on GK110

Earlier this month the web circulating rumors suggesting that the future Nvidia GeForce GTX 780 GPU would be based on the GK110 nuckeo , the epitome of the unreleased second generation Kepler architecture , and a few days ago Nvidia revealed itself which will be available in configurations with between 2496-2880 shader processors in Tesla cGPUs K20 Series.

OBR Hardware informs us, these rumors are false, because the future geforce GTX 780 will be based on a new core GK110 completely different; core on which promise to provide more details later, but there’s no need to speculate too much to deduce that This is the core GK112 released yet .

So far little is known about GK112, but it would be very difficult to deduce that following the nomenclature of Nvidia gk112 would be based on the same variant of Kepler-focused architecture used in GK110 GPGPU computing, so it is likely that GPCs possesses four (576 shader processors each shaders in total 2304), each consisting of three SMX, which in turn have 192 shader processors each.

We still have very little data that allow us to deduce the number of texture units (TMUs) and rendering (ROPs), but one could assume that would use a memory bus of 384 bits and perhaps this new core API has support DirectX 11.1 (Kepler supports first-generation DirectX 11). GK112 cropped versions of other products could shape future Nvidia GeForce GTX 770 and 760 Ti. We will keep you informed.
"and perhaps this new core API has support DirectX 11.1 (Kepler supports first-generation DirectX 11)"
Is dat zo? Naar mijn weten support de huidige Kepler-lineup Dx11.1, GT610/620/630 (Fermi) natuurlijk uitgezonderd. Met dit soort uitspraken neem ik juist het gehele artikel met een korreltje zout...
OBR Hardware: Exclusive! - Some GeForce GTX 7x0 details ...

At this moment there are no known details about the GeForce 600 successors and I will not say that I know anything. One thing is certain, and the information comes from the traditionally well-informed source. Successor GeForce GTX 670/680 will NOT be based on core GK110. These cards will be based on a completely different, new core ... more detail later.
Het blijven overigens geruchten, maar Nvidia kan best een consumer-versie uitbrengen waarin eea is gestript en daardoor hogere kloks te behalen zijn. Het blijft vooralsnog speculeren, muv de 384bits memory-bus. ;)

[ Voor 7% gewijzigd door bitshape op 06-10-2012 15:10 ]

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Wat weten we uberhaubt van een GK100, GK110 of GK112 behalve niets, nVidia kan hem dus ook prima een ander naampje geven en niemand die het door heeft omdat we toch niet weten wat het is. Artikel gaat dan ook nergens over, maar komt dan ook van OBR natuurlijk. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

Van GK110 weten we ondertussen al heel veel: NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf
Kepler GK110 was built first and foremost for Tesla, and its goal was to be the highest performing
parallel computing microprocessor in the world. GK110 not only greatly exceeds the raw compute
horsepower delivered by Fermi, but it does so efficiently, consuming significantly less power and
generating much less heat output.

A full Kepler GK110 implementation includes 15 SMX units and six 64‐bit memory controllers. Different
products will use different configurations of GK110. For example, some products may deploy 13 or 14
SMXs.

[ Voor 58% gewijzigd door bitshape op 06-10-2012 16:34 ]

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
O ja, kan natuurlijk ook zijn dat er nooit een GK100 is geweest of dat ze de naampjes hebben opgeschuift. GK100 is GK110 geworden en GK110 is GK112 geworden. Alles is mogelijk en niks is zeker. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 304087

We weten iig zeker dat de gk110 een tesla k20 is die al gebruikt word.
bitshape schreef op zaterdag 06 oktober 2012 @ 14:32:
[...]

Als je wat zegt, doe het dan goed (een linkje zou fijn zijn... :O ):
Mee eens maar de link deed het niet en kon hem ook niet eens kopieren omdat hij vast liep. ;)

Edit

Review gtx650Ti is gelekt.
http://wccftech.com/nvidi...d-7850-gaming-benchmarks/

Overall performance
Afbeeldingslocatie: http://wccftech.com/wp-content/uploads/2012/10/GTX-650-Ti-Overall-Ratin.gif

[ Voor 94% gewijzigd door Anoniem: 304087 op 07-10-2012 10:52 ]


Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 14:21

yzx

Bewijst dit niet weer iets zoals waarom de 550Ti niet verkocht door de 68xx serie van AMD all over again?

Gezien de prijs in de regio van de 7850 gaat liggen

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Dat is nog afwachten wat deze 650 ti gaat kosten, bron toevallig? Hoe kom je er trouwens bij dat er geen
550Ti's zijn verkocht, bron, want naar mijn weten verkopen die momenteel nog?

Als ik zo kijk naar de performance zit dat iig wel goed met de 650 ti. Die komt boven de concurerende kaarten uit (7770) hij mag dan ook iets duurder gaan kosten

Edit

Ik heb hem maar even als nieuwstip ingestuurd.

[ Voor 52% gewijzigd door Anoniem: 304087 op 07-10-2012 10:32 ]


Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 14:21

yzx

And I quote from your source
The GTX 650 Ti uses a small PCB design which makes use of a single 6-Pin connector to power up and display outputs include Dual Link DVI and HDMI port. The card would be priced around $159-$179 at launch depending on vendors which puts it against the Radeon HD 7850 since it has the same price range after the recent price-cuts.
Jah maar je bent ofwel niet op de hoogte van wat er in de pc wereld is of je wilt echt nvidia als je trager gaat maar even veel betaalt ;)

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

Anoniem: 172410

Of je gaat voor CUDA en/of PhysX natuurlijk :)

Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 14:21

yzx

Anoniem: 172410 schreef op zondag 07 oktober 2012 @ 10:34:
Of je gaat voor CUDA en/of PhysX natuurlijk :)
Bedoelde ik met het echt willen van Nvidia omwillen van die eventuele voordelen ;)

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

Anoniem: 172410

Dan wil je geen Nvidia, maar CUDA of PhysX ;)

Acties:
  • 0 Henk 'm!

Anoniem: 304087

yzx schreef op zondag 07 oktober 2012 @ 10:33:
And I quote from your source

[...]


Jah maar je bent ofwel niet op de hoogte van wat er in de pc wereld is of je wilt echt nvidia als je trager gaat maar even veel betaalt ;)
Je hebt er gewoon bronnen bij te vermelen, word mij ook telekens gevraagd anders heb je er niets aan blijkt volgens 3expert.
Persoonlijk vind ik het niet zo'n probleem. Verder zijn dit natuurlijk nog geen vaste prijzen natuurlijk puur speculatief en daar kunnen we dus nog niet zo veel mee, zoals ook vermeld staat. Ik verwacht dat hij tussen de 7770 en 7850 in gaat zitten, lijkt me ook vrij logisch en zit de 550ti op een goede concurerende plek.

[ Voor 15% gewijzigd door Anoniem: 304087 op 07-10-2012 10:59 ]


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 304087 schreef op zondag 07 oktober 2012 @ 10:44:
[...]

Je hebt er gewoon bronnen bij te vermelen, word mij ook telekens gevraagd anders heb je er niets aan blijkt volgens 3expert.
Hij zegt dat het het artikel is die je zelf net aanhaalde. ;)

Maar inderdaad, die prijzen kunnen altijd nog veranderen. Een prijs van tevoren voorspellen gaat vaak fout. Als het wat goedkoper wordt dan wat ze in dat artikel vermelden kan het wel goed zijn, anders lijkt het gewoon te duur.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Aa ik zie het nu, vast er over heen gelezen.
Nu nog enkel die van de 550ti :)

[ Voor 28% gewijzigd door Anoniem: 304087 op 07-10-2012 11:09 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

edit

[ Voor 156% gewijzigd door A87 op 08-10-2012 12:39 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

NVIDIA Explains GTX 680 Voltage Control Restrictions
The reason we have a limit on max voltage is very simply to prevent damage to the GPU chips. At NVIDIA we know that our customers want to push their GPUs to the limit. We are all for it, and as a matter of fact NVIDIA has always prioritized support for hardware enthusiasts by providing tools to access hardware settings and by supporting our board partners in creating overclocked enthusiast products. Leading up to the GeForce GTX 680 release for example, we worked closely with developers of 3rd party overclocking utilities to make sure they fully supported GeForce GTX 680 and GPU Boost on the day of launch.

Acties:
  • 0 Henk 'm!

Anoniem: 172410

Zou het een resultaat zijn van de GK110 die niet helemaal uit de verf kwam en de huidige chips die dus iets verder gepusht zijn dan in eerste instantie nodig geacht werd?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 03-07 19:15
-The_Mask- schreef op zaterdag 06 oktober 2012 @ 16:36:
O ja, kan natuurlijk ook zijn dat er nooit een GK100 is geweest of dat ze de naampjes hebben opgeschuift. GK100 is GK110 geworden en GK110 is GK112 geworden. Alles is mogelijk en niks is zeker. :p
Dit zou nog net kunnen, aangezien ze XY2 nog niet hebben gebruikt. Als je dan echter kijkt naar release schedule slaat het als een tang op een varken, ze hebben de hele reeks top-down gedaan, maar GK100 zou dan ruim een half jaar laten gekomen zijn.

Nee, dan schrijf ik dat gerucht dat de 780 geen volwaardige GK110 zou zijn eerder toe aan een licht gecastreerde chip, met wat uitgeschakelde clusters of een GK112 die net als XY4 net iets anders is ingedeeld :)

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ik vind het helemaal niet logisch gezien gpu's sowieso kapot gaan bij te veel overvoltage en nu in eens is dat een probleem bij een kaart die heel erg makkelijk te overvolten is. Bij een kaart waar het wat moeilijker gaat zoals de dc2 is het geen probleem?

Maar goed het gaat dus niet om brakke gpu's maar omdat er een automatisch voltage control op zit
die al tot de max van zijn kunnen gaat voor normaal gebruik. Dit is trouwens altijd zo bij gpu's dus niets nieuws onder de zon.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Echt geen zin om te wachten gister toch maar een 680 Lightning besteld . verkoop hem wel weer als de GK 110 komt, whehe :9~ .. OF de GK110 Lightning.

50 euro meer dan de goedkoopste reference! Goed moment >:).
2e Lightning kaart wordt dit. Vind het altijd weer de moeite waard om zon stuk art te zien.

Zijn de yields nu ook beter? Dus dat je overclockers hoger komen? Of niet....
Aangezien de 680 nogal slecht leverbaar was een lange poos...

[ Voor 125% gewijzigd door A87 op 08-10-2012 11:49 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Nu TSMC de boel wat op orde heeft is het indd wat beter geworden. Ze konden eerder niet genoeg maken omdat ze daar zelf 28nm problemen hadden met de machines geloof ik maar dat heeft veder niets met de oc potentie te maken want de chips zijn goed.

Genoeg over te vinden iig.
https://www.google.nl/#hl...365e9d29&biw=1920&bih=935

[ Voor 36% gewijzigd door Anoniem: 304087 op 08-10-2012 12:12 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Tweakers review 650TI

reviews: GTX 650 Ti: goedkoop gamen

HWI review 650TI

http://nl.hardware.info/r...x-650-ti-review-conclusie

Beetje de zelfde conclusie en wat ik na de gelekte review ook al zij.

[ Voor 13% gewijzigd door Anoniem: 304087 op 09-10-2012 15:19 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

En nog een paar: TPU 1, TPU 2, LR. Conclusie is ongeveer: mooi kaartje voor 1680 x 1050, 1080p is in sommige gevallen net teveel gevraagd. Zit niemand verder mee, dit kaartje vult mooi het gat tussen le HD 7770 et le HD 7850 op.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Opzich jammer dat er geen sli mogelijkheid is. Hier dwing je mee om toch voor een 7770 te gaan of sterkere kaarten zoals de gtx660ti of hd 7850. Of ik zeg nu wat geks, dat kan ook.

[ Voor 11% gewijzigd door Anoniem: 304087 op 09-10-2012 16:06 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Vind het al heel wat dat je een 660ti in 3 way SLI mag draaien

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Anoniem: 304087 schreef op dinsdag 09 oktober 2012 @ 15:59:
Opzich jammer dat er geen sli mogelijkheid is. Hier dwing je mee om toch voor een 7770 te gaan of sterkere kaarten zoals de gtx660ti of hd 7850. Of ik zeg nu wat geks, dat kan ook.
Voor SLI of CF zou ik toch wel minimaal voor een 2GB kaart gaan.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Daar ben ik het mee eens als je op hogere resoluties dan 1920x1080 gaat gamen maar tot 1920x1080 kan sli uitkomen om een hogere fps te halen en of hogere instellingen. Er komen verder ook nog 2GB varianten uit.

SLI review 560TI als vorbeeld.
http://www.guru3d.com/art..._560_ti_sli_review,9.html

[ Voor 20% gewijzigd door Anoniem: 304087 op 09-10-2012 17:32 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Waarom is die review nu van belang :?

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Om te laten zien dat je bij weinig performance nog nut kan hebben aan sli, gezien deze kaart ongeveer net zo presteerd als een 560TI 1GB.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Anoniem: 304087 schreef op dinsdag 09 oktober 2012 @ 17:05:
Daar ben ik het mee eens als je op hogere resoluties dan 1920x1080 gaat gamen maar tot 1920x1080 kan sli uitkomen om een hogere fps te halen en of hogere instellingen. Er komen verder ook nog 2GB varianten uit.

SLI review 560TI
http://www.guru3d.com/art..._560_ti_sli_review,9.html
In deze video zeggen ze ook dat SLI er niet opzit om product kosten laag te houden, en omdat het ook niet echt iets is voor de doelgroep die bij de GTX650Ti hoort.
Video: YouTube: NVIDIA GeForce GTX 650 Ti FAQs vanaf 1:18.

Geen SLI ondersteunen zou kunnen schelen in de lagen PCB die nodig zijn, verder schrijft TPU:
NVIDIA's GK106 processor is produced on a 28 nm process at TSMC, Taiwan. The transistor count is 2.54 billion. Compared to the GK106 on the GTX 660, the package size (green stuff) is reduced. The only explanation for this is that the pin count has been lowered, most probably for a narrower memory interface, and possibly due to reduced power requirements.
Bron: http://www.techpowerup.co...0_Ti_Power_Edition/4.html

Het is goed mogelijk dat de GK106 die bedoeld is voor de GTX650Ti ook geen pinnen heeft voor SLI en dat het fysiek dus niet eens mogelijk is om SLI toe te voegen aan deze kaarten.
(Tenzij je een GTX660 chip pakt, maar waarom zou een fabrikant dat doen?)

Tevens haal je de GTX560 TI aan, maar dat is wel een kaart van een heel ander kaliber, die werd gepositioneerd tegen de HD6870, niet tegen de HD6770, en heeft ondanks dat hij 1GB VRAM heeft toch een bandbreedte van 128GB/s. Dat is op geen enkele manier vergelijkbaar met een GTX550Ti met 86GB/s die in een lager segment gepositioneerd is.
De GTX460 786MB had ook 86GB/s, welke prima schaalde in SLI dus die zou je beter kunnen aanhalen, maar vergeet niet dat dat toch zeker twee jaar geleden is. Destijds was dat een mooie oplossing als je niet op hoger dan 1920x1200 speelde.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Anoniem: 304087 schreef op dinsdag 09 oktober 2012 @ 17:27:
Om te laten zien dat je bij weinig performance nog nut kan hebben aan sli, gezien deze kaart ongeveer net zo presteerd als een 560TI 1GB.
Dus dan moeten in de toekomst de GTX 750, 840 en 920 ook maar SLI hebben? ;)

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Van mij moet niets,de 550TI had ook sli en ook een bredere bus geloof ik, maar dat doet de sli prestaties niet onder. Toet, duidelijk.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Toettoetdaan schreef op dinsdag 09 oktober 2012 @ 17:35:
Geen SLI ondersteunen zou kunnen schelen in de lagen PCB die nodig zijn, verder schrijft TPU:
Zou er echt zoveel bespaard kunnen worden met het weghalen van SLI? AMD heeft Crossfire mogenlijkheden op een kaart als de HD6670, waar alle data gewoon door de PCI-E poorten wordt geperst, en je dus geen apart Crossfire kabeltje (en dus ook geen aansluitpunt) nodig hebt.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
dahakon schreef op dinsdag 09 oktober 2012 @ 20:04:
[...]


Zou er echt zoveel bespaard kunnen worden met het weghalen van SLI? AMD heeft Crossfire mogenlijkheden op een kaart als de HD6670, waar alle data gewoon door de PCI-E poorten wordt geperst, en je dus geen apart Crossfire kabeltje (en dus ook geen aansluitpunt) nodig hebt.
Dat is afhankelijk voor welke techniek de fabrikant kiest en wat ze daarvoor willen opofferen.

De SLI connector is 26 pinnen, dat betekend dat ze met het weglaten van SLI 26 verbindingen minder moeten aanleggen vanaf de chip naar de connector. Dat kan zomaar een PCB laag schelen.

De voordelen van SLI en CF bridges zijn dat je ongeveer 1GB bandbreedte zonder vertragingen hebt tussen verschillende chips. Vroeger werkte SLI ook zonder bridge, maar dan had je twee kaarten die op PCI-e x8 liepen terwijl ze met bridge wel op x16 pruttelde. (ik weet niet of het nog steeds zonder bridge kan)
Nu worden die bridgen vooral gebruikt voor de informatie die zo snel mogelijk op de andere chip aanwezig moet zijn. Denk aan synchronisatie signalen.
Als je dat via het chipset verzend (over de PCI-e lanes) dan zit daar een relatief veel grotere vertraging in.

AMD kiest er met zijn CrossFireX voor dat je een kaart kunt combineren met een interne chip, welke fysiek geen CF aansluiting heeft. (Ze zouden wel een CF aansluiting op het moederbord kunnen maken, maar dat zou ook weer zijn eigen on-praktisch eigenschappen met zich meebrengen)
AMD heeft er dus voor gekozen om die directe verbinding op te geven om CF in dit soort opstellingen mogelijk te maken. Echter hiervoor zullen ze waarschijnlijk wel een beetje CF scaling moeten inleveren.

nVidia hoeft dit soort technieken niet te ontwikkelen omdat ze geen chipsets(meer) of (x86)APU maken met een GPU er in die gecombineerd zou kunnen worden.
Desondanks is het voornamelijk een keuze van nVidia, ik ben er zeker van dat als ze het echt willen, dat ze het ook mogelijk kunnen maken zonder bridge.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 18:05

XanderDrake

Build the future!

Nieuwe WHQL Drivers uit:

http://www.geforce.co.uk/drivers/results/49976/nvidiaupdate
Versie 306.97 - WHQL

Zeer handig voor Windows 8, GTX 650 Ti, en mensen die Borderlands 2 en de nieuwe WoW uitbreiding willen spelen :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 14:21

yzx

XanderDrake schreef op woensdag 10 oktober 2012 @ 18:40:
Nieuwe WHQL Drivers uit:

http://www.geforce.co.uk/drivers/results/49976/nvidiaupdate
Versie 306.97 - WHQL

Zeer handig voor Windows 8, GTX 650 Ti, en mensen die Borderlands 2 en de nieuwe WoW uitbreiding willen spelen :)
Strak dat ze extra performance uit de WoW engine hebben kunnen krijgen ;) dacht altijd dat het ver op de CPU lag

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Heb ze ook gelijk maar even geinstalleerd vaak zitten er meer performance winsten in dan word aangegeven.
Installeren verloopt ook lekker via driver update en dan clean install en zonder de pc op nieuw op te hoeven starten na het updaten.

Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 29-06 13:32
Waarom wordt er nooit aangegeven wat de winsten zijn voor de GTX670 kaarten?
Strategie? Wel zie ik steeds improvements voor de GTX680 en de GTX660Ti.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
t!n0 schreef op woensdag 10 oktober 2012 @ 20:23:
Waarom wordt er nooit aangegeven wat de winsten zijn voor de GTX670 kaarten?
Strategie? Wel zie ik steeds improvements voor de GTX680 en de GTX660Ti.
Volgens mij doen ze bij AMD ook maar telkens HD7800 en HD7700 (ipv HD7870,HD7850 enz...)

Het wordt anders wel een erg onoverzichtelijk lijstje.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Omdat Lupp me er toch een beetje op wees, post ik het ook hier ;)

Volgens Charlie van SemiAccurate zal de GTX780 (of hoe de GK114 ook mag gaan heten) 15% prestatie winst tegenover de GK104 hebben en op zijn vroegst beschikbaar komen in maart 2013. Maar waarschijnlijk grootschalig leverbaar in april/juni 2013.
Bron: http://semiaccurate.com/2...ng-on-with-nvidias-gk114/

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Pardon? Ik zie daar nergens de naam GTX 780 voorbij komen, alleen GK-114.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
3XPER7 schreef op vrijdag 12 oktober 2012 @ 16:50:
Pardon? Ik zie daar nergens de naam GTX 780 voorbij komen, alleen GK-114.
GTX780 (of hoe de GK114 ook mag gaan heten)
Het is in der daad een beetje een persoonlijke aanname, maar gezien ze nog steeds op 28nm blijven en het TDP budget niet magisch is vergroot kun je er redelijk vanuit gaan dat er niet nog een andere chip boven zit die de GTX780 naam gaat dragen.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Toettoetdaan schreef op vrijdag 12 oktober 2012 @ 16:38:
[...]

Welk onderwerp? Dat Charlie soms zijn voorkeur uit voor een bepaalde fabrikant of dat de volgende generatie GPU's nog steeds 28nm zijn? Dat lijkt me allemaal wel triviaal. ;)
GK104. Daar was Charlie goed over te spreken.

Verder verwacht ik deze keer een GK110 als gtx780 omdat dat mij het meest logisch lijkt echter
blijft het speculeren welke gpu het word met welke naam. Nvidia is weer eens stil, maar dat is ook niet zo
gek als ze niet waar kunnen maken wat ze zeggen blijkt uit het verleden.

[ Voor 56% gewijzigd door Anoniem: 304087 op 12-10-2012 19:03 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

die Slide zag ik al een jaar geleden ofso.
Lijkt me niet gek als de GK 110 in maart komt

[ Voor 36% gewijzigd door A87 op 12-10-2012 18:32 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Anoniem: 304087 schreef op vrijdag 12 oktober 2012 @ 18:03:
[...]


GK104. Daar was Charlie goed over te spreken.

Verder verwacht ik deze keer een GK110 als gtx780 omdat dat mij het meest logisch lijkt echter
blijft het speculeren welke gpu het word met welke naam. Nvidia is weer eens stil, maar dat is ook niet zo
gek als ze niet waar kunnen maken wat ze zeggen blijkt uit het verleden.
Bedenk wel dat ze, omdat ze nog steeds op 28nm zullen werken, niet veel ruimte over hebben wat TDP betreft. Een GK110 achtige GPU zou veel verbruik en die-space 'verspillen' aan GPGPU achtige dingen en vervolgens een teleurstellende winst boeken op de GK104 wat game's betreft.

Persoonlijk denk ik dat we nog even moeten wachten op het volgende procedé voordat we een GK110 achtige chip weer in de consumenten line-up zien.
Anoniem: 304087 schreef op vrijdag 12 oktober 2012 @ 18:03:
Edit

Rumor: NVIDIA Skipping GeForce 600 Series - GTX 780 Performance Slide Shown
[afbeelding]

http://www.legitreviews.com/news/12046/
Sun, Dec 18, 2011
Ik kan het niet meer vinden, maar in het verleden zijn hier al teveel woorden aan vuil gemaakt.
Dus ik wil je vriendelijk doch dringend verzoeken dit plaatje niet meer aan te halen.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Maar kan maar zo kloppen en het is gewoon een gerucht waar niemand zich druk om hoeft te maken. Vraag me ook af wat er mis is met dat soort plaatjes die je overal wel op fora gepost ziet worden, met in het achterhoofd dat het niet meer dan een gerucht is? Vind de prestaties zelfs nog tegenvallen op dat plaatje.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Anoniem: 304087 schreef op vrijdag 12 oktober 2012 @ 18:41:
Maar kan maar zo kloppen en het is gewoon een gerucht waar niemand zich druk om hoeft te maken. Vraag me ook af wat er mis is met dat soort plaatjes die je overal wel op fora gepost ziet worden, met in het achterhoofd dat het niet meer dan een gerucht is? Vind de prestaties zelfs nog tegenvallen op dat plaatje.
Het probleem is meer dat als genoeg mensen valse geruchten verspreiden dat we dan allemaal op het eind geen fatsoenlijke inschatting meer kunnen maken. Ook worden dit soort geruchten uiteindelijk door grotere site's opgepikt waarvan je normaal verwacht dat ze goede info posten.
Én dat zorgt er weer voor dat mensen valse informatie in hun berekeningen en argumentatie mee nemen.

Het zorgt dus voor een hoop verspilling van tijd en topic pagina's, hier kun je de vorige discussie over dit plaatje vinden: Anoniem: 429466 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54"

Acties:
  • 0 Henk 'm!

  • rickyy
  • Registratie: Mei 2007
  • Laatst online: 10-02 11:10
Anoniem: 304087 schreef op vrijdag 12 oktober 2012 @ 18:41:
Maar kan maar zo kloppen en het is gewoon een gerucht waar niemand zich druk om hoeft te maken. Vraag me ook af wat er mis is met dat soort plaatjes die je overal wel op fora gepost ziet worden, met in het achterhoofd dat het niet meer dan een gerucht is? Vind de prestaties zelfs nog tegenvallen op dat plaatje.
Begrijp je zelf wel wat je zegt als je het terugleest?

Core i5 4670k, 8gb, MSI GTX460 HAWK TA


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Toettoetdaan schreef op vrijdag 12 oktober 2012 @ 18:53:
[...]

Het probleem is meer dat als genoeg mensen valse geruchten verspreiden dat we dan allemaal op het eind geen fatsoenlijke inschatting meer kunnen maken. Ook worden dit soort geruchten uiteindelijk door grotere site's opgepikt waarvan je normaal verwacht dat ze goede info posten.
Én dat zorgt er weer voor dat mensen valse informatie in hun berekeningen en argumentatie mee nemen.

Het zorgt dus voor een hoop verspilling van tijd en topic pagina's, hier kun je de vorige discussie over dit plaatje vinden: Anoniem: 429466 in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54"
Nou, bij deze zal ik hem dan ook maar weg halen, want wil hier geen problemen veroorzaken ;)
rickyy schreef op vrijdag 12 oktober 2012 @ 18:54:
[...]


Begrijp je zelf wel wat je zegt als je het terugleest?
100%

[ Voor 12% gewijzigd door Anoniem: 304087 op 12-10-2012 19:06 ]


Acties:
  • 0 Henk 'm!

  • VictordeHolland
  • Registratie: Februari 2011
  • Laatst online: 05-07 12:15
Toettoetdaan schreef op vrijdag 12 oktober 2012 @ 18:32:
Bedenk wel dat ze, omdat ze nog steeds op 28nm zullen werken, niet veel ruimte over hebben wat TDP betreft. Een GK110 achtige GPU zou veel verbruik en die-space 'verspillen' aan GPGPU achtige dingen en vervolgens een teleurstellende winst boeken op de GK104 wat game's betreft.

Persoonlijk denk ik dat we nog even moeten wachten op het volgende procedé voordat we een GK110 achtige chip weer in de consumenten line-up zien.
Supercomputers en workstation gebruikers willen maar al te graag overstappen van 40nm kaarten (bijv. C2050 of C2070) naar energie efficiëntere/krachtigere 28nm kaarten. En ik kan me eigenlijk niet zo goed voorstellen dat ze een 'aparte' GPUGPU kaart zouden ontwikkelen speciaal voor het Tesla/Quadro segment. Zeker nu AMD zich ook meer aan het richten is op GPUGPU voor de consumentenmarkt met de 7xxx serie.

Uitgaande van de naamgeving zou ook veel logischer zijn dat 'Big Kepler' (GK100/GK110) een grote complexe chip wordt met een volledige featureset en GPUGPU capabilities, aangezien de GF100 (GTX480) en GF110 (GTX580) dit ook waren en op deze kaarten de Tesla's/Quadro's op gebaseerd zijn (of andersom).

De 'gamerskaarten' GF104 (GTX460), GF114 (GTX560) en GK104 (GTX680) missen een aantal van die fancy features waardoor er dure die-size bespaard wordt/is. Features die game prestaties niet erg beïnvloeden en waardoor de kaarten goedkoper gemaakt kunnen worden. Kleinere (minder complexe) die's geven immers hogere yields en er passen er meer in een waffer.

Gezien de historische die-sizes van de topmodelen (600mm2 voor GTX280, 520mm2 voor 480/580) en de GK104 met maar ~300mm2 denk ik dat daar ook nog wel wat ruimte voor een groter broertje is. De GTX680 heeft een TDP van ~200W op stock en bied dus nog wat ruimte (580/480 hadden een TDP van 250W), zeker als de chip 10-15% efficiënter wordt.

Waarschijnlijk heeft NV door problemen (slechte yields of beperkte beschikbaarheid van 28nm capaciteit) ervoor gekozen om een GK100 uit te stellen en de concurrentie met AMD aan te gaan met een hoger geklokte GK104 dan misschien origineel was gepland. Als TSMC en NV het 28nm process goed onder de knie hebben/krijgen en de yields hoog genoeg zijn, zie ik geen reden waarom er geen GK100/GK110 zal komen. Veel tech sites speculeren dan ook dat de GK104 eigenlijk een GTX660 had moeten worden.

Acties:
  • 0 Henk 'm!

  • Jovas
  • Registratie: December 2003
  • Laatst online: 06-07 10:38
Ik heb net voor de gein de nieuwste WHQL via Windows update binnengehaald. Gaat op zich prima, maar zag wel dat de oude drivers op de SSD staan in de NVIDIA map..

Wat is nou de beste manier? Eerst handmatig oude driver weghalen en nieuwe downloaden van Vividia site en installeren? Of WHQL via Windows update?

Lijkt me dat die oude driver rommel onnodig is en ruimte inneemt, maar wel weer read/writes op mijn SSD..

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 14:45

Format-C

Tracing Rays

Driver de-installeren, driversweeper draaien, opnieuw opstarten, mapje nV kán je leegmaken (maakt niks uit, neemt alleen ruimte in beslag), nieuwe driver erop zetten, opnieuw opstarten, klaar. ;)

Ik installeer video drivers meestal handmatig ipv met windows update. :)

[ Voor 30% gewijzigd door Format-C op 13-10-2012 17:35 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Jovas
  • Registratie: December 2003
  • Laatst online: 06-07 10:38
Format-C schreef op zaterdag 13 oktober 2012 @ 17:34:
Driver de-installeren, driversweeper draaien, opnieuw opstarten, mapje nV kán je leegmaken (maakt niks uit, neemt alleen ruimte in beslag), nieuwe driver erop zetten, opnieuw opstarten, klaar. ;)

Ik installeer video drivers meestal handmatig ipv met windows update. :)
Dat snap ik, maar waarom?

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
VictordeHolland schreef op vrijdag 12 oktober 2012 @ 19:51:
[...]

Supercomputers en workstation gebruikers willen maar al te graag overstappen van 40nm kaarten (bijv. C2050 of C2070) naar energie efficiëntere/krachtigere 28nm kaarten. En ik kan me eigenlijk niet zo goed voorstellen dat ze een 'aparte' GPUGPU kaart zouden ontwikkelen speciaal voor het Tesla/Quadro segment. Zeker nu AMD zich ook meer aan het richten is op GPUGPU voor de consumentenmarkt met de 7xxx serie.

Uitgaande van de naamgeving zou ook veel logischer zijn dat 'Big Kepler' (GK100/GK110) een grote complexe chip wordt met een volledige featureset en GPUGPU capabilities, aangezien de GF100 (GTX480) en GF110 (GTX580) dit ook waren en op deze kaarten de Tesla's/Quadro's op gebaseerd zijn (of andersom).

De 'gamerskaarten' GF104 (GTX460), GF114 (GTX560) en GK104 (GTX680) missen een aantal van die fancy features waardoor er dure die-size bespaard wordt/is. Features die game prestaties niet erg beïnvloeden en waardoor de kaarten goedkoper gemaakt kunnen worden. Kleinere (minder complexe) die's geven immers hogere yields en er passen er meer in een waffer.

Gezien de historische die-sizes van de topmodelen (600mm2 voor GTX280, 520mm2 voor 480/580) en de GK104 met maar ~300mm2 denk ik dat daar ook nog wel wat ruimte voor een groter broertje is. De GTX680 heeft een TDP van ~200W op stock en bied dus nog wat ruimte (580/480 hadden een TDP van 250W), zeker als de chip 10-15% efficiënter wordt.

Waarschijnlijk heeft NV door problemen (slechte yields of beperkte beschikbaarheid van 28nm capaciteit) ervoor gekozen om een GK100 uit te stellen en de concurrentie met AMD aan te gaan met een hoger geklokte GK104 dan misschien origineel was gepland. Als TSMC en NV het 28nm process goed onder de knie hebben/krijgen en de yields hoog genoeg zijn, zie ik geen reden waarom er geen GK100/GK110 zal komen. Veel tech sites speculeren dan ook dat de GK104 eigenlijk een GTX660 had moeten worden.
Klopt, ik zelf heb ook altijd gezegd dat GK104 voor de GTX660 was bedoeld. En dat de GK110 voor de GTX680 bedoeld was, maar door problemen en vertragingen dat niet is gelukt. Anderzijds was de GTX580 origineel nooit bedoelt voor de consumenten markt. (Maar dat is een ander verhaal)

Echter GK110 is er inmiddels onderweg! De Tesla K20(C2070 C2050) zal gebruik maken van de GK110. Met waarschijnlijk een TDP van 300watt. Helaas lijkt het er sterk op dat de GK110 exclusie voor de Tesla K20 is.
Bron: http://www.xbitlabs.com/n...sla_K20_Accelerators.html
Bron2: http://www.nvidia.com/obj...tion-solutions-tesla.html
Bron3: http://nl.hardware.info/n...ils-gk110-kepler-gpu-vrij
Nvidia heeft vooralsnog geen plannen om een GeForce kaart met deze chip naar de consumentenmarkt te brengen. In plaats daarvan focust het zich op de professionele markt, waar deze GPU in een Tesla K20 videokaart geplaatst zal worden. Naast de K20 komt Nvidia ook met een Tesla K10 kaart op de markt, die beschikt over een tweetal kleinere GK104 GPU's. Beide kaarten zullen een TDP hebben van tegen de 300 watt. De K10 moet per direct beschikbaar zijn, deze K20 op basis van de GK110 komt wat later.
Bron: http://nl.hardware.info/n...ils-gk110-kepler-gpu-vrij

Op de consumenten markt zit daar de GTX690, die het al erg goed doet, nVidia zou alleen maar in zijn eigen vaarwater komen met een chip die veel duurder is om te maken.
De profecionele variant van de GTX690, de Tesla K10 is er in mijn ogen puur om de tijd te overbruggen die de Tesla K20 te laat is. En dan alleen voor de single precision floating points, want de K20 gaat de double precision performance van de K10 echt ver 5 tot 10 voudigen.

De situatie voor nVidia is op dit moment best goed met de huidige line-up en gezien de volgende generatie nog steeds 'beperkt' is tot 28nm denk ik dat je de huidige line-up gewoon door kunt trekken met mogelijk +15% prestatie winst. (Voor de chips die daadwerkelijk vernieuwd worden)
+15% Bron: http://semiaccurate.com/2...ng-on-with-nvidias-gk114/
Anoniem: 304087 schreef op vrijdag 12 oktober 2012 @ 19:03:
[...]

Nou, bij deze zal ik hem dan ook maar weg halen, want wil hier geen problemen veroorzaken ;)
Bedankt! :)

Acties:
  • 0 Henk 'm!

Anoniem: 172410

Gaat die GK110 voor consumenten nog komen? Nu begrijp ik er helemaal niets meer van. Sowieso komt AMD begin 2013 met de volgende generatie, is dat misschien een geschikt moment?

Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 29-06 13:32
Weet je wat nvidia daarop zegt? 'dat bepalen wij wel' :+

Acties:
  • 0 Henk 'm!

  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

Anoniem: 172410 schreef op zondag 14 oktober 2012 @ 01:51:
Gaat die GK110 voor consumenten nog komen? Nu begrijp ik er helemaal niets meer van. Sowieso komt AMD begin 2013 met de volgende generatie, is dat misschien een geschikt moment?
De rek die een vernieuwing van GK104 naar GK114 kan geven, zal niet zo hoog zijn als dat je gewoon een GK110 van de plank pakt, en met 12 tot 14 ingeschakelde SMX'en en een 384bit membus theoretisch al zo'n 50% sneller bent. Dan nog de clock's en TDP balanceren en het vapor-chamber koelblok (van de gtx580) erop zetten, en klaar is je GTX780 die dan prima de concurrentie met AMD kan aangaan.

Maar eerst zal AMD met wat nieuws op de proppen komen, en kan Nvidia de Tesla K20 kaarten produceren, waarbij ze de minder gelukte Die's later op een GTX770/780 kunnen plaatsen. En dan bedoel ik niet defecte transistors wat veel hier denken, maar een te hoge TDP (warmteafgifte) cq. lekstromen voor toepassing als een K20.

Ik ga nog steeds voor een introductiedatum van Q1-2013, het blijft toch leuk dat speculeren... :P

[ Voor 4% gewijzigd door bitshape op 14-10-2012 11:36 ]

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD


Acties:
  • 0 Henk 'm!

Anoniem: 172410

t!n0 schreef op zondag 14 oktober 2012 @ 09:32:
Weet je wat nvidia AMD daarop zegt? 'dat bepalen wij wel' :+
Fixed that for ya :> Als AMD met een strakke nieuwe serie komt zal Nvidia toch wel moeten reageren om er niet te stevig van langs te krijgen.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Denk niet dat AMD zo veel te zeggen heeft, als je de laatste berichten over ontslagen er op na slaat...

Acties:
  • 0 Henk 'm!

Anoniem: 172410

Anoniem: 263922 schreef op maandag 15 oktober 2012 @ 00:31:
Denk niet dat AMD zo veel te zeggen heeft, als je de laatste berichten over ontslagen er op na slaat...
Dat moet maar blijken. Vooralsnog heeft AMD op GPU-gebied erg veel in de melk te brokkelen.

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 03-07 20:03

superwashandje

grofheid alom

bitshape schreef op zondag 14 oktober 2012 @ 11:32:
[...]
Ik ga nog steeds voor een introductiedatum van Q1-2013, het blijft toch leuk dat speculeren... :P
als we op die tour gaan: Q2-2013. het duurt steeds langer voordat er nieuwe series uitkomen namelijk ;) van de andere kant: dit zullen geen nieuwe architecturen worden dus misschien lukt het ze hiermee wel om enigszins "op tijd" te zijn.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Anoniem: 263922 schreef op maandag 15 oktober 2012 @ 00:31:
Denk niet dat AMD zo veel te zeggen heeft, als je de laatste berichten over ontslagen er op na slaat...
Het is denk ik niet zo dat de projecten die al ~1-2 jaar lopen nu opeens stop gezet worden... AMD zal dus gewoon verder gaan met het doorontwikkelen van nieuwe gpu's.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Anoniem: 172410 schreef op maandag 15 oktober 2012 @ 00:07:
[...]

Fixed that for ya :> Als AMD met een strakke nieuwe serie komt zal Nvidia toch wel moeten reageren om er niet te stevig van langs te krijgen.
Indd, nvidia kan niet achter blijven echter als er maar 15% prestatie winsten zijn hoeft nvidia niet met wat nieuws te komen want dan gaan ze redelijk gelijk op met de 600 series, misschien wel iets sneller maar niet
zo snel dat nvidia kompleet links komt te liggen en dus gewoon een generatie over kunnen slaan.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Weet iemand welke potentie een 680 heeft, zijnde als 28nm chip.
1600mhz oid?

Vanavond ff kijken wat haalbaar is met hogere voltages 8).

[ Voor 28% gewijzigd door A87 op 15-10-2012 13:08 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ligt er aan welke kaart je hebt en of je een goed overklockbare gpu er op heb zitten.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
A87 schreef op maandag 15 oktober 2012 @ 13:07:
Weet iemand welke potentie een 680 heeft, zijnde als 28nm chip.
1600mhz oid?

Vanavond ff kijken wat haalbaar is met hogere voltages 8).
Bij welke koeling? 1400 is zoon beetje het hoogste wat ik op het www ben tegengekomen op lucht koeling.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 13:29

Tomas Hochstenbach

Redacteur componenten
Charlie doet ook zijn zegje: http://semiaccurate.com/2...ke-a-consumer-gk110-card/.
There has been a lot of speculation about Nvidia’s GK110 GPU, specifically whether it will end up on the desktop or not. The short answer is that yes, it will.
The GK110 architecture is not a good candidate for the desktop because the main advances over GK104 are massive DP FP power that consumers will never use and putting back in HPC features that were removed to save power. Some of the HPC tech will show up in consumer benchmarks, but nothing close to commensurate with the die area they consume. The transistors added to GK110 also burn power for very little added gain. Performance per watt is going to suffer badly.

Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 14:21

yzx

Dus de GK110 wordt weer een centrale verwarming aldus Charlie

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Dat had ik niet verwacht... de GK110 is een soort dubbele GK104 met meer GPGPU power, wat uiteraard het verbruik niet ten goede komt. (Vergelijk de HD7870 en de HD7970 op performance per watt per mm² en je ziet wat GPGPU kost)
De 300watt GTX690 doet dit met performance per watt:
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_690/images/perfwatt_2560.gif
Het is gewoon niet mogelijk dat een GK110 gebaseerde kaart hier overheen komt. Tenzij nVidia de beste chips van de waffer niet voor de Tesla K20 reserveert. Maar zelfs dan zijn de resultaten in die afbeelding voor voornamelijk games, terwijl een meer GPGPU georiënteerde daar sowieso al een nadeel heeft.

Dan krijgen we straks een GTX780 gebaseerd op de GK110 en een GTX790 op twee GK114's. Waarbij de GTX780 makkelijk de prestaties van de GTX790 verdubbeld op GPGPU applicaties...

Acties:
  • 0 Henk 'm!

Anoniem: 245699

yzx schreef op maandag 15 oktober 2012 @ 15:28:
Dus de GK110 wordt weer een centrale verwarming aldus Charlie
Hoeft niet, dat was de GTX580 immers ook niet. Het hoeft natuurlijk niet zo te zijn dat de GK110 dezelfde portie leakage heeft als de GF100 (GTX480) toendertijd. Wil niet zeggen dat de performance/watt natuurlijk weer een stuk minder goed wordt vergeleken met de huidige GK104 en weer meer te vergelijken zal zijn met de GF110 gok ik zo.

[ Voor 22% gewijzigd door Anoniem: 245699 op 15-10-2012 17:23 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Je gaat toch ook geen appels met peren vergelijken want dat is dat gk104 wat mid end is vs gk110.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 13:29

Tomas Hochstenbach

Redacteur componenten
NVIDIA heeft GK104 ingezet als high-end GPU, en daar de specs ook op aangepast.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Wel ingezet ja maar was er niet voor bedoeld in eerste instantie, kun je na gaan een mid end gpu die high end prestaties levererd, ik blijf de GK104 ook zien als mid end.

[ Voor 22% gewijzigd door Anoniem: 304087 op 16-10-2012 13:07 ]


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 13:29

Tomas Hochstenbach

Redacteur componenten
Ehm, reken er maar op dat het vroeg genoeg duidelijk was dat GK104 de basis ging worden voor de GTX 680. Dat anderhalf jaar geleden er nog roadmaps waren die GK104 als mid-range bestempelden, kan best. Roadmaps als bijvoorbeeld die van die Chinese/Japanse site met een 4 (ben even de naam kwijt) zijn verzonnen, op basis van de geruchten die er toen waren.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Klopt het was al bekend dat het een gtx680 zou worden maar als de gk100 door ging ging de GK104 door als gtx660 (TI) zonder al te veel veranderingen gezien het oc potentie wat de gk104 heeft. Voor mij persoonlijk blijft het een midend kaart waar voor de gk104 ooit bedoeld was, dit kun je ook wel terug vinden in de smallere memory bus, kleinere die size en weinig gpgpu kracht.

[ Voor 22% gewijzigd door Anoniem: 304087 op 16-10-2012 16:52 ]


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 13:29

Tomas Hochstenbach

Redacteur componenten
Het maakt niet echt uit wat voor ons (topiclezers/pers wat dan ook) bekend was, maar meer dat NVIDIA al lang wist dat het de GTX 680 werd. Ze kunnen daar ook niet toveren, even wat shaders erbij binnen een paar weken/maanden :p.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Als de snelste single-GPU-kaart op aarde mid-range is, bestaat high-end dan überhaupt niet of zo? :P

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Anoniem: 304087

bwerg schreef op dinsdag 16 oktober 2012 @ 16:53:
Als de snelste single-GPU-kaart op aarde mid-range is, bestaat high-end dan überhaupt niet of zo? :P
Zeker wel maar die is niet uitgekomen door te veel problemen waarschijnlijk of omdat AMD met niets snellers kwam en dus de echte high end hebben geschrapt. Waar ik persoonlijk wel van baal want had liever een snellere kaart gezien dan de gtx680.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 13:29

Tomas Hochstenbach

Redacteur componenten
Moet ik gaan uitleggen dat GK100/110 helemaal niet veel extra gameprestaties had gebracht, omdat het net als GF100 meer een HPC-chip was?

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ik zeg ook niet dat het veel is maar meer is altijd welkom en in bepaalde games zou het wel heel wat meer kunnen zijn vanwege direct compute

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
TomasH schreef op dinsdag 16 oktober 2012 @ 17:02:
Moet ik gaan uitleggen dat GK100/110 helemaal niet veel extra gameprestaties had gebracht, omdat het net als GF100 meer een HPC-chip was?
Ik denk dat daar wel een grove berekening van is te maken, met nadruk op grof.

Iets van de efficiëntie in games per transistor berekenen over de HD7870 en de HD7970, daar de verhouding van nemen, en die verhouding vervolgens gooien over de efficiëntie per transistor van de GTX680 en dat opschalen naar het aantal transistors die de GK110 zou hebben.

Dat zou een extreem grover berekening zijn, maar het lijkt me wel leuk dus laten we het maar meteen doen:
In de berekening gebruik ik de informatie uit de HD7970 GHz Edition revieuw op Techpowerup: http://www.techpowerup.co..._7970_GHz_Edition/28.html
De GHz Edition omdat dan beide kaarten dezelfde core clock hebben en verder ga ik uit van de relatieve performance op 1920*1200. (Ik zou graag die van alle resoluties gebruiken, maar de 1280x800 resolutie vind ik net wat teveel verstoren in deze performance klasse)

De HD7970 GHz Edition is 36,99% sneller dan een HD7870. 40,84
De HD7970 heeft 53,93% meer transistors dan de HD7870. (4.31 miljard vs 2.8 miljard)
De performance per transistor verhouding is dus: 91,5:100 ofwel 0,915:1

De GK110 zou 102,86% meer transistors hebben dan de GTX680 (GK104). (7.1 miljard vs 3.5 miljard)
De performance van de GK110 op gelijke clock zou dus 202,86*0,915 = 185.62 zijn van de GTX680.
De GK110 zou dus 85.62% sneller zijn ofwel de GTX680 zou 53,88% van de performance van een GK110 hebben.
Tegen over de GTX690 zou de GK110 22,5% sneller zijn in games :)
Berekend met: http://www.techpowerup.co...A/GeForce_GTX_690/28.html

Nogmaals dit is extreem grof, zo ga ik er grofweg vanuit dat de nVidia een vergelijkbare GPGPU stap maakt als AMD tussen de HD7870 en HD7970 doet, ga ik er vanuit dat de GK110 op gelijke clocks kan lopen als de GK104 en bovenal maak ik een vergelijking tussen twee extreem verschillende architecturen.

Die 85.62% en 22,5% zouden dus optimaal zijn, maar ik ga er zelf niet vanuit dat dat zo is, zo is het bijzonder lastig om genoeg geheugen bandbreedte voor zo een extreem grote chip te creëren, iets wat nVidia zelf ook zegt:
The memory bus has been upgraded to 384-bit with six 64-bit controllers in parallel. As for memory capacity itself, Nvidia did not specify. When pushed for an answer, Huang said simply, "Not enough."

To clarify, he added, "As much fast memory as possible behind 384 bits," but no matter what, it will "likely not be enough, because the problems [the K20 is] trying to solve are so huge."
Bron: http://www.tomshardware.c...-k20-gk110-gpu,15683.html

Ook ga ik er vanuit dat niet alle cuda units ingeschakeld zijn. (Ik denk dat ze maximaal 14 van de 15 inschakelen a la GTX480) en ik denk ook niet dat een chip van die grootte op gelijke clock kan werken als de GK104 terwijl de zuinigere versies er al uit zijn gehaald voor de Tesla K20.

Persoonlijk ga ik voor een best case scenario van 70% en 15% over de GTX680 en de GTX690.
Pagina: 1 ... 4 ... 30 Laatste

Dit topic is gesloten.