mathijs55 schreef op woensdag 28 januari 2015 @ 11:32:
Nooit geweten dat Tweakers zulke zeikerds kunnen zijn over iets wat helemaal niet relevant is voor dit topic.
Oh wacht, dat is al jaren zo. ;w

Ik heb jullie niet gezien in mijn topic toen ik om advies vroeg.
Welk topic? Voeding advies en informatie topic - Deel 30 niks gezien hier.

Edit: heb het topic gevonden, maar ook daar was al goed advies gegeven over de voeding, maar dat sloeg je volledig in de wind. Dus zielig doen heeft echt geen zin.

Edit: jullie wel zo flauw doen, maar dat was iig de enige nuttige replay. Zonder FCAT kun je namelijk geen goede meting doen...

[Voor 25% gewijzigd door -The_Mask- op 28-01-2015 12:41]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 23:15

hidde212

Free your mind...

Even tussendoor: het schijnt dat je helemaal geen nVidia Gsynctm monitor nodig hebt maar dat de technologie gewoon gebaseerd is op een Adaptive-Sync Process waar VESA al jaren geleden mee kwam. De persoon uit onderstaande link heeft de drivers aangepast en het lijkt op verschillende beeldschermen zonder module te werken, zoals op de pricewatch: Samsung S22D390H Zwart.

http://gamenab.net/2015/0...sync-technology-freesync/
http://gamenab.net/2015/0...working-on-every-monitor/

...and your ass will follow


  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 27-05 14:18

Jeroenneman

Pre-order/Early Acces: Nee!

hidde212 schreef op woensdag 28 januari 2015 @ 11:52:
Even tussendoor: het schijnt dat je helemaal geen nVidia Gsynctm monitor nodig hebt maar dat de technologie gewoon gebaseerd is op een Adaptive-Sync Process waar VESA al jaren geleden mee kwam. De persoon uit onderstaande link heeft de drivers aangepast en het lijkt op verschillende beeldschermen zonder module te werken, zoals op de pricewatch: Samsung S22D390H Zwart.

http://gamenab.net/2015/0...sync-technology-freesync/
http://gamenab.net/2015/0...working-on-every-monitor/
Uhuh.

Je kan iets selecteren in de driver, joepie. Maar werkt het dan ook echt? |:(

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • nvidia666
  • Registratie: November 2011
  • Laatst online: 10-05 18:21
Ik begrijp de velen mensen die zich genaaid voelen door de 970 memory probleem

Maar (om het rustig te zeggen) ik denk niet dat je niet tot 4 GB gaat vol krijgen en nog speelbare fps gaat hebben. al moet ik zeggen dat mss in sli of 3 sli meer kans op maakt.

Maar wie weet gaat Nvidia een nieuwe driver uitbrengen die nog beter de onderscheiding maakt tussen dingen die snel geheugen of traag geheugen nodig hebben en zo er eigenlijk praktisch niets van merkt.

Dat er beetje commotie is versta ik wel maar dat er moord en brand is voor een heel dorp terwijl het maar een alleenstaand huis in brand staat versta ik niet.


Btw je kan het ook beetje vergelijken met het probleem van de 780 Lightning waar een zowel Hynix als elpida geheugenchips gebruikt werden met als gevolg dat die elpida veel minder goed overclockten.

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


  • nvidia666
  • Registratie: November 2011
  • Laatst online: 10-05 18:21
Voila zoals ik dacht ;)

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


  • DervishD
  • Registratie: Januari 2013
  • Laatst online: 17-05 16:48
Jeroenneman schreef op woensdag 28 januari 2015 @ 11:56:
[...]


Uhuh.

Je kan iets selecteren in de driver, joepie. Maar werkt het dan ook echt? |:(
Volgens een vriend van mij werkt de aangepaste driver. Verbaast me trouwens niets wat Nvidia doet met G-sync. Ze willen zoals altijd de markt op slot zetten en alle concurrentie uitroeien. Voor mij de reden dat ik al jaren AMD kaarten gebruik.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
hidde212 schreef op woensdag 28 januari 2015 @ 11:52:
Even tussendoor: het schijnt dat je helemaal geen nVidia Gsynctm monitor nodig hebt maar dat de technologie gewoon gebaseerd is op een Adaptive-Sync Process waar VESA al jaren geleden mee kwam. De persoon uit onderstaande link heeft de drivers aangepast en het lijkt op verschillende beeldschermen zonder module te werken, zoals op de pricewatch: Samsung S22D390H Zwart.

http://gamenab.net/2015/0...sync-technology-freesync/
http://gamenab.net/2015/0...working-on-every-monitor/
Hoewel het best kan zijn dat dit werkt (zal het zelf proberen als ik tijd heb, zou wel geweldig zijn), is de verklaring en tekst volledig onzin. Wat een slecht verhaal.

Allereerst: het "Adaptive-Sync Process" waar hij het over heeft bestaat helemaal geen jaren, dat bestaat pas sinds vorig jaar als een uitbreiding op DP 1.2. Het is een apart protocol dat wél ondersteund moet worden door de scaler in de monitor.

AMD heeft vorig jaar een proof-of-concept demo gegeven met twee laptops als antwoord op G-Sync. Daarvoor gebruikten ze inderdaad eDP; om precies te zijn minimaal eDP 1.3, want daar zit PSR (Panel Self Refresh) pas in, wat een cruciaal onderdeel is van het hele verhaal. PSR is echter géén onderdeel van DP 1.2 of 1.2a. Dat betekent dat het helemaal geen gegeven is dat dit verhaal op élke DP 1.2 monitor werkt.

Dat Nvidia diezelfde technieken gebruik kunnen we vrij zeker van zijn, want ook Adaptive-Sync is op die technieken gebaseerd; beide zijn een protocol om al die technieken heen. Dat is nodig omdat anders iedereen die dingen anders gebruikt. G-Sync en A-S lijken ook erg sterk op elkaar, dat is alleen maar logisch.

Wat wel zo is, is dat de gebruikte scalers in laptops en monitors vaak dezelfde zijn en het dus best kan dat een desktop monitor ook de onderdelen van eDP 1.3 ondersteunt. Dat is blijkbaar het geval in zijn Samsung monitor.


Edit: en waarom hij er Adaptive V-Sync bij haalt weet ik ook niet. Heeft er niets mee te maken.

Edit #2: http://gamenab.net/2015/0...on-of-the-modded-drivers/

Hij is er inmiddels ook achter dat DP1.2 niet betekent dat het gaat werken :P

[Voor 7% gewijzigd door Werelds op 28-01-2015 13:51]


  • Steef
  • Registratie: November 2004
  • Laatst online: 02-05 19:34

Steef

GoT's Most Eaten

hidde212 schreef op woensdag 28 januari 2015 @ 11:55:
Even tussendoor: het schijnt dat je helemaal geen nVidia Gsynctm monitor nodig hebt maar dat de technologie gewoon gebaseerd is op een Adaptive-Sync Process waar VESA al jaren geleden mee kwam. De persoon uit onderstaande link heeft de drivers aangepast en het lijkt op verschillende beeldschermen zonder module te werken, zoals op de pricewatch: Samsung S22D390H Zwart.

http://gamenab.net/2015/0...sync-technology-freesync/
http://gamenab.net/2015/0...working-on-every-monitor/
Heeft iemand hier dit daadwerkelijk getest?
http://www.overclock.net/...ree-on-dp-1-2-monitors/10
We started looking into this over at PCPer. There are some glaring issues with this guys thinking / results:
  • He claims the Altera FPGA was chosen because of its 'security features', but it's really nothing more than a SHA-1 engine that could be enabled (an FPGA is meant to be a programmable device with all sorts of uses, and some of those uses might include wanting hardware SHA-1 processing). GSYNC doesn't SHA-1 encrypt the bitstream and these GSYNC FPGA's are very likely not touching that optional portion of the chip.
  • His first 'proof' video was shot with a game running in a window. G-SYNC / adaptive sync doesn't work that way (full screen only).
  • Aside from the fact that it is very hard to actually show differences between VSYNC-on and GSYNC when pointing a camera at a PC display, closely examining his second video shows the same type of VSYNC judder present when he selects VSYNC or GSYNC.
    Comments are disabled for both of his videos.
It looks like this guy just tweaked the drivers to let him enable GSYNC in software, regardless of the connected display, but it doesn't seem to actually be doing anything different in the end.

Sony A6600 | 16 - 55G F2.8 | 70 - 350G


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
Ik heb wat met malventano gePM'd op OC.net, zij dachten in dezelfde richting als ik (scalers die toevallig ook eDP features ondersteunen), maar zoals ik het van hem hoor kan het nooit helemaal werken omdat de minimum rate gewaarborgd wordt door de G-Sync module, niet door de driver.

Heb nog nergens gelezen dat het voor iemand werkt (zelf hoef ik het niet te testen; FG2421 werkt het niet mee volgens meerdere personen) :)

[Voor 20% gewijzigd door Werelds op 28-01-2015 23:49]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Dank voor delen. Conclusie:
though I am not confident enough in my results that show higher variance with the GTX 970 than with the GTX 980 at extremely high image quality settings to state that the memory division is the cause, I think the results in both BF4 and COD leave the door open for it as a probable cause. Essentially, while I don't believe the performance results and experiences I saw are proof that this is occurring, it does mean that I cannot disprove it either.
De resultaten zijn te variabel om iets concluderends te zeggen over de laatste 512mb van de GTX 970. Op de settings om het te emuleren zit je vaak al onder de 30FPS en soms zelfs onder de 25FPS dus is het haast onmogelijk om praktisch de extra stutter van de lagere bandbreedte op te merken. Daarbij kunnen de variaties in frametimes tussen de GTX 980 en de GTX 970 ook komen door het feit dat de GTX 980 sneller is.

Dus, storm in glas water, die nooit een echte storm was geworden als nVidia gewoon openheid toonde :O

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 22:44
die nooit een echte storm was geworden als nVidia gewoon openheid toonde
So true...

[Voor 77% gewijzigd door Puppetmaster op 29-01-2015 08:41]

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
XanderDrake schreef op donderdag 29 januari 2015 @ 08:29:
[...]

Dank voor delen. Conclusie:

[...]


De resultaten zijn te variabel om iets concluderends te zeggen over de laatste 512mb van de GTX 970. Op de settings om het te emuleren zit je vaak al onder de 30FPS en soms zelfs onder de 25FPS dus is het haast onmogelijk om praktisch de extra stutter van de lagere bandbreedte op te merken. Daarbij kunnen de variaties in frametimes tussen de GTX 980 en de GTX 970 ook komen door het feit dat de GTX 980 sneller is.

Dus, storm in glas water, die nooit een echte storm was geworden als nVidia gewoon openheid toonde :O
Met name dat laatste ja, als ze gewoon de kaart als 3.5gb plus extra hadden geadverteerd dan was dit nooit gebeurt...
I spent nearly the entirety of two days testing the GeForce GTX 970 and trying to replicate some of the consumer complaints centered around the memory issue we discussed all week. I would say my results are more open ended than I expected. In both BF4 and in CoD: Advanced Warfare I was able to find performance settings that indicated the GTX 970 was more apt to stutter than the GTX 980. In both cases, the in-game settings were exceptionally high, going in the sub-25 FPS range and those just aren't realistic. A PC gamer isn't going to run at those frame rates on purpose and thus I can't quite convince myself to get upset about it.
Ze gaan dus waarschijnlijk ook nog SLI testen. Hier wat meetresultaten van een user die GTX970 in SLI hebben getest.
January 28, 2015 | 08:36 PM - Posted by GoldenTiger (not verified)

Did a little testing of my own using afterburner's frametime readings and other monitoring tools... it's not FCAT but it's very accurate regardless. Here's what I got...


  • D33F
  • Registratie: September 2006
  • Laatst online: 27-05 17:02

D33F

Tweelingtemmer

Dat bericht is nog van woensdag. Tussentijds is aangegeven door Nvidia (PeterS) dat ze geen specifieke driver gaan ontwikkelen voor de GTX 970 met betrekking tot geheugen allocatie gezien ze nu weer van mening zijn dat er niks mis is met de GTX 970, en er derhalve geen specifieke drivers nodig zijn om dit probleem op te lossen.

Edit: aangevuld met reacties uit de thread waaruit is op te maken dat het statement met betrekking tot de drivers is ingetrokken.



Verder heb ik de gehele thread gevolgd sinds het begin, en PeterS van Nvidia heeft uiteindelijk ergens gezegd dat de te ontwikkelen driver een misinterpretatie was en dat hij eigenlijk bedoelde dat ze continue hun drivers voor alle GPU's blijven verbeteren zoals dat altijd al het geval was.

[Voor 28% gewijzigd door D33F op 31-01-2015 15:56]

Lies are obvious to read because the truth is already written


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Opmerkelijk, Nvidia heeft dus een G-Sync driver ontwikkeld die gebruik maakt van de DisplayPort Adaptive Sync technologie. Wel verontrustend dat <30fps er nog issues zijn, maar dit is wel goed nieuws voor Nvidia eigenaars als Adaptive Sync supported schermen ook (een deel van) de voordelen van G-Sync kunnen gebruiken zonder de meerprijs of beperkte keuze ervan.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Of, aangezien het hier om een alpha-driver gaat specifiek voor systeem/laptop bouwers, is de controle voor G-sync nog niet ingeschakeld en is G-sync niets anders dan Adaptive Sync met een DRM-module ertussen om te kunnen cashen.

[Voor 12% gewijzigd door dahakon op 02-02-2015 06:22]


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Welke DRM module ? Wat voor nut heeft DRM met deze techniek ?

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
Phuncz schreef op zaterdag 31 januari 2015 @ 16:04:
[...]

Opmerkelijk, Nvidia heeft dus een G-Sync driver ontwikkeld die gebruik maakt van de DisplayPort Adaptive Sync technologie. Wel verontrustend dat <30fps er nog issues zijn, maar dit is wel goed nieuws voor Nvidia eigenaars als Adaptive Sync supported schermen ook (een deel van) de voordelen van G-Sync kunnen gebruiken zonder de meerprijs of beperkte keuze ervan.
Nee. Die laptops hebben géén Adaptive Sync. Die laptops hebben eDP 1.4 - dat ze daarmee hetzelfde klaar kunnen spelen wisten we al van AMD's proof of concept, maar het is niet AS. AS gaat verder dan eDP, vooral qua timing - even afgezien van het feit dat het met eDP om een stuk of 7 verschillende features gaat die er in moeten zitten, terwijl het met AS een enkele feature flag is. Ik kan het ook andersom duidelijk proberen te maken; de features die in eDP 1.4 zitten en waar AMD/deze driver gebruik van maken zaten niet in DP 1.2 en zitten nog steeds in in 1.2a of zelfs 1.3 en maken ook geen deel uit van Adaptive Sync als aparte features.

Je mag deze dingen simpelweg niet onder dezelfde noemer gooien omdat ze zo sterk op elkaar lijken.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Phuncz schreef op maandag 02 februari 2015 @ 07:31:
Welke DRM module ? Wat voor nut heeft DRM met deze techniek ?
Wat voor nut heeft DRM voor muziek, video en boeken? DRM is een middel om tegen betaling bepaalde functionaliteit te ontsluiten, zij het muziek op een bepaald apparaat beluisteren of een variabele framerate op je monitor te realiseren.

Als een alpha-driver die niet voor het publiek bedoeld is en een bewerkte driver G-sync aan het werk kunnen krijgen op een laptop met eDP, waar de officieel beschikbare drivers van nVidia voor het publiek dat niet kunnen, wat zal daar dan voor oorzaak achter zitten? De enige oorzaak die ik kan bedenken is dat de officieel beschikbare drivers een check ingebouwd hebben om te zien of er wel een G-sync module ('simpel' stukje FPGA) aanwezig is. Dat is behoorlijk digitaal managen van waar je recht op hebt.

Uiteindelijk zal het pas echt goed duidelijk worden wanneer de Freesync monitoren op de markt komen, waarna men kan zien of die Alpha-driver of de bewerkte driver daar ook gewoon G-sync op kunnen activeren.
Werelds schreef op maandag 02 februari 2015 @ 10:25:
[...]

Nee. Die laptops hebben géén Adaptive Sync. Die laptops hebben eDP 1.4 - dat ze daarmee hetzelfde klaar kunnen spelen wisten we al van AMD's proof of concept, maar het is niet AS. AS gaat verder dan eDP, vooral qua timing - even afgezien van het feit dat het met eDP om een stuk of 7 verschillende features gaat die er in moeten zitten, terwijl het met AS een enkele feature flag is. Ik kan het ook andersom duidelijk proberen te maken; de features die in eDP 1.4 zitten en waar AMD/deze driver gebruik van maken zaten niet in DP 1.2 en zitten nog steeds in in 1.2a of zelfs 1.3 en maken ook geen deel uit van Adaptive Sync als aparte features.

Je mag deze dingen simpelweg niet onder dezelfde noemer gooien omdat ze zo sterk op elkaar lijken.
http://www.vesa.org/news/...splayport-video-standard/

Wat VESA er zelf over te zeggen heeft. Simpel gezegd is Adaptive Sync onderdeel vanaf DP 1.2a. De technieken in Adaptive Sync zijn al jaren in gebruik in eDP (zoals je zelf ook al aangaf). Dat het in eDP nog geen naam Adaptive Sync heeft, doet er uiteindelijk weinig toe natuurlijk, wanneer alle benodigde technieken wel aanwezig zijn.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

dahakon schreef op maandag 02 februari 2015 @ 17:19:
De enige oorzaak die ik kan bedenken is dat de officieel beschikbare drivers een check ingebouwd hebben om te zien of er wel een G-sync module ('simpel' stukje FPGA) aanwezig is. Dat is behoorlijk digitaal managen van waar je recht op hebt.
PCPer kon geen extra FPGA's vinden bij hun artikel hierover, maar ik kan er wel inkomen dat Nvidia niet wil dat elke fabrikant gratis gebruik maakt van een feature die Nvidia dmv. licenses kan verkopen. Typisch, dat wel.

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 27-05 05:26
dahakon schreef op maandag 02 februari 2015 @ 17:19:
[...]


Wat voor nut heeft DRM voor muziek, video en boeken? DRM is een middel om tegen betaling bepaalde functionaliteit te ontsluiten, zij het muziek op een bepaald apparaat beluisteren of een variabele framerate op je monitor te realiseren.

Als een alpha-driver die niet voor het publiek bedoeld is en een bewerkte driver G-sync aan het werk kunnen krijgen op een laptop met eDP, waar de officieel beschikbare drivers van nVidia voor het publiek dat niet kunnen, wat zal daar dan voor oorzaak achter zitten? De enige oorzaak die ik kan bedenken is dat de officieel beschikbare drivers een check ingebouwd hebben om te zien of er wel een G-sync module ('simpel' stukje FPGA) aanwezig is. Dat is behoorlijk digitaal managen van waar je recht op hebt.

Uiteindelijk zal het pas echt goed duidelijk worden wanneer de Freesync monitoren op de markt komen, waarna men kan zien of die Alpha-driver of de bewerkte driver daar ook gewoon G-sync op kunnen activeren.


[...]


http://www.vesa.org/news/...splayport-video-standard/

Wat VESA er zelf over te zeggen heeft. Simpel gezegd is Adaptive Sync onderdeel vanaf DP 1.2a. De technieken in Adaptive Sync zijn al jaren in gebruik in eDP (zoals je zelf ook al aangaf). Dat het in eDP nog geen naam Adaptive Sync heeft, doet er uiteindelijk weinig toe natuurlijk, wanneer alle benodigde technieken wel aanwezig zijn.
Je denkt dat nvidia de gsync module voor de grap als drm check ontwikkeld heeft? En dat de monitorfabrikanten en amd er meer dan een jaar over doen om bestaande techniek toe te passen?

Mechwarrior Online: Flapdrol


  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Phuncz schreef op maandag 02 februari 2015 @ 17:23:
[...]

PCPer kon geen extra FPGA's vinden bij hun artikel hierover, maar ik kan er wel inkomen dat Nvidia niet wil dat elke fabrikant gratis gebruik maakt van een feature die Nvidia dmv. licenses kan verkopen. Typisch, dat wel.
Dat is dus het punt, de FPGA, ofwel de G-sync module, is dus blijkbaar niet nodig, wanneer je specifiek getweakte drivers gebruikt of je handen kan krijgen op die alpha-driver.

Natuurlijk wil nVidia graag veel geld ontvangen voor features, daar is niets vreemds aan, maar bij G-sync krijg ik meer en meer het gevoel dat nVidia zich gedraagt als een kantoor-medewerker, die bekertjes kraanwater aan iedereen in het gebouw, terwijl de bekers en het water gewoon gratis beschikbaar is voor iedereen.

Zoals gezegd, zodra de Freesync monitors beschikbaar komen en mensen daar G-sync op gaan testen met deze drivers, weten we pas echt hoe en wat.
haarbal schreef op maandag 02 februari 2015 @ 17:35:
[...]

Je denkt dat nvidia de gsync module voor de grap als drm check ontwikkeld heeft? En dat de monitorfabrikanten en amd er meer dan een jaar over doen om bestaande techniek toe te passen?
Erhm, AMD heeft ongeveer 3 weken nadat nVidia G-sync voor het eerst toonde zijn Freesync demo gegeven. Het verschil is dat AMD de features die in eDP zaten als een pakket in de normale DP standaard wilde verwerken om alles op een normale manier ondersteund te krijgen, iets wat 12 mei 2014 is gebeurd, waar nVidia de proprietary weg wederom is ingeslagen. Nadat zo'n standaard is doorgevoerd, duurt het verder echt nog wel even voor je producten volgens die specificatie zult kunnen kopen.

Ik denk dus niet dat nVidia die module voor de grap heeft ontwikkeld, maar wel voor het geld.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
dahakon schreef op maandag 02 februari 2015 @ 17:19:
http://www.vesa.org/news/...splayport-video-standard/

Wat VESA er zelf over te zeggen heeft. Simpel gezegd is Adaptive Sync onderdeel vanaf DP 1.2a. De technieken in Adaptive Sync zijn al jaren in gebruik in eDP (zoals je zelf ook al aangaf). Dat het in eDP nog geen naam Adaptive Sync heeft, doet er uiteindelijk weinig toe natuurlijk, wanneer alle benodigde technieken wel aanwezig zijn.
In de praktijk is dat wel belangrijk. Nogmaals, om het met eDP te doen moet je 6 of 7 verschillende features afzonderlijk aanspreken en is er geen standaard met betrekking tot hóe je dat doet. Die features zitten verspreid over eDP 1.2, 1.3 en 1.4, waarbij de features in 1.4 niet essentieel zijn. De optionele (!) AS standaard in DP1.2a heeft al die technieken tot een enkel samenhangend protocol samen gevoegd en de manier waarop je het aanspreekt is totaal anders.

En zoals ik al zei, zitten de aparte features níet in 1.2a/AS of 1.3. PSR (Panel Self Refresh) bijvoorbeeld zit nog steeds alleen in eDP 1.3+.

Je hebt gelijk dat er met AS/GS geen nieuwe technieken zijn ontwikkeld, maar je mag ook niet zo kort door de bocht gaan en zeggen dat ze hetzelfde zijn. Als we die weg in slaan moeten we AMD's tessellation in R600 ook onder DX11 Tessellation laten vallen, hun PRT Tiled Resources gaan noemen en Nvidia's CUDA heet dan ook maar ineens DirectCompute, is allemaal immers niks nieuws ;)
haarbal schreef op maandag 02 februari 2015 @ 17:35:
Je denkt dat nvidia de gsync module voor de grap als drm check ontwikkeld heeft? En dat de monitorfabrikanten en amd er meer dan een jaar over doen om bestaande techniek toe te passen?
Het heeft Nvidia en hun partners dan ook meer dan een jaar gekost om meer dan één monitor met G-Sync op de markt te krijgen. Het proces van die fabrikanten gaat iets verder dan "klik de nieuwe FPGA erin en verkoop hem maar". Het hele ontwerp en QA proces wordt vanaf 0 doorlopen. Vervolgens moeten de grootschalige bestellingen geplaatst worden voor de onderdelen, de assemblage, de marketing molen moet aangezwengeld worden, enzovoort ;)

[Voor 7% gewijzigd door Werelds op 02-02-2015 19:48]


  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 00:33
Om het even over een ander onderwerp te hebben.

Als ik zo naar de specs van de GTX 960 en 970 kijk, dan kruipt onmiddelijk de gedachte in mijn hoofd dat er nog een GTX 960 Ti aan zit te komen;

GTX 960; 1024 shaders, 128bit, 2048MiB
GTX 970; 1664 shaders, 256bit, 4096MiB

GTX 960 Ti; 1280 of 1334 shaders, 192 of 256bit, 3072MiB

Iemand anders die ook met die gedachte zit te spelen?


Edit; ik ben dus kennelijk aan het slapen nog :+

[Voor 6% gewijzigd door NitroX infinity op 03-02-2015 15:31]

Graphene; a material that can do everything, except leave the lab. - Asianometry


  • dafz0r
  • Registratie: April 2003
  • Laatst online: 24-05 13:13
iedereen die het gpu nieuws volgt

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

http://www.fudzilla.com/n...y-geforce-gtx-970-returns

Uiteindelijk zijn er niet veel mensen die hun GTX 970 terug sturen naar de fabrikant vanwege 512mb-gate (™® XanderDrake 2015). Exacte getallen zijn er niet, maar het is in ieder geval minder dan 5%. En logisch natuurlijk, de videokaart presteert nog net zo prima als vorige maand.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
En hoe is het gesteld met de verkoop zelf? Is door deze imago schaden de verkoop van de GTX970 gedaald?

"refund from the AIB suppliers"

Er word wel specifiek refund genoemd, ergo het aankoop bedrag terugbetalen of een gedeelte ervan. Hoeveel mensen hebben gekozen voor een upgrade naar GTX980? Of een andere videokaart? Het lijkt me dat die gevallen dan buiten de 5% vallen

[Voor 57% gewijzigd door madmaxnl op 06-02-2015 15:40]


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat het hele gedoe uit proportie geblazen is, lijkt me duidelijk. Dat de return rate niet zo hoog ligt, had ik dan ook wel verwacht. Men heeft namelijk weinig zin om je kaart (of kaarten) terug te sturen, een nieuwe te moeten kopen en dan later geld terug te krijgen. En voor wat ? Een véél duurdere GTX 980 die marginaal sneller is ? Een AMD R9 290X die een pak meer energie verbruikt en dus ook luider is en meer hitte genereert ? Echt betere keuzes noem ik dat niet, dus als je realistisch bent valt de "oplossing" nogal tegen.

Ik hoop dat de media de komende tijd met een kritisch oog naar Nvidia gaat kijken en dat de kopers ook niet meer blindelings een Nvidia kopen.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

madmaxnl schreef op vrijdag 06 februari 2015 @ 15:33:
Er word wel specifiek refund genoemd, ergo het aankoop bedrag terugbetalen of een gedeelte ervan. Hoeveel mensen hebben gekozen voor een upgrade naar GTX980? Of een andere videokaart? Het lijkt me dat die gevallen dan buiten de 5% vallen
Mja, speculatie. Maar ik weet niet hoeveel mensen 150€ extra over hebben, dus dat zal wel niet te veel gebeuren.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ja vooral die luidruchtigere koelers doen het hem. Op 1 meter in een behuizing (waarin verder geen fans zitten) krijg je de volgende waarden:



Bron

Of je het in de praktijk gaat merken met je kaart in een kast waarin wel ventilatoren zitten waardoor de videokaartkoeler zelf al weer minder hard hoeft te werken. Oh ja, headset niet vergeten op te zetten ;)

  • nvidia666
  • Registratie: November 2011
  • Laatst online: 10-05 18:21
Hopelijk valt de volgende generatie van AMD mee anders vrees ik in korte tijd hetzelfde scenario als met de CPU's :/
En een monopolyposititie kan de consumenten missen als kiespijn.

Mocht ik geld hebben als de zee diep is , geef ik AMD een mooie som en richt ik een 3de speler op :)
Zou een droom zijn voor de consument :)

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Nou ik zeg gaan! :P

Dit is niet perse normaal voor nVidia toch? Kan me niet herinneren wat de laatste special event was. Het is niet als bij Apple iig.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca

Het is niet een uitnodiging gericht aan hem. ;)

Gaat trouwens denk ik ook niet over een videokaart maar over een mobile ding, nieuwe SOC bijvoorbeeld.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
Afbeelding komt van Android Police, dus waarschijnlijk iets rondom Tegra X1 en vast weer wat streaming onzin ;)

  • Gmount
  • Registratie: Maart 2012
  • Laatst online: 11-05 14:05

Gmount

Ecorunner lid

Volledig werkende g-sync met OSD en meerdere aansluitmogelijkheden misschien?

1900Km/L! || i7 6700K @ 4,6 GHz | NZXT Kraken X61 | MSI GTX 970 @ 1,48 GHz | 8 GB DDR4| Bitfenix Aegis yellow


  • Mathijs14
  • Registratie: Augustus 2009
  • Laatst online: 27-05 14:32
Phuncz schreef op vrijdag 06 februari 2015 @ 16:00:
Dat het hele gedoe uit proportie geblazen is, lijkt me duidelijk. Dat de return rate niet zo hoog ligt, had ik dan ook wel verwacht. Men heeft namelijk weinig zin om je kaart (of kaarten) terug te sturen, een nieuwe te moeten kopen en dan later geld terug te krijgen. En voor wat ? Een véél duurdere GTX 980 die marginaal sneller is ? Een AMD R9 290X die een pak meer energie verbruikt en dus ook luider is en meer hitte genereert ? Echt betere keuzes noem ik dat niet, dus als je realistisch bent valt de "oplossing" nogal tegen.

Ik hoop dat de media de komende tijd met een kritisch oog naar Nvidia gaat kijken en dat de kopers ook niet meer blindelings een Nvidia kopen.
Het komt volgens mij meer doordat Nvidia nog steeds geen officieel bericht erover heeft uitgegeven naar de fabrikanten toe waardoor die en de webshops niet weten waar ze aan toe zijn.

Gigabyte en Afuture in mijn geval doen allebei erg vaag, verwijzen naar elkaar en naar Nvidia en vervolgens naar wat reviews ;(

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Werelds schreef op woensdag 11 februari 2015 @ 09:55:
Afbeelding komt van Android Police, dus waarschijnlijk iets rondom Tegra X1 en vast weer wat streaming onzin ;)
Een Shield 2 tablet, denk ik.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
Ik gok iets groters naast de Shield 2, ik zou niet verbaasd zijn door een Ouya ;)

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Gaat prima met nVidia:
nieuws: Nvidia verkoopt meer gpu's en verdient meer geld in gamingmarkt

Meer inkomsten uit discrete GPU's en vooral laptop GPU's (100% stijging). Meer shields verkocht. Smartphone en tablet chipsets was minder, maar weet niet of daar Nexus 9/Xiaomi tablet in zijn verwerkt.

Komop Werelds, zeg er iets over :P

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • nvidia666
  • Registratie: November 2011
  • Laatst online: 10-05 18:21
Hopelijk introduceren ze de big maxwell >:) (alleen hoop ik er niet op)
Anders zou er al veel meer speculaties en geruchten geweest zijn...

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
XanderDrake schreef op donderdag 12 februari 2015 @ 12:02:
Gaat prima met nVidia:
nieuws: Nvidia verkoopt meer gpu's en verdient meer geld in gamingmarkt

Meer inkomsten uit discrete GPU's en vooral laptop GPU's (100% stijging). Meer shields verkocht. Smartphone en tablet chipsets was minder, maar weet niet of daar Nexus 9/Xiaomi tablet in zijn verwerkt.

Komop Werelds, zeg er iets over :P
Haha, wat verwacht je dat ik zeg? :P

Was wel te verwachten dat Maxwell een flinke boost ging geven. De 750 Ti zat precies goed, dat deden ze met GM204 nog eens dunnetjes over en dat werkte allemaal ook door op de laptop markt. Mobiel zal pas dit jaar weer bij trekken, als ze met X1 wat design wins binnen slepen. K1 is niet zo populair geworden als ze hadden gehoopt, Google en Xiaomi veranderen daar niet veel aan (vooral Google niet, de N9 is lang niet zo populair als de N7 was - en terecht).

De komende 2-3 jaar zullen weer een stuk boeiender worden. Node shrinks op desktops, een veelbelovende X1 van Nvidia, Intel die steeds meer de mobiele markt in sluipt, AMD's reorganisatie zal zichtbaar worden voor zowel GPU's als CPU's (en dus APU's). Laten we eerlijk zijn, de laatste paar jaren zijn niet zo heel spannend geweest :P

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Een gok wat er zal worden gepresenteerd door nVidia over dik een week: VR constructie?
http://www.fudzilla.com/n...vidia-shield-vr-next-week

Het zou me eigenlijk niet verbazen. Ee truuk zit hem dan niet in de hardware (elke Android smartphone kan een 3D VR bril worden), maar in de uitvoering (brede driver ondersteuning zodat alle games er mee werken, veel makkelijker dan bijv. rotzooien met DDL's en BAT file zoals bij de Oculus Rift).

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
Dat hoeft met OR helemaal niet hoor. In de meeste gevallen moet je alleen opletten dat hij op de goede stand staat (niet alles werkt met Direct-to-rift) en dat je de correcte executable of commandline switch gebruikt.

Dat jij dan uitgerekend van Nvidia verwacht dat er bredere ondersteuning komt is grappig; als het al makkelijk wordt, is dat ook alleen voor Nvidia ;)

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Werelds schreef op dinsdag 24 februari 2015 @ 11:08:
Dat hoeft met OR helemaal niet hoor. In de meeste gevallen moet je alleen opletten dat hij op de goede stand staat (niet alles werkt met Direct-to-rift) en dat je de correcte executable of commandline switch gebruikt.
Een maat van me heeft een dev 2 kit en behalve spellen die de OR native ondersteunen, moet ie altijd een aantal verschillende bat files maken om allerlei settings uit te proberen. Náást het feit dat je videokaart netjes moet overschakelen naar de juiste oriëntatie en view.
Dat jij dan uitgerekend van Nvidia verwacht dat er bredere ondersteuning komt is grappig; als het al makkelijk wordt, is dat ook alleen voor Nvidia ;)
Ik ben een pragmatist, ik wil gewoon dat het werkt. Werkt het goed genoeg, dan is het goed genoeg om er geld in te stoppen. Of dat geld gaat naar Oculus or naar nVidia maakt me vervolgens niet uit.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
Ja hehe, had je nou werkelijk verwacht dat de Rift ging werken in games die de libraries niet integreren? Tuurlijk niet en dat zal/zou bij Nvidia ook nooit het geval zijn, dat is gewoon naïef. Dat is zoiets als verwachten dat AMD even Mantle in alle games stopt, Microsoft zometeen magisch games automatisch DX12 features laat gebruiken en dat Nvidia Gameworx laat werken in games die geen gebruik van hun spul maken. Ik heb de DK2 zelf gehad en ik heb alleen hoeven klooien als het niet (officieel) ondersteund werd. En zelfs dan was het vaak niet meer dan even een config bestand aanpassen (Alien: Isolation bijvoorbeeld). Met Direct-To-Rift applicaties heb je er helemaal geen omkijken naar. Ik weet niet wat die vriend van je allemaal probeert, maar er klopt niets van.

En wat je aan het eind zegt zou er voor zorgen dat VR dezelfde route volgt als 3D. Dan sterft het uit omdat sommige partijen elkaar dwars gaan zitten en dat kan met zo'n niche product niet. Als pragmatist moet je juist níet willen dat hier nóg een vendor lock-in op komt te zitten, we hebben er al genoeg.

[Voor 7% gewijzigd door Werelds op 24-02-2015 13:23]


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Werelds schreef op dinsdag 24 februari 2015 @ 13:22:
Ik heb de DK2 zelf gehad en ik heb alleen hoeven klooien als het niet (officieel) ondersteund werd.
Dit. Niet veel is officieel ondersteund. Dingen die wel officieel ondersteuning bieden (War Thunder bijv) vereisen trouwens ingame tweaks, maar dan hoef je niet te klooien met bat files.
Ik weet niet wat die vriend van je allemaal probeert, maar er klopt niets van.
Hij en ik hoeven ons niet te verantwoorden tegenover jou.

Man. De toon van jou discussiëren... Ben je verbaast dat wij ondertussen de enige twee zijn die dingen nog regelmatig bespreken in dit topic?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
Mijn toon van discussiëren? Ik reageer gewoon op het feit dat je mij probeert te vertellen dat er een hoop werk nodig is om het ding te gebruiken. Sorry, maar ik heb zelf een DK2 gehad (overigens vooral voor werk) en talloze demo's en spellen geprobeerd, dus ik snap gewoon niet waar jouw vriend problemen mee heeft, tenzij het dingen zijn die het gewoon écht niet ondersteunen. Er wordt inmiddels genoeg ondersteund, al dan niet door middel van een command line switch. Is dat zo verwonderlijk voor een development kit?

Het kost 10 seconden om dat even te doen. De demo's van Oculus' portal werken allemaal probleemloos. En juist War Thunder werkt voor geen meter, omdat hún integratie slecht is, dat ligt niet aan Oculus of de DK2. In pCARS, Elite, HL2VR, ETS2, LFS en zoals gezegd Alien werkt het allemaal probleemloos (om maar even wat daadwerkelijke games te noemen) en het merendeel hiervan heeft het nog steeds onder bèta features staan. Ze hebben nog niet allemaal hun UI op orde, maar nogmaals, het is allemaal volop in ontwikkeling.

Daar kan een Oculus, Nvidia, Intel, AMD of wie dan ook geen donder aan veranderen, want dat ligt aan de implementatie kant. Renderen voor VR is geen kwestie van even een regeltje code toevoegen en klaar is kees. Aan de SDK ligt het niet, die zit best netjes in elkaar (ik heb erger gezien). Het grootste heikelpunt is dat je binaries hard aan de SDK versie gelinkt zijn.


Edit: het was echt niet mijn bedoeling denigrerend over te komen. Maar om nu te verwachten dat Nvidia straks een of andere magische VR SDK of zelfs een HMD uit brengt en dat dan beter dan Oculus doet is simpelweg waanzin. Zelfs al zou Nvidia met een eigen SDK en HMD komen (waar ik overigens niet in geloof, dan hadden we daar al lang iets over gehoord), dan moet dat alsnog eerst getest en geïmplementeerd worden. Dat gaat dan echt niet sneller dan met de Rift. Zeker niet gezien het feit dat alle grote engines al Rift ondersteuning hebben.

En nogmaals, als pragmatist denk ik niet dat je daar überhaupt op moeten zitten wachten. Want dan moet je games kopen op basis van een Nvidia sticker op de doos, om het met je Nvidia HMD en je Nvidia GPU te gebruiken. Niet echt praktisch. Nee, dan moet je eerder hopen op een aankondiging dat Nvidia bijvoorbeeld hun layered displays in de Rift gaat stoppen. Dat zou nou iets zijn waar ik blij mee zou zijn ;)

[Voor 25% gewijzigd door Werelds op 24-02-2015 15:41]


  • Hapkoek
  • Registratie: December 2013
  • Laatst online: 26-05 22:23
Even los van de discussie hierboven, wat mij opviel toen ik even op de site van Mycom zat, is dat zij de product beschrijving van de GTX970 hebben aangepast. Zij verkopen de Asus en Msi variant.

https://www.mycom.nl/comp...strix-gtx970-dcii-oc-35gb

Staat nu dat hij 3,5gb heeft in plaats van 4gb. :+
Alleen de kaart heeft toch wel 4gb alleen is de laatste halve gb slecht bruikbaar?

Wel maf.. Rond de release stond daar waarschijnlijk 4gb in de beschrijving en dat is nu 3,5gb geworden. :P

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 27-05 14:18

Jeroenneman

Pre-order/Early Acces: Nee!

Ik hoop dat er binnenkort eens nieuws komt over de GTX 960 Ti,

De GTX960 is net te zwak om futureproof te zijn op 1080p, terwijl de GTX970 overkill is.

Een kaart van 250 euro zou hier perfect op inspelen.

Dan zouden ze de GTX970 chips die het niet halen nog kunnen leveren met 3GB.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 23:29
Jeroenneman schreef op woensdag 25 februari 2015 @ 13:13:
Ik hoop dat er binnenkort eens nieuws komt over de GTX 960 Ti,

De GTX960 is net te zwak om futureproof te zijn op 1080p, terwijl de GTX970 overkill is.

Een kaart van 250 euro zou hier perfect op inspelen.
Een 960 kost op dit moment nog steeds 210-230 euro. De 970 zit volgens mij rond de 350-375. Een kaart van 275 lijkt wat beter geprijst ;)

Maar ik denk dat een 960ti pas komt zodra AMD iets nieuws uit brengt.

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 27-05 14:18

Jeroenneman

Pre-order/Early Acces: Nee!

Zeara schreef op woensdag 25 februari 2015 @ 13:56:
[...]


Een 960 kost op dit moment nog steeds 210-230 euro. De 970 zit volgens mij rond de 350-375. Een kaart van 275 lijkt wat beter geprijst ;)

Maar ik denk dat een 960ti pas komt zodra AMD iets nieuws uit brengt.
De adviesprijs van de 960 was 200. Dat wordt z'on 230 euro.
Dus als de adviesprijs 250 is voor een Ti versie, wordt de daadwerkelijke prijs waarschijnlijk rond de 265 euro.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 00:19
Ik heb vanmiddag ook maar een email naar Alternate gestuurd. Vooral aangegeven dat ik het vervelend vind dat ik geen kaart heb die direct 4 gig aan geheugen kan bereiken en dat hij daarom niet zo future proof is als ik had gehoopt. Plus dat als ik had geweten dat hij 3.5 gig heeft dat ik dan wel een gtx 980 had gekocht.

Mail teruggekregen waarin werd aangegeven dat er nu geen callback optie is en dat ik de kaart kan opsturen.
Ja dan stuur ik hem op en dan wat? Ik snap dit niet echt allemaal. Iemand tips? Iemand anders die 'm naar Alternate heeft gestuurd?

  • Resinman
  • Registratie: September 2001
  • Laatst online: 19:48
Mycom heeft een 3.5GB filter voor hun videokaarten. Krijgen we deze optie ook in de tweakers pricewatch? (grapje)

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Nvidia CEO over GTX 970: "We won't let this happen again""

Goed nieuws: nVidia CEO Jen-Hsun Huang zegt dat ze een probleem als memory gate niet meer gaan laten gebeuren.

Gewoon een communicatie foutje, niks aan de hand, zal de volgende keer dus niet meer gebeuren.

Goh, waar komt al die scepsis jegens nVidia toch vandaan :X

Gebruikers GTX 970 dienen aanklacht in tegen Nvidia wegens prestatieproblemen

Ik ben benieuwd wat uit deze rechtszaak komt rollen. De foutief geadverteerde specificaties m.b.t. de rops, geheugenbrandbreedte en L2 cache is concreet bewijs van misinformatie c.q. misleiding. Communicatie fout of niet, de fout en het probleem ligt bij nVidia.

Een vorm van compensatie voor de fout en/of boeten lijkt mij wel op zijn plaats.

[Voor 42% gewijzigd door madmaxnl op 26-02-2015 02:56]


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Ik vind trouwens zeggen dat er maar 3.5GB op een GTX 970 zit ook consumenten bedrog. Er zit gewoon 4GB op, punt.
Het is hetzelfde als al die PCs en laptops die worden verkocht met één DIMM module met 4gb of 8gb ipv dual-channel kits. Dat is veel nadeliger voor prestaties dan de laatste 512mb van de GTX 970, maar over die praktijken hoor je echt niemand.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
madmaxnl schreef op donderdag 26 februari 2015 @ 02:34:

Nvidia CEO over GTX 970: "We won't let this happen again""

Goed nieuws: nVidia CEO Jen-Hsun Huang zegt dat ze een probleem als memory gate niet meer gaan laten gebeuren.

Gewoon een communicatie foutje, niks aan de hand, zal de volgende keer dus niet meer gebeuren.

Goh, waar komt al die scepsis jegens nVidia toch vandaan :X
Geen idee.... misschien iets met de 8/9xx en andere dingen die ze ooit hebben gedaan, ook het aantal blije reacties op zijn post zijn op een hand te tellen O-).
http://blogs.nvidia.com/blog/2015/02/24/gtx-970/

Gebruikers GTX 970 dienen aanklacht in tegen Nvidia wegens prestatieproblemen

Ik ben benieuwd wat uit deze rechtszaak komt rollen. De foutief geadverteerde specificaties m.b.t. de rops, geheugenbrandbreedte en L2 cache is concreet bewijs van misinformatie c.q. misleiding. Communicatie fout of niet, de fout en het probleem ligt bij nVidia.

Een vorm van compensatie voor de fout en/of boeten lijkt mij wel op zijn plaats.
De rechtzaak zal in ieder geval Nvidia op scherp zetten, daar wordt niemand slechter van. Zorgt er ook gelijk voor dat ze het niet zo snel nog een keer zullen flikken :+.

In het geval van de GTX970 merk je er op lage resoluties weinig van (hoge resoluties en SLI is een andere zaak). Het zou mij alleen niks hebben verbaast dat als hier geen ophef over was ontstaan dat we de volgende keer een kaart met 3gb geheugen +1gb traag geheugen krijgen. Hoe lang kan je blijven zeggen dat het nog steeds een echte 4gb kaart is?
XanderDrake schreef op dinsdag 24 februari 2015 @ 13:34:
[...]
Dit. Niet veel is officieel ondersteund. Dingen die wel officieel ondersteuning bieden (War Thunder bijv) vereisen trouwens ingame tweaks, maar dan hoef je niet te klooien met bat files.

[...]
Hij en ik hoeven ons niet te verantwoorden tegenover jou.

Man. De toon van jou discussiëren... Ben je verbaast dat wij ondertussen de enige twee zijn die dingen nog regelmatig bespreken in dit topic?
Er moet wel nieuws zijn om over te discusieren :P. Overigens vind ik de posts van Werelds wel altijd goed onderbouwd, informatief en hij heeft geen roze bril op. Ik steek er in ieder geval wel wat van op.

[Voor 15% gewijzigd door Sp3ci3s8472 op 26-02-2015 11:49]


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

XanderDrake schreef op donderdag 26 februari 2015 @ 10:27:
Ik vind trouwens zeggen dat er maar 3.5GB op een GTX 970 zit ook consumenten bedrog. Er zit gewoon 4GB op, punt.
Het is hetzelfde als al die PCs en laptops die worden verkocht met één DIMM module met 4gb of 8gb ipv dual-channel kits. Dat is veel nadeliger voor prestaties dan de laatste 512mb van de GTX 970, maar over die praktijken hoor je echt niemand.
Ik heb nog nooit geadverteerd zien worden of een laptop dual- of single-channel is? Alleen dat er 8GB in zit, en dat klopt hoe dan ook.

En een consument meer geven dan beloofd is natuurlijk geen bedrog. Je zou maar een optie vergeten te noemen, of nieuwe features ondersteunen met een driver-update. "Hey, op de doos staat openGL 4.4, maar met de laatste update heb ik er openGL 4.5 bijgekregen! Bedrog!". :P

Heeft geen speciale krachten en is daar erg boos over.


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Hier heb ik wat nieuws om te bediscussiëren:
http://www.fudzilla.com/n...gether-in-perfect-harmony
According to Toms Hardware one of the unexpected features of DirectX 12 is the ability to use Nvidia GPUs alongside AMD GPUs in multi-card configurations.

This is because DirectX 12 operates at a lower level than previous versions of the API it is able to treat all available video resources as one unit. Card model and brand makes no difference to a machine running DX12.
:|

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 27-05 14:35
Haha, hoe gaaf is dat. Betwijfel of dit goed zal werken, maar hier kunnen best leuke experimenten uit voort gaan komen. Een SLi test met een high-end en een midrange kaart bijvoorbeeld en natuurlijk ook een test met 2 uber high end kaarten van beide fabrikanten.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
Niet alleen dat maar volgens mij wordt het met DX12 en Mantle ook mogelijk om meer gebruik te maken het geheugen van kaarten in SLI en Crossfire. Dus het is niet meer 2x4gb, maar meer dan dat. Had dit ergens gelezen... :P

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 27-05 05:26
Multigpu is al vervelend genoeg, het lijkt me sterk dat gamedevs überhaupt gaan proberen om verschillende architecturen te mixen, laat staan kaarten van verschillende fabrikanten.

Mechwarrior Online: Flapdrol


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
Het punt is echter dat ze met DX12 (en Mantle) niet meer gedwongen zijn tot het gebruik van AFR. De reden dat multi GPU nu brak is is simpelweg omdat de GPU's niet samen werken, maar naast elkaar werken.

En inderdaad, het idee is dat ze de GPU's kunnen aan sturen zoals ze willen, inclusief het geheugen. Het zal nog even op zich laten wachten, maar in principe kunnen ze voor één frame gewoon 1 GPU het ene object laten renderen, de andere GPU een ander object, waarbij beide alleen in het geheugen hebben staan wat ze nodig hebben. Nu heb je met alle algoritmes nog alle assets in het geheugen van allebei de GPU's staan; of het nou AFR, SFR of scissor is, je hebt altijd alles dubbel staan, vandaar dat je met 2x4GB geen 8, maar 4 GB hebt.

Overigens moet ik het eerst zien, dan pas zal ik het geloven. Van Intel en AMD uit zal het geen probleem zijn, maar ik zou het frappant vinden als Nvidia hier in mee gaat. Het zou nogal een ommekeer zijn. Tenzij het natuurlijk een vereiste vanuit MS is, in welk geval MS van mij alle lof krijgt.

[Voor 4% gewijzigd door Werelds op 26-02-2015 14:39]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

madmaxnl schreef op donderdag 26 februari 2015 @ 02:34:

Nvidia CEO over GTX 970: "We won't let this happen again""

Goed nieuws: nVidia CEO Jen-Hsun Huang zegt dat ze een probleem als memory gate niet meer gaan laten gebeuren.

Gewoon een communicatie foutje, niks aan de hand, zal de volgende keer dus niet meer gebeuren.

Goh, waar komt al die scepsis jegens nVidia toch vandaan :X

Gebruikers GTX 970 dienen aanklacht in tegen Nvidia wegens prestatieproblemen

Ik ben benieuwd wat uit deze rechtszaak komt rollen. De foutief geadverteerde specificaties m.b.t. de rops, geheugenbrandbreedte en L2 cache is concreet bewijs van misinformatie c.q. misleiding. Communicatie fout of niet, de fout en het probleem ligt bij nVidia.

Een vorm van compensatie voor de fout en/of boeten lijkt mij wel op zijn plaats.
LOL wat een slap verhaal van Jen-Hsun Huang, voor mij is dat "communicatiefoutje" volkomen ongeloofwaardig. Er zijn tig technische mensen met zo'n gpu bezig en niemand is het opgevallen en heeft het post launch intern gemeld :? Yeah right... 8)7

Lijkt me goed als ze eens flink de oren gewassen krijgen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 00:19
MetalSonic schreef op woensdag 25 februari 2015 @ 18:00:
Ik heb vanmiddag ook maar een email naar Alternate gestuurd. Vooral aangegeven dat ik het vervelend vind dat ik geen kaart heb die direct 4 gig aan geheugen kan bereiken en dat hij daarom niet zo future proof is als ik had gehoopt. Plus dat als ik had geweten dat hij 3.5 gig heeft dat ik dan wel een gtx 980 had gekocht.

Mail teruggekregen waarin werd aangegeven dat er nu geen callback optie is en dat ik de kaart kan opsturen.
Ja dan stuur ik hem op en dan wat? Ik snap dit niet echt allemaal. Iemand tips? Iemand anders die 'm naar Alternate heeft gestuurd?
Iemand? Wellicht teruggestuurd naar een andere shop? Zou 't zo kunnen zijn dat ik hem naar Alternate stuur en dat ze hem weer naar mij sturen? Kan ik mij sowieso nog hard maken voor terugsturen of heb ik te weinig om op te staan? :>

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
MetalSonic schreef op donderdag 26 februari 2015 @ 21:03:
[...]

Iemand? Wellicht teruggestuurd naar een andere shop? Zou 't zo kunnen zijn dat ik hem naar Alternate stuur en dat ze hem weer naar mij sturen? Kan ik mij sowieso nog hard maken voor terugsturen of heb ik te weinig om op te staan? :>
Ik zou dit eerder in het ervaringen topic vragen, er zijn daar meer mensen die hun kaart hebben teruggestuurd of een poging hebben gewaagd.

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 00:19
Sp3ci3s8472 schreef op vrijdag 27 februari 2015 @ 01:06:
[...]


Ik zou dit eerder in het ervaringen topic vragen, er zijn daar meer mensen die hun kaart hebben teruggestuurd of een poging hebben gewaagd.
oh ik dacht dat het hier moest, euhm waar is het ervaringen topic? :o

  • Mathijs14
  • Registratie: Augustus 2009
  • Laatst online: 27-05 14:32
MetalSonic schreef op vrijdag 27 februari 2015 @ 09:43:
[...]

oh ik dacht dat het hier moest, euhm waar is het ervaringen topic? :o
nVidia GeForce GT(X) 9xx Serie Ervaringen - Deel 1

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Een beetje offtopic, maar Freescale (lange tijd een van de grotere ARM chipset producenten) is overgenomen door NXP. Ik zou het prachtig vinden als het Nederlandse NXP zich ook zou gaan begeven op de ARM chipset markt voor consumenten.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 00:55

Ultraman

Moderator Harde Waren

Boefje

XanderDrake schreef op maandag 02 maart 2015 @ 08:20:
Een beetje offtopic, maar Freescale (lange tijd een van de grotere ARM chipset producenten) is overgenomen door NXP. Ik zou het prachtig vinden als het Nederlandse NXP zich ook zou gaan begeven op de ARM chipset markt voor consumenten.
Ik ook op zich, maar het is hier inderdaad wat offtopic. ;)
Is er nog geen discussietopic over die overname? Want anders kun je er altijd een maken.

Als je stil blijft staan, komt de hoek wel naar jou toe.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
Het "5 year in the making" evenement is geweest.

Live blog van Anand: http://www.anandtech.com/show/9044/nvidia-gdc-2015-liveblog

TL;DR:
- GRID (OnLive / PS Now tegenhanger) uit beta, wordt nu betaalde service
- Android TV console op Tegra X1, $199/€199 (exclusief afstandsbediening |:()
- Dat was het.

Kan niet zeggen dat ik onder de indruk ben. De nieuwe Shield heeft slechts 16 GB opslag, voor de rest ben je op SD kaartjes aangewezen. Dat kan ik moeilijk serieus nemen, als console wordt het daar niet veel mee dus dan is $199 knap veel.

Het ding is duidelijk alleen gemaakt om X1 en GRID te marketen en ook dan is $199 veel te veel. GRID kan met gemak in een $50 dongle.

Waarom nu geen nieuwe Shield Tablet, dat was veel boeiender geweest :(

  • Phuuz
  • Registratie: April 2009
  • Laatst online: 22-01 21:58
Daar issie dan



Titan X

12GB Framebuffer
8 Miljard transistoren

Vermoedelijke specs;

24 SSM's
3072 Shaders
96 ROPs
192 TMUs

op GTC krijgen we meer te horen. Wat een beest :9~

[Voor 3% gewijzigd door Phuuz op 04-03-2015 19:46]


  • yur400
  • Registratie: December 2009
  • Laatst online: 14-05 09:32
Werelds schreef op woensdag 04 maart 2015 @ 10:45:
Het "5 year in the making" evenement is geweest.

Live blog van Anand: http://www.anandtech.com/show/9044/nvidia-gdc-2015-liveblog

TL;DR:
- GRID (OnLive / PS Now tegenhanger) uit beta, wordt nu betaalde service
- Android TV console op Tegra X1, $199/€199 (exclusief afstandsbediening |:()
- Dat was het.

Kan niet zeggen dat ik onder de indruk ben. De nieuwe Shield heeft slechts 16 GB opslag, voor de rest ben je op SD kaartjes aangewezen. Dat kan ik moeilijk serieus nemen, als console wordt het daar niet veel mee dus dan is $199 knap veel.

Het ding is duidelijk alleen gemaakt om X1 en GRID te marketen en ook dan is $199 veel te veel. GRID kan met gemak in een $50 dongle.

Waarom nu geen nieuwe Shield Tablet, dat was veel boeiender geweest :(
Shield is inclusief controller, met ingebouwde microfoon voor voice commands, dus zo’n gemis is je afstandsbediening niet. Tegenhanger Razor vraagt voor zijn Forge console 99 + 50 als je er een controller bij wilt.

Meer opslagcapaciteit is leuk, maar geen must. Zo'n apparaat gebruik je voornamelijk om content te streamen. Denk aan games via Grid en video via Netflix, Youtube e.d. Leuke is dat je spellen niet verplicht vanuit de cloud maar ook gewoon direct vanaf je pc kunt streamen.

Al met al heb je een complete systeem voor 199 dollar/euro, waar je heel veel mee kunt doen. What’s not to like?

edit:
Link naar een vergelijkingstabel: klikkie

[Voor 5% gewijzigd door yur400 op 04-03-2015 20:17]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Phuuz schreef op woensdag 04 maart 2015 @ 19:46:
Daar issie dan

[afbeelding]

Titan X

12GB Framebuffer
8 Miljard transistoren

Vermoedelijke specs;

24 SSM's
3072 Shaders
96 ROPs
192 TMUs

op GTC krijgen we meer te horen. Wat een beest :9~
Cool. Wel eerst ff die 12GB checken.... :+

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
yur400 schreef op woensdag 04 maart 2015 @ 20:16:
[...]

Shield is inclusief controller, met ingebouwde microfoon voor voice commands, dus zo’n gemis is je afstandsbediening niet. Tegenhanger Razor vraagt voor zijn Forge console 99 + 50 als je er een controller bij wilt.

Meer opslagcapaciteit is leuk, maar geen must. Zo'n apparaat gebruik je voornamelijk om content te streamen. Denk aan games via Grid en video via Netflix, Youtube e.d. Leuke is dat je spellen niet verplicht vanuit de cloud maar ook gewoon direct vanaf je pc kunt streamen.

Al met al heb je een complete systeem voor 199 dollar/euro, waar je heel veel mee kunt doen. What’s not to like?

edit:
Link naar een vergelijkingstabel: klikkie
Als media apparaat is een afstandsbediening toch wel wenselijk, dat is toch vreemd met een controller (heb het geprobeerd :P). Nu zou mij dit persoonlijk niets uit maken aangezien ik toch een Harmony heb en alle andere afstandsbedieningen ergens diep in een donker hoekje weg stop, maar het is een simpele en goedkope toevoeging.

Mijn punt is niet dat het geen leuk apparaat kan zijn, meer dat de specs (en daarmee de prijs) zinloos zijn.

Er zit een hele krachtige SoC in, wat de indruk wekt dat je games direct op het ding wil spelen; voor 4K60 video heb je niet zo'n extreme SoC nodig. Hun eigen demo's wekken die indruk ook, met Crysis 3 en Doom 3 ports. Maar dan heb je maar 16 GB? Krijg je niet veel spellen op. En op SD wil je ze eigenlijk ook niet hebben, want dat is toch echt een stuk trager qua I/O.

Of we bekijken het inderdaad van de stream kant. Dan betaal je €199 voor een hele dure SoC, die in verhouding veel te krachtig is voor de content die hij moet afspelen - al zou je een game in 4K60 van GRID streamen, dan nog heb je daar geen high-end (in verhouding) GPU voor nodig. En daardoor heb je ook een gigantische doos (vergeleken met een Chromecast of zelfs Steam Link) onder je TV staan. Het verwerken van wat USB input en dat naar de GRID servers sturen kost echt niets aan resources hoor.

Begrijp me niet verkeerd, ik wil heel graag zien wat X1 nu werkelijk kan, maar dit product raakt kant noch wal. Hij mist de specs voor een serieuze console en heeft er te veel voor een streamer. Sowieso denk ik dat ze er veel meer aandacht mee hadden getrokken als ze er puur een streamer van hadden gemaakt.

En dat is nog even afgezien van het feit dat je dus vooral op GRID aangewezen bent...waar je ongetwijfeld een leuk bedrag voor neer mag leggen, en als dat (of je internet verbinding...of een trage verbinding) er dan uit klapt ben je nog nergens ;)

  • yur400
  • Registratie: December 2009
  • Laatst online: 14-05 09:32
Het apparaat heeft 2x usb 3.0 poorten beschikbaar, dus als je echt mass storage voor games wilt is dat mogelijk. Ik weet niet hoe Android omgaat met SSDs en de achterliggende technieken zoals trim, maar zelfs dat zou mogelijk kunnen zijn. Dan kun je naar hartenwens spellen op installeren.
Toegegeven, je bent dan extra geld kwijt, maar het is wel allemaal mogelijk.


Dit een prima product voor iemand die meer wilt dan een simpele chromecast, maar geen interesse heeft in een PS4 of XBO waar je minimaal t dubbele kwijt voor bent.

  • dafz0r
  • Registratie: April 2003
  • Laatst online: 24-05 13:13
EVGA GTX 960 4GB
http://www.evga.com/articles/00914/EVGA-GeForce-GTX-960-4GB/
komt die nu niet helemaal in het vaarwater van de 290?
Komt waarschijnlijk 20-30 euro bij...

Ik ben wel is benieuwd naar een bench tov de 2GB met die kleinere bus en 'gewoon' 2GB bijprikken

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 00:19
dafz0r schreef op donderdag 05 maart 2015 @ 09:34:
EVGA GTX 960 4GB
http://www.evga.com/articles/00914/EVGA-GeForce-GTX-960-4GB/
komt die nu niet helemaal in het vaarwater van de 290?
Komt waarschijnlijk 20-30 euro bij...

Ik ben wel is benieuwd naar een bench tov de 2GB met die kleinere bus en 'gewoon' 2GB bijprikken
gaat hij dan ook intern de concurrentie aan met de 970 en de 980? :o

  • dafz0r
  • Registratie: April 2003
  • Laatst online: 24-05 13:13
je kan maar beter hopen voor nvidia van niet.
De 960 kan namelijk wel zijn 4GB helemaal aanspreken :)

Maar (hier in belgie) is de goedkoopste R9 290 ~ 260euro en de 960 krijg je aan 220euro.

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 27-05 05:26
2x de memory maakt de kaart niet sneller, het is meer dat je nu de textures op ultra kan zetten zonder dat de framerate enorm instort.

Mechwarrior Online: Flapdrol


  • dafz0r
  • Registratie: April 2003
  • Laatst online: 24-05 13:13
zolang die bus niet naar 256gaat lijkt me dit echt een overbodige toevoeging aan een assortiment dat al kantje boordje was kwa nuttigheid

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 00:19
dafz0r schreef op donderdag 05 maart 2015 @ 09:47:
je kan maar beter hopen voor nvidia van niet.
De 960 kan namelijk wel zijn 4GB helemaal aanspreken :)

Maar (hier in belgie) is de goedkoopste R9 290 ~ 260euro en de 960 krijg je aan 220euro.
Ik ben benieuwd wat de benchmarks straks aangeven, lijkt mij dat de 970 toch nog wel 10-15 fps (oid) sneller is dan de 960

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
MetalSonic schreef op donderdag 05 maart 2015 @ 09:40:
[...]

gaat hij dan ook intern de concurrentie aan met de 970 en de 980? :o
De kaart verliest het nu al van de GTX770 en 280x, als hij nog duurder wordt dan komt hij direct in het vaarwater van de 770,280x en 290. Denk niet dat dat handig is.

De kaart heeft niks aan 4gb die gaat hij nooit gebruiken, te weinig geheugen bandbreedte. De GTX970 heeft al moeite om 3.5gb aan te spreken, dat lukt alleen consistent in SLI maar hij heeft er wel de bandbreedte voor. Desalniettemin zullen er weer mensen intrappen, want we weten allemaal dat meer geheugen een snellere kaart maakt! Een GTX960 met 8gb geheugen loopt rondjes om een GTX970 :+.

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 00:19
Sp3ci3s8472 schreef op vrijdag 06 maart 2015 @ 13:46:
[...]


De kaart verliest het nu al van de GTX770 en 280x, als hij nog duurder wordt dan komt hij direct in het vaarwater van de 770,280x en 290. Denk niet dat dat handig is.

De kaart heeft niks aan 4gb die gaat hij nooit gebruiken, te weinig geheugen bandbreedte. De GTX970 heeft al moeite om 3.5gb aan te spreken, dat lukt alleen consistent in SLI maar hij heeft er wel de bandbreedte voor. Desalniettemin zullen er weer mensen intrappen, want we weten allemaal dat meer geheugen een snellere kaart maakt! Een GTX960 met 8gb geheugen loopt rondjes om een GTX970 :+.
Ik weet nog ten tijde van de strijd tussen de GTX 680 en de XFX 7970 ghz ik bewust voor de 7970 ghz had gekozen omdat hij 1 gig meer werkgeheugen heeft. En dan ontdek je later dat in flink wat games toch de gtx 680 flink beter scoorde 8)7

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
MetalSonic schreef op vrijdag 06 maart 2015 @ 14:08:
[...]

Ik weet nog ten tijde van de strijd tussen de GTX 680 en de XFX 7970 ghz ik bewust voor de 7970 ghz had gekozen omdat hij 1 gig meer werkgeheugen heeft. En dan ontdek je later dat in flink wat games toch de gtx 680 flink beter scoorde 8)7
Dat zullen dan specifieke spellen zijn geweest want ik zie niet waar de GTX680 veel sneller is, over het algemeen verliest hij het behoorlijk:
http://www.anandtech.com/bench/product/1031?vs=1348

Dan nog ik denk dat de GTX770 meer uit 4gb geheugen kan halen dan de GTX960.

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 06-05 15:43

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
Vage scores. Denk dat ze niet zo representatief zijn voor games :p, dan ben je beter af met de GTX980 denk ik.

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 27-05 05:26
Zo vaag is het niet, de titan presteert ook maar ~30% beter dan een 770.

Mechwarrior Online: Flapdrol


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 22:40
Ik vond deze video wel vermakelijk over de GTX 970. Vooral het stukje over dat mensen vervolgens gaan upgraden naar het duurdere model was wel een geinig punt :P (niet te serieus nemen natuurlijk).

[YouTube: https://www.youtube.com/watch?v=spZJrsssPA0]

[Voor 4% gewijzigd door sdk1985 op 12-03-2015 22:19]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 27-05 14:18

Jeroenneman

Pre-order/Early Acces: Nee!

Je krijgt vanaf deze week de game "The Witcher 3" gratis bij een GTX 960/970/980!

Check ook even bij je shop als je vorige week een van deze kaarten hebt besteld!
Ik heb zelf bij 4Launch vorige week al de 960 gekocht, deze week een mailtje gestuurd en vanochtend in de brievenbus:



Erg netjes van 4Launch, bedankt hiervoor!

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 27-05 05:26
Hij blijft 1/32 DP, meer de opvolger van de 780Ti dan? 999 is wel een stuk duurder, maar goed, wel 4x de vram.

Mechwarrior Online: Flapdrol


  • maratropa
  • Registratie: Maart 2000
  • Niet online
Tja, ipv fp64 perf. krijg je extra fp32 perf, best een aardige trade-off. Je ziet bij de luxrender test van Anandtech dat hij flink beter scoort dan de gtx 980. Al had ik graag gezien dat ze wat meer real life cuda benchjes zouden draaien. Maar het gaat weer een erg leuke kaart zijn om op te renderen, en met scenes waar je voorheen een veel duurdere kaart voor nodig had ivm de hoeveelheid vram.

specs


  • rickyy
  • Registratie: Mei 2007
  • Laatst online: 24-03 18:34


Overgeklokte Titan X toch ongeveer even snel als 2x een 970. Vind het best knap. Prijs daarbuiten gelaten

[Voor 21% gewijzigd door rickyy op 17-03-2015 21:22]

Core i5 4670k, 8gb, MSI GTX460 HAWK TA


  • Chester
  • Registratie: September 2003
  • Niet online
Hmm, ik vind de Titan X toch interessanter dan ik had verwacht dat het zou zijn. Goede prestaties, single card, lagere stroomverbruik dan ik had verwacht, en dus ook stiller/koeler dan ik had verwacht.

"The test of a work of art is, in the end, our affection for it, not our ability to explain why it is good." - Stanley Kubrick


  • Thomg
  • Registratie: September 2010
  • Laatst online: 27-05 13:12

Thomg

Aww yiss

haarbal schreef op dinsdag 17 maart 2015 @ 19:33:
Hij blijft 1/32 DP, meer de opvolger van de 780Ti dan? 999 is wel een stuk duurder, maar goed, wel 4x de vram.
Zo zie ik het inderdaad ook, vergelijkbaar verbruik voor aanzienlijk meer performance.
De prijs is wel een beetje gek en de VRAM is gestoord veel.

Gok zelf dat de 980Ti, net als de 780Ti tov de 780, 25% meer shaders krijgt, 2560, en precies tussen de Titan X en de 980 in zit.

[Voor 4% gewijzigd door Thomg op 18-03-2015 10:48]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Was dit al bekend? :

PCper: SEC Filing Reveals NVIDIA Now Using Samsung for Some Manufacturing

Erg benieuwd of dit ook voor GPU's is. Denk zelf eerder Tegra enzo.

[Voor 40% gewijzigd door Help!!!! op 21-03-2015 09:04]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Pagina: 1 2 3 ... 129 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee