Acties:
  • 0 Henk 'm!

  • Joenino
  • Registratie: November 2011
  • Laatst online: 15:55
Deem schreef op zondag 01 februari 2015 @ 10:35:
Eindelijk, Het is dan nu zover. Hier enkele reallife tests tussen de GTX 970/980 vs R9 290/290X, inclusief framerate en frametime.

<sarcasme mode>
Let vooral op de die enorme frametime spikes van de kreupele GTX970... doen ze bij AMD toch beter ... :X 8)7
</sarcasme mode>

1080p:
[video]

1440p:
[video]
Off topic:
Vindt het wel frapant dat mijn ASUS Strix 970 FPS neer zet ala de 980 in het BF4 stuk. Online zit ik meestal zelfs hoger. Nou heb ik mijn 970 wel "flink" overklokt maar dan nog zou de 980 sneller moeten zijn toch? Online zit ik meestal tussen de 100-120 FPS.

On-topic:

Leuk die filmpjes maar hij had er eigenlijk het geheugen verbruik erbij moeten zetten. Nu weten we nog niet wat er gebeurd bij hoeveel VRAM usage.

Lian Li OI11 - Ryzen 9 5900x - 32GB DDR 4 - RX9070XT


Acties:
  • 0 Henk 'm!
De EVGA 980 Kingpin is uit

Deze kopen of wachten op een 980Ti of volgende generatie.

Keuzes , Keuzes ... :?

Mss als m'n 780 Lightning met NZXT kraken X60 verkocht geraakt m'n keuze vergemakkelijkt.

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • dannbla
  • Registratie: September 2010
  • Laatst online: 09-09 17:35
Kan iemand mij vertellen waarom ik niet hoger kom dan dit (zonder te crashen):
Voeding: OCZ ModXStream Pro 600W

Afbeeldingslocatie: http://i.imgur.com/RIyrjPAl.jpg

Afbeeldingslocatie: http://i.imgur.com/lh2ySPH.png

[ Voor 192% gewijzigd door dannbla op 02-02-2015 13:30 ]

There's no school like the old school and i'm the headmaster


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15-09 20:57

Deathchant

Don't intend. Do!

nvidia666 schreef op maandag 02 februari 2015 @ 12:32:
De EVGA 980 Kingpin is uit

Deze kopen of wachten op een 980Ti of volgende generatie.
Keuzes , Keuzes ... :?
Wil je serieus 750 euro gaan uitgeven aan deze K|NGP|N? Belangrijkere vraag: ga jij echt zo enorm OC'en dat je deze kaart nodig gaat hebben? Ok, t.o.v. een reguliere Classified is dit maar 20 euro duurder, maar denk je niet dat de GTX980 FTW dan een betere keuze is? De FTW's hebben ook het voordeel van betere onderdelen op de kaart, en verschillen maar een paar MHz t.o.v. de classifieds/kingpin, maar wel 100 euro goedkoper. Dat vind ik nogal wat ;)
Flying schreef op maandag 02 februari 2015 @ 09:55:
[...]
De enige kaarten die ik tot nu toe heb voorbij zien komen zijn mensen die denken 350 euro te vangen, een prijs die ze er zelf voor hadden betaald. Kun je net zo goed een nieuwe kopen.
Over 2e hands gesproken.....375 euro voor een GTX780 non-Ti:
V&A aangeboden: Gainward GeForce GTX 780 3GB Phantom GLH

En minimaal 230 euro voor een GTX770...
V&A aangeboden: MSI GeForce GTX 770 4GB Gaming

Gewoon NEE :F

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
okaydanny schreef op maandag 02 februari 2015 @ 13:10:
Kan iemand mij vertellen waarom ik niet hoger kom dan dit (zonder te crashen):
Voeding: OCZ ModXStream Pro 600W

[afbeelding]

[afbeelding]
Omdat elke kaart anders is, daar is je antwoord.

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15-09 20:57

Deathchant

Don't intend. Do!

Leuk filmpje over de memory-gate van de GTX970: http://nl.hardware.info/t...0-memory-gate-35gb-of-4gb

Vooral de allerlaatste zin: het blijft wat ons betreft storm in een glas water :)

[ Voor 25% gewijzigd door Deathchant op 02-02-2015 15:27 ]

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Tja, dat heeft iedereen met een beetje nuchtere kijk op de situatie al lang door ;)

Acties:
  • 0 Henk 'm!

  • TRAXION
  • Registratie: Februari 2002
  • Laatst online: 10-09 23:11
okaydanny schreef op maandag 02 februari 2015 @ 13:10:
Kan iemand mij vertellen waarom ik niet hoger kom dan dit (zonder te crashen):
Joh mijn msi wil niet eens hoger dan default speed of ik krijg al driver crashes....

Acties:
  • 0 Henk 'm!

Verwijderd

Toevallig iemand ervaring met een Asus strix 970 in een CM 690 II Advanced case? Wil graag even verifiëren dat hij past. Volgens de specificaties die ik online kan vinden zou het geen probleem moeten zijn wil het alleen graag zeker weten voordat ik in deze kaart ga investeren.

Acties:
  • 0 Henk 'm!

  • -Bas
  • Registratie: Juli 2011
  • Laatst online: 13-09 09:14
Verwijderd schreef op maandag 02 februari 2015 @ 18:11:
Toevallig iemand ervaring met een Asus strix 970 in een CM 690 II Advanced case? Wil graag even verifiëren dat hij past. Volgens de specificaties die ik online kan vinden zou het geen probleem moeten zijn wil het alleen graag zeker weten voordat ik in deze kaart ga investeren.
Ja dat past, de Asus variant in ieder geval wel. ;)

Acties:
  • 0 Henk 'm!

  • fier0x
  • Registratie: Augustus 2011
  • Laatst online: 15-09 09:05
unfor schreef op maandag 02 februari 2015 @ 16:13:
Tja, dat heeft iedereen met een beetje nuchtere kijk op de situatie al lang door ;)
Dat mag zo zijn maar ik ben blij dat een deel van de mensen er een principe kwestie van maakt (ben er een van). We hebben op het moment maar twee echte spelers die dit type kaarten maken en als de een er prima mee weg zou komen dan kom je bij de next gen misschien alleen maar meer van dit soort truukjes tegen. Nu kan Nvidia (en AMD) er zeker van zijn dat specs de volgende keer weer onder een vergrootglas liggen bij menig reviewer en expert.
Ik had de GTX970 overigens net een dag of twee, had ik heb al een tijdje gehad dan zou ik de kaart waarschijnlijk niet ruilen. Maar het siert wel de winkels met een klantenservice die hier zo coulant mee omgaat (terug nemen "oudere/gebruikte" kaarten). Het had nog mooier geweest als Nvidia zelf achter zijn kaart was gaan staan en met iets was gekomen.

Acties:
  • 0 Henk 'm!

  • CrapperDeCrap
  • Registratie: Maart 2012
  • Laatst online: 10-06 11:09
Heel mooi die nuchtere kijk en ik ben ook zeer tevreden met mijn Asus, maar dit is geen manier van zaken doen. Jammer en triest dat Nvidia dit flikt en niet eens van zich laat horen, ze steken hun kop in het zand, maar voor de toekomstige kaarten is dit goed nieuws. De 970 zal vermoedelijk wat meer in waarde gaan zakken, voornamelijk 2e hands wat voordelig kan zijn voor toekomstig sli, Amd kan hier goed op in gaan spelen en Nvidia kijkt wel uit voor ze weer zo'n "communicatie fout" tentoonspreiden. Ik ben benieuwd.

Acties:
  • 0 Henk 'm!

  • ACC
  • Registratie: Februari 2007
  • Laatst online: 15-09 21:11

ACC

Ik twijfel of ik mijn 970 terug moet sturen.
Wellicht dat ik er nu (bijna) geen last van heb, maar ik heb deze kaart bewust gekocht omdat het een 4gb kaart is. Mijn bedoeling was om met deze kaart gewoon een aantal jaar mee te doen. En dus ook de games die wellicht over een jaar 3.5gb + gaan vragen gewoon te kunnen spelen.

Nou ben ik dus bang dat als deze periode er is, en dus games zijn die constant meer dan 3.5gb eisen, de game niet optimaal speelbaar wordt.

Acties:
  • 0 Henk 'm!

Verwijderd

ACC schreef op dinsdag 03 februari 2015 @ 00:44:
Ik twijfel of ik mijn 970 terug moet sturen.
Wellicht dat ik er nu (bijna) geen last van heb, maar ik heb deze kaart bewust gekocht omdat het een 4gb kaart is. Mijn bedoeling was om met deze kaart gewoon een aantal jaar mee te doen. En dus ook de games die wellicht over een jaar 3.5gb + gaan vragen gewoon te kunnen spelen.

Nou ben ik dus bang dat als deze periode er is, en dus games zijn die constant meer dan 3.5gb eisen, de game niet optimaal speelbaar wordt.
Als jij dacht dat je aan 4GB genoeg had, heb je het mis. Als het nog binnen de 14 dagen was zou ik het wel doen.

[ Voor 4% gewijzigd door Verwijderd op 03-02-2015 01:34 ]


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 20:58
Maar je wist toch al lang dat de kaart op hoge resoluties (hoog geheugen verbruik) minder ging presteren ten opzichte van AMD kaarten?
Wellicht dacht iedereen dat het alleen met de bus te maken had, maar blijkbaar is dat niet het enige.
De reden waarom een kaart minder gaat presteren lijkt me irrelevant, dat ie het doet had je tijdens de eerste benchmarks op dag 1 al kunnen weten.
Ik vind niet dat je na aankoop nog mag klagen, de kaart is niet opeens slechter geworden,

Acties:
  • 0 Henk 'm!

  • ACC
  • Registratie: Februari 2007
  • Laatst online: 15-09 21:11

ACC

Verwijderd schreef op dinsdag 03 februari 2015 @ 01:34:
[...]


Als jij dacht dat je aan 4GB genoeg had, heb je het mis. Als het nog binnen de 14 dagen was zou ik het wel doen.
Ik heb een MSI en kan het tot 28 feb terugsturen.

Hoezo denk jij dat 4gb niet genoeg is dan, voor de aankomende ~2 jaar?

Acties:
  • 0 Henk 'm!

  • beebie121
  • Registratie: December 2011
  • Laatst online: 16-09 11:09
Ik denk dat je de komende 2 jaar zeker nog goed zit hoor met 4 gb. (of met 3.5 gb).
Het is alleen hoe en wat wil je gamen. Wil je altijd het hoogste van het hoogste dan zal je misschien niet genoeg hebben over 2 jaar aan die 4 gb. maar zet je de graphics een tandje lager dan zal het nog prima lopen.
Ik denk niet dat je kan zeggen: het kan niet meer na 2 jaar die 4 gb. Ik vind dat alleen als games niet meer werken omdat ze meer gb nodig hebben. En dat zie ik de komende 2 en waarschijnlijk nog iets langer, niet gebeuren.
Is er nu uberhaupt een spel wat niet werkt met 2gb? Volgens mij niet.

Acties:
  • 0 Henk 'm!

  • Serial-X
  • Registratie: Januari 2002
  • Laatst online: 14-09 22:33
beebie121 schreef op dinsdag 03 februari 2015 @ 08:34:
Ik denk dat je de komende 2 jaar zeker nog goed zit hoor met 4 gb. (of met 3.5 gb).
Het is alleen hoe en wat wil je gamen. Wil je altijd het hoogste van het hoogste dan zal je misschien niet genoeg hebben over 2 jaar aan die 4 gb. maar zet je de graphics een tandje lager dan zal het nog prima lopen.
Ik denk niet dat je kan zeggen: het kan niet meer na 2 jaar die 4 gb. Ik vind dat alleen als games niet meer werken omdat ze meer gb nodig hebben. En dat zie ik de komende 2 en waarschijnlijk nog iets langer, niet gebeuren.
Is er nu uberhaupt een spel wat niet werkt met 2gb? Volgens mij niet.
Je zult met 4GB idd wel even 'vooruit' kunnen, maar je koopt zo'n kaart natuurlijk om in ieder geval een tijdje games op High/Ultra te kunnen draaien op een fatsoenlijke resolutie(in mijn geval 1440p). Ik hoop dan ook dat 4launch m'n SLI opstelling nog terug wil nemen, omdat ik er niet zeker van ben dat ik dit jaar alle games nog op m'n gewenste instellingen kan spelen. Zie bijv. GTA5 met 4K textures. Indien ze 't terugnemen wacht ik nog tot de release van GTA met aanschaffen nieuwe hardware.

LOL JK THAT'S WHAT RIVERS ARE FOR


Acties:
  • 0 Henk 'm!

  • beebie121
  • Registratie: December 2011
  • Laatst online: 16-09 11:09
Serial-X schreef op dinsdag 03 februari 2015 @ 09:18:
[...]


Je zult met 4GB idd wel even 'vooruit' kunnen, maar je koopt zo'n kaart natuurlijk om in ieder geval een tijdje games op High/Ultra te kunnen draaien op een fatsoenlijke resolutie(in mijn geval 1440p). Ik hoop dan ook dat 4launch m'n SLI opstelling nog terug wil nemen, omdat ik er niet zeker van ben dat ik dit jaar alle games nog op m'n gewenste instellingen kan spelen. Zie bijv. GTA5 met 4K textures. Indien ze 't terugnemen wacht ik nog tot de release van GTA met aanschaffen nieuwe hardware.
Ben ik met je eens hoor. maar ik vraag me af dat als je niet genoeg hebt aan 3.5 gb voor ultra/high zal je dan echt die halve gb merken?
Ik denk dat het net zo situationeel is als dat je het nu merkt.
Ik heb een 980 en ik speel op 1440p. Ik hoop dat ik genoeg heb om 2 jaar op high/ultra te spelen. maar lukt dat niet dan schakel ik gerust een tandje lager. En ik denk dat die halve gb dan er ook niet meer toe doet.
Maar goed dat is natuurlijk toekomst kijken en dat kan ik niet.

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Ik zie nog steeds posters die er van uit gaan dat er problemen ontstaan zodra je de 3.5 GB passeert.
Hebben jullie dit zelf wel getest? Ik en vele andere namelijk wel.
Een game als Shadow of Mordor gaat er over heen maar levert geen problemen op.

Acties:
  • 0 Henk 'm!

  • -Bas
  • Registratie: Juli 2011
  • Laatst online: 13-09 09:14
Verwijderd schreef op dinsdag 03 februari 2015 @ 01:34:
[...]


Als jij dacht dat je aan 4GB genoeg had, heb je het mis. Als het nog binnen de 14 dagen was zou ik het wel doen.
Volgens mij heeft iemand last van het AMD-fanboy-syndroom

Op dit moment lijken de "problemen" wel mee te vallen, de kaart is nu al in heel veel situaties getest en er is nergens een test waarbij de frametimes+fps droppen waaruit geconcludeerd kan worden dat dit komt door het laatste deel van het geheugen.

Zelf zou ik de kaart dan ook niet retour doen, over een jaar of 2 (of eerder) komen de games waarschijnlijk wel over de 4GB. De vraag is echter of een GTX970 ansich wel snel genoeg is om stabiele framerates neer te zetten.

[ Voor 3% gewijzigd door -Bas op 03-02-2015 12:09 ]


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 17:07
Zoals ik al eerder opmerkte denk ik dat je eerder een GPU bottleneck zult oplopen in de toekomst op ultra settings, dan je tegen een vram issue op zal lopen (dit denken de meeste techsites ook). Zo lang hoger dan 1440p nog zo schaars is voor de meeste mensen is het nog geen zaak voor fabrikanten om standaard met 8GB te komen, je gaat dit gewoonweg nog niet actief vullen op resoluties onder UHD.
zo lang er ook geen goed alternatief is voor de 970 blijft het voor mij de beste keus en ga ik hem niet retour doen. Dan zou ik het alleen doen om vervolgens een 980 te nemen en dat is mij het niet waard om 200 euro voor bij te leggen. Een overstap naar de R290(X) ga ik zeker niet doen, de hoeveelheid extra warmte die daarbij uit de kast gaat komen inc extra geluid is een stap terug. Dan liever 500MB minder Vram.

Acties:
  • 0 Henk 'm!

  • stin00
  • Registratie: Mei 2013
  • Niet online
Ik erger me behoorlijk aan alle 'ik ga hem nu sowieso terugsturen' reacties. Ik geloof dat een groot deel van de users ten eerste zelde de >3,5GB aan zal tikken en ten tweede geen idee heeft waar het Vram van een videokaart voor wordt gebruikt. In slechte consoleports zal je best op ultra settings op 1440P de 3.5GB eens overschrijden; dit heb ik zelf ook als ik op m'n 2560x1440px resolutie een game als Shadow Of Mordor speel. In deze game, en vele anderen, wordt het Vram volgepropt met zinloze textures die echt nergens voor dienen. De videokaart kan deze textures beter 'vergeten', maar door slechte programmeerports blijft dit in het Vram hangen. Dit levert overigens geen performance loss op omdat het om zinloze textures gaat die nergens meer voor dienen.

Over een paar jaar gaat je 970 GTX nog perfect mee, je zal zoals -Bas aangeeft eerder tegen de limieten van de chip aanlopen. Je kan je kaart uiteraard RMA sturen en een AMD kiezen, maar dan zit je naar mijn mening met een straalkachel met belabberde drivers opgescheept. Ik heb zowel met de 7850 HD, 7950 HD als de R9 290 Tri-X bizar veel gezeur gehad met flashplayer crashes, artifacts, HDMI handshake geknipper, driverinstallatie problemen en BSODs. Nu ik weer terug ben bij Nvidia is het een verademing; de drivers zitten gewoon zoveel beter in elkaar. Wellicht dat ik nu over kom als een Nvidia 'faboy', maar ik heb AMD een serieuze kans gegeven door drie kaarten te proberen. Ze vreten energie en pompen bizar veel warmte je kast in.

Als deze berichten over Nvidia nooit de media in werden geslingerd had echt 99% van de users nooit geklaagd. Kijk naar alle reviews van techgiganten over de 970 GTX; allemaal lovend en zeer positief. Bij geen enkele review werden FPS drops of rare stuttering waargenomen. Ik lig er overigens niet wakker van dat mensen hun 970 GTX willen terugsturen, maar de redenen waarom zijn soms wel tenenkrommend.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Met zoveel problemen is het toch duidelijk dat er ergens anders een probleem was? Kan toch niet zo zijn dat het bij anderen wel perfect kan werken, maar bij jouw niet?

Maxwell is trouwens ook de eerste generatie waarbij nVidia duidelijk een betere performance/watt had. Bij de HD7950 was namelijk AMD nog veel beter als nVidia.
http://www.techpowerup.com/reviews/AMD/HD_7950/28.html

Dus ja je komt nogal kortzichtig over. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
Nu je het zegt ik heb een 780L een 290 in twee verschillende PC's

Met de 780 hebben ik amper problemen of als er iets is weet je het meteen op te lossen.
Bij de 290 veel problemen BSOD's en het ergste van alles je weet totaal niet waar het aan ligt

Kleine kanttekening op Max stabiel OC haalt een 290 45 Fps en 780L 35 Fps op maffia 2 op 4K max. :p

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • stin00
  • Registratie: Mei 2013
  • Niet online
-The_Mask- schreef op dinsdag 03 februari 2015 @ 13:25:
Met zoveel problemen is het toch duidelijk dat er ergens anders een probleem was? Kan toch niet zo zijn dat het bij anderen wel perfect kan werken, maar bij jouw niet?

Maxwell is trouwens ook de eerste generatie waarbij nVidia duidelijk een betere performance/watt had. Bij de HD7950 was namelijk AMD nog veel beter als nVidia.
http://www.techpowerup.com/reviews/AMD/HD_7950/28.html

Dus ja je komt nogal kortzichtig over. ;)
Mwah, ik heb in die periode 2 totaal verschillende systemen gehad met zowel Windows 7 als Windows 8. Het is behoorlijk raar als AMD kaarten non-stop deze problemen geven terwijl Nvidia kaarten in mijn systemen als een zonnetje draaien. Een vriend van me heeft de HD 7870 Joker en heeft ook altijd dat rare HDMI handshake gezeur als je een TV aanzet die op je videokaart is aangesloten. Alle schermen knipperen dan een keer of drie. Bij hem vliegen ook regelmatig dan alle bureaublad pictogrammen alle kanten op en flashplayer crashed regelmatig.

Uiteraard heb ik de 'diagnose' niet gesteld zonder van alles te proberen op het gebied van verschillende AMD drivers, Windows herinstallaties, videokaart in andere PC proberen, kaarten RMA sturen en noem het maar op. Ik heb het echt nooit kunnen begrijpen aangezien er natuurlijk genoeg mensen zijn waarbij AMD kaarten wel goed draaien. Ik had na een volledige PC upgrade waarbij álles was vervangen exact dezelfde problemen met de nieuwere generatie AMD kaarten.

Maar ik begrijp dat ik kortzichtig overkom, het gaat iets te veel tijd kosten om hier een gigantische post te maken met alle problemen en mogelijke oplossingen die ik heb geprobeerd :) Ik wilde overigens dolgraag na altijd Nvidia te hebben gebruikt eens overstappen naar AMD, vooral omdat de R9 290 series gewoon bijzonder geweldig presteren tegen een betere prijs dan Nvidia. Als je rondkijkt op V&A dan staat er gewoon R9 290 tri-x kaarten van Sapphire op die tegenwoordig al voor rond de 200 van eigenaar wisselen... een 970 GTX nieuw aanschaffen voor 150 euro meer is dan lastig te rechtvaardigen als je kijkt naar het performance verschil.

Acties:
  • 0 Henk 'm!

  • JayJay
  • Registratie: September 2009
  • Laatst online: 17-06-2024
-The_Mask- schreef op dinsdag 03 februari 2015 @ 13:25:
Met zoveel problemen is het toch duidelijk dat er ergens anders een probleem was? Kan toch niet zo zijn dat het bij anderen wel perfect kan werken, maar bij jouw niet?

Maxwell is trouwens ook de eerste generatie waarbij nVidia duidelijk een betere performance/watt had. Bij de HD7950 was namelijk AMD nog veel beter als nVidia.
http://www.techpowerup.com/reviews/AMD/HD_7950/28.html

Dus ja je komt nogal kortzichtig over. ;)
Vind het niet echt kortzichtig , eerder de waarheid , ik heb de hd4870 en hd4870x2 gehad , heb nog nooit zo veel ellende meegemaakt met mijn pc destijds, daarnaast is AMD leuk kwa prijs maar warmte en wattage verhouding is ver te zoeken , leuk dat tie 200 euro 2e hands kost de 290x maar die warmte en wattage komt mijn kast niet in 8)7

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 17:07
-The_Mask- schreef op dinsdag 03 februari 2015 @ 13:25:
Met zoveel problemen is het toch duidelijk dat er ergens anders een probleem was? Kan toch niet zo zijn dat het bij anderen wel perfect kan werken, maar bij jouw niet?

Maxwell is trouwens ook de eerste generatie waarbij nVidia duidelijk een betere performance/watt had. Bij de HD7950 was namelijk AMD nog veel beter als nVidia.
http://www.techpowerup.com/reviews/AMD/HD_7950/28.html

Dus ja je komt nogal kortzichtig over. ;)
Je vergelijkt een jaar nieuwere AMD 7950 (28nm) met een oude generatie nVidia 5xx serie (40 NM). Wees dan eerlijk en zet hem dan tegen z'n echte concurrent die anderhalve maand later was gekomen, namelijk de nV 6xx serie (28nm). Dat is niet meer in het voordeel van de AMD ;)

AMD heeft voor het laatst echt verschil gemaakt toen de eerste Fermi chips van de band af kwamen rollen in 2010. De nV 470/480 chips waren gewoon niet goed als het ging om verbruik en daar profiteerde AMD van met de 5xxx serie die al een tijdje uit was. De afgelopen 3-4 jaar is nVidia echter elke keer zuiniger en nemen ze elke keer meer afstand van AMD met constant lager verbruik. En het ergste is dat het gat per generatie steeds groter aan het worden is.

De geruchten zeggen dat de nieuwe high end chip van AMD 300watt gaan verstoken, dus voorlopig lijkt het erop alsof AMD het niet voor elkaar krijgt om het verbruik te laten afnemen. Het is niet te hopen dat AMD gpu's de cpu divisie aan het volgen is.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sjekneck schreef op dinsdag 03 februari 2015 @ 14:17:
[...]

Je vergelijkt een jaar nieuwere AMD 7950 (28nm) met een oude generatie nVidia 5xx serie (40 NM). Wees dan eerlijk en zet hem dan tegen z'n echte concurrent die anderhalve maand later was gekomen, namelijk de nV 6xx serie (28nm). Dat is niet meer in het voordeel van de AMD ;)
Dat kan ik doen, maar maakt weinig verschil.
http://www.techpowerup.co...A/GeForce_GTX_680/28.html

Anandtech heeft niet de juiste apparatuur voor het meten van het verbruik van de videokaart en doet dit dan ook niet.
JayJay schreef op dinsdag 03 februari 2015 @ 14:02:
[...]


Vind het niet echt kortzichtig , eerder de waarheid , ik heb de hd4870 en hd4870x2 gehad , heb nog nooit zo veel ellende meegemaakt met mijn pc destijds, daarnaast is AMD leuk kwa prijs maar warmte en wattage verhouding is ver te zoeken , leuk dat tie 200 euro 2e hands kost de 290x maar die warmte en wattage komt mijn kast niet in 8)7
Maar wat als het bij 99% van de mensen wel prima werkt, ligt het dan niet aan die 1%? Is ook niet dat nVidia's drivers 100% stabiel zijn, die hebben de laatste jaren ook genoeg problemen gehad, zelfs drivers die videokaarten sloopten, dus zo zwart wit is het niet.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • JayJay
  • Registratie: September 2009
  • Laatst online: 17-06-2024
-The_Mask- schreef op dinsdag 03 februari 2015 @ 14:48:
[...]

Dat kan ik doen, maar maakt weinig verschil.
http://www.techpowerup.co...A/GeForce_GTX_680/28.html

Anandtech heeft niet de juiste apparatuur voor het meten van het verbruik van de videokaart en doet dit dan ook niet.


[...]


Maar wat als het bij 99% van de mensen wel prima werkt, ligt het dan niet aan die 1%? Is ook niet dat nVidia's drivers 100% stabiel zijn, die hebben de laatste jaren ook genoeg problemen gehad, zelfs drivers die videokaarten sloopten, dus zo zwart wit is het niet.
ik heb ook wel degelijk wel eens een aanvaring met drivers van nvidia gehad , daar gaat het ook niet om , ik vind prachtig dat amd leuk meedoet met de prestatie en prijs alleen de warmte en wattage verpest voor mij die verhouding.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Maar dat is dus alleen maar zo sinds de nieuwe Maxwell kaarten, daarvoor was dat namelijk niet het geval en dat was mijn punt. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • beebie121
  • Registratie: December 2011
  • Laatst online: 16-09 11:09
Ik weet dat je veel van GPU's af weet @ The Mask Maar als ik eens 680 vs 7970 power consumption google kom ik toch echt op sites die zeggen dat de 7970 meer verbruikt.

http://www.anandtech.com/bench/Product/618?vs=555

http://gpuboss.com/gpus/Radeon-HD-7970-vs-GeForce-GTX-680

ik post gewoon 2 sites die ik als eerste zag hoor.
Dus qua watt/performance is het misschien wat anders maar ook jij (toch aardig AMD minded ;)) moet toegeven dat Nvidia de laatste jaren het verbruik prima op orde heeft. En dat geeft toch ook niet?
AMD had het beter op orde en lijkt de laatste jaren iets minder goed op orde te hebben.

Jammer vind ik het wel.
Ik heb graag keuze. En nu is het voor mij een minder grote keuze aangezien Nvidia kaarten minder verbruiken en mede daardoor zeer zeer stil zijn. En aangezien hij bij mij in mn woonkamer staat is dat 1 van de belangrijkste dingen (naast snel zijn :D)

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 17:07
-The_Mask- schreef op dinsdag 03 februari 2015 @ 14:48:
[...]

Dat kan ik doen, maar maakt weinig verschil.
http://www.techpowerup.co...A/GeForce_GTX_680/28.html

Anandtech heeft niet de juiste apparatuur voor het meten van het verbruik van de videokaart en doet dit dan ook niet.
[...]
Dat laat vrijwel exact hetzelfde verschil zien als Anandtech. Dus nog steeds, het verbruik/prestatie is sinds de 79xx serie structureel in het voordeel van nVidia en dat gat groeit per nieuwe chip release!
-The_Mask- schreef op dinsdag 03 februari 2015 @ 14:59:
Maar dat is dus alleen maar zo sinds de nieuwe Maxwell kaarten, daarvoor was dat namelijk niet het geval en dat was mijn punt. ;)
Oneens. Bij de 79xx/6xx serie was het nog een klein verschil. Daarna is het AMD letterlijk in vrije val gekomen. Elke generatie hoger verbruik/warmteontwikkeling en elke keer een toename in geluidsproductie van de koeler. Indien de R3xx serie gaat doen wat men nu speculeert gaat het verbruik dus alweer fors omhoog. Het verschil is nu al bijna 100watt load tussen een 980 en de 290x! En dat verschil gaat straks dus richting de 150watt ALS de geruchten kloppen. Dan kun je het wegwuiven en roepen dat het pas sinds Maxwell zo is, maar dat klopt niet.

En daarmee komt ook gelijk de aap uit de mouw dat AMD al een paar jaar steeds meer aan het prijsvechten is, dat is het enige wat ze nog kunnen doen om mensen over de streep te trekken. Prestaties van een chip ligger lager, het verbruik, warmte en geluidsproductie zijn hoger. Op 4K maken ze het nog een beetje goed, maar die markt is gewoon te klein om rake klappen uit te delen.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
beebie121 schreef op dinsdag 03 februari 2015 @ 15:21:
Ik weet dat je veel van GPU's af weet @ The Mask Maar als ik eens 680 vs 7970 power consumption google kom ik toch echt op sites die zeggen dat de 7970 meer verbruikt.

http://www.anandtech.com/bench/Product/618?vs=555

http://gpuboss.com/gpus/Radeon-HD-7970-vs-GeForce-GTX-680

ik post gewoon 2 sites die ik als eerste zag hoor.
Alleen GPUBoss is een lachertje die meten nooit iets, geen performance en geen verbruik. En Anandtech is een prima site, alleen kunnen ze niet het verbruik van de videokaart meten.
Dus qua watt/performance is het misschien wat anders maar ook jij (toch aardig AMD minded ;)) moet toegeven dat Nvidia de laatste jaren het verbruik prima op orde heeft. En dat geeft toch ook niet?
AMD had het beter op orde en lijkt de laatste jaren iets minder goed op orde te hebben.
Is alleen maar beter, hoe beter de performance/watt hoe beter. Dit betekend namelijk ook betere performance over het algemeen. Je hebt namelijk maar een beperkt maximaal vermogen.

Maar zoals je in mijn linkjes kan zien, is pas nVidia bij Maxwell echt beter in performance/watt. Kepler was was vrij gelijkwaardig qua performance/watt en bij Fermi was AMD duidelijk de betere in performance/watt.

Nog een extra linkje dan om te laten zien hoe het echt zit:
http://www.techpowerup.co...A/GeForce_GTX_760/28.html
sjekneck schreef op dinsdag 03 februari 2015 @ 15:25:
[...]

Dat laat vrijwel exact hetzelfde verschil zien als Anandtech. Dus nog steeds, het verbruik/prestatie is sinds de 79xx serie structureel in het voordeel van nVidia en dat gat groeit per nieuwe chip release!


[...]

Oneens. Bij de 79xx/6xx serie was het nog een klein verschil. Daarna is het AMD letterlijk in vrije val gekomen. Elke generatie hoger verbruik/warmteontwikkeling en elke keer een toename in geluidsproductie van de koeler. Indien de R3xx serie gaat doen wat men nu speculeert gaat het verbruik dus alweer fors omhoog. Het verschil is nu al bijna 100watt load tussen een 980 en de 290x! En dat verschil gaat straks dus richting de 150watt ALS de geruchten kloppen. Dan kun je het wegwuiven en roepen dat het pas sinds Maxwell zo is, maar dat klopt niet.

En daarmee komt ook gelijk de aap uit de mouw dat AMD al een paar jaar steeds meer aan het prijsvechten is, dat is het enige wat ze nog kunnen doen om mensen over de streep te trekken. Prestaties van een chip ligger lager, het verbruik, warmte en geluidsproductie zijn hoger. Op 4K maken ze het nog een beetje goed, maar die markt is gewoon te klein om rake klappen uit te delen.
Volgens mij lees je het nogal verkeerd. Zoals ik al zei is Anandtech niet in staat om het verbruik van de videokaart te meten. Je kunt dit zelf ook gewoon bekijken, er wordt ook nergens beweerd dat ze het wel kunnen volgens mij. En aan de cijfers kun je ook duidelijk zien dat het niet het verbruik van de videokaart is wat ze meten.

Waarom TechPowerUp wel juist is? Daar meten ze namelijk het gemiddelde verbruik over een lange tijd. Is immers totaal niet interessant om te weten wat het piekverbruik is als je de performance/watt wil weten. Je moet dan het gemiddelde verbruik meten over een lange tijd en dat is precies wat TechPowerUp doet.

Dat nVidia er bij sommige site's beter uit kan komen kan kloppen, maar dat zegt meer over de site en hun testmethode dan over de performance/watt verhouding. Zij meten dan vaak het piekverbruik en dan ook nog van het hele systeem, met een cheap-ass meter. Drie fouten in één test.

nVidia kapt namelijk het max verbruik af bij de laatste generaties, vooral bij Maxwell met Boost 2.0 is dit extreem het geval. Ga je dan piekverbruik met elkaar vergelijken dan krijg een hele scheve uitkomst als de andere het niet zo afknijpt. Wil je dus de performance/watt weten meet je het gemiddelde verbruik, dat is immers ook wat je betaald.

De andere twee fouten, goedkope meter en hele systeem meten heb ik dan nog niet eens meegenomen. Dus als je echt goed kijkt zie je dat nVidia pas sinds de nieuwe Maxwell architectuur een betere performance/watt heeft, bij Kepler het gelijk was en bij Fermi AMD de betere was.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 21:38
sjekneck schreef op dinsdag 03 februari 2015 @ 15:25:
[...]
Het verschil is nu al bijna 100watt load tussen een 980 en de 290x! En dat verschil gaat straks dus richting de 150watt ALS de geruchten kloppen. Dan kun je het wegwuiven en roepen dat het pas sinds Maxwell zo is, maar dat klopt niet.
Een paar posts geleden roep je zelf dat het unfair is om GPU's van verschillende generaties met elkaar te vergelijken. Nu het jou uitkomt doe je het zelf. De GTX980 is een generatie nieuwer dan de R9 290X, dus je moet de R9 290X vergelijken met de GTX780Ti. Het verschil tussen de GTX780Ti en R9 290X is, afhankelijk van of de Uber mode aan of uit staat, 10 tot 26W (load bij Furmark), iets totaal anders dan de 100W waar jij over spreekt.
En daarmee komt ook gelijk de aap uit de mouw dat AMD al een paar jaar steeds meer aan het prijsvechten is, dat is het enige wat ze nog kunnen doen om mensen over de streep te trekken. Prestaties van een chip ligger lager, het verbruik, warmte en geluidsproductie zijn hoger. Op 4K maken ze het nog een beetje goed, maar die markt is gewoon te klein om rake klappen uit te delen.
Sorry maar dit slaat al helemaal nergens op. In diezelfde review zie je dat de R9 290X prima meekomt met de GTX780Ti; de ene benchmark ligt de 780Ti net voor, de ander wint de 290X net. Over het algemeen is de 780Ti naar mijn weten net wat sneller, maar de R9 290X bood altijd een betere prijs/prestatie verhouding. Vanaf begin vorig jaar zat de R9 290X rond of onder de 500 euro tot aan de fikse daling in prijs in oktober 2014 (zie grafiek onderaan de pagina). De GTX780Ti is al die tijd rond de 650 euro geweest, 30% duurder dan een R9 290X. De GTX780Ti mag dan wel iets sneller zijn, maar geen 30% sneller.

Ook qua temperaturen is het zwaar overdreven. Het enige wat AMD verweten kan worden is dat hun reference koeler gewoon slecht is, te luid en koelt maar net genoeg. Echter, de meeste mensen, en zeker diegenen die het wat boeit, kopen geen reference model maar een aftermarket van Asus, Sapphire, Gigabyte, MSI enzovoorts. Kijk je dan naar de temperaturen (bron: Overclock3D), dan is er wederom geen noemenswaardig verschil. De in dit geval geteste MSI R9 290X Lightning, zo'n beetje de snelste/beste R9 290X is zelfs koeler dan elke andere GTX780Ti (inclusief de veel lager geclockte reference modellen). Gemiddeld is de 780Ti iets koeler (een paar graden), maar niet heel veel.

Hetzelfde geldt voor geluidsproductie: de R9 290X Lighting is even luidruchtig als een GTX780Ti, de XFX Double Dissipation modellen zijn nog een stuk stiller dan de MSI Lightning, zie hier of hier.

Als je puur zou mogen kiezen uit reference modellen, ja dan zijn de NVidia kaarten zeker de betere keuze (koeler en stiller). Doe je dat niet, dan zit er op die punten vrij weinig verschil. In alle gevallen, of het nu een NVidia of AMD kaart is, gaat het om het kiezen van de beste (aftermarket) optie. Wil je een heel stille AMD R9 kaart? Dat kan prima, dan neem je een XFX Double Dissipation, wil je de snelste dan is waarschijnlijk de MSI Lightning de beste optie. Hetzelfde geldt voor NVidia kaarten.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15-09 20:57

Deathchant

Don't intend. Do!

Dan moet natuurlijk ook even erbij gezegd worden dat de koeler van de MSI lightning een zeer extreme koeler is, 3 fans, 3 slots en VEEL heatpipes. Niet dat het slecht is, maar hoe groter je de koeler maakt, hoe beter je temp-resultaten worden (theoretisch dan. Gigabyte heeft vaker ook nog 1 heatpipe extra exáct op de GPU liggen, maar halen toch hogere temps dan bijvoorbeeld een Asus strix met 1 heatpipe minder).
Bij de GTX970 is de inno3d ichill ook de beste kaart die de GPU nog onder de 60 graden full load houdt. Kijk maar naar het formaat koeler.

Als je dát soort lightning of ichill koelers nodig hebt om een GPU op 71c te houden, dan zegt het toch iets over de warmteproductie (en dus stroomverbruik) van de GPU, en idd, een referentiekoeler moet je dan niet eens over beginnen ;)

[ Voor 14% gewijzigd door Deathchant op 03-02-2015 16:43 ]

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • ACC
  • Registratie: Februari 2007
  • Laatst online: 15-09 21:11

ACC

Het gaat een beetje lijken op een nvidia vs amd topic.

Ik game met de 970 op een 1080 scherm en zal ook niet naar een hogere resolutie gaan.
Wel zal ik de oculus rift aanschaffen, die waarschijnlijk een hogere resolutie heeft dan 1080.
Van de games die ik speel ligt het geheugengebruik rond de 2500MB.

Zoals ik eerder zei heb ik deze kaart gekocht om een tijdje vooruit te gaan met de 4gb geheugen.
En idd toekomst kijken kunnen we niet, dus hoe de kaart zal presteren over 1-2 jaar waarbij er games zijn die de volle 4gb gebruiken kunnen we niet echt iets over zeggen. En wellicht zal het geheugen niet eens de boosdoener zijn maar gewoon de gpu zelf.

Vandaar veel twijfel en dus ook de twijfel of ik dan niet het zekere voor het onzekere moet nemen en mijn 970 terug moet sturen en gewoon een kaart moet kopen die WEL de 4gb volledig en snel kan benutten, bv een 980 of een van de nieuwe generatie. Daar is echter nog niks over bekend, toch?

Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
Ik zag dat ik mijn 970 terug kan brengen ivm de geheugen problemen. Dus ikz at te kijken naar eventuele upgrade voor een 980. Maar ik zie dat de prijzen van de 980 iets gestegen zijn. Zal wel te maken hebben met de problemen rondom de 970.
Ik vroeg me af wat de beste 980 is voor een goede OC?
ik twijfel tussen
Asus trixx
EVGA superclocked ACX 2.0
MSI Gaming
Dit zijn de enige 3 die redelijk betaalbaar zijn. En meteen leverbaar.
Ik weet dat het verschil nogal groot was bij de 970's hoeveel stroom je erin kon stoppen. En hebben de 980's wel allemaal Samsung geheugen? Ik heb zelf wel goede ervaringen met Asus en vind de kaarten ook mooi. Alleen de 970's van asus waren het minst goed de OC'en.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
j0ppie schreef op dinsdag 03 februari 2015 @ 17:15:
Zal wel te maken hebben met de problemen rondom de 970.
Nee alles stijgt door de voor ons ongunstige euro/dollar koers.
Alleen de 970's van asus waren het minst goed de OC'en.
Dat is een fabeltje van mensen welke dachten dat je door de 8 pins PEG connector minder ruimte zou hebben voor overklokken met luchtkoeling. Dan als je twee 6 pins, of een 6 of 8 pins hebt, terwijl het eigenlijk geen verschil maakt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
Het power limit was op sommige kaarten wel degelijk hoger te pushen dan andere kaarten. Hierdoor gingen sommige kaarten eerder throttelen. De asus kwam het minst ver. De gigabyte het verste. MSI zat er tussen in. Vroeg me af of die bij de 980's ook op gaat?

[ Voor 11% gewijzigd door j0ppie op 03-02-2015 17:22 ]


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op dinsdag 03 februari 2015 @ 17:20:
Dat is een fabeltje van mensen welke dachten dat je door de 8 pins PEG connector minder ruimte zou hebben voor overklokken met luchtkoeling. Dan als je twee 6 pins, of een 6 of 8 pins hebt, terwijl het eigenlijk geen verschil maakt.
Volgens mij klopt dat niet helemaal. Als ik het goed zeg, kan een 6-pins PEG connector maximaal 75 en een 8-pins PEG connector maximaal 150 watt doorgeven. Dat zou dan betekenen dat 8-pins plus een 6-pins connector samen 225 watt kunnen leveren, tegenover de 150 watt van een enkele 8-pins.

Edit: volgens mij had The_Mask het over de invloed van de koeling op overklokken. In dat geval is bovenstaand wel waar, maar niet relevant.

[ Voor 10% gewijzigd door Verwijderd op 03-02-2015 17:30 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
j0ppie schreef op dinsdag 03 februari 2015 @ 17:21:
Het power limit was op sommige kaarten wel degelijk hoger te pushen dan andere kaarten. Hierdoor gingen sommige kaarten eerder throttelen. De asus kwam het minst ver. De gigabyte het verste. MSI zat er tussen in. Vroeg me af of die bij de 980's ook op gaat?
De powerlimiet is een optie in het bios, welke dacht ik gewoon aanpasbaar is. Met luchkoeling zou het iig sowieso geen verschil mogen maken.
Verwijderd schreef op dinsdag 03 februari 2015 @ 17:28:
[...]


Volgens mij klopt dat niet helemaal. Als ik het goed zeg, kan een 6-pins PEG connector maximaal 75 en een 8-pins PEG connector maximaal 150 watt doorgeven. Dat zou dan betekenen dat 8-pins plus een 6-pins connector samen 225 watt kunnen leveren, tegenover de 150 watt van een enkele 8-pins.
Nee wat jij zegt is onjuist. De cijfers zijn namelijk het theoretische maximale verbruik wat door een kabel mag. De praktijk is totaal anders. Een 6 en 8 pins PEG connector hebben namelijk beide maar drie 12V draden, waardoor de maximale stroom ook gelijk ligt. Dit is rond de 10A voor een enkele draad, maar je kunt het beter onder de 7A houden anders verlies je nogal veel in de kabel, pratend over 18AWG kabel. Dus doe 7 of 10 ampère maal 3 draden maal 12V en je weet het maximale verbruik door een 6 en 8 pins PEG connector.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 17:07
-The_Mask- schreef op dinsdag 03 februari 2015 @ 16:09:
[...]
Volgens mij lees je het nogal verkeerd. Zoals ik al zei is Anandtech niet in staat om het verbruik van de videokaart te meten. Je kunt dit zelf ook gewoon bekijken, er wordt ook nergens beweerd dat ze het wel kunnen volgens mij. En aan de cijfers kun je ook duidelijk zien dat het niet het verbruik van de videokaart is wat ze meten.
Volgens mij zijn we het wel eens met elkaar, alleen zeg ik dat ik een tendens zie in het verbruik dat sinds 2012 aan het groeien is bij de een en aan het afnemen is bij de ander en dat het er naar uitziet dat dit verschil nog groter lijkt te gaan worden. I'm done :)
Moi_in_actie schreef op dinsdag 03 februari 2015 @ 16:22:
[...]

Een paar posts geleden roep je zelf dat het unfair is om GPU's van verschillende generaties met elkaar te vergelijken. Nu het jou uitkomt doe je het zelf. De GTX980 is een generatie nieuwer dan de R9 290X, dus je moet de R9 290X vergelijken met de GTX780Ti. Het verschil tussen de GTX780Ti en R9 290X is, afhankelijk van of de Uber mode aan of uit staat, 10 tot 26W (load bij Furmark), iets totaal anders dan de 100W waar jij over spreekt.
[...]
Daarom poog ik ook nog om de R3xx mee te nemen om de vergelijking eerlijker te houden, maar dat is mits het klopt wat men zegt. Het tdp van de R3xx lijkt naar 300w te gaan, mocht dat kloppen dan gaat het verschil dus nog groter worden.

Ik heb te vlot gesproken in me vorige post. Ik doelde op het gegeven dat de 9xx serie nu al fors veel verschil heeft bij de 2xx serie en dat de r3xx serie waarschijnlijk nog meer gaat verbruiken. Het verschil tussen 780 en 290 is ook een stuk kleiner.
Moi_in_actie schreef op dinsdag 03 februari 2015 @ 16:22:
[...]
Heel verhaal waarom je het niet eens bent over geluid, warmte en koeling
Een chip die minder verbruikt is ook koeler en zal minder geluid nodig hebben om dat zo te houden. Ik zeg dat nVidia daar een streepje voor heeft en dat zoals het er naar uit ziet nog wel even zal houden. En dan komt gelijk ook het prijsverschil voor mij naar voren. AMD zit structureel lager omdat ze moeten. Dat komt oa door iets lagere prestaties, door hoger verbruik, door meer geluid en door meer warmte. Alles bij elkaar weegt het zwaar genoeg waardoor ze moeten inleveren op de marge om af te zetten.

Ok, now i'm really done

Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op dinsdag 03 februari 2015 @ 17:34:

Nee wat jij zegt is onjuist. De cijfers zijn namelijk het theoretische maximale verbruik wat door een kabel mag. De praktijk is totaal anders. Een 6 en 8 pins PEG connector hebben namelijk beide maar drie 12V draden, waardoor de maximale stroom ook gelijk ligt. Dit is rond de 10A voor een enkele draad, maar je kunt het beter onder de 7A houden anders verlies je nogal veel in de kabel, pratend over 18AWG kabel. Dus doe 7 of 10 ampère maal 3 draden maal 12V en je weet het maximale verbruik door een 6 en 8 pins PEG connector.
Bijzonder. Ik ben even aan het rekenen geslagen. Uitgaand van die 7A, met 3 12V draden, kom ik uit op 3 * 7 * 12 = 252W per connector. Dat zou dan meer zijn dan het theoretisch maximum. Is dat theoretisch maximum dan nattevingerwerk, of waar zit dat in?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op dinsdag 03 februari 2015 @ 17:46:
[...]


Bijzonder. Ik ben even aan het rekenen geslagen. Uitgaand van die 7A, met 3 12V draden, kom ik uit op 3 * 7 * 12 = 252W per connector. Dat zou dan meer zijn dan het theoretisch maximum. Is dat theoretisch maximum dan nattevingerwerk, of waar zit dat in?
Boven de 7A krijg je bij een 18AWG kabel verlies in de kabel, of te wel de kabel wordt warmer en de spanning zakt in. Boven de 10A wordt het verlies zo groot dat de kabel echt heel erg warm wordt en de spanning echt erg in zakt. Boven de 13A wordt het zo warm dat het kan gaan smelten. ;)

Hierbij ga je uit van een goede connectie, bij een slechte connectie kunnen de problemen al veel eerder op treden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 21:38
Ik heb de boel even in offtopic tags gezet, aangezien het gaat over de vorige generatie GPU's.
sjekneck schreef op dinsdag 03 februari 2015 @ 17:38:
[...]
Daarom poog ik ook nog om de R3xx mee te nemen om de vergelijking eerlijker te houden, maar dat is mits het klopt wat men zegt. Het tdp van de R3xx lijkt naar 300w te gaan, mocht dat kloppen dan gaat het verschil dus nog groter worden.

Ik heb te vlot gesproken in me vorige post. Ik doelde op het gegeven dat de 9xx serie nu al fors veel verschil heeft bij de 2xx serie en dat de r3xx serie waarschijnlijk nog meer gaat verbruiken. Het verschil tussen 780 en 290 is ook een stuk kleiner.
offtopic:
Aangezien de R9 3xx serie er nog niet is, blijft dat koffiedik kijken. De geruchten rijzen de pan uit, maar zolang er nog geen reviews zijn van (aftermarket) R9 390X kaarten zou ik dat verhaal helemaal buiten beschouwing laten.
[...]
Een chip die minder verbruikt is ook koeler en zal minder geluid nodig hebben om dat zo te houden. Ik zeg dat nVidia daar een streepje voor heeft en dat zoals het er naar uit ziet nog wel even zal houden. En dan komt gelijk ook het prijsverschil voor mij naar voren. AMD zit structureel lager omdat ze moeten. Dat komt oa door iets lagere prestaties, door hoger verbruik, door meer geluid en door meer warmte. Alles bij elkaar weegt het zwaar genoeg waardoor ze moeten inleveren op de marge om af te zetten.
offtopic:
In theorie produceert een chip die minder verbruikt ook minder stroom, in de praktijk hoeft (het is vrijwel altijd wel zo) dat niet zo te zijn. Echter blijkt dat het uiteindelijk vrij weinig scheelt; een gemiddelde (aftermarket) GTX780Ti is zo'n 3 graden koeler dan een aftermarket R9 290X.

En hoezo moet AMD de prijzen lager houden? De R9 290X is eerder uitgekomen dan de GTX780Ti. De adviesprijs voor de R9 290X was volgens Tweakers 480 euro. Deze prijs was gesteld voordat de prijzen en prestaties van de GTX780Ti bekend waren. De adviesprijs van de 780Ti kwam later neer op 660 euro. Niets wijst erop dat AMD noodgedwongen de prijzen moest verlagen (wat ze ook niet deden) om te concurreren met de 780Ti, aangezien de AMD al een betere prijs/performance ratio had. Sterker nog, kijk je naar een GTX780 (die voor de R9 290X was gereleased), dan kun je zien dat vlak na de release van de R9 290X (en met de komst van de GTX780Ti) de prijzen van de GTX780 ineens fors daalden. Als er in die periode iemand was die noodgedwongen prijzen moest verlagen, dan was het NVidia wel.
Maar al met al is het allemaal standaard marketing, een product prijzen naar wat hij, kijkend naar de concurrentie, kan leveren. Dat AMD de prijzen recentelijk behoorlijk verlaagd heeft wordt deels veroorzaakt door de nieuwe NVidia kaarten, alsmede de aankomende eigen nieuwe reeks, de R9 3xx.

Als je als gemiddelde consument destijds moest kiezen tussen een R9 290X en GTX780Ti, dan moest je voor jezelf de volgende vergelijking maken: een R9 290X die 3 graden warmer wordt en iets van 5% minder prestatie levert, of een GTX780Ti waarvan het omgekeerde te zeggen is, maar die wel 180 euro duurder is. Als geld een absolute non-factor is en je echt absoluut de beste prestaties wilt, dan kies je voor de 780Ti. In zowat alle andere gevallen is de R9 290X de logische keuze. Hierbij alle voorkeuren/vooroordelen voor een merk daargelaten, aangezien velen in meer of mindere mate wel iets van voorkeur hebben voor X of Y.
Verbruik is hier zowat een non-issue, want door die 10 of 20W extra verbruik van de AMD over de NVidia ga je echt niet ineens een 100W zwaardere voeding nemen. Als de voeding het wel nog net trekt een 780Ti maar net niet meer met een R9 290X, dan zat je sowieso al heel (te) dicht tegen de limiet van jouw voeding. Ook de verhalen van enorme stroomrekeningen zijn zwaar overtrokken. Voordat je die 180 euro extra voor de aanschaf van een 780Ti eruit hebt aan stroom, ben meer dan 20 jaar verder: 20Watt meer à 5 uur gamen per dag (en dat is al zeer ruim gerekend) komt neer op 8.40 euro per jaar.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


Acties:
  • 0 Henk 'm!

Verwijderd

Moi_in_actie schreef op dinsdag 03 februari 2015 @ 18:48:
Ik heb de boel even in offtopic tags gezet, aangezien het gaat over de vorige generatie GPU's.


[...]

offtopic:
Aangezien de R9 3xx serie er nog niet is, blijft dat koffiedik kijken. De geruchten rijzen de pan uit, maar zolang er nog geen reviews zijn van (aftermarket) R9 390X kaarten zou ik dat verhaal helemaal buiten beschouwing laten.



[...]

offtopic:
In theorie produceert een chip die minder verbruikt ook minder stroom, in de praktijk hoeft (het is vrijwel altijd wel zo) dat niet zo te zijn. Echter blijkt dat het uiteindelijk vrij weinig scheelt; een gemiddelde (aftermarket) GTX780Ti is zo'n 3 graden koeler dan een aftermarket R9 290X.

En hoezo moet AMD de prijzen lager houden? De R9 290X is eerder uitgekomen dan de GTX780Ti. De adviesprijs voor de R9 290X was volgens Tweakers 480 euro. Deze prijs was gesteld voordat de prijzen en prestaties van de GTX780Ti bekend waren. De adviesprijs van de 780Ti kwam later neer op 660 euro. Niets wijst erop dat AMD noodgedwongen de prijzen moest verlagen (wat ze ook niet deden) om te concurreren met de 780Ti, aangezien de AMD al een betere prijs/performance ratio had. Sterker nog, kijk je naar een GTX780 (die voor de R9 290X was gereleased), dan kun je zien dat vlak na de release van de R9 290X (en met de komst van de GTX780Ti) de prijzen van de GTX780 ineens fors daalden. Als er in die periode iemand was die noodgedwongen prijzen moest verlagen, dan was het NVidia wel.
Maar al met al is het allemaal standaard marketing, een product prijzen naar wat hij, kijkend naar de concurrentie, kan leveren. Dat AMD de prijzen recentelijk behoorlijk verlaagd heeft wordt deels veroorzaakt door de nieuwe NVidia kaarten, alsmede de aankomende eigen nieuwe reeks, de R9 3xx.

Als je als gemiddelde consument destijds moest kiezen tussen een R9 290X en GTX780Ti, dan moest je voor jezelf de volgende vergelijking maken: een R9 290X die 3 graden warmer wordt en iets van 5% minder prestatie levert, of een GTX780Ti waarvan het omgekeerde te zeggen is, maar die wel 180 euro duurder is. Als geld een absolute non-factor is en je echt absoluut de beste prestaties wilt, dan kies je voor de 780Ti. In zowat alle andere gevallen is de R9 290X de logische keuze. Hierbij alle voorkeuren/vooroordelen voor een merk daargelaten, aangezien velen in meer of mindere mate wel iets van voorkeur hebben voor X of Y.
Verbruik is hier zowat een non-issue, want door die 10 of 20W extra verbruik van de AMD over de NVidia ga je echt niet ineens een 100W zwaardere voeding nemen. Als de voeding het wel nog net trekt een 780Ti maar net niet meer met een R9 290X, dan zat je sowieso al heel (te) dicht tegen de limiet van jouw voeding. Ook de verhalen van enorme stroomrekeningen zijn zwaar overtrokken. Voordat je die 180 euro extra voor de aanschaf van een 780Ti eruit hebt aan stroom, ben meer dan 20 jaar verder: 20Watt meer à 5 uur gamen per dag (en dat is al zeer ruim gerekend) komt neer op 8.40 euro per jaar.
Ik snap zowiezo niet dat mensen nu een 970 gaan nemen, kijk maar op V&A vind je R9 290 reference kaarten al vanaf 150€. En aftermarket al vanaf 180€

Kan je dus lekker CF draaien voor zelfde geld, en true 4 GB :D

Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
Verwijderd schreef op dinsdag 03 februari 2015 @ 18:59:
[...]


Ik snap zowiezo niet dat mensen nu een 970 gaan nemen, kijk maar op V&A vind je R9 290 reference kaarten al vanaf 150€. En aftermarket al vanaf 180€

Kan je dus lekker CF draaien voor zelfde geld, en true 4 GB :D
Ik ben van een 290 naar een 970 gegaan. Heerlijke overstap! Ben er echt blij mee. Ik merk niks van die geheugen bug. En de GPU is een stuk sneller in heel veel gevallen. Daarna vind ik de dynamic super resolution erg fijn bij sommige games. Plus de betere driver support van Nvidia. De kaart is ook zuiniger en een stuk beter de OC'en. Men 290 throttelde de hele tijd ivm warmte van de VRM's
Mensen hebben het altijd over geheugen op videokaarten. Maar het is eigenlijk totaal niet boeiend in 9 van de 10 gevallen. 3.5 gig is genoeg. Stel je hebt 4. Dan gebruikt hij idd meer geheugen. Maar dat zijn vaak loze textures die nog in het geheugen staan. Je hebt niet meer last van poppup met 3.5 gig ofzo. Sterker nog. Veel mensen met 2gb kaarten hebben de zelfde mate van poppup..... Ja op hogere resoluties en heel veel AA heb je idd wat tekort aan geheugen. Maar guess what.... De GPU trekt dat sowieso bij lange na niet. Het komt er eigenlijk op neer dat voordat je geheugen tekort schiet. Je GPU er al lang zoveel moeite mee heeft dat je de graphics toch terug schroeft ivm lage FPS.
Toegegeven. Bij meerdere kaarten sli/cf krijg je een ander verhaal. Maar zelf begin ik daar niet aan ivm microstutter/frametimes delays. Ik vind meerdere kaarten in bijne geen enkele situatie een toevoeging. Zelfs een goed geoptimaliseerde game waar je 190% preforamnce haald met sli is in mjin ogen een 130% boost omdat je last krijgt van frametimes. En om daar nou 200% voor te betalen? Maar goed dat is weer een andere discussie.

Acties:
  • 0 Henk 'm!

  • derx666
  • Registratie: Februari 2004
  • Laatst online: 18:36

derx666

mecker ende blaet

nja, de drivers van nvidia zijn op dit moment ook nog lang niet fatsoenlijk geoptimaliseerd voor de 9x0 serie. Iig niet icm dx9 games die toch nog best veel gespeeld worden. Ja dx9 is oud, maar is zou wel eens willen zien hoeveel dx9 games er gespeeld worden tov dx10/11

BMC Roadmachine Two (2024)
Colnago CLX evo di2 (2021)
Cube Nuroad Race (2022)


Acties:
  • 0 Henk 'm!

  • Phntm
  • Registratie: Maart 2010
  • Laatst online: 16-09 13:20

Phntm

Tlingelingeling

j0ppie schreef op dinsdag 03 februari 2015 @ 19:19:
[...]


Ik ben van een 290 naar een 970 gegaan. Heerlijke overstap! Ben er echt blij mee. Ik merk niks van die geheugen bug. En de GPU is een stuk sneller in heel veel gevallen. Daarna vind ik de dynamic super resolution erg fijn bij sommige games. Plus de betere driver support van Nvidia. De kaart is ook zuiniger en een stuk beter de OC'en. Men 290 throttelde de hele tijd ivm warmte van de VRM's
Mensen hebben het altijd over geheugen op videokaarten. Maar het is eigenlijk totaal niet boeiend in 9 van de 10 gevallen. 3.5 gig is genoeg. Stel je hebt 4. Dan gebruikt hij idd meer geheugen. Maar dat zijn vaak loze textures die nog in het geheugen staan. Je hebt niet meer last van poppup met 3.5 gig ofzo. Sterker nog. Veel mensen met 2gb kaarten hebben de zelfde mate van poppup..... Ja op hogere resoluties en heel veel AA heb je idd wat tekort aan geheugen. Maar guess what.... De GPU trekt dat sowieso bij lange na niet. Het komt er eigenlijk op neer dat voordat je geheugen tekort schiet. Je GPU er al lang zoveel moeite mee heeft dat je de graphics toch terug schroeft ivm lage FPS.
Toegegeven. Bij meerdere kaarten sli/cf krijg je een ander verhaal. Maar zelf begin ik daar niet aan ivm microstutter/frametimes delays. Ik vind meerdere kaarten in bijne geen enkele situatie een toevoeging. Zelfs een goed geoptimaliseerde game waar je 190% preforamnce haald met sli is in mjin ogen een 130% boost omdat je last krijgt van frametimes. En om daar nou 200% voor te betalen? Maar goed dat is weer een andere discussie.
Even ter verduidelijking, de 0.5GB is nog steeds snel genoeg om niks van te merken in games. Als je kaart boven de 3.5GB vliegt merk jij er niks van. Zo zijn er genoeg filmpjes op youtube die met MSI afterburner OSD laten zien dat de kaart 3.9GB runt en geen haperingen vertoont en nog vloeiend 60+ knalt.

Voorbeeld:


Ik denk gewoon dat door al de negatieve press men vergeten is om zelf iets uit te proberen. ;) Je hebt access to 4GB en je blijft dat hebben, de kaart is nog steeds een heer en meester voor het bedrag.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Ik bezit momenteel een gtx680 4gb, is het zinvol om over te stappen naar een gtx970 4gb?

Qua watt consumptie zal ik wel erop voorruit gaan, maar qua game prestaties ook? Of is het verschil niet denderend? Ik game alleen op 1080p.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Deem
  • Registratie: Augustus 2001
  • Laatst online: 05-09 11:13

Deem

Ontcijfer mij!

"May our framerates be high and our temperatures low."


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
Xtr3me4me schreef op woensdag 04 februari 2015 @ 07:54:
Ik bezit momenteel een gtx680 4gb, is het zinvol om over te stappen naar een gtx970 4gb?

Qua watt consumptie zal ik wel erop voorruit gaan, maar qua game prestaties ook? Of is het verschil niet denderend? Ik game alleen op 1080p.
lol, is de paus catholiek?
http://www.anandtech.com/bench/product/1348?vs=1355
op 1080P zit de 970 ergens tussen de 780 en 780ti in.

Acties:
  • 0 Henk 'm!

  • NiTeurmy
  • Registratie: Oktober 2013
  • Laatst online: 16-06 13:15
Heb ook even een test gedaan op mijn EVGA GTX970 sc in Dying light. (V1.3.0)

Afbeeldingslocatie: http://abload.de/img/naamloos22dft.png

Blauw=eerste test
Resolutie: 3325x1871
VRam: 3450 tot 3700MB
FPS:~55

Rood = tweede test
Resolutie: 3840x2160
VRam: 3700MB tot 3995MB
FPS:~20

Op een resolutie van 3840x2160 is de FPS gewoon laag en daardoor is de GPU usage ook zo raar. 8)7
Op een resolutie van 3325x1871 is het spel gewoon speelbaar zonder haperingen ondanks dat het spel meer dan 3,5GB aan Vram gebruikt.

De conclusie is dan ook gewoon dat IK geen problemen heb bij het gebruik van meer dan 3,5GB aan Vram.
:P
PS De frames per seconde veranderen niet wanneer er meer dan 3,5GB Vram word gebruikt, dit blijft stabiel.

Edit: Op een resolutie van 3840x2160 met minder dan 3,5GB Vram loopt het spel nog niet met meer dan 30FPS. :|

[ Voor 7% gewijzigd door NiTeurmy op 04-02-2015 11:47 ]


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
Mooi getest. Het hangt natuurlijk een beetje van de game af. Maar op degelijke resoluties met volledige settings geeft een 970GPU sowieso al wel redelijk de geest toch? Zelfs een 780ti/290x/980 zijn eignelijk niet voldoende voor die resolutie. Ik vind de 970 echt een mooie prijs/kwaliteit kaart voor 1080P. 1440p is ook prima te doen. De reden dat ik op 1440p eerder voor een 980 zou gaan is meer de extra cuda's dan het feit dat je de geheugen bug niet hebt.
Persoonlijk zal ik best een 4K scherm willen halen. Maar behalve het feit dat er geen 120hz support is vind ik het simpelweg te zwaar qua fps.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
NiTeurmy schreef op woensdag 04 februari 2015 @ 11:42:

Op een resolutie van 3840x2160 is de FPS gewoon laag en daardoor is de GPU usage ook zo raar. 8)7
Of er moet veel data uit de laatste 500GB van het geheugen gehaald worden, maar het geheugen is veel te traag om de GPU van genoeg data te voorzien, waardoor de GPU belasting inzakt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • NiTeurmy
  • Registratie: Oktober 2013
  • Laatst online: 16-06 13:15
-The_Mask- schreef op woensdag 04 februari 2015 @ 11:53:
[...]

Of er moet veel data uit de laatste 500GB van het geheugen gehaald worden, maar het geheugen is veel te traag om de GPU van genoeg data te voorzien, waardoor de GPU belasting inzakt.
Ik had er een edit bij gezet.
Wanneer ik de settings verlaag zodat die minder Vram nodig heeft blijft de GPU usage zo en zijn de frames per seconde onder de 30.

Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
precies mijn punt. GPU geeft het loodje voordat het geheugen probleem een issue word. gamen op 4k is sowieso nite mogelijk met 1GPU/nieuwe games/hoge settings.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 21:25
@NiTeurmy

Het probleem van de gtx970 zat hem toch niet in FPS maar meer in Frametimes?
Dat vergeten veel mensen.
Je FPS veranderd misschien niet, maar als je Frametimes veel hoger worden merk je dat als nog als minder vloeiend beeld/gamen.

Ik vind het raar dat je gpu usage in de tweede test lager is.
Juist met hogere resoluties/settings wordt de gpu veel meer gebruikt.
FPS laag en gpu usage (constant 100%) hoog lijkt me normaler, dan wordt je videokaart optimaal benut.

Het kan i.c.m. de rest van je systeem duiden op een cpu bottleneck.
Vreemd dat je het in je eerste test ook niet hebt.
Mijn R9 290 heeft een mooie, stabiele lijn zoals jouw "blauwe" test.
Dat duidt dan eerder op een videokaart bottleneck.

Dit spel lust wel cpu kracht, overclocken van i5's en i7's schijnt veel op te leveren omdat het spel afhankelijk is van singlecore performance.
Dat kan de reden zijn waarom AMD cpu's het veel minder goed doen in deze game.

[ Voor 144% gewijzigd door HugoBoss1985 op 04-02-2015 13:20 ]


Acties:
  • 0 Henk 'm!

  • NiTeurmy
  • Registratie: Oktober 2013
  • Laatst online: 16-06 13:15
HugoBoss1985 schreef op woensdag 04 februari 2015 @ 12:55:
@NiTeurmy

Het probleem van de gtx970 zat hem toch niet in FPS maar meer in Frametimes?
Dat vergeten veel mensen.
Klopt helemaal, kan dit helaas ook niet zo snel even testen en was dit ook even vergeten. 8)7
Ook wat je zegt over de singlecore performance klopt, dat is te merken aan de 'view distance', zet dit bijvoorbeeld op 100% en zelf op 1920x1080 gaat de GPU usage raar doen.

Maarjah misschien had ik dat wel iets te snel geplaatst want ik ging uit van de video hierboven waardoor ik de frametimes ben vergeten. Toch bedankt

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15-09 20:57

Deathchant

Don't intend. Do!

Hmmm, onze buren hebben de 8GB versie van de R9 290X getest en het schijnt dat het pas zin heeft vanaf 4K gaming, maar ze zeggen dat je ook dán geen speelbare fps hebt (je gaat dan bij een 8GB kaart t.o.v. een 4GB kaart van 9 naar 16 fps en dat is niet echt speelbaar).

Dus ja, zo langzaam wordt duidelijk (als het dat al niet allang was) dat de GTX970 gewoon nog steeds de beste kaart is ;)

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
helemaal mee eens. Games gaan ook niet ineens minder draaien ofzo na de bekentmaking van het geheugen issue. Dus dikke prima.

Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 21:38
NiTeurmy schreef op woensdag 04 februari 2015 @ 13:56:
[...]


Klopt helemaal, kan dit helaas ook niet zo snel even testen en was dit ook even vergeten. 8)7
Ook wat je zegt over de singlecore performance klopt, dat is te merken aan de 'view distance', zet dit bijvoorbeeld op 100% en zelf op 1920x1080 gaat de GPU usage raar doen.

Maarjah misschien had ik dat wel iets te snel geplaatst want ik ging uit van de video hierboven waardoor ik de frametimes ben vergeten. Toch bedankt
Ik denk dat die GPU usage drop bij jouw te maken heeft met de slechte optimalisatie van Dying Light, met name wat betreft de CPU. Zoals je in deze review van TotalBiscuit kunt zien gebruikt Dying Light maar 1 CPU core effectief, waardoor met name bij SLI de GPU usage soms enorm inzakt. Zet eens de ingame overlay aan van Afterburner en laat daarin de usage per CPU core zien, grote kans dat er een core aan de 100% zit en daardoor je GPU usage inkakt.
Deathchant schreef op woensdag 04 februari 2015 @ 14:07:
Hmmm, onze buren hebben de 8GB versie van de R9 290X getest en het schijnt dat het pas zin heeft vanaf 4K gaming, maar ze zeggen dat je ook dán geen speelbare fps hebt (je gaat dan bij een 8GB kaart t.o.v. een 4GB kaart van 9 naar 16 fps en dat is niet echt speelbaar).

Dus ja, zo langzaam wordt duidelijk (als het dat al niet allang was) dat de GTX970 gewoon nog steeds de beste kaart is ;)
Die 8GB kaarten zijn er voor surround gaming setups, met name voor surround met 1440P of hoger. In dat geval moet je sowieso al aan 2 of meer kaarten in SLI of Crossfire denken. Aangezien je het geheugen bij een SLI of Crossfire setup (nog) niet bij elkaar mag optellen; bij de aankomende versie van Mantle en DX12 kan dit wellicht wel. Voor elke single screen setup, een enkel 4K scherm is randje, zijn kaarten met 8GB overkill. Dat Hardware.info deze kaart uberhaupt nog test in 1080P snap ik niet zo, iedereen die zo'n kaart zou overwegen weet dat het op 1080P niets extra's brengt. Ik had veel liever gezien dat ze allemaal 2 of 3 kaart setups in Crossfire/SLI hadden getest op 3x1440p of 3x4K. Dan had men wel een duidelijk voordeel gezien.

Daarnaast hebben ze ook geen bekende, echt VRAM slurpende games getest, zoals Shadow of Mordor of een modded Skyrim. Daarin doet deze R9 290X 8GB het namelijk ineens een stuk beter t.o.v. 4GB kaarten, zie hier, hier en hier. Voor een single card setup is 8GB vrij zinloos op dit moment, omdat inderdaad een enkele GPU eerder de bottleneck wordt dan het VRAM. In SLI of Crossfire is het echter een totaal ander verhaal.

edit: kleine aanpassing in verwoording.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 21:25
Komt Nvidia nu ook met 8gb varianten?

W.b.t de test van Hardwareinfo:
In 3dmark Firestrike (Niet getest) en Battlefield (Ik spreekt uit ervaring) zit je minder snel aan 4gb vram dan in Dying Light.
Zelfs met Mantle aan (Veel meer vram gebruik vs Directx) zit ik nog 500mb onder het gebruik in Dying Light.
Dat is op dezelfde resolutie, met alles maximaal.

Met de Nvidia kaarten kun je in Dying Light nog meer details aanzetten, dat lijkt me dan ook weer meer vram gebruik als gevolg te hebben. (vs AMD/ATI)

Sinds de laatste AMD/ATI drivers kun je met de nieuwste serie kaarten ook super resolutions draaien.
Ik heb bijvoorbeeld een 22" scherm met native 1680x1050.
D.m.v. super resolutions gebruik ik nu 1920x1200. (Beste prestatie/kwaliteit verhouding.)
Met een AMD/ATI kaart ben je, wat dat betreft, dus niet afhankelijk van je monitor voor hoge resoluties.
Het gevolg daarvan is dat 3gb/4gb al "verouderd" is, naar mij mening ook voor single monitor setups.

Als de spellen nu al tussen de 3,5gb - 4gb gebruiken, dan vind ik die 8gb zeker geen overbodige luxe.

Speelbaar is het niet maar van 9fps (4gb r9 290x) naar 16fps (8gb r9 290x) is, procentueel gezien, een enorme verbetering.
NiTeurmy schreef op woensdag 04 februari 2015 @ 13:56:
[...]


Klopt helemaal, kan dit helaas ook niet zo snel even testen en was dit ook even vergeten. 8)7
Ook wat je zegt over de singlecore performance klopt, dat is te merken aan de 'view distance', zet dit bijvoorbeeld op 100% en zelf op 1920x1080 gaat de GPU usage raar doen.

Maarjah misschien had ik dat wel iets te snel geplaatst want ik ging uit van de video hierboven waardoor ik de frametimes ben vergeten. Toch bedankt
In een review ergens las ik dat het, in Dying Light, 10 fps kan schelen met een i5/i7 van 3ghz naar 4,5ghz.

ARMA 3 is ook zo'n spel met een engine die weinig gebruikt maakt van alle beschikbare cores/threads van de cpu.

[ Voor 53% gewijzigd door HugoBoss1985 op 04-02-2015 15:00 ]


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
1920x1200 is 3.5 gig echt niet nodig. Dat kaarten zoveel geheugen gebruiken betekent niet dat ze het nodig hebben. Vaak staat er een hoop onnodige informatie in het geheugen. Je hebt met 2 of 3 gb echt niet meer poppup dan met 3.5 of 4gig. Als dat gezeur om geheugen.... De kracht van de GPU is in mijn ogen veel vaker de bottleneck!
Grootste bottleneck voor slechte prestaties top3 in mijn ogen
1. Slechte driver optimalisatie
2. Te trage GPU
3. Te traag geheugen.
Nvidia is wat mij betreft debetere als het gaat om driver optimalisatie (uit eigen ervaring)
De 970 is een erg snelle GPU voor dat geld.
Dus laten we het vooral steeds hebben over hypotetische situaties waarin 3.5gig idd een probleem kan zijn! Want als je precies die game opstart met precies die resolutie dan blijkt idd dat.... sorry maar dat vindik niet zo boeiend:) Het gros van de 970 gebruikers gamed op resoluties rond de 1050/1080/1440P En dan is de 970 gewoon een prima kaart lijkt me.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 21:25
j0ppie schreef op woensdag 04 februari 2015 @ 14:58:
1920x1200 is 3.5 gig echt niet nodig. Dat kaarten zoveel geheugen gebruiken betekent niet dat ze het nodig hebben. Vaak staat er een hoop onnodige informatie in het geheugen. Je hebt met 2 of 3 gb echt niet meer poppup dan met 3.5 of 4gig. Als dat gezeur om geheugen.... De kracht van de GPU is in mijn ogen veel vaker de bottleneck!
Grootste bottleneck voor slechte prestaties top3 in mijn ogen
1. Slechte driver optimalisatie
2. Te trage GPU
3. Te traag geheugen.
Nvidia is wat mij betreft debetere als het gaat om driver optimalisatie (uit eigen ervaring)
De 970 is een erg snelle GPU voor dat geld.
Dus laten we het vooral steeds hebben over hypotetische situaties waarin 3.5gig idd een probleem kan zijn! Want als je precies die game opstart met precies die resolutie dan blijkt idd dat.... sorry maar dat vindik niet zo boeiend:) Het gros van de 970 gebruikers gamed op resoluties rond de 1050/1080/1440P En dan is de 970 gewoon een prima kaart lijkt me.
Waarom zeg je dat het niet nodig is?
Feit is, dat in bepaalde games, die >3,5gb gebruikt wordt.
Als het aanwezig is, en het kan gebruikt worden, dan is dat toch alleen maar voordelig voor de prestaties?
Heeft het alleen met pop-up te maken, of zou het ook voor andere zaken uitmaken?

Een trage gpu met meer geheugen blijft natuurlijk een trage gpu :P
Veel mensen (meestal geen Tweakers) kopen onnodig kaarten met meer vram omdat het als verkoopargument gebruikt wordt.
Wat dat betreft ben ik met je eens dat het niet de belangrijkste reden voor aanschaf van een videokaart moet zijn.

[ Voor 3% gewijzigd door HugoBoss1985 op 04-02-2015 15:10 ]


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
HugoBoss1985 schreef op woensdag 04 februari 2015 @ 15:06:
[...]


Feit is, dat in bepaalde games, die >3,5gb gebruikt wordt.
Als het aanwezig is, en het kan gebruikt worden, dan is dat toch alleen maar voordelig voor de prestaties?
Heeft het alleen met pop-up te maken, of zou het ook voor andere zaken uitmaken?
Meer geheugen betekent vaak niet betere prestaties. Behalve in bepaalde situaties (die niet relevant zijn bij de meeste gamers ivm geen 4K of eyefinity). Stel je hebt nu een 680gtx met 2 en met 4gig. EN je gaat de nieuwste games spelen op 1080p. Dan zul je zien dat de 4gig versie meer geheugen gebruikt. Maar toch heb je een gelijk aantal fps en de zelfde mate van popup etc. Omdat 2 gig genoeg is voor een GPU met de snelheid van een 680. Vergelijk nu een 780 met een 780ti. De extra cuda's voegen veel meer toe dan wat extra geheugen:)
Ik had eerst een 7970AMD kaart met 3 gig. Toen stapte ik over naar een 680gtx met 2 gig. Ondanks dat het geheugen gebruik van de 7970 vaak boven de 2 gig uit stak. Was maar 2 gig geen enkel probleem voor de 680. 680 presteerde soms een stuk beter. Soms ook minder maar dat kwam nie tdoor het geheugen.
Maar ik ben het met je eens dat veel mensen zich er wel blind op staren.Er zijn ook zeker situaties waarin het tekort kan schieten. Maar dat zijn vaak zeldsame situaties op hoge resoluties.
Ik denk idd dat bij trifire 290x opstellingen op belachelijke resoluties 8 gig een voordeel geeft:P maar de mensen die met zulke dingen bezig zijn weten dat zelf ook wel.
Wat ikz efl eigenlijk nog erger vind is dat de 3,5gig van de 970 op een minder brede bus loopt als de 980. De 1ste 3,5 gig van de 970 is namelijk ook echt langzamer als die zelfde heoveelheid geheugen van de 980. Dat stoot me dan nog meer tegen het zere been als die laatste 512mb. Ik vind het dat ook boeiender om iemand met een 980 te zien die het geheugen terugschroeft naar de zelfde snelheid als een 970. En om dan te gaan kijken in welke mate dat invloed heeft op de prestaties.

Acties:
  • 0 Henk 'm!

  • Leader98
  • Registratie: Juli 2000
  • Laatst online: 20:49
Vergeten we hier niet dat de GTX970 een veel goedkopere oplossing is dan de GTX980 en dat bij dat veel schappelijkere prijskaartje dus ook een aangepaste performance hoort?

Ik heb ook gekeken naar een GTX980 ipv mijn net nieuwe GTX970 maar heb toch besloten dat die 200 euro meerprijs over drie jaar een mooie aanbetaling is voor een veel snellere opvolger.

[ Voor 35% gewijzigd door Leader98 op 05-02-2015 11:49 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

HugoBoss1985 schreef op woensdag 04 februari 2015 @ 12:55:
@NiTeurmy

Het probleem van de gtx970 zat hem toch niet in FPS maar meer in Frametimes?
Dat vergeten veel mensen.
Je FPS veranderd misschien niet, maar als je Frametimes veel hoger worden merk je dat als nog als minder vloeiend beeld/gamen.

Ik vind het raar dat je gpu usage in de tweede test lager is.
Juist met hogere resoluties/settings wordt de gpu veel meer gebruikt.
FPS laag en gpu usage (constant 100%) hoog lijkt me normaler, dan wordt je videokaart optimaal benut.

Het kan i.c.m. de rest van je systeem duiden op een cpu bottleneck.
Vreemd dat je het in je eerste test ook niet hebt.
Mijn R9 290 heeft een mooie, stabiele lijn zoals jouw "blauwe" test.
Dat duidt dan eerder op een videokaart bottleneck.

Dit spel lust wel cpu kracht, overclocken van i5's en i7's schijnt veel op te leveren omdat het spel afhankelijk is van singlecore performance.
Dat kan de reden zijn waarom AMD cpu's het veel minder goed doen in deze game.
Hij heeft tussen de tests alleen de resolutie aangepast zover ik kan zien. Dat duidt dus op een bottleneck in het laatste stukje geheugen omdat hij dat moet aanspreken. Als je daar een bottleneck hebt dan krijgt de gpu dus te weinig data waardoor hij dus minder hoeft te werken.
In dit geval zou het ook aan de ROPs kunnen liggen, maar dit betwijfel ik omdat het verschil in resolutie niet zo bijster groot is en je duidelijk kan zien dat het laatste stukje geheugen wordt aangesproken.

Dying Light heeft inderdaad overduidelijk last van een cpu bottleneck. Kon mij er nogal aan ergeren tijdens het filmpje van TB dat hij dat niet als oorzaak zag. SLI is prima in orde in dat spel, dus daar ligt de bottleneck echt niet, vind het jammer dat hij zoiets simpels als een cpu bottleneck niet kan herkennen voor wat het is.
Vraag me af of ze wel gebruik maken van multithreading voor het aanmaken van draw calls. Indien ze dat niet doen dan is dat een nogal domme beslissing 8)7.
Sinds de laatste AMD/ATI drivers kun je met de nieuwste serie kaarten ook super resolutions draaien.
Ik heb bijvoorbeeld een 22" scherm met native 1680x1050.
D.m.v. super resolutions gebruik ik nu 1920x1200. (Beste prestatie/kwaliteit verhouding.)
Met een AMD/ATI kaart ben je, wat dat betreft, dus niet afhankelijk van je monitor voor hoge resoluties.
Het gevolg daarvan is dat 3gb/4gb al "verouderd" is, naar mij mening ook voor single monitor setups.
Je kan dit ook met de Gedosato tool, dan zou je ook voor 3360x2100 kunnen gaan. Dat zou je scherper beeld moeten geven omdat je voor elke pixel nu 2 pixels hebt.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 21:25
Sp3ci3s8472 schreef op vrijdag 06 februari 2015 @ 01:19:
[...]


Hij heeft tussen de tests alleen de resolutie aangepast zover ik kan zien. Dat duidt dus op een bottleneck in het laatste stukje geheugen omdat hij dat moet aanspreken. Als je daar een bottleneck hebt dan krijgt de gpu dus te weinig data waardoor hij dus minder hoeft te werken.
In dit geval zou het ook aan de ROPs kunnen liggen, maar dit betwijfel ik omdat het verschil in resolutie niet zo bijster groot is en je duidelijk kan zien dat het laatste stukje geheugen wordt aangesproken.

Dying Light heeft inderdaad overduidelijk last van een cpu bottleneck. Kon mij er nogal aan ergeren tijdens het filmpje van TB dat hij dat niet als oorzaak zag. SLI is prima in orde in dat spel, dus daar ligt de bottleneck echt niet, vind het jammer dat hij zoiets simpels als een cpu bottleneck niet kan herkennen voor wat het is.
Vraag me af of ze wel gebruik maken van multithreading voor het aanmaken van draw calls. Indien ze dat niet doen dan is dat een nogal domme beslissing 8)7.


[...]


Je kan dit ook met de Gedosato tool, dan zou je ook voor 3360x2100 kunnen gaan. Dat zou je scherper beeld moeten geven omdat je voor elke pixel nu 2 pixels hebt.
Interessant, werkt Gedosata tool net zo goed en makkelijk als de mogelijkheden van AMD en NVIDIA?

Ik ging er bij zijn test vanuit dat het niet aan de videokaart (gpu en/of vram/bus) lag omdat bij elke test meer dan 3,5gb ram in gebruik was. (Zoals hij had vermeld.)
Helaas zie je in MSI afterburner geen verschil in de lijn van het vram gebruik.

Nu je het zegt is het verschil in resolutie niet zo groot, maar het verschil in fps wel en dat vind ik niet proportioneel.
Gezien de drops in gpu gebruik bij de tweede test en bovenstaande, lijkt me dit een schoolvoorbeeld van het probleem van de GTX 970.

Acties:
  • 0 Henk 'm!

Verwijderd

HugoBoss1985 schreef op vrijdag 06 februari 2015 @ 10:21:
[...]


Interessant, werkt Gedosata tool net zo goed en makkelijk als de mogelijkheden van AMD en NVIDIA?

Ik ging er bij zijn test vanuit dat het niet aan de videokaart (gpu en/of vram/bus) lag omdat bij elke test meer dan 3,5gb ram in gebruik was. (Zoals hij had vermeld.)
Helaas zie je in MSI afterburner geen verschil in de lijn van het vram gebruik.

Nu je het zegt is het verschil in resolutie niet zo groot, maar het verschil in fps wel en dat vind ik niet proportioneel.
Gezien de drops in gpu gebruik bij de tweede test en bovenstaande, lijkt me dit een schoolvoorbeeld van het probleem van de GTX 970.
Helaas kan Gedosata maar in een enkele games toegepast worden.
Leader98 schreef op donderdag 05 februari 2015 @ 11:46:
Vergeten we hier niet dat de GTX970 een veel goedkopere oplossing is dan de GTX980 en dat bij dat veel schappelijkere prijskaartje dus ook een aangepaste performance hoort?

Ik heb ook gekeken naar een GTX980 ipv mijn net nieuwe GTX970 maar heb toch besloten dat die 200 euro meerprijs over drie jaar een mooie aanbetaling is voor een veel snellere opvolger.
Rest In Pepperoni Nvidia >:)

Afbeeldingslocatie: http://tweakers.net/ext/f/1sQXBxN6JBiZlLKdB8SCdnAi/full.jpg

[ Voor 27% gewijzigd door Verwijderd op 06-02-2015 15:43 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Verwijderd schreef op vrijdag 06 februari 2015 @ 15:42:
[...]


Helaas kan Gedosata maar in een enkele games toegepast worden.


[...]

Rest In Pepperoni Nvidia >:)

[afbeelding]
Mja...jij vergelijkt een dual GPU met een single GPU. Dat kan je niet vergelijken zo. de 295x2 is dual.

De 290x vs gtx980 is de vergelijking en daar spant Nvidea de kroon. ;)

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

Verwijderd

Xtr3me4me schreef op vrijdag 06 februari 2015 @ 15:52:
[...]


Mja...jij vergelijkt een dual GPU met een single GPU. Dat kan je niet vergelijken zo. de 295x2 is dual.

De 290x vs gtx980 is de vergelijking en daar spant Nvidea de kroon. ;)
Ben je soms blind of zie je die island niet :?

*cue x-files music*

[ Voor 10% gewijzigd door Verwijderd op 06-02-2015 16:05 ]


Acties:
  • 0 Henk 'm!
Dus als ik het goed begrijp doel je hier op een 390X ?

Ik hoop dat het ook zo zal zijn met het verbruik binnen de perken...

[ Voor 40% gewijzigd door nvidia666 op 06-02-2015 16:44 ]

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

Verwijderd

nvidia666 schreef op vrijdag 06 februari 2015 @ 16:43:
Dus als ik het goed begrijp doel je hier op een 390X ?

Ik hoop dat het ook zo zal zijn met het verbruik binnen de perken...
Valt mee...

Afbeeldingslocatie: http://tweakers.net/ext/f/YcOmIRjqed1BcDBa4fhRA9An/full.png
CJ's Radeon Info & Nieuwsdiscussie - Deel 128

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Je hebt wel door dat die tabelletje uit een Chinese duim komen?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op vrijdag 06 februari 2015 @ 16:53:
Je hebt wel door dat die tabelletje uit een Chinese duim komen?
Amd zei op hun pagina dat ze aan het afronden zijn, dus al die info kan wel waar zijn.

Acties:
  • 0 Henk 'm!

  • aap
  • Registratie: Januari 2008
  • Laatst online: 16-09 11:54

aap

Ja scheelt maar net iets meer dan 100 W.

Heb je wel eens een brandende 100 W gloeilamp proberen vast te pakken? :+

Acties:
  • 0 Henk 'm!

Verwijderd

aap schreef op vrijdag 06 februari 2015 @ 17:23:
[...]

Ja scheelt maar net iets meer dan 100 W.

Heb je wel eens een brandende 100 W gloeilamp proberen vast te pakken? :+
Kom we gaan allemaal buiten in dozen wonen, want die 100W gaat de milieu vernietegen!


Btw; omdat we geen huur moeten betalen kunnen we elke maand 2 of 3 topkaarten kopen.
Afbeeldingslocatie: http://www.powned.tv/images/fotos/buitenslapennietbeboeten_gr.jpg

Acties:
  • 0 Henk 'm!
Welja de Nvidia tegenpool zal ook wel wat meer verbruik hebben dusja zeer ver van elkaar zal het zeker niet zitten.
Hoe vlugger de kaarten uitkomen hoe beter :)

Het heeft nu geen zin meer om 750 euro de dokken voor een kingpin 980 terwijl de nieuwe high-end om de hoek staat.
Dus ik wacht wel even... (en dromen van een 980Ti Lightning :z

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

aap schreef op vrijdag 06 februari 2015 @ 17:23:
[...]

Ja scheelt maar net iets meer dan 100 W.

Heb je wel eens een brandende 100 W gloeilamp proberen vast te pakken? :+
Hij is in ieder geval zuiniger dan een GTX480 of GTX580 :+.

Als je de 2 grafieken bekijkt dan zal je vast zien dat de performance/watt bijna gelijk is met die van de GTX980. Grote kans natuurlijk dat deze grafieken onzin zijn, het gaat daar overigens over de 380x niet de 390x blijkbaar.
Maar dit lijkt me niet het correcte topic om dit te discusieren, daar hebben we het CJ topic voor (en in mindere mate het Nvidia topic).

Acties:
  • 0 Henk 'm!

  • Xeon_vl
  • Registratie: Januari 2007
  • Laatst online: 05-09 09:00
Ik heb 3 weken geleden iemand een GTX970 aangeraden aan iemand, die heeft nog niet besteld en heb hem vandaag gewaarschuwd over die geheugen fout. Hij vroeg me of hij dan best voor iets anders ging, en daar weet ik dus zo het antwoord niet op...

Voor die bug bekend was, was die kaart gewoon top, ik vond niet dat er direct een kaart nog maar in de buurt kwam, ook al was hij wel ietsje duurder: die extra euros leken het gewoon allemaal waard.
Enerzijds is de kaart van voor de bug nog steeds dezelfde na de bug. Framerates blijven gewoon dezelfde natuurlijk. Gaat die bug de levensduur significant inkorten als games zwaarder worden, dat vraag ik me nu vooral af. Ergens denk ik dat de volgende generatie games gewoon meer dan 0.5GB geheugen extra zuipt en bijgevolg er altijd prestatie issues zouden optreden.

Alternatieven: prijs/prestatie is er denk ik alleen de R290X? Die is helaas wel een heter en verbruikt meer, wat ik ook een serieus nadeel vind. Zijn er voor de rest nog alternatieven? (in de nabije toekomst?)

Acties:
  • 0 Henk 'm!

  • paragon
  • Registratie: April 2000
  • Laatst online: 21:34
Onderlinge prestatie verschillen zijn nogsteeds het zelfde als voor het "probleem" aan het licht kwam. De kaart is nog steeds top.

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Ik zou hem nog steeds aanraden, betere bang for buck is nog niet op de markt.

Acties:
  • 0 Henk 'm!

  • millman
  • Registratie: November 2005
  • Laatst online: 05-09 00:12

millman

6708Mhz @ -185c

Nee, daar klopt niets van, een 290(x) is meer bang for buck, neemt niet weg dat een 970 gewoon een heerlijke kaart is, waar ik dagelijks van geniet. Stil, koel en snel. prima.

'Heb ik eindelijk mn kamer opgeruimd, is de wereld een puinhoop'


Acties:
  • 0 Henk 'm!

Verwijderd

unfor schreef op vrijdag 06 februari 2015 @ 22:04:
Ik zou hem nog steeds aanraden, betere bang for buck is nog niet op de markt.
2 290's (zie V&A) voor de prijs van een 970 :*)
Kijk als je het niks kan schelen ga je voor een 4 way pricewatch: EVGA GeForce GTX 980 4GB Hydro maar als geld een probleem is waarom niet 2de hands :9
Xeon_vl schreef op vrijdag 06 februari 2015 @ 20:11:
Ik heb 3 weken geleden iemand een GTX970 aangeraden aan iemand, die heeft nog niet besteld en heb hem vandaag gewaarschuwd over die geheugen fout. Hij vroeg me of hij dan best voor iets anders ging, en daar weet ik dus zo het antwoord niet op...

Voor die bug bekend was, was die kaart gewoon top, ik vond niet dat er direct een kaart nog maar in de buurt kwam, ook al was hij wel ietsje duurder: die extra euros leken het gewoon allemaal waard.
Enerzijds is de kaart van voor de bug nog steeds dezelfde na de bug. Framerates blijven gewoon dezelfde natuurlijk. Gaat die bug de levensduur significant inkorten als games zwaarder worden, dat vraag ik me nu vooral af. Ergens denk ik dat de volgende generatie games gewoon meer dan 0.5GB geheugen extra zuipt en bijgevolg er altijd prestatie issues zouden optreden.

Alternatieven: prijs/prestatie is er denk ik alleen de R290X? Die is helaas wel een heter en verbruikt meer, wat ik ook een serieus nadeel vind. Zijn er voor de rest nog alternatieven? (in de nabije toekomst?)
300-serie komt eraan en Nvidia breng in maart de nieuwe TITAN eruit (hopelijk geen 3000€ hé :+ )

[ Voor 79% gewijzigd door Verwijderd op 06-02-2015 23:15 ]


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Verwijderd schreef op vrijdag 06 februari 2015 @ 23:12:
[...]


2 290's (zie V&A) voor de prijs van een 970 :*)


[...]


300-serie komt eraan en Nvidia breng in maart de nieuwe TITAN eruit (hopelijk geen 3000€ hé :+ )
Reference designs, dan mag je er een nieuwe PSU, en vga coolers bij kopen.
Tenzij je het acceptabel vind om constant een stofzuiger naast je aan te hebben.
De goedkoopste nieuwe non-ref is 260 euro, 2e hands met nieuw vergelijken is niet helemaal eerlijk.
Hoewel ik zelf geen enkel probleem heb met een gebruikte GPU.

[ Voor 15% gewijzigd door unfor op 06-02-2015 23:19 ]


Acties:
  • 0 Henk 'm!

Verwijderd

unfor schreef op vrijdag 06 februari 2015 @ 23:17:
[...]

Reference designs, dan mag je er een nieuwe PSU, en vga coolers bij kopen.
Tenzij je het acceptabel vind om constant een stofzuiger naast je aan te hebben.
Non-reference zijn al vanaf 170/180 te krijgen.

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Verwijderd schreef op vrijdag 06 februari 2015 @ 23:18:
[...]


Non-reference zijn al vanaf 170/180 te krijgen.
Wijs mij ze aan, op V&A in ieder geval niet :)
Serieus geinteresseerd aangezien ik mogelijk nog een gpu zoek voor een ander systeem.

[ Voor 16% gewijzigd door unfor op 06-02-2015 23:30 ]


Acties:
  • 0 Henk 'm!

  • ACC
  • Registratie: Februari 2007
  • Laatst online: 15-09 21:11

ACC

Kwam dit vandaag tegen:

The DirectX 12 Performance Preview: AMD, NVIDIA, & Star Swarm (with the GTX 980 beating the R9 290X by over 50%)
http://www.anandtech.com/...w-amd-nvidia-star-swarm/3

Acties:
  • 0 Henk 'm!

Verwijderd

unfor schreef op vrijdag 06 februari 2015 @ 23:25:
[...]

Wijs mij ze aan, op V&A in ieder geval niet :)
Serieus geinteresseerd aangezien ik mogelijk nog een gpu zoek voor een ander systeem.
Je moet goed opletten, de R9 290 (zonder X) is zelfs in prijs omhoog gegaan, maar ik zag rond kerst een lading Tri-X kaarten voor 180€.
ACC schreef op vrijdag 06 februari 2015 @ 23:47:
Kwam dit vandaag tegen:

The DirectX 12 Performance Preview: AMD, NVIDIA, & Star Swarm (with the GTX 980 beating the R9 290X by over 50%)
http://www.anandtech.com/...w-amd-nvidia-star-swarm/3
Jajaja voor 1 spel, hier kunnen fanboys weer handig gebruik van maken ;)

[ Voor 39% gewijzigd door Verwijderd op 06-02-2015 23:59 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Oeps

[ Voor 99% gewijzigd door Verwijderd op 06-02-2015 23:58 ]


Acties:
  • 0 Henk 'm!

  • Xeon_vl
  • Registratie: Januari 2007
  • Laatst online: 05-09 09:00
Verwijderd schreef op vrijdag 06 februari 2015 @ 23:12:
[...]


2 290's (zie V&A) voor de prijs van een 970 :*)
Kijk als je het niks kan schelen ga je voor een 4 way pricewatch: EVGA GeForce GTX 980 4GB Hydro maar als geld een probleem is waarom niet 2de hands :9


[...]
Omdat hij dan ook een duurder mobo en duurdere psu nodig heeft waardoor het totale prijsverschil vrij snel oploopt. Zelf zou ik dat bijvoorbeeld wel doen maar die kerel is geen hardcore gamer, wil gewoon ook recente spelletjes deftig kunnen spelen zo af en toe. En dan vind ik dat dus overdreven. Een 290X is ongeveer even duur, en in de benchmarks van games die hij heeft is dat gelijkaardig aan de GTX970, met als bonus een pak warmte en stroomverbruik, dus ik zou mijn advies enkel willen bijsturen als daar door de geheugenproblemen ernstige redenen toe zijn.
300-serie komt eraan en Nvidia breng in maart de nieuwe TITAN eruit (hopelijk geen 3000€ hé :+ )
Niemand heeft een glazen bol maar wanneer wordt de 300 serie momenteel verwacht? Is dat voor binnen een maand? 2 maanden? ...

Acties:
  • 0 Henk 'm!

  • stin00
  • Registratie: Mei 2013
  • Niet online
Xeon_vl schreef op zaterdag 07 februari 2015 @ 11:06:
Niemand heeft een glazen bol maar wanneer wordt de 300 serie momenteel verwacht? Is dat voor binnen een maand? 2 maanden? ...
AMD heeft op hun Facebook het volgende laten weten: "We're still putting the finishing touches on the 300 series to make sure they live up to expectation,". "Can't wait to reveal them though. We're pretty excited.".

"We don't have an official date to share just yet but the second we know, we will definitely announce it on Facebook."

Dit is overigens de eerste keer dat AMD het zelf de 300-series noemt.

Ik houd het al een tijdje in de gaten en AMD hoopt de kaart eigenlijk voor 24 maart te releasen; dit is de GTA 5 releasedate voor de PC. Ze willen direct benchmarks tonen waarbij de 300 series qua performance de 970 GTX en 980 GTX verslaan bij GTA 5; ze hopen zo zielen terug te winnen.

Acties:
  • 0 Henk 'm!

  • serphilith
  • Registratie: Maart 2011
  • Laatst online: 02-09 15:34
Nou, had mijn 970 omgeruild voor een 290x .. dat beviel me zéér slecht, zie ook hier op Imgur.


Nu heb ik deze ook kunnen ruilen, en heb ik nu de MSI 980 GAMING _/-\o_
Fps en Frametimes volgen.

Acties:
  • 0 Henk 'm!

  • wimdezoveelste
  • Registratie: September 2012
  • Laatst online: 15-09 23:22
Vandaag heb ik bericht gekregen van Alternate dat ik het volledige aankoopbedrag van de 970 terugkrijg.
Op het prijspunt van de 970 is er eigenlijk geen goed alternatief.... Dus ja, ik had dus maar een optie en ik heb dus zojuist een Gainward GeForce GTX 980 4GB besteld.

Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Laatst online: 21:53

Thomg

Aww yiss

serphilith schreef op maandag 09 februari 2015 @ 21:52:
Nou, had mijn 970 omgeruild voor een 290x .. dat beviel me zéér slecht, zie ook hier op Imgur.


Nu heb ik deze ook kunnen ruilen, en heb ik nu de MSI 980 GAMING _/-\o_
Fps en Frametimes volgen.
Vind je het gek als alle spellen die je speelt ( die 3 iig ) beter werken met nvidia dan AMD.

Nog even een tip van mij, zet supersampling uit.
Tenzij je echt bijzonder veel fps krijgt en je kaart wat nuttigers wilt laten doen dan botweg meer fps te produceren dan je ooit nodig zal hebben is SS het niet waard. Hogere rendering resolution ziet er mooier uit, maar is het echt naar mijn mening niet waard tov de performance verlies.

Als je een 980 koopt na je een 970 hebt teruggestuurd wegens het geheugen debakel...
http://youtu.be/spZJrsssPA0?t=2m6s
Ik laat dit filmpje even mijn mening weergeven.

[ Voor 36% gewijzigd door Thomg op 09-02-2015 23:07 ]


Acties:
  • 0 Henk 'm!

  • wimdezoveelste
  • Registratie: September 2012
  • Laatst online: 15-09 23:22
@Thomg, tja die Nvidia engineer weet wel waar die over praat hoor... :P

Nu ik weet van het geheugenleugentje van Nvidia en het feit dat het effect heeft op performance(in de meeste gevallen niet merkbaar), zou ik er gewoon op gaan letten. En zodra ik straks een game zou gaan spelen waar ik micro-stutter in zou zien, dan zou ik dit altijd wijten aan het geheugen van de 970 en balen dat ik hem niet terug had gebracht... Dus voor mij was de enige keuze hem terugbrengen en ja de 980 was voor mij de enige kaart die ik als goede vervanger zag... jammer alleen dat hij meteen 140euro meer kostte :-(

Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Laatst online: 21:53

Thomg

Aww yiss

wimdezoveelste schreef op maandag 09 februari 2015 @ 23:25:
@Thomg, tja die Nvidia engineer weet wel waar die over praat hoor... :P

Nu ik weet van het geheugenleugentje van Nvidia en het feit dat het effect heeft op performance(in de meeste gevallen niet merkbaar), zou ik er gewoon op gaan letten. En zodra ik straks een game zou gaan spelen waar ik micro-stutter in zou zien, dan zou ik dit altijd wijten aan het geheugen van de 970 en balen dat ik hem niet terug had gebracht... Dus voor mij was de enige keuze hem terugbrengen en ja de 980 was voor mij de enige kaart die ik als goede vervanger zag... jammer alleen dat hij meteen 140euro meer kostte :-(
Het is mij niet een kwestie van performanceverlies, dat vind ik de grootste lariekoek die er is, aslof je performance verliest na je de benchmarks hebt beken ( dat heeft vrijwel iedere koper gedaan mag ik hopen ). Met zo'n miserabele geheugenbus had ik er al weinig vertrouwen in.

Het gaat er bij mij meer om het principe. Keihard liegen en dan je handjes in de onschuld wassen. Vervolgens eisen gebruikers hun geld terug om nog meer geld aan nvidia te geven.

Right. :O

[ Voor 5% gewijzigd door Thomg op 09-02-2015 23:37 ]

Pagina: 1 ... 23 ... 45 Laatste

Let op:
Voor levertijden en beschikbaarheid van de 980ti, zie [nVidia GeForce GTX 980Ti] Levertijden & beschikbaarheid.