[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 28 ... 30 Laatste
Acties:
  • 125.410 views

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Over de Evga 970 cooler
Does the EVGA GTX 970 Feature a Manufacturing Defect?
http://www.eteknix.com/ev...ure-manufacturing-defect/

Edit,

EVGA heeft een reactie geplaats op Reddit
http://www.reddit.com/r/h...the_evga_gtx_970_appears/

[ Voor 60% gewijzigd door Bullus op 23-09-2014 10:27 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

Ben ik niet gewend van EVGA. Foei.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
Haha wat een grapjassen. Alles ontlopen en zeggen dat het zo hoort :+

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Ferluci92 schreef op dinsdag 23 september 2014 @ 10:59:
Haha wat een grapjassen. Alles ontlopen en zeggen dat het zo hoort :+
Ik vind hun verklaring op zich wel logisch en sense maken (overschot voorraad wegwerken met minimale mod-kosten). Weet alleen niet wat de temps doen t.o.v. een TF, WF3 of DC2.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:01
meh, verbruik is zo laag dat het toch niet boeit.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Verwijderd schreef op dinsdag 23 september 2014 @ 08:40:
Persoonlijk ga ik toch wel voor gsync want dat zou beter werken in game maar ja dat zegt Nvidia en er zijn nog geen test van dus afwachten maar. Gsync kost niet zo veel meer vind ik persoonlijk en je heb er nu direct wat aan.
Maar jij zou ook voor G-sync staan als het niets meer dan een baksteen was met een nvidia logotje erop. ;)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Aan de ene kant geloof ik EVGA wel dat die derde heatpipe niet origineel bij het design hoort, de koelpasta van de core zit ook mooi verdeeld over de twee grote heatpipes. De derde heatpipe lijkt echter een nagedachte te zijn die men er snel ingekwakt heeft, misschien om die paar graden verschil te maken. Misschien omdat ze te weinig tijd hadden de boel opnieuw te ontwikkelen ? Want die heatpipe zou er maar nipt tussen passen als ze de volgorde vervangen en de "open ruimtes" weglaten.

[ Voor 5% gewijzigd door Phuncz op 23-09-2014 12:55 ]


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 20:36
Maar er komt een ACX 2.0 koeler aan. Dit klinkt gewoon als voorraden wegwerken van de 7xx serie, zoals El_jay ook al zei.

Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
..Ik had natuurlijk even moeten googlen want ik lees wel hier en daar dat er 8GB versies van de 970 en 980 gaan uitkomen. Op zich in lijn met het verleden, ondanks de aanwezige titan kwamen er ook 6gb versies van de 7xx reeks uit bijv..

specs


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04
ColinZ schreef op maandag 22 september 2014 @ 18:19:
Nvidia gaat FreeSync ondersteunen?
Bron


[...]


Ben zelf 2 maanden geleden overgestapt van een GTX275 naar een GTX760. Goeie upgrade geweest, alleen achteraf gezien jammer dat ik niet gewacht heb op de 970. :/
Dat is wel een erg grote upgrade. Die 275 had al veel eerder de deur uit gemoeten 8) . De 970 is weer 100 euro duurder dus daar zou ik zelf niet wakker van liggen. Of bedoelde je de GTX 960? Die komt volgende maand als het goed is.

[ Voor 0% gewijzigd door sdk1985 op 24-09-2014 00:19 . Reden: Irritante auto correct van IE ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

haarbal schreef op maandag 22 september 2014 @ 19:43:
Er zit nog verschil in de monitoraansluitingen. De meeste kaarten hebben 1 displayport, 2 dvi en 1 hdmi, maar je hebt ze ook met 3 displayports.
Maakt allemaal niet uit wat mij betreft : Als ik maar niet hoef te prutsen met miniDP > DP adapters of HDMI moet gebruiken dan vind ik alles best :)

Mijn voorkeur gaat uit naar 2x DVI + 1x DP maar dat je nu 3x DP kan gebruiken vind ik zelfs nog beter, want als je dan een scherm uit doet dan is dat scherm ook echt helemaal weg in Windows dus heb je geen kans op verdwaalde schermpjes als je iets opstart d:)b

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Verwijderd

spNk schreef op dinsdag 23 september 2014 @ 12:10:
[...]

Maar jij zou ook voor G-sync staan als het niets meer dan een baksteen was met een nvidia logotje erop. ;)
Je denkt te veel over een ander te weten maar je weet niets, nope als free sync beter is ga ik daar voor. Het Nvida logootje vind ik wel mooier maar ben niet zo dom om daar voor te kiezen terwijl de prestaties slechter zijn.

Ik heb nu wat meerdere games bekeken waar bij ik DSR inschakel en ja je ziet wel een groot verschil in sommige games zoals Metro LL bij mij. Terwijl ik geen verschil zie bij Battlefield 4, het is dus echt gameafhankelijk.

[ Voor 21% gewijzigd door Verwijderd op 24-09-2014 08:10 ]


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

edward2 schreef op zaterdag 20 september 2014 @ 12:51:
[...]


Idd, een zeer sterk staaltje efficiëntie en ook nog eens nieuwe features.
Ik ben benieuwd of en wanneer er nog een Titan variant komt met 6 of 8 gb. Ik zit nu met 2 R295x's en eigenlijk kunnen die de perf. niet altijd optimaal benutten in 4K vanwege de 4 GB vram limiet (vooral bv. Skyrim met 4K texturepacks en hogere u-grids) en aan het einde van het jaar stap ik over naar een 5K scherm, ( Dell UP2715K) en dan zal 8 GB ideaal zijn.
Er zullen binnenkort toch wel 8GB kaartjes komen mag ik aannemen?

Trouwens... R9 295X CF... Baas! Zoals altijd! 8) :)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


  • dafour
  • Registratie: Februari 2009
  • Laatst online: 15-07 21:05
Dus de Gigabyte (970) is de kaart om te hebben?Ik zoek een extreem stille kaart,aangezien ik een aftermarket koeling gewoon ben met 2x120mm aan 700rpm.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Asus Strix en MSI Gaming zijn ook erg stil, pas als je alle drie in één review ziet kun je zeker weten welke de stilste is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04
dafour schreef op woensdag 24 september 2014 @ 10:35:
Dus de Gigabyte (970) is de kaart om te hebben?Ik zoek een extreem stille kaart,aangezien ik een aftermarket koeling gewoon ben met 2x120mm aan 700rpm.
Op Hwi
Middels een video heeft MSI de werking van de Twin Frozr V uitgelegd. Deze koeler is twee sloten dik en maakt gebruik van de Zero Frozr-technologie die moet zorgen voor een semi-passieve werking. Zo gaan de twee 100 mm Torx-ventilatoren pas draaien als de GPU of de stroomvoorziening (VRM's) de 60 graden Celsius aantikken. Overigens worden de ventilatoren los van elkaar aangestuurd, de ene kan daarom sneller draaien ten opzichte van de andere.

De fans hebben zeven ventilatorbladen en zogenaamde Dispersion-Blades voor meer luchtdruk. Het aluminium koelblok heeft een koperen basis met vier hetapipes, twee stuks met een diameter van 8 mm en twee van 6 mm. Het logo op de koeler, het gedeelte wat het gros van de bezitters van een kast met een venster zullen zien, is voorzien van led-verlichting.

MSI heeft de Twin Frozr V-koeler gemonteerd op de Nvidia GeForce GTX 970 en GTX 980, deze videokaarten hebben we besproken in onze review. Tevens zijn daar onze bevindingen te vinden rondom de koeler.
Als een fan pas bij 60 graden draait dan ga ik er vanuit dat hij idle stil is (net als een paar andere kaarten).

Bij Asus vs MSI is de geluidsproductie als volgt:
Geluidsproductie - Load (10 cm.) 38.6 dB(A) 39.2 dB(A)

Maar de temperatuur is daar dan ook na:
Max. temperatuur (Metro 2033 na twee runs) - Volgens drivers 68 °C 64 °C

Verder is de MSI significant sneller.

[ Voor 8% gewijzigd door sdk1985 op 24-09-2014 21:31 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Verwijderd

Een slimme oplossing wel zo'n semi passieve koeling bij een kaart die met lage belasting weinig warmte ontwikkelt. De temperatuur van de kaart zal daardoor bij wisselend gebruik veel constanter zijn.
Elektronische componenten houden niet van grote temperatuurschommelingen.

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:08

Cheezus

Luiaard

Verwijderd schreef op woensdag 24 september 2014 @ 22:50:
Een slimme oplossing wel zo'n semi passieve koeling bij een kaart die met lage belasting weinig warmte ontwikkelt. De temperatuur van de kaart zal daardoor bij wisselend gebruik veel constanter zijn.
Elektronische componenten houden niet van grote temperatuurschommelingen.
Het verschil tussen idle en gaming is zo wel minder inderdaad, aan de andere kant als je alleen even wat op internet op wil zoeken zal je kaart veel meer opwarmen (omgevingstemperatuur naar hoge idle temp).
Het zal dus erg van de gebruiker afhangen of een semi-passieve koeling een voordeel biedt voor temperatuurschommelingen.
Geluidreductie zal de primaire reden voor de semi-passieve koeling zijn lijkt me :)

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

Tegenwoordig is veel semi-passive. Ik heb een voeding waar de fans pas gaan draaien bij een belasting van 350-400w (50-58%). Met een Haswell/broadwell CPU en GTX 900 serie GPU blijf je daar makkelijk onder :)

Mijn doel is een beetje om een compleet passieve game PC te maken. Met nul moving parts. Misschien gaat dat lukken met deze serie :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:08

Cheezus

Luiaard

Idle passive of load passive? Load heb je voor een compleet gamesysteem toch wel >250watt te verstouwen, om dat passief niet meer dan 50 graden op te laten warmen heb je ongeveer een complete zijwand van een ATX kast aan zulke jongens nodig:
Afbeeldingslocatie: http://nl.farnell.com/productimages/farnell/standard/121172206-40.jpg

Niet onmogelijk maar wel een uitdaging (veel knutselen met heatpipes ook :P)..

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

Cheezus schreef op donderdag 25 september 2014 @ 09:54:
Idle passive of load passive? Load heb je voor een compleet gamesysteem toch wel >250watt te verstouwen, om dat passief niet meer dan 50 graden op te laten warmen
Load passive. Compleet passive. Maar die voeding blijft dus passief gekoeld (fan staat stil) als ik een HD 6970 overclocked laat pompen (coinmining) en twee andere videokaarten offline laat. Bij elkaar is dat systeem dan ruim 300w. Temperatuur maakt niet zoveel uit voor die voeding blijkbaar.

Met een Intel i7 4770T of i5 4670S (of nog beter een broadwell) met NoFan (pricewatch: Nofan CR-80EH Copper - Passive) en een GTX 970 die dan passief gekoeld moet worden, plus geheugen en SSDs dan haal je denk ik de 300w onder load niet eens. De Case is compleet open: een ex-mining rig. Goed te doen :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Hardware moet op zich ook niet 50°C zijn, GPU's en CPU's mogen vrolijk >80°C gaan. Enkel HDD's hebben dat niet graag, maar die worden ook niet graag 50°C.

Verwijderd

Phuncz schreef op donderdag 25 september 2014 @ 11:25:
Hardware moet op zich ook niet 50°C zijn, GPU's en CPU's mogen vrolijk >80°C gaan. Enkel HDD's hebben dat niet graag, maar die worden ook niet graag 50°C.
HD's zitten toch in een NAS tegenwoordig en voor een SSD maakt 50°C. weinig uit.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

Zoals gezegd, mijn case is open, dus de diffusie is compleet. Waarschijnlijk ga ik de GPU ook met een riser op afstand zetten van de CPU en de voeding zodat ze elkaars hete lucht niet vangen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04
XanderDrake schreef op donderdag 25 september 2014 @ 10:14:
[...]

Load passive. Compleet passive. Maar die voeding blijft dus passief gekoeld (fan staat stil) als ik een HD 6970 overclocked laat pompen (coinmining) en twee andere videokaarten offline laat. Bij elkaar is dat systeem dan ruim 300w. Temperatuur maakt niet zoveel uit voor die voeding blijkbaar.

Met een Intel i7 4770T of i5 4670S (of nog beter een broadwell) met NoFan (pricewatch: Nofan CR-80EH Copper - Passive) en een GTX 970 die dan passief gekoeld moet worden, plus geheugen en SSDs dan haal je denk ik de 300w onder load niet eens. De Case is compleet open: een ex-mining rig. Goed te doen :)
Voedingen zitten op een load grafiek (aldus Thermaltake). Ik heb het ooit een keer voor elkaar gekregen om een losse pci-e kabel ongemerkt tussen de voeding fan te krijgen. De fan kon daardoor niet meer draaien. Pc werkte perfect tot je meer dan 2 uur Call of Duty 4 speelde, dan viel hij uit :+ .

In ieder geval als je een voeding koopt van 2x wat je nodig hebt dan is je pc stiller en zuiniger.

[ Voor 4% gewijzigd door sdk1985 op 25-09-2014 14:35 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

sdk1985 schreef op donderdag 25 september 2014 @ 14:34:
[...]

Voedingen zitten op een load grafiek (aldus Thermaltake). Ik heb het ooit een keer voor elkaar gekregen om een losse pci-e kabel ongemerkt tussen de voeding fan te krijgen. De fan kon daardoor niet meer draaien. Pc werkte perfect tot je meer dan 2 uur Call of Duty 4 speelde, dan viel hij uit :+ .

In ieder geval als je een voeding koopt van 2x wat je nodig hebt dan is je pc stiller en zuiniger.
Dat zou moeten lukken nu (750w max). Dit heb ik van Guru3D:

Measured power consumption GTX 970

System in IDLE = 120 Watts
System Wattage with GPU in FULL Stress = 276 Watts
Difference (GPU load) = 156 Watts
Add average IDLE wattage ~10 Watts
Subjective obtained GPU power consumption = ~ 166 Watts


Beetje natte vinger werk, maar gezien dat dit een zwaar systeem betreft is het dan nog niet de helft van mijn voeding (Corsair RM750), moet mijn passive setup zeker te doen zijn.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:08

Cheezus

Luiaard

De voeding zal het probleem ook niet zijn.. Een high end CPU van ~75 watt en vooral een GPU van ~170 watt is lastig. Die No-Fan heeft al moeite genoeg met een CPU, hoe wil je dan meer dan het dubbele koelen van je GPU?
En ik had het niet over een temp van 50 graden maar een tempverschil van 50 graden. Als je kamer dus 25+ is in de zomer zit je hardware al op 75+.

Al met al gaat dit een beetje off-topic, de GTX970 is in ieder geval een knappe GPU met een indrukwekkend laag energieverbruik. Aangezien ik geen wonderen van AMD verwacht denk ik dat na een 4790, 5850 en 7950 maar weer eens overstap naar het groene kamp :)

  • Amanoo
  • Registratie: December 2007
  • Laatst online: 27-08 23:03

Amanoo

Cᴀᴛs ᴀʀᴇ ɴɪᴄᴇ.

sdk1985 schreef op donderdag 25 september 2014 @ 14:34:
[...]
In ieder geval als je een voeding koopt van 2x wat je nodig hebt dan is je pc stiller en zuiniger.
Volgens mij werkt dat niet zo. Voeding zijn juist ontworpen om ongeveer de output te leveren die op hun stikker staat, en dan ook op hun efficienst. Sure, als je met een 1000W voeding een PC die niet meer dan 200W trekt aanvoert wordt de voeding minder warm dan wanneer deze de volle 1000W doorgeeft en verbruikt hij ook geen 1000W, maar het zou me niet verbazen als hij wel heel wat meer dan die 200W uit het stopcontact trekt. Hij zal procentueel meer verbruiken.

Al weet ik het niet 100% zeker, als ik kijk naar de eisen van 80 plus certificaten op Wikipedia: Wikipedia: 80 Plus


EDIT2: ik zie nu in het Wikipedia artikel staan dat de sweet spot van een PSU doorgaans tussen 50% en 75% zit. Een twee keer zo lompe voeding kopen als nodig is zit dus wel erg op het randje. Het zou me niets verbazen als de sweetspot per model verschilt, maar ik zou dus als vuistregel eerder gaan kijken naar een voeding die 1,5x zoveel kan leveren als je nodig hebt. 2x is wel heel erg veel, en de kans dat je voeding dan weer minder efficient werkt is dan juist vrij groot.
Supplies are typically most efficient at between half and three quarters load, much less efficient at low load, and somewhat less efficient at maximum load.

[ Voor 40% gewijzigd door Amanoo op 25-09-2014 16:22 ]


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

Cheezus schreef op donderdag 25 september 2014 @ 15:55:
De voeding zal het probleem ook niet zijn.. Een high end CPU van ~75 watt en vooral een GPU van ~170 watt is lastig. Die No-Fan heeft al moeite genoeg met een CPU, hoe wil je dan meer dan het dubbele koelen van je GPU?
En ik had het niet over een temp van 50 graden maar een tempverschil van 50 graden. Als je kamer dus 25+ is in de zomer zit je hardware al op 75+.
Ooh je hebt het niet over verbruik maar over dissipatie. Tja daar heb je meer een punt. Processors ben ik niet bang voor: je hebt al redelijk snelle Haswells (turbo: 3,5 tot 3,9ghz) met TDP van 35-45w en dat is incluus iGPU die ik dan niet gebruik. GPU is andere koek, maar desnoods zet ik in de zomer een raampje open. Het is iig wel stil ;)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sdk1985 schreef op donderdag 25 september 2014 @ 14:34:
[...]

Voedingen zitten op een load grafiek (aldus Thermaltake).
Voedingen zitten op een load grafiek? :?
In ieder geval als je een voeding koopt van 2x wat je nodig hebt dan is je pc stiller en zuiniger.
In veel gevallen luidruchtiger, door een fan die idle sneller draait omdat het een fan is met hogere max RPM, in idle draait die dus ook sneller.

Wat betreft hoger rendement is dat ook niet het geval, behalve als je systeem continue op piekvermogen draait, maar dat is in 99,99% van de mensen niet zo, bij games of idle licht het verbruik vele malen lager. Waardoor een passende voeding dus bijna altijd de beste keuze is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Amanoo schreef op donderdag 25 september 2014 @ 16:11:
[...]

Volgens mij werkt dat niet zo. Voeding zijn juist ontworpen om ongeveer de output te leveren die op hun stikker staat, en dan ook op hun efficienst. Sure, als je met een 1000W voeding een PC die niet meer dan 200W trekt aanvoert wordt de voeding minder warm dan wanneer deze de volle 1000W doorgeeft en verbruikt hij ook geen 1000W, maar het zou me niet verbazen als hij wel heel wat meer dan die 200W uit het stopcontact trekt. Hij zal procentueel meer verbruiken.

Al weet ik het niet 100% zeker, als ik kijk naar de eisen van 80 plus certificaten op Wikipedia: Wikipedia: 80 Plus


EDIT2: ik zie nu in het Wikipedia artikel staan dat de sweet spot van een PSU doorgaans tussen 50% en 75% zit. Een twee keer zo lompe voeding kopen als nodig is zit dus wel erg op het randje. Het zou me niets verbazen als de sweetspot per model verschilt, maar ik zou dus als vuistregel eerder gaan kijken naar een voeding die 1,5x zoveel kan leveren als je nodig hebt. 2x is wel heel erg veel, en de kans dat je voeding dan weer minder efficient werkt is dan juist vrij groot.

[...]
Moet je ook wel bij bedenken dat 90% van de mensen gigantisch overschat hoeveel ze nodig hebben. Een leuke i7 met een 290X met OC's op allebei trekt nog steeds maar met pijn en moeite 500W.

En voedingen hebben een efficiëntie curve - ze zijn juist niet ontworpen om te leveren wat op hun sticker staat. Sterker nog, bij het gros van alle voedingen krijg je dat er niet eens continue uit zonder dat je ineens rare geurtjes krijgt. Onder 20% en boven 80% load kakt die curve in (met name onder de 20% valt dat vies tegen). Dus als je PC idle 70W trekt op een 1000W voeding, trek je ook heel wat meer uit de muur. Als je geen multi-GPU opstelling of idioot hongerige CPU's (;w AMD) draait wil je gewoon een voeding van 650-750W.

Zie bijvoorbeeld deze: http://www.jonnyguru.com/...eviews&op=Story4&reid=394

Let vooral op hoe hij bij 155W gewoon 20% meer uit de muur trekt dan hij levert. En dan is dit een bijzonder goede voeding; bij goedkopere voedingen is dit verschil nog veel groter. Ook boven de 80% zie je dat de efficiëntie weer zakt. Nu valt dat bij zulke high-end units tegenwoordig relatief mee, maar het is er nog steeds, is gewoon natuurkunde.

offtopic:
Niet op jou gericht, meer een algemeen statement. Er wordt altijd zo veel onzin rondom voedingen beweerd :)

Niet dat deze hele discussie hier überhaupt thuis hoort, maar dat is een tweede :P

Ik heb zes jaar op een 550W voeding gedraaid, inmiddels 4 jaar op een 660W voeding. En ik klok alles gewoon keihard over.

[ Voor 6% gewijzigd door Werelds op 25-09-2014 17:23 ]


  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:08

Cheezus

Luiaard

Werelds schreef op donderdag 25 september 2014 @ 17:20:
[...]
Zie bijvoorbeeld deze: http://www.jonnyguru.com/...eviews&op=Story4&reid=394

Let vooral op hoe hij bij 155W gewoon 20% meer uit de muur trekt dan hij levert. En dan is dit een bijzonder goede voeding; bij goedkopere voedingen is dit verschil nog veel groter..
Let wel dat dat een CrossLoad test is met een totaal onzinnige belasting. Op de vorige pagina zie je de voeding onder een standaard belasting al 87% effeciënt zijn bij 100W load, aangezien de reviewer op 110v test zal het bij ons nog efficiënter zijn. Het gigantisch onrendabel zijn van te zware voedingen valt dus allemaal wel mee. Maar verder ben ik het helemaal met je eens, een fatsoenlijke 400W voeding is voor >95% van de gebruikers meer dan voldoende :)

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Cheezus schreef op donderdag 25 september 2014 @ 19:39:
Let wel dat dat een CrossLoad test is met een totaal onzinnige belasting. Op de vorige pagina zie je de voeding onder een standaard belasting al 87% effeciënt zijn bij 100W load, aangezien de reviewer op 110v test zal het bij ons nog efficiënter zijn. Het gigantisch onrendabel zijn van te zware voedingen valt dus allemaal wel mee. Maar verder ben ik het helemaal met je eens, een fatsoenlijke 400W voeding is voor >95% van de gebruikers meer dan voldoende :)
Uiteraard en het valt bij een beetje high-end voeding inderdaad allemaal reuze mee zolang je maar even op dat 80PLUS stickertje let. Neemt niet weg dat 1 KW gewoon altijd gigantisch overkill is tenzij je meerdere top-end videokaarten gebruikt. Een stel 760's heb je ook nog steeds bij lange na geen KW voor nodig, laat staan dat het efficiënter zou zijn.

Ben het er overigens niet mee eens dat cross load tests onzinnig zijn ;)

  • dafour
  • Registratie: Februari 2009
  • Laatst online: 15-07 21:05
Ik heb reactie gehad van Arctic Cooling en de Twin Turbo 2 past op de 970.(reference bedoelen ze dan)

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04
-The_Mask- schreef op donderdag 25 september 2014 @ 17:01:
[...]

In veel gevallen luidruchtiger, door een fan die idle sneller draait omdat het een fan is met hogere max RPM, in idle draait die dus ook sneller.

Wat betreft hoger rendement is dat ook niet het geval, behalve als je systeem continue op piekvermogen draait, maar dat is in 99,99% van de mensen niet zo, bij games of idle licht het verbruik vele malen lager. Waardoor een passende voeding dus bijna altijd de beste keuze is.
Je kunt zelf experimenteren met deze calculator: PcInside PSU stroomkosten tool

Standaard staat hij op 25 game uren per week en 8 uur pc per dag (incl game uren). Maar je kunt het eenvoudig aanpassen. Het standaard voorbeeld levert een euro of 4 per jaar op in het voordeel van de "ruime" voeding. De beperking is wel dat hij uitgaat van de officiële 80Plus certificatie. Die heeft 20%,50% en 100%. Dus idle = 20% load.
-The_Mask- schreef op donderdag 25 september 2014 @ 17:01:
[...]
Voedingen zitten op een load grafiek? :?
Slecht verwoord, excuses:P. Ik doel op de grafiek met de assen load en fan speed. Daarin zie je dat de fanspeed extreem laag blijft (anno 2014 passief) en vanaf pak hem beet 60% lineair naar de top gaat.
Zie mijn stokoude Thermaltake uit 2007:
Afbeeldingslocatie: http://www.pcinside.info/images/uitleg/voeding%20lawaai.jpg
Trend is volgens mij eerder stiller dan laawaaieriger (voedingen die de fan helemaal uitschakelen). Mijn Corsair hx750 draait iig onhoorbaar op idle.
Werelds schreef op donderdag 25 september 2014 @ 17:20:
[...]

Moet je ook wel bij bedenken dat 90% van de mensen gigantisch overschat hoeveel ze nodig hebben. Een leuke i7 met een 290X met OC's op allebei trekt nog steeds maar met pijn en moeite 500W.

En voedingen hebben een efficiëntie curve - ze zijn juist niet ontworpen om te leveren wat op hun sticker staat. Sterker nog, bij het gros van alle voedingen krijg je dat er niet eens continue uit zonder dat je ineens rare geurtjes krijgt. Onder 20% en boven 80% load kakt die curve in (met name onder de 20% valt dat vies tegen). Dus als je PC idle 70W trekt op een 1000W voeding, trek je ook heel wat meer uit de muur. Als je geen multi-GPU opstelling of idioot hongerige CPU's (;w AMD) draait wil je gewoon een voeding van 650-750W.
Die overschatting is helemaal waar. Maar het is niet erg om je voeding te ruim te nemen. Zoals gezegd is je voeding dan lekker stil en het is over het algemeen voordeliger (zie eerdere link en vul je eigen situatie in). Verder ben ik het eens met het 750W advies, normale gaming pc komt al moeilijk boven de 350W tegenwoordig. Dus op 750W zit je dan op x2 wat onder een "ruime" voeding valt. Ik zou echter GEEN 450W voeding aanraden. Met 500W load zou je best een 1K voeding kunnen aanschaffen (natuurlijk wel silver of beter).

Over die sticker... tja... Net als dat je benchmarks bekijkt voor je een cpu of videokaart aanschaft zou je dit ook bij voedingen moeten doen. Zie bijvoorbeeld de test van mijn eigen voeding: Een Corsair HX750W die in de overloadtest 916W haalt ipv de opgegeven 750W.
http://www.hardwaresecret...Power-Supply-Review/775/8
Eigenlijk kan een gold/silver voeding per definitie meer aan dan het stickertje. Alleen dan ben je dus niet meer zo efficiënt als beloofd.


*Goede aan de reviews van deze meneer is overigens dat hij alles in een warmte box test van pak hem beet 40 graden. De certificering van 80Plus doet dat niet en is daardoor wat minder accuraat. Er valt weleens een voeding door de mand hierdoor*

Iets heel anders:
Besparen op idle gaat overigens vrij lastig. Ik heb eens een extreem geval getest. Een 750W voeding op mijn E350 en dat werd iets van 37W vs 39W op de meter. Dus ja het kost je wel 2W idle maar in een normale gaming pc verdien je het tijdens de load eigenlijk zo weer terug.

[ Voor 4% gewijzigd door sdk1985 op 25-09-2014 22:44 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sdk1985 schreef op donderdag 25 september 2014 @ 22:30:
Over die sticker... tja... Net als dat je benchmarks bekijkt voor je een cpu of videokaart aanschaft zou je dit ook bij voedingen moeten doen. Zie bijvoorbeeld de test van mijn eigen voeding: Een Corsair HX750W die in de overloadtest 916W haalt ipv de opgegeven 750W.
http://www.hardwaresecret...Power-Supply-Review/775/8
Eigenlijk kan een gold/silver voeding per definitie meer aan dan het stickertje. Alleen dan ben je dus niet meer zo efficiënt als beloofd.
Uh, nee. Die voedingen zijn gebouwd om korte pieken te weerstaan, maar dat houden ze niet lang vol.

Verder is die efficiëntie inderdaad helemaal niet boeiend vanwege de eventuele stroom besparing. Stroom kost geen donder. Het verbruik bij een GPU boeit ook geen donder als je puur naar het verbruik kijkt. De extra hitte die gegenereerd wordt is echter minder prettig en daar draait het om ;)

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sdk1985 schreef op donderdag 25 september 2014 @ 22:30:
[...]

Je kunt zelf experimenteren met deze calculator: PcInside PSU stroomkosten tool
Hmmm die website is duidelijk gemaakt door iemand die de klok heeft horen luiden maar niet weet waar de klepel hangt. :p O wacht, jij hebt het zeker geschreven, dan zou ik eerst eens onderzoek gaan doen voor dat je iets schrijft. :+
Slecht verwoord, excuses:P. Ik doel op de grafiek met de assen load en fan speed. Daarin zie je dat de fanspeed extreem laag blijft (anno 2014 passief) en vanaf pak hem beet 60% lineair naar de top gaat.
Zie mijn stokoude Thermaltake uit 2007:
Afbeeldingslocatie: http://www.pcinside.info/images/uitleg/voeding%20lawaai.jpg
Trend is volgens mij eerder stiller dan laawaaieriger (voedingen die de fan helemaal uitschakelen). Mijn Corsair hx750 draait iig onhoorbaar op idle.
Ja goed plaatje deze voeding heeft een 1900RPM fan, waarbij de startspanning (minimale spanning voor de fan) op 5V ligt. Op 5V draait de fan op zo'n 1000RPM volgens het plaatje, niet echt heel stil. Maar neem je nu van dezelfde serie een voeding van meer vermogen dan is er een grote kans dat deze voeding een fan heeft met een hoger RPM, bijvoorbeeld 2200 of 2800RPM. Bij deze fans zal de startspanning ook 5V zijn echter draait de fan dan op zo'n 1100RPM bij een 2200RPM fan of zelfs zo'n 1400RPM in het geval van een 2800RPM fan. Dit zijn waardes die je duidelijker gaat horen, vandaar dat ik zei dat een voeding met hoger vermogen absoluut niet stiller hoeft te zijn in idle, vaak genoeg zie je het omgekeerde.

Wat betreft semi-passieve voedingen, ook daarvoor hoef je het niet te doen. Neem nu bijvoorbeeld de Seasonic Platinum series 1200W en Super Flower Leadex Platinum 1200W, beide goed geprijsde high-end voedingen die semi-passief zijn, echter op het moment dat de fan gaat draaien doet die dat op 1200RPM, dat is erg duidelijk hoorbaar. Gebruik je zo'n voeding met een PC die zo'n 600W trekt dan gaat de fan continue uit en aan wat je duidelijk hoort als je een wat stille game PC hebt. Niet handig dus.
Die overschatting is helemaal waar. Maar het is niet erg om je voeding te ruim te nemen. Zoals gezegd is je voeding dan lekker stil en het is over het algemeen voordeliger (zie eerdere link en vul je eigen situatie in). Verder ben ik het eens met het 750W advies, normale gaming pc komt al moeilijk boven de 350W tegenwoordig. Dus op 750W zit je dan op x2 wat onder een "ruime" voeding valt. Ik zou echter GEEN 450W voeding aanraden. Met 500W load zou je best een 1K voeding kunnen aanschaffen (natuurlijk wel silver of beter).
Dit is zo dom om te doen, qua geluid zie hierboven, qua aanschaf is het natuurlijk ook oerdom. Voor de prijs van een matige en inefficiente 1000W voeding haal je een efficiente en stille high-end 500W voeding.

En mocht je zo "slim" zijn om een 1000W high-end voeding te kopen met bijvoorbeeld een overgeklokte i7 Haswell welke een piekload heeft van ~125W en een R9 290X met piekverbruik van 350W. Dan zit je dus samen met de rest van het systeem op een piek van zo'n 500W (25W voor de rest) Een goede 500/550W voeding moet dus prima kunnen (voor 70/80 euro heb je een high-end model). Mensen die nu denken dat dit erg in efficient is zitten er totaal naast, want de piekverbruik is totaal niet interessant het gaat namelijk om het gemiddeld verbruik. Het gemiddeld verbruik van de videokaart bij games zal zo rond de 250W zitten en de rest van het systeem maar zo'n 50W dan zit je dus bij games maar rond de 300W uit de voeding te trekken, dit zit dus best wel rond het meest efficiënte punt bij een 500/550W voeding. Bij een 1000W voeding iig sowieso niet, al helemaal als je het idle verbruik ook meerekent wat rond of onder de 100W zal liggen.
Werelds schreef op donderdag 25 september 2014 @ 23:28:
[...]

Uh, nee. Die voedingen zijn gebouwd om korte pieken te weerstaan, maar dat houden ze niet lang vol.
Ik denk dat een goede voeding het nog best wel lang kan volhouden, maar slim is het iig niet nee en ik zou het ook niet doen.
Verder is die efficiëntie helemaal niet boeiend vanwege de eventuele stroom besparing.
True, PC een minuutje eerder uitzetten helpt meer.

Maare dit is natuurlijk lekker offtopic, @sdk1985 mocht je meer willen weten: [BBG aanschaf] Voedingen - Deel 29

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04
Kan allemaal wel wat aardiger toch? En als je er niet over wil discussiëren hier, waarom dan wel de lap tekst? Stuur dan een pm.

Ik het nergens over over virtueel piekverbruik gehad. Wat ik beweer is dat een game pc meestal 350W load verbruikt. Dan heb ik het over de praktijk dus tijdens een game een metertje in je stekkerdoos (al dan niet nog de inefficiëntie doorrekenen). Zelf kom je met 300W dus dat scheelt 50W.... Maar goed, in dat "normale" 350W scenario raad mijn vuistregel dus een 350Wx2=700W voeding aan. Lijkt me weinig mis mee. .

In het geval van mijn eigen voedingskeuze (zero rpm fan) hoort daar deze grafiek bij
Afbeeldingslocatie: http://www.corsair.com/en-us/~/media/2A25737C416546DA8D3F2A027D8508AB.ashx?w=625
Ga je van 50% load naar 80% of hoger dan komt daar aardig wat dB bij. Hoe erg dat is hangt af van wat je met je pc doet op dat moment (lees hoe veel herrie je videokaart produceert).


Bij de 1000W voeding de term oerdom gebruiken en vervolgens terugrekenen naar een verbruik van 300W en dan 550W aanraden is natuurlijk de omgekeerde wereld. Die 1000W voeding kwam alleen ter sprake in het scenario DAT je load 500W wordt. Bij jou 300W zou mijn vuistregel op 600W uitkomen. Dus dan zijn we het 50-100W oneens... Dat deel van je verhaal had dus achterwege kunnen blijven.

Het 1000W herrie argument gaat in dit geval ook duidelijk niet op want die is dan weer zero rpm tot 20%=210W voor deze serie. Dus idle hoor je dan helemaal niets ;).

Om even op die 500W>1000W te blijven (SLI ofzo): Met mijn 750W voeding zou ik ook wel die 500W makkelijk kunnen trekken maar dan zit je een paar procent lager in de efficiëntie tabel (zie ook de review die ik eerder linkte). Om precies te zijn; in mijn geval van 89.8% naar 87.3%. Ga je jou advies volgen en nog krapper zitten (e.g. 600W voeding) dan ga je dalen richting de 85%. Dat kost je 4% en dus knaken. Hoe meer je gamed des te groter het probleem; zie calculator 8) . Kan zo een tientje per jaar opleveren voor een groot deel van mijn steam lijst. Ik heb er bij zitten die over de 100 uur/ 2 weken komen. Voeding gaat meer dan 5 jaar mee, dus tel uit je winst. Ook interessant; in dat scenario levert bronze>platinum €33 per jaar op.

Dus nee ik ben het naast je woordkeuze ook niet eens met je argumenten. Sterker nog de punten die je probeerde te scoren zijn gemaakt door mijn stelling eerst te verdraaien (load>piekvermogen, 500W>300W, 1000W voeding>1200W voeding, enz ;w ).

En dan weer de connectie met dit topic; Verwachtte system load met je nieuwe GTX 970/980 in watt x2 en dan een Silver of beter blijft mijn tip..

[ Voor 25% gewijzigd door sdk1985 op 26-09-2014 01:12 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb nog een oude 1000W voeding maar die maakt 0,0 geluid en er komt al helemaal geen warmte van af achter de als ik mijn hand voor de uitgang hou. Fan draait nog wel gewoon maar het zijn grote fans dus die doen niet zo veel bij laag verbruik.

Acties:
  • 0 Henk 'm!

  • Harm30
  • Registratie: April 2010
  • Laatst online: 16-04 20:06
*mompelt iets over verkeerde subfora*

heeft iemand de gtx 980 van gigabyte al in een webwinkel voor bij zien komen? ( de windforce koeler variant )
deze spreekt mij wel aan.. kan niet wachten om hem te testen

gametag: estruqiarixs


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

De eerste game die niet meer de moeite doet om degelijk textures te streamen en er vanuit gaat dat maar ~10% van hun gamer-base op texture qualities van high of hoger wilt spelen dient zich aan: nieuws: LOTR: Shadows of Mordor vraagt 6GB vram voor optimale textures

Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/imagenormal/2000550119.jpeg

Dus je kan met je high-end 500€ GPU er vanuit gaan dat je nét 1080p@Ultra kan draaien.
Vrij gortig dit. Doet me denken aan vroegâr, toen je bij zowat elke nieuwe gamerelease meer RAM of nieuwe S3 videokaart moest kopen :X

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

XanderDrake schreef op vrijdag 26 september 2014 @ 14:49:
De eerste game die niet meer de moeite doet om degelijk textures te streamen en er vanuit gaat dat maar ~10% van hun gamer-base op texture qualities van high of hoger wilt spelen dient zich aan: nieuws: LOTR: Shadows of Mordor vraagt 6GB vram voor optimale textures

[afbeelding]

Dus je kan met je high-end 500€ GPU er vanuit gaan dat je nét 1080p@Ultra kan draaien.
Vrij gortig dit. Doet me denken aan vroegâr, toen je bij zowat elke nieuwe gamerelease meer RAM of nieuwe S3 videokaart moest kopen :X
Dit lijkt wel een nieuwe trend voor games, Zoals Watch Dogs vraag ook al 4gb voor ultra textures, en als je 4gb hebt speelt het pas weg zoals het hoort of je moet genoegen nemen met high settings dan loop het ook soepel op 3gb kaarten.

Acties:
  • 0 Henk 'm!

  • John Dude
  • Registratie: Juni 2012
  • Laatst online: 07-08 23:00
Ik zou nu nou wel echt heel graag zo'n 980 willen bestellen. Alleen twijfel ik nog of ik gewoon voor de reference zal gaan of niet. Het verschil tussen reference en non-refrence bij de 980 is toch zeer klein?

Acties:
  • 0 Henk 'm!

Verwijderd

John Dude schreef op vrijdag 26 september 2014 @ 15:04:
Ik zou nu nou wel echt heel graag zo'n 980 willen bestellen. Alleen twijfel ik nog of ik gewoon voor de reference zal gaan of niet. Het verschil tussen reference en non-refrence bij de 980 is toch zeer klein?
Met overklokken wel ja, maar niet qua geluidsproductie en koeling.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
1e 2de hands 980 op Tweakers
V&A aangeboden: Asus GTX980-4GD5
Wel te duur want je hebt ze nieuw al voor minder
http://www.alternate.nl/h...7&utm_source=tweakers.net

[ Voor 45% gewijzigd door calsonic op 26-09-2014 19:17 ]


  • CristianSchriev
  • Registratie: November 2010
  • Laatst online: 24-06 09:27
Ik zit met een vraagje.. Ik heb een vrij nieuwe build en sinds vandaag een 2e 780 in mijn pc zitten. Het gaat hier om 2 reference nvidia kaarten (van asus) Nu is een van de 2 kaarten altijd wel wat koeler dan de ander. scheelt soms 10 graden. 1 is dat al normaal dat dat met sli is? De ene loopt idle 35 de ander 48.

Een kaart haalt de 85 graden in BF4 Net met furmark testje in 1,5 min zat een kaart rond de 95 en de andere rond de 90! Het leek er op alsof de fans op 100% draaide :l

Nu even met uninige heaven. Dan worden de kaarten ongeveer 78-80 en 83-86 graden. Dat verschil qua temps lijken me te verwaarlozen ivm meer ruimte bij de onderste kaart.

Zijn dit normale getallen of wat is hier mis :P

[ Voor 25% gewijzigd door CristianSchriev op 27-09-2014 19:59 ]


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat lijkt me normaal, aangezien de hogere kaart naar alle waarschijnlijkheid wat warmere lucht aanzuigt, afkomende van de achterkant van de onderste kaart. Ook zal er minder makkelijk frisse lucht aangezogen kunnen worden, wat de uiteenlopende idle temps verklaart, doordat de ventilators minder hard draaien en dus een lagere druk hebben.

  • John Dude
  • Registratie: Juni 2012
  • Laatst online: 07-08 23:00
Iemand enig idee wanneer de Gigabyte GeForce GTX 980 G1 Gaming beschikbaar word en hoeveel die gaat kosten in Nederland?

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Dat hoeft niet lang te duren, in Duitsland is die al leverbaar, 550 euro is de laagste prijs en dat zal het ook in NL zijn als de leveranciers daar zin in hebben. Maar met schaarste willen die ook wel eens wat meer marge pakken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Thomg
  • Registratie: September 2010
  • Laatst online: 21:51

Thomg

Aww yiss

Snap sowieso niet waarom die het niet terug stuurt.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Thomg
  • Registratie: September 2010
  • Laatst online: 21:51

Thomg

Aww yiss

Kan nou niet echt zeggen dat dit er niet aan zat te komen na de reviews :>

Acties:
  • 0 Henk 'm!

  • Flying
  • Registratie: September 2003
  • Laatst online: 07:05
Ik wil graag de 970 kopen, maar de prijs is momenteel enorm onstabiel. Het scheelt soms meer dan 30 euro van dag tot dag. De vraag zal waarschijnlijk vrij hoog liggen tegenover het aanbod. Iemand een indicatie (vergelijking met vroegere releases) hoelang dit blijft schommelen voor het stabiel wordt?

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

Flying schreef op maandag 06 oktober 2014 @ 13:36:
Ik wil graag de 970 kopen, maar de prijs is momenteel enorm onstabiel. Het scheelt soms meer dan 30 euro van dag tot dag. De vraag zal waarschijnlijk vrij hoog liggen tegenover het aanbod. Iemand een indicatie (vergelijking met vroegere releases) hoelang dit blijft schommelen voor het stabiel wordt?
Komaan, als je deze (juiste) constatering hebt gemaakt op basis van bijv. de pricewatch, dan weet je toch ook dat je net zo makkelijk een andere serie erbij pakken (bijv de GTX 770) om die constatering te staven:
Zoals deze, een MSI GTX 770:
Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/?ProduktID=335374&deliveryCountry=NL
Deze kaart is 1 juni 2013 geintroduceerd en aan het einde van die maand was de prijs stabiel.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 19:32

superwashandje

grofheid alom

Haha N=1. als je echt wil impliceren dat na een maand de prijzen stabiel zijn zal er naar meer series gekeken moeten worden :P
toch is zoiets altijd beter dan niets natuurlijk ;)

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

superwashandje schreef op maandag 06 oktober 2014 @ 15:25:
Haha N=1. als je echt wil impliceren dat na een maand de prijzen stabiel zijn zal er naar meer series gekeken moeten worden :P
toch is zoiets altijd beter dan niets natuurlijk ;)
Je kan in ieder geval ZELF kijken naar die plots. Voorkauwen doen alleen koeien graag :P

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 19:32

superwashandje

grofheid alom

weet ik :) en als je zelf al de begint over vergelijken met vroegere releases dan is het zelf opzoeken daarvan ook niet een onlogische stap natuurlijk.
anyway zal het inderdaad wel ongeveer kloppen hoor. meestal duurt het een paar weekjes voordat er een goeie steady supply aan kaarten is en alle early adopters hun kaarten hebben.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • CristianSchriev
  • Registratie: November 2010
  • Laatst online: 24-06 09:27
Ik heb mijn temperaturen wat beter gekregen met SLI nu. Door direct een case fan ri de gpu's te zetten. Dit helpt veel. temps lopen nu altijd minder dan 10 graden uit een. Tijdens het gamen zijn ze nu bijna hetzelfde. Ze worden wel 85 graden maar volgens mij is dit vrij normaal. Er staat wel in GPU-Z dat de gpu's limited worden door de temp.. Is dit ook normaal?? :P

Acties:
  • 0 Henk 'm!

  • mike30
  • Registratie: December 2010
  • Laatst online: 14-08 21:41
Ik vind 85 graden wel veel. Mijn kaarten gtx570's werden in SLI maar 62 en 65 graden. Die 65 was de kaart tussen de voeding en de andere kaart in. Toen die van mij heet werden zat er voor 2 1/2 jaar stof in.

Acties:
  • 0 Henk 'm!

  • Benotti
  • Registratie: Maart 2002
  • Laatst online: 12-07 18:27
Die kaarten kunnen tot iets van 98 graden gaan. Ging mijn overgeklockte gtx 580 ook. Tuurlijk is het superheet, but they're build for it.

En temp limit is logisch als de templimit op 85 staat ingesteld :p Met msi afterburner kun je de templimit omhoog zetten.

Acties:
  • 0 Henk 'm!

  • mike30
  • Registratie: December 2010
  • Laatst online: 14-08 21:41
Ik houd het liever wat koeler. Merkte ook dat m'n prestaties zienderogen minder werden toen ze warmer werden. Eenmaal schoon vlogen de fps weer wat omhoog. Ik kreeg last van microstutters

Acties:
  • 0 Henk 'm!

  • CristianSchriev
  • Registratie: November 2010
  • Laatst online: 24-06 09:27
Ik heb de temp limits op zn hoogst gezet namelijk 95 graden. Maar ik snap t dan ook niet echt. En de automatische koeling van de kaarten zijn wel echt triest. 85 graden en de kaart zn koeling draait op 60 procent...

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dan heb ik een paar vragen voor je om te zien hoe we dat kunnen fixen:
1. over welke kaarten praat je eigenlijk ?
2. is het mogelijk ze een slot uit elkaar te plaatsen ?
3. zie je die temps in-game of in een benchmark ?
4. kun je in de game een frame rate limit instellen en deze op de refreshrate van je monitor instellen ?
5. hoe ziet de situatie van je case eruit (type, fans en hun orientatie)

[ Voor 9% gewijzigd door Phuncz op 07-10-2014 09:19 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nvidia bundelt een paar games.
Afbeeldingslocatie: http://www.geforce.com/sites/default/files-world/attachments/global-landing-page-pick-your-path.jpg
http://www.geforce.com/PickYourPath

En heeft een set nieuwe drivers WHQL drivers.
http://www.geforce.com/wh...4-60-whql-driver-released

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

Quality games ipv "goud stukken" bij karige MMOs. Wel een verbetering :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:01
Uit de release notes highlights:
Improve the handling of Out Of Order Map calls with the D3D11_MAP_FLAG_DO_NOT_WAIT flag on staging buffers to prevent stalls when the server thread is busy. [1524767]

iemand die weet wat dat is?

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Weet ik ook niet Haarbal maar misschien was het wel het probleem in Alien Isolation. Er is al weer een nieuwere WHQL uit 344.65

En specs van de Titan 2 of gtx980TI zijn gelekt.
In de benchmarkdatabase van SiSoftware is een GPU opgedoken die mogelijk aan de basis van de Nvidia 'GTX Titan II' of 'GTX 980 Ti' zal staan. Rekentechnisch zou die de helft sneller zijn dan de GeForce GTX 980, als we uitgaan van de vermelde specificaties.

Volgens de specificaties had de videokaart 3.072 shader units, opgebouwd uit 24 units. Dat wijst op de Maxwell-architectuur, waarbij er 128 shaders per blok worden gebruikt. AMD gebruikt voor zijn GCN-architectuur eenheden van 64 stream-processors. De chip liep op 1.100 MHz met een boostklok van 1,4 GHz. Via een 384-bit geheugenbus zat er 12 GB GDDR5-geheugen op 6.000 MHz gekoppeld aan de GPU, waardoor de totale geheugenbandbreedte bijna 30 procent hoger ligt dan bij de GTX 980.

Wanneer deze nieuwe Titan of Ti-variant van de GTX 980 op de markt zal komen, is nog niet bekend.
http://www.sisoftware.eu/...82a4c1a499a98ffcc1f9&l=en

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

Groot verhaal op Fudzilla: er is iets mis met de 20nm procede verkleining: http://www.fudzilla.com/h...20nm-node-broken-for-gpus

De yields zijn niet in orde. De kans is aanwezig dat we helemaal geen 20nm GPU's gaan zien.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Samsung klaagt Nvidia aan om 'benchmarkmanipulatie'

Benchmarkmanipulatie kunnen ze bij nVidia wel (Assasins Creed DX10.1, tesselation onder de map bij Crysis etc). Dus ik hoop dat ze verliezen.

[ Voor 32% gewijzigd door madmaxnl op 12-11-2014 14:16 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dat zijn wel vuile steken van Nvidia. Hopelijk mag Nvidia betalen, maar of ze het er van leren is de vraag want ze zijn nog al arrogant.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:01
Volgens guru3d gaat het om de claim “the world’s fastest mobile processor”. En dat dat false advertising zou zijn aangezien samsung ook wel eens een benchmark wint. Vraag me af wat samsung hoopt te bereiken met deze zaak.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 15-09 19:22

XanderDrake

Build the future!

Verwijderd schreef op woensdag 12 november 2014 @ 14:20:
Dat zijn wel vuile steken van Nvidia. Hopelijk mag Nvidia betalen, maar of ze het er van leren is de vraag want ze zijn nog al arrogant.
Vuile st(r)eken? Ik weet niet of je het volgde, maar het was Samsung die lang mobile benchmarks manipuleerden om bovenaan de lijstjes te komen. Dat nVidia zou liegen om hun K1's grafische prestaties is een farce, zie ook in de review van vandaag: http://tweakers.net/benchdb/test/1126

Deze actie van Samsung is gewoon een klassieke counter-sue, zodat ze extra kracht kunnen bij zetten om te settlen buiten de rechtzaal. Zie ook elke rechtzaak ever van Samsung tegen Apple .

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 23:28
madmaxnl schreef op woensdag 12 november 2014 @ 14:14:

Samsung klaagt Nvidia aan om 'benchmarkmanipulatie'

Benchmarkmanipulatie kunnen ze bij nVidia wel (Assasins Creed DX10.1, tesselation onder de map bij Crysis etc). Dus ik hoop dat ze verliezen.
Als het om nVidia gaat hoop jij altijd dat ze verliezen ;)
AMD/ATI is/was ook niet geheel smetteloos, maar dat weet je al. Ook intel, samsung, asus, msi en andere maken er soms een zooi van. Ik maak me er al 10 jaar niet meer druk om de hardware fabrikanten en misleiding/schandaaltjes.

Dit is een counter op de zaak die nVidia gestart heeft om gpu patenten die o.a. Samsung en andere partijen onbetaald gebruiken in de door hun gebruikte mobiele chips. Het komt oorspronkelijk neer op Qualcom en die verwijst nVidia naar afnemers waaronder Samsung na meerdere mislukte onderhandelingen.
Deze zaak is puur in gang gezet om nvidia terug te pesten en hiermee zal Samsung proberen tot een schikking te komen met nvidia over de gebruikte gpu patenten.

Imo is dit niet eens nieuwswaardig, want experts zagen dit al lang aankomen met alle bekende trucs in de perikelen tussen Samsung en Apple.

Ik hoop dat ze een oplossing met elkaar weten te vinden zonder dat wij weer meer moeten lappen voor die patentcrap.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
heeft amd echt wat uitgehaald na de 8500 ruim 10 jaar terug?
Nvidia heeft nog steeds opzettelijk slecht support voor opencl enzo. Ik ben ook crysis 3 niet vergeten.

Verwijderd

Eigenlijk is het nooit echt bewezen dat Nvidia en AMD hebben vals gespeeld, het zijn vooral aannames en elkaar beschuldigen zonder echte feiten, en dan heb je ook nog fanboy's die de boel op gang zetten via de media en dan lopen er weer mensen als schapen achter aan.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik game al op de PC sinds de tijd dat 3D-accelerated kaarten nog niet eens bestonden voor consumenten, het hele cheating driver verhaal is zeer lang geleden met de eerste versies van 3DMark aan het licht gekomen dat Nvidia zeer duidelijk "optimalisaties" toepaste. Men is toen ook wat dubieuze praktijken bij AMD tegengekomen. Bij beide fabrikanten was er een duidelijk verschil in bepaalde benchmarks of games te merken als je gewoon de executable renamede. Er is toen een tijdje moeilijk over gedaan geweest maar uiteindelijk is er het punt gemaakt dat zonder deze "specifieke optimalisaties" er vaak een veel lagere performance was ondanks de zeer minieme of soms onmerkbare lagere kwaliteit.

tl;dr
Dit is al zo oud als de namen GeForce en Radeon.

[ Voor 4% gewijzigd door Phuncz op 13-11-2014 12:09 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Oh dat is zeker wel bewezen :)

Ze hebben allebei stiekeme "optimalisaties" uitgevoerd waardoor ze veel beter uit de bus kwamen bij sommige benchmarks. Dan heb ik het over dingen als aanpassingen in LoD/AF/AA waardoor de performance gewoon omhoog schiet. Als je dan beter naar het beeld kijkt zie je echter aardig wat verschil in IQ; het is niet altijd zo opvallend als Quack 3 (voor diegenen die dit niet kennen, Googlen..het is geen typo ;)). Dit zijn vaak echter legitieme optimalisaties die verkeerd hebben uitgepakt. Niet altijd, zoiets als Nvidia's LoD praktijken en AMD's AF in Quake 3 waren geen legitieme optimalisaties :)

Dat is echter iets anders dan trucjes zoals stilzwijgend de clocks omhoog gooien als je bepaalde benchmarks detecteert (wat op de mobiele markt veel is gebeurd). Of bijvoorbeeld stilzwijgend Furmark limiteren zodat je temperaturen er niet zo idioot slecht uit zien (Nvidia begon daar mee, tegenwoordig doen ze het echter allebei).

En dat staat op zijn beurt ook weer los van de praktijken om de tegenpartij direct te benadelen. Denk aan Gameworx (de nieuwe AC laat weer fijn zien waarom TWIMTBP een kankergezwel is dat uit de industrie verwijderd moet worden), PhysX in 3DMark enkele jaren geleden of inderdaad Nvidia's gebrek aan steun voor OpenCL. Dit is het vlak waar Nvidia irritanter is dan AMD. Die dingen hierboven zijn ze allebei schuldig aan, maar op dit vlak is AMD altijd de exacte tegenpool geweest.


In dit geval met Samsung ligt het ironie gehalte wel erg hoog, want het is juist Samsung die zich het meest schuldig hebben gemaakt aan zulke praktijken. De concurrentie op de mobiele markt is een stuk harder dan het de laatste 20 jaar op de PC is geweest.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Over mobiele "optimalisaties" gepraat, het throttlen is daar wel een zeer reeël probleem. Grappig toen men een waterdichte telefoon in een emmer water zette om zo betere benchmarkresultaten te krijgen :)

Verwijderd

Werelds schreef op donderdag 13 november 2014 @ 13:06:
Oh dat is zeker wel bewezen :)

En dat staat op zijn beurt ook weer los van de praktijken om de tegenpartij direct te benadelen. Denk aan Gameworx (de nieuwe AC laat weer fijn zien waarom TWIMTBP een kankergezwel is dat uit de industrie verwijderd moet worden), PhysX in 3DMark enkele jaren geleden of inderdaad Nvidia's gebrek aan steun voor OpenCL. Dit is het vlak waar Nvidia irritanter is dan AMD. Die dingen hierboven zijn ze allebei schuldig aan, maar op dit vlak is AMD altijd de exacte tegenpool geweest.
De nieuwe AC problemen komen niet door Nvidia gameworks maar door Ubi zelf en het is al bekent dat het komt door deadlines en slechte optimalisaties. Met gameworks is niets aan de hand, dat werkt goed op zowel AMD als Nvidia of net zo slecht als het spel door de dev's niet goed geoptimaliseerd word.

http://www.gamer.nl/nieuw...men-assassins-creed-unity

Gameworks moet juist blijven, betere optimalisaties, mooiere geaphics, makkelijk in gebruik voor de game dev's daarom zie ik het niet graag weg gaan.

Ik weet niet of TWIMTBP het zelfde is als Gameworks maar al het zorgt voor slechtere prestaties op AMD hardware dan zie ik het niet graag terug in games maar als het wel zo is mogen TWIMTBP en gaming evolved van mij ook weg. Maar Gameworks kan goed werken voor AMD en Nvidia zoals het voordeel voor AMD in Watch Dogs.

[ Voor 26% gewijzigd door Verwijderd op 13-11-2014 13:54 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op donderdag 13 november 2014 @ 13:31:
[...]

De nieuwe AC problemen komen niet door Nvidia gameworks maar door Ubi zelf en het is al bekent dat het komt door deadlines en slechte optimalisaties. Met gameworks is niets aan de hand, dat werkt goed op zowel AMD als Nvidia of net zo slecht als het spel door de dev's niet goed geoptimaliseerd word.
Misschien nu omdat als devs genoeg betalen ze bij de source code kunnen komen, eerder niet (dit weet ik overigens niet 100% zeker). Het kan net zo goed zijn dat GameWorks andere fabrikanten een ander codepath laat nemen dat gewoon minder presteerd.

Dingen die closed zijn of waar maar 1 fabrikant aan kan werken zijn gewoon slecht voor de industrie, het staat gewoon open voor misbruik. Mantle is in dit geval niet hetzelfde omdat Nvidia kaarten gewoon het DirectX codepath pakken en het dus geen invloed heeft op hun prestaties (voordat mensen hier weer over beginnen :P).

Verwijderd

Sp3ci3s8472 schreef op donderdag 13 november 2014 @ 14:48:
[...]


GameWorks andere fabrikanten een ander codepath laat nemen dat gewoon minder presteerd.
Nee dat is niet de bedoeling van Gameworks en Nvidia, het is juist om bepaalde functies makkelijker in de game te verwerken.

Het is dus goed dat Gameworks er is maar helaas vertrouwt nog niet iedereen Nvidia met zijn Gameworks maar andersom zal het ook net zo zijn dat men AMD niet vertrouwd met zijn Gaming Evolved en Mantle is ergens ook wel closed want Nvidia kan er nog geen gebruik van maken al mag dat wel.

[ Voor 17% gewijzigd door Verwijderd op 13-11-2014 15:12 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Phuncz schreef op donderdag 13 november 2014 @ 13:12:
Over mobiele "optimalisaties" gepraat, het throttlen is daar wel een zeer reeël probleem. Grappig toen men een waterdichte telefoon in een emmer water zette om zo betere benchmarkresultaten te krijgen :)
Of Anandtech + koelkast :+

http://www.anandtech.com/show/6440/google-nexus-4-review/3

Het is in elk geval inderdaad een groot probleem met die SoC's, wat het nog veel lelijker maakt dat ze throttling uitschakelen zoiets als GLBench loopt.
Verwijderd schreef op donderdag 13 november 2014 @ 13:31:
De nieuwe AC problemen komen niet door Nvidia gameworks maar door Ubi zelf en het is al bekent dat het komt door deadlines en slechte optimalisaties. Met gameworks is niets aan de hand, dat werkt goed op zowel AMD als Nvidia of net zo slecht als het spel door de dev's niet goed geoptimaliseerd word.

http://www.gamer.nl/nieuw...men-assassins-creed-unity

Gameworks moet juist blijven, betere optimalisaties, mooiere geaphics, makkelijk in gebruik voor de game dev's daarom zie ik het niet graag weg gaan.

Ik weet niet of TWIMTBP het zelfde is als Gameworks maar al het zorgt voor slechtere prestaties op AMD hardware dan zie ik het niet graag terug in games maar als het wel zo is mogen TWIMTBP en gaming evolved van mij ook weg. Maar Gameworks kan goed werken voor AMD en Nvidia zoals het voordeel voor AMD in Watch Dogs.
TWIMTBP is het programma waar al deze onzin onder valt, zo ook GameWorks.

GameWorks op zich is niet slecht, maar wel wat Nvidia er mee doet. Veel onderdelen zijn gewoon niet geoptimaliseerd; vooral voor AMD gebruikers niet. Voor PhysX geldt hetzelfde, in theorie zou het geweldig zijn maar in de praktijk is het gewoon vooral bedoeld voor Nvidia gebruikers, terwijl AMD gebruikers ze ofwel helemaal mislopen, ofwel met 3 FPS mogen genieten.

Dat "niemand" vertrouwen heeft in GameWorks heeft dan ook vooral te maken met het feit dat Nvidia er nu eenmaal niet bekend om staat om een donder om de consument te geven. Hun eigen consumenten wel tot op zekere hoogte, maar voor de rest niet. En zulke technieken horen gewoon niet in games thuis. Als ik een game koop wil ik niet dat ik ineens de helft van de features niet krijg omdat ik een andere videokaart koop die voor de rest gewoon even snel of sneller is. Het zou allemaal lang zo'n probleem niet zijn als Nvidia alleen al aan OpenCL meewerkte en dat ook in PhysX had gebakken (voordat Magherb82 reageert: jaja, ze hebben aangegeven dat het er aan komt, maar aangezien 3.4 nog niet eens een release date heeft wordt dat iets voor 2016, 2017). Veel van hun zooi vereist CUDA om acceptabele performance te leveren en het is pas sinds 3.0 dat ze ook maar enig werk hebben geleverd om gebruik te maken van dingen zoals SSE2 in CPU's. Dat bestaat al sinds 2001.

Het enige onderdeel van GameWorks waar daadwerkelijk niet over te klagen valt is het minst boeiende: HairWorks. Dat gebruikt DirectCompute en is dus alleen afhankelijk van de driver en GPU. Alle andere onderdelen zijn ofwel niet beschikbaar voor AMD gebruikers, of worden geforceerd op de CPU te draaien.


En wat AC:U betreft? Tuurlijk, Ubisoft snapt geen donder waar ze mee bezig zijn, dus een groot deel van die problemen komt gewoon door incompetentie. Maar dat neemt niet weg dat GameWorks het alleen maar slechter kan maken voor AMD.


Ik moet het spel eens binnen halen, want voor zover ik lees draait het gewoon over het algemeen genomen bar slecht. Ik ben ook benieuwd welke versie van PhysX er in zit, kijken of we nu eindelijk een recente versie zien.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Werelds schreef op donderdag 13 november 2014 @ 15:21:
[...]

En wat AC:U betreft? Tuurlijk, Ubisoft snapt geen donder waar ze mee bezig zijn, dus een groot deel van die problemen komt gewoon door incompetentie. Maar dat neemt niet weg dat GameWorks het alleen maar slechter kan maken voor AMD.


Ik moet het spel eens binnen halen, want voor zover ik lees draait het gewoon over het algemeen genomen bar slecht. Ik ben ook benieuwd welke versie van PhysX er in zit, kijken of we nu eindelijk een recente versie zien.
http://www.metacritic.com/game/pc/assassins-creed-unity
Leuk om te lezen met popcorn erbij :+.

Net een glitch filmpje gezien en de "review" van TotalBiscuit, het is gewoon een bak ellende.

Je ziet dingen door de grond vallen.. dit krijg je in games voor elkaar als de framerate van het physics gedeelte te grote pieken en dalen hebben. Ziet er wel leuk uit zolang je het spel zelf maar niet hoeft te spelen :P.

Verwijderd

Vrij apart dat ik in de gamebenchmarks met Gamworks er in bepaald niet slechter loopt op AMD hardware. Het valt dus allemaal wel mee, in AC:U zit geen nvidia physx meer maar een andere soort.

Edit

Lords of the Fallen is de laatste game met Nvidia Physx en die maakt gebruik van Physx SDK 3.3.0.0

[ Voor 28% gewijzigd door Verwijderd op 13-11-2014 15:44 ]


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:01
Werelds schreef op donderdag 13 november 2014 @ 15:21:
Het enige onderdeel van GameWorks waar daadwerkelijk niet over te klagen valt is het minst boeiende: HairWorks. Dat gebruikt DirectCompute en is dus alleen afhankelijk van de driver en GPU. Alle andere onderdelen zijn ofwel niet beschikbaar voor AMD gebruikers, of worden geforceerd op de CPU te draaien.
Er zitten ook dingen in die voornamelijk shaders gebruiken, als HBAO+, wat volgens mij ook prima draait op amd gpu's.

En hairworks gebruikt tessellation, tenzij je een r9 285 hebt zal dat wel een redelijke performancehit zijn op amd gpu's. Op zich is het logisch om dit met tessellation te doen, maar het is natuurlijk niet vreemd dat ze juist dit openen en pushen.

GPU PhysX op amd gpu's ging natuurlijk niet gebeuren de afgelopen jaren, aangezien gcn beter scoorde op dat soort compute dan mainstream kepler. Nu met maxwell scoren ze weer prima op compute, dus is de kans dat er meer naar directcompute komt een stuk groter.

Mechwarrior Online: Flapdrol


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
haarbal schreef op donderdag 13 november 2014 @ 15:45:
Er zitten ook dingen in die voornamelijk shaders gebruiken, als HBAO+, wat volgens mij ook prima draait op amd gpu's.
HBAO+ heeft een aardige hit op AMD kaarten. Dat kan natuurlijk aan de driver liggen, maar volgens mij draait HBAO+ niet op DirectCompute, dus dat betekent CUDA.
En hairworks gebruikt tessellation, tenzij je een r9 285 hebt zal dat wel een redelijke performancehit zijn op amd gpu's. Op zich is het logisch om dit met tessellation te doen, maar het is natuurlijk niet vreemd dat ze juist dit openen en pushen.
Er zit wel wat tessellation in, het grootste deel is echter DirectCompute.

Performance is echter het punt niet; het punt is dat AMD met HairWorks gelijke kansen krijgt. Dat hun DX11 driver trager is, is jammer voor AMD. Net zoals het met TressFX in TR jammer voor Nvidia was dat GK104 zo traag was in vergelijking met Tahiti. Dat ligt echter niet aan HairWorks of TressFX, dat ligt aan de driver en/of hardware, zoals het hoort. Dat is met PhysX en TXAA niet het geval. De een moet op de CPU draaien, de ander is niet beschikbaar.

Ik ben helemaal voor deze technieken, maar dan wel op een manier dat enige performance problemen aan de driver en/of hardware liggen en niet aan een of andere beperking in software die daar boven ligt ;)

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:01
Werelds schreef op donderdag 13 november 2014 @ 16:18:
HBAO+ heeft een aardige hit op AMD kaarten. Dat kan natuurlijk aan de driver liggen, maar volgens mij draait HBAO+ niet op DirectCompute, dus dat betekent CUDA.
Gebruikt alleen directx volgens mij, hier testen ze met watchdogs.

http://www.hardocp.com/ar...ce_preview/4#.VGTXb-ktDL4
We are running at 2560x1600 with overall quality of "Ultra." We are wanting to see the impact of moving from "Ultra" settings using MHBAO to custom settings increasing to the maximum level possible of HBAO+ High on the R9 290X.

We also see a performance impact on the R9 290X. The performance hit is just a bit greater on the R9 290X compared to GTX 780 Ti, but we are talking only a frame average difference overall.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Werelds schreef op donderdag 13 november 2014 @ 15:21:
Dat "niemand" vertrouwen heeft in GameWorks heeft dan ook vooral te maken met het feit dat Nvidia er nu eenmaal niet bekend om staat om een donder om de consument te geven. Hun eigen consumenten wel tot op zekere hoogte, maar voor de rest niet.
Als voorbeeld de tesselation van water onder de map bij Crysis. Hierbij gaat de performance van AMD en nVidia allebei onnodig omlaag. Het voordeel voor nVidia zit er in dat AMD videokaarten dan verder wegzakken onder zulke specifieke omstandigheden (workloads).

Dus zelfs nVidia consumenten ondervinden de nadelen van nVidia praktijken.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is nooit echt bewezen alleen aannames Madmaxnl

Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:08

Cheezus

Luiaard

Echt waar?
http://hothardware.com/Ne...nable-Tessellation-Usage/

Een onzichtbare ondergrondse oceaan en een vierkant beton blok met enorme tesselation waren zeker bewust door de ontwikkelaar toegevoegd omdat dit veel aan de game/experience toevoegt?

Acties:
  • 0 Henk 'm!

Verwijderd

Cheezus schreef op vrijdag 14 november 2014 @ 09:58:
Echt waar?
http://hothardware.com/Ne...nable-Tessellation-Usage/

Een onzichtbare ondergrondse oceaan en een vierkant beton blok met enorme tesselation waren zeker bewust door de ontwikkelaar toegevoegd omdat dit veel aan de game/experience toevoegt?
Ik snap je punt wel, maar waar word bewezen dat Nvidia er achter zit dat de ontwikkelaar onnodige tessellation er in propt. Dat wil ik wel eens zien. Dit is echt zo'n ding die ik niet als feit aan kan nemen. Zo kan ik namelijk ook wel verzinnen dat in Tomb raider tressFX zit om Nvidia kaarten slechter te laten presteren, maar zo iets ga ik ook niet zo maar aannemen als waar.

En dit is zo'n voorbeeld die door fanboy's gebruikt kan worden om Nvidia nogmaals in een slecht daglicht te zetten, stel dat het niet uit kwqam dat het aan Ubi ligt, door dat Ubi dat wil verdedigen. http://www.guru3d.com/new...well-on-amd-hardware.html

Ja maar Nvidia zit er achter. 8)7

[ Voor 32% gewijzigd door Verwijderd op 14-11-2014 10:28 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het hele punt is dat AC:Unity een TWIMTBP game is die duidelijk gefocussed is op Nvidia hardware en waar er niet meer dan de meest kritieke optimalisaties voor AMD hardware is gedaan. Het gene wat ik hieruit haal is dat Ubisoft gekozen heeft om niet met AMD samen te werken aan deze game, of dat nu door Nvidia zijn "aandringen" komt of niet, valt moeilijk te bewijzen.

Wat echter wel opvalt is dat men ná de release van de game en de overduidelijk aanwezige problemen pas bewust lijkt te zijn van AMD hardware. Dat merk je ook met hun uitspraak "This should not affect the vast majority of PC players", want Nvidia heeft waarschijnlijk een groter marktaandeel voor gaming GPU's van het doelpubliek (low-end en APU's niet meegerekend). Het is gewoon erg dat het op deze manier aangepakt moet worden met "sponsoring" van de twee GPU fabrikanten die een game teveel naar één kant trekken. Maar uiteindelijk is het de uitgever en developer die kiest om dit soort shitstorms te doen ontstaan.

Maar deze game draait uiteindelijk ook crap op Nvidia hardware en dat blijkt door het algemene gebrek aan optimalisatie. Nu snapt men wel waarom AMD met Mantle komt als ze op consolegames met 50.000 draw calls ontwikkelen als dat op PC-gebied al jaren gelimiteerd is tot 10.000 of 20.000. Dat Microsoft nu eindelijk in gang schiet met DX12, werd ook eens tijd. Maar ze verdienen meer met Xbox dan met Windows voor gaming PC's I guess, dus dat dit te lang heeft geduurd, verwondert me dan weer niet. Het is wel slecht voor de PC gaming industrie, want zo'n zaken verklaren de tegenvallende console ports.

[ Voor 28% gewijzigd door Phuncz op 14-11-2014 10:57 ]


Acties:
  • 0 Henk 'm!

Verwijderd

En dat is iets wat zal blijven, je hebt Nvidia games en AMD games, zo lang beide bedrijven bestaan hou je dit fenomeen.

Het is verder wel een must voor Nvidia en AMD om hun partners te behouden, zeker nu voor Nvidia is dat een must gezien AMD de consoles bezit en daar alle winst uit trekt, zo heeft Nvidia tenminste nog wat in te brengen voor pc gaming al is dat niet zo veel qua engines maar wel met grote titels en hopelijk blijft dat zo.

[ Voor 6% gewijzigd door Verwijderd op 14-11-2014 10:58 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het is niet dat dit soort praktijken verplicht zijn, uiteindelijk is iemand begonnen (3dfx ?) met het "sponsoren" van games. Dit is niet nodig, developers moeten nu éénmaal rekening houden met het bereiken van de meeste klanten (gamers) zonder de kosten/baten-analyse grondig te vertekenen.

Als een US rechter van vandaag op morgen zegt dat dit soort praktijken niet meer mogen gebeuren, dan zou het misschien ook stoppen.

AMD én Nvidia hebben er allebei baat bij dat PC gaming blijft doorgaan, anders worden gigantische delen van hun organisatie te duur en dus nutteloos. Nvidia heeft ook genoeg non-PC-gaming takken (CUDA, Shield, Tegra) dus niet blindelings met de vinger naar AMD wijzen dat zij niet dezelfde interesse als Nvidia hebben in de PC-gaming industrie.

Acties:
  • 0 Henk 'm!

Verwijderd

Door dat AMD alle consoles heeft AMD sowieso al heel veel te zeggen over zo wel pc gaming als Console gaming. Ik zeg niet dat AMD er geen belang bij heeft, Nvidia heeft er meer noodzaak bij nu om het zelfde te bereiken voor gaming anders liggen ze er op de duur uit voor pc gaming. als ze niets in te brengen hebben op dat vlak.

[ Voor 36% gewijzigd door Verwijderd op 14-11-2014 11:21 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Je bekijkt het erg simplistisch, het zijn de uitgevers die kiezen op welk platform ze ontwikkelen en veelal doen ze dat waar de grootste winst te behalen valt. Dan zijn zaken als aantal potentiële kopers, winstmarges op de platformen, after-sales en marketing een groot deel van, allemaal geen zaken waar AMD invloed op heeft. Het is niet omdat AMD alle current-gen console processors heeft ontworpen en gelicensieerd, dat ze ook gigantische invloed hebben op de consolewereld. Want ze verkopen niet meer door magische dingen te doen op de consoles. Daar heerst nog steeds het games aanbod om te dicteren welke en hoeveel consoles verkocht worden, naast de prijs natuurlijk.

Nvidia heeft net zoals AMD geen nieuwe "dingen" gebracht naar de PC gaming wereld, buiten technieken en oplossingen die beter draaien op hun hardware. TressFX en HairWorks is leuk maar het is maar een "means to an end". Het zijn nog steeds de ontwikkelaars, betaald door de uitgevers, die de games als resultaat tot stand brengen. Nogmaals, Nvidia heeft niet meer of minder baat dan AMD bij het rechthouden van de PC gaming industrie.

Je zou het zelfs zo kunnen stellen: hoe komt het dat AMD met Mantle moet afkomen om de slechte staat van DirectX aan het licht te brengen, bedoeld om meer performance en betere optimalisatie van console-naar-PC ports (en vice versa) te brengen, als Nvidia zich bezig houdt met Tegra ?

Acties:
  • 0 Henk 'm!

  • NakedDutchy
  • Registratie: Oktober 2014
  • Laatst online: 22-05 15:35
En wat AC:U betreft? Tuurlijk, Ubisoft snapt geen donder waar ze mee bezig zijn, dus een groot deel van die problemen komt gewoon door incompetentie. Maar dat neemt niet weg dat GameWorks het alleen maar slechter kan maken voor AMD.


Ik moet het spel eens binnen halen, want voor zover ik lees draait het gewoon over het algemeen genomen bar slecht. Ik ben ook benieuwd welke versie van PhysX er in zit, kijken of we nu eindelijk een recente versie zien.
[/quote]

Gisteren 2 uurtjes gespeeld (waarvan ong 1 uur aan filmpjes) en hij bevalt mij echt! hij draait op een MSI GTX970 en i5-4690.
De graphics zijn echt super! Van alle slechte reviews heb ik nog werkelijk niks kunnen terug vinden ingame betreffende bugs etc.

Qua gameplay is er wel een hoop veranderd: het vechten is bijvoorbeeld een stuk moeilijker geworden, ze schieten je bijna in 1 x voor je donder. en het freerunnen en klimmen voelt moeiljker aan.

De eerste 2 uurtjes bevielen mij echt. Zeker na al dat slechte nieuws over de release.

[ Voor 4% gewijzigd door NakedDutchy op 14-11-2014 12:00 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op vrijdag 14 november 2014 @ 10:06:

Zo kan ik namelijk ook wel verzinnen dat in Tomb raider tressFX zit om Nvidia kaarten slechter te laten presteren, maar zo iets ga ik ook niet zo maar aannemen als waar.
Dat kun je zeker doen. Tress FX maakt gebruik van DirectCompute dus dan heb je geen poot meer om op te staan.

In tegenstelling tot bijvoorbeeld PhysX, dat gebruik maakt van CUDA, hoort DirectCompute gewoon bij het door Microsoft gemaakte DirectX pakket.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

NakedDutchy schreef op vrijdag 14 november 2014 @ 11:55:
En wat AC:U betreft? Tuurlijk, Ubisoft snapt geen donder waar ze mee bezig zijn, dus een groot deel van die problemen komt gewoon door incompetentie.
Zoiets heb ik al een paar keer hier gelezen maar dat is toch helemaal fout, AC:U is niet "per ongeluk" tot stand gekomen door een bende boeren die niet weten wat ze moeten doen. Het ligt aan de prioriteiten. De uitgever wil zo snel mogelijk weer cashen op de gehypte franchise van Assassin's Creed, daarom was ook het review embargo zo laat, daarom heeft Ubisoft voor de PC maar een zielige port gemaakt, of beter gezegd: de tijd gekregen, en daarom draait het maar goed op één fabrikant zijn GPU's.

Dit heeft niets met incompetentie te maken maar alles met het volgen van strakke deadlines en het halen van maar een aantal doelen om de kosten zo laag mogelijk te houden terwijl de winst gemaximaliseerd wordt. De aandeelhouders waren blij, tot 12u na de launch.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:01
Alle gameworks dingen kunnen gewoon uit in asscreed, en dan draait het nog steeds niet goed, op de consoles is de performance ook waardeloos, na het watchdogs fiasco niet echt verbazingwekkend.

Mechwarrior Online: Flapdrol

Pagina: 1 ... 28 ... 30 Laatste

Dit topic is gesloten.