[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 24 ... 30 Laatste
Acties:
  • 125.422 views

Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
En ik zit hier nog steeds met mijn 580 GTX(reference).. met 1.5g VRAM. Begin het wel echt te merken hoor :<.

Als de gtx 880 uit is zal ik wss daar voor gaan:). Mijn i7 950 @ 4.4ghz kan nog goed meekomen denk ik zo =P

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Ferluci92 schreef op vrijdag 22 augustus 2014 @ 12:19:
En ik zit hier nog steeds met mijn 580 GTX(reference).. met 1.5g VRAM. Begin het wel echt te merken hoor :<.

Als de gtx 880 uit is zal ik wss daar voor gaan:). Mijn i7 950 @ 4.4ghz kan nog goed meekomen denk ik zo =P
Ik doe het met GTX 670 2gb VRAM. Maakt die halve gigabyte zo veel uit? Ik draai BF4 gewoon op ultra :?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
XanderDrake schreef op vrijdag 22 augustus 2014 @ 13:39:
[...]

Ik doe het met GTX 670 2gb VRAM. Maakt die halve gigabyte zo veel uit? Ik draai BF4 gewoon op ultra :?
ik moet bepaalde spellen inderdaad flink terug schroeven, komt ook nog bij dat ik een 2560 x 1440 wil. :)

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Ferluci92 schreef op vrijdag 22 augustus 2014 @ 13:45:
[...]


ik moet bepaalde spellen inderdaad flink terug schroeven, komt ook nog bij dat ik een 2560 x 1440 wil. :)
Ah. Daar wringt de schoen, ik zit nog op 1080p :) En nog wel een tijdje denk ik.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
Komt ook nog eens bij dat mijn video kaart geen display ports heeft :(,

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

XanderDrake schreef op vrijdag 22 augustus 2014 @ 13:39:
[...]

Ik doe het met GTX 670 2gb VRAM. Maakt die halve gigabyte zo veel uit? Ik draai BF4 gewoon op ultra :?
Als je gebruik gaat meten dan zie je dat 2gb te weinig is voor 1080p op ultra met die setup.
Tenminste in ieder geval als je 4xMSAA ed instelt. Hoe en of zich dat in prestaties uit weet ik niet.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 19:58
Help!!!! schreef op vrijdag 22 augustus 2014 @ 18:15:
[...]

Als je gebruik gaat meten dan zie je dat 2gb te weinig is voor 1080p op ultra met die setup.
Tenminste in ieder geval als je 4xMSAA ed instelt. Hoe en of zich dat in prestaties uit weet ik niet.
Meh, verschilt per spel, veel spellen streamen dynamisch de hoogste textures in en uit afhankelijk van waar je in een level bent, maar als je veel geheugen hebt wordt er niks uitgegooid, dan ziet iemand met een 3GB kaart 2.6 en concludeert onterecht dat 2GB onvoldoende is.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Meh, ja weet ik niet. Textures gelijk uit geheugen lezen lijkt me nog altijd sneller dan inlezen van disk.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Il 2
  • Registratie: November 2009
  • Niet online
Verwijderd schreef op vrijdag 22 augustus 2014 @ 11:02:
[...]

Ik zeg wachten als je nog even kunt uitzitten met de gtx770, even kijken wat er dan gebeurd want het is nog maar een paar maand dat de gtx870-880 komt.
Oh, ik zit nog een paar generaties daarvoor. Ik kan alleen nog 'meekomen' omdat ik een van de eerste quad cores heb en op een lage resolutie game. Maar high settings kan ik al jaren niet meer bij de meeste games draaien.
dus die paar maanden kunnen er ook nog wel bij. Maar op een gegeven moment moet je wel een keer instappen ja, anders kan je blijven wachten. Heb wel weer zin om een keer te upgraden.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 19:58
Help!!!! schreef op vrijdag 22 augustus 2014 @ 21:38:
Meh, ja weet ik niet. Textures gelijk uit geheugen lezen lijkt me nog altijd sneller dan inlezen van disk.
Alles wat gerenderd wordt staat gewooon in vram.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anyway laat ik het dan maar anders zeggen:

als een game bijv. max 1.5gb gebruikt van een 2gb kaart tijdens een sessie dan weet je zeker dat vanuit de game er niet meer behoefte bestaat.

Als die game 2gb van 2gb gebruikt, dan zou er een bottleneck kunnen zijn.

Als je vervolgens de 4gb variant vd kaart gebruikt en de game gebruikt plots, c.p., 2.5 ipv 2 dan heeft de game blijkbaar behoefte aan meer dan 2gb.

Ik heb niet de kennis van welke specifieke engine dan ook of dat dan lazy programming is of dat het geen fuck uit maak zoals jij beweert.

Daarom zeg ik ook: ik weet het niet. Het enige wat voor mij een feit is, is dat de game meer vraagt.

Alleen testen brengt volgensmij aan het licht of en wat het performanceverschil is.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Help!!!! schreef op zaterdag 23 augustus 2014 @ 09:41:
Als die game 2gb van 2gb gebruikt, dan zou er een bottleneck kunnen zijn.

Als je vervolgens de 4gb variant vd kaart gebruikt en de game gebruikt plots, c.p., 2.5 ipv 2 dan heeft de game blijkbaar behoefte aan meer dan 2gb.
Nee, dat is niet noodzakelijkerwijs het geval. Je zit niet helemaal fout, maar deze specifieke bewering klopt niet :)

Frostbite 3 gebruikt bijvoorbeeld al het VRAM dat hij vol kan stoppen. In BF4 kun je tot net onder de 3 GB geheugen komen, maar het spelt draait dan geen donder soepeler dan op een 2 GB kaart. Er zijn verschillende benchmarks met zowel de 760 als de 770 met hun 2/4 GB varianten (Google er maar eens op); je hebt het over 0.x FPS, wat gewoon binnen de foutmarge valt.

Dit heeft te maken met caching. FB3 (CE overigens ook, UE3.5 minder, kom ik zo op terug) cached ontzettend aggressief. Als jij op een willekeurige map aan de ene kant staat, heeft de engine toch al textures gecached die wellicht alleen ergens aan de andere kant van de map in een gebouw voor komen. Het spel heeft dat geheugen dus niet nodig, het is alleen gemakkelijk.

Het mag duidelijk zijn dat dit inderdaad is om streaming te voorkomen, zoals jij al aan geeft. Echter is streaming niet altijd slecht. FB3 heeft een behoorlijk goed streaming mechanisme en enkele textures moeten streamen heeft nagenoeg geen performance impact. Het bespaart ze nog steeds enkele drawcalls en wat I/O tijd, maar die tijd is zo kort dat het ze niet eens opbreekt. In andere engines is dit niet het geval. In UE3 wordt er ook gecached, maar een stuk minder. Dit heeft vooral te maken met het feit dat de engine toegespitst is op de vorige generatie consoles met hun kleine beetjes geheugen - daar past nu eenmaal niet zo veel in. Helaas is hun streaming mechanisme ook relatief traag; wederom omdat het toegespitst is op de tragere harde schijven en relatief snelle CPU's in de oude consoles. Daarom heeft UE3 op de PC altijd zo'n nare smaak; het loopt nooit helemaal vlekkeloos. UE3.5 heeft hier enige dingen in verbeterd, maar het is nog lang niet zo goed als FB3. Als je UE3 met FB3 vergelijkt zie je dat FB3 minder I/O activiteit heeft en tegelijkertijd een iets lagere CPU footprint; ondanks het feit dat er in de huidige FB3 games veel meer gebeurt op het scherm.

FB3 is overigens in z'n geheel wat mij betreft momenteel de beste engine. UE4 zit mooi in elkaar, maar Epic heeft nog wat optimalisatie werk te verrichten. Vergeleken met CE3 is het wellicht niet het grafische powerhouse dat CE3 is, maar voor de visuals die FB3 produceert is de performance duizend keer beter dan elke versie van CE ooit. Daar komt bij dat Johan Andersson en DICE zelf heel open zijn over veel van de dingen die ze doen en hun GDC presentaties zijn ook erg boeiend als je iets meer wilt weten over sommige aspecten van renderen. En om aan te geven hoe slim die man is raad ik iedereen aan om eens door deze PDF te bladeren. Je ziet daar al dingen in waar zij 4 jaar geleden mee bezig waren die we nu pas langzaam aan als speerpunten in API's en GPU's zien. Hij is momenteel wat Carmack eind vorige eeuw was. Hij is de drijfveer achter Mantle en D3D12, hij is degene die met Nvidia en AMD een hoop van de nieuwe populaire algoritmes heeft bedacht. Ik volg hem al een hele tijd op Twitter en hij heeft echt overal een vinger in de pap :)

[ Voor 3% gewijzigd door Werelds op 23-08-2014 13:36 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

^ goed en compleet antwoord! Mooi om te zien hoe game devs vram variaties anticiperen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Amanoo
  • Registratie: December 2007
  • Laatst online: 27-08 23:03

Amanoo

Cᴀᴛs ᴀʀᴇ ɴɪᴄᴇ.

Aangezien ik hier een nodige stellingen zie langskomen dat binnenkort nieuwe kaarten uitkomen, GTX 770 kopen, of wachten op de GTX 870? Een vriend van mij wil binnenkort graag een nieuwe PC, namelijk.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het ligt eraan hoe lang je kan wachten. Mijn vermoeden is dat het nog minimaal een maand duurt voordat de eerste kaarten geleverd kunnen worden, anders hadden we al meer "feiten" gezien.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Werelds schreef op zaterdag 23 augustus 2014 @ 13:33:
[...]

Nee, dat is niet noodzakelijkerwijs het geval. Je zit niet helemaal fout, maar deze specifieke bewering klopt niet :)

Frostbite 3 gebruikt bijvoorbeeld al het VRAM dat hij vol kan stoppen. In BF4 kun je tot net onder de 3 GB geheugen komen, maar het spelt draait dan geen donder soepeler dan op een 2 GB kaart. Er zijn verschillende benchmarks met zowel de 760 als de 770 met hun 2/4 GB varianten (Google er maar eens op); je hebt het over 0.x FPS, wat gewoon binnen de foutmarge valt.

Dit heeft te maken met caching. FB3 (CE overigens ook, UE3.5 minder, kom ik zo op terug) cached ontzettend aggressief. Als jij op een willekeurige map aan de ene kant staat, heeft de engine toch al textures gecached die wellicht alleen ergens aan de andere kant van de map in een gebouw voor komen. Het spel heeft dat geheugen dus niet nodig, het is alleen gemakkelijk.

Het mag duidelijk zijn dat dit inderdaad is om streaming te voorkomen, zoals jij al aan geeft. Echter is streaming niet altijd slecht. FB3 heeft een behoorlijk goed streaming mechanisme en enkele textures moeten streamen heeft nagenoeg geen performance impact. Het bespaart ze nog steeds enkele drawcalls en wat I/O tijd, maar die tijd is zo kort dat het ze niet eens opbreekt. In andere engines is dit niet het geval. In UE3 wordt er ook gecached, maar een stuk minder. Dit heeft vooral te maken met het feit dat de engine toegespitst is op de vorige generatie consoles met hun kleine beetjes geheugen - daar past nu eenmaal niet zo veel in. Helaas is hun streaming mechanisme ook relatief traag; wederom omdat het toegespitst is op de tragere harde schijven en relatief snelle CPU's in de oude consoles. Daarom heeft UE3 op de PC altijd zo'n nare smaak; het loopt nooit helemaal vlekkeloos. UE3.5 heeft hier enige dingen in verbeterd, maar het is nog lang niet zo goed als FB3. Als je UE3 met FB3 vergelijkt zie je dat FB3 minder I/O activiteit heeft en tegelijkertijd een iets lagere CPU footprint; ondanks het feit dat er in de huidige FB3 games veel meer gebeurt op het scherm.

FB3 is overigens in z'n geheel wat mij betreft momenteel de beste engine. UE4 zit mooi in elkaar, maar Epic heeft nog wat optimalisatie werk te verrichten. Vergeleken met CE3 is het wellicht niet het grafische powerhouse dat CE3 is, maar voor de visuals die FB3 produceert is de performance duizend keer beter dan elke versie van CE ooit. Daar komt bij dat Johan Andersson en DICE zelf heel open zijn over veel van de dingen die ze doen en hun GDC presentaties zijn ook erg boeiend als je iets meer wilt weten over sommige aspecten van renderen. En om aan te geven hoe slim die man is raad ik iedereen aan om eens door deze PDF te bladeren. Je ziet daar al dingen in waar zij 4 jaar geleden mee bezig waren die we nu pas langzaam aan als speerpunten in API's en GPU's zien. Hij is momenteel wat Carmack eind vorige eeuw was. Hij is de drijfveer achter Mantle en D3D12, hij is degene die met Nvidia en AMD een hoop van de nieuwe populaire algoritmes heeft bedacht. Ik volg hem al een hele tijd op Twitter en hij heeft echt overal een vinger in de pap :)
Bedankt voor je toelichting.
Desaniettemin klopt mijn bewering prima. De game heeft die behoefte, acht het wenselijk, anders gooit het het ram niet vol. Ergens heeft een programmeur dat besloten. Tegelijkertijd geef ik aan dat ik niet weet in hoeverre het nuttig is. Of preciezer, waar het omslagpunt ligt tussen merkbaar nuttig en niet nuttig.

En dat is en blijft wat mij betreft het issue. Voor, naar mijn inschatting, veruit het overgrote deel van de kopers is het praktisch niet haalbaar om voor de verschillende engines, laat staan games, duidelijk te achterhalen op welk moment, c.p., ram wel een bottleneck vormt.

En er zal ongetwijfeld een relatie zijn met de resolutie en IQ waarop je speelt waardoor die grens verschuift. Tevens moet je ook nog kijken naar hoe snel het vram benaderbaar is. 128b bus op 1000mhz met 8gb heeft niet veel zin.

Het enige wat wel vrij eenvoudig te testen is, is hoeveel vram een spel fysiek gebruikt.

Dus ja, wat koop je dan in het voorbeeld 2gb of meer...

Ik zelf doe dan normaal gesproken meer. Liever safe dan sorry. Ook met oog op toekomst.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 19:58
Help!!!! schreef op zondag 24 augustus 2014 @ 11:58:
Desaniettemin klopt mijn bewering prima.
Nope, je had het over een bottleneck, en dat is het niet.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

haarbal schreef op zondag 24 augustus 2014 @ 12:05:
[...]

Nope, je had het over een bottleneck, en dat is het niet.
Klopt, het is wel een bottleneck. Spel wil 2.5 en je hebt maar 2.0.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 19:58
whatever, je kan het verschil amper meten, laat staan merken.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Help!!!! schreef op zondag 24 augustus 2014 @ 12:08:
[...]

Klopt, het is wel een bottleneck. Spel wil 2.5 en je hebt maar 2.0.
Als je een effect van minder dan één fps meer of minder een bottleneck vindt? Het lijkt wel alsof je Werelds uitleg niet helemaal gelezen hebt.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Werelds toelichting is leuk maar het lost het issue niet op dat het erg lastig is om objectief te bepalen, voor diegene die een kaart wil kopen, wanneer de hoeveelheid geheugen een bottleneck zal vormen als je abstracte zaken als caching/streaming erin gaat betrekken..

Ik denk verder eerder dat jullie mijn posts niet goed interpreteren.

De lezers hier kunnen uit de wisseling vast wel halen wat ze nodig hebben.

Succes ermee. :)

[ Voor 8% gewijzigd door Help!!!! op 24-08-2014 12:38 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het verschil was vroeger ook veel groter, toen men niet gebruik maakte van streaming (of niet in die mate) en van dynamisch geheugengebruik. Geen idee hoe belangrijk het nog is om >2GB te hebben, sinds de verschuiving dat consoles het focus platform voor ontwikkeling zijn, is de nadruk op efficiente engines met technieken om rond de beperkingen te werken, veel voornamer geworden. Kijk maar naar Watch Dogs, het verschil tussen het beloofde en het geleverde. Het beloofde zou nu vlot 3GB en 4GB kaarten kunnen gebruiken, maar het geleverde gaat uit van console-hardware en is hiernaar geoptimaliseerd.

Acties:
  • 0 Henk 'm!

Verwijderd

Watch dogs gaat haperen als je de max video geheugen bereikt als dit de toekomst is, dat bepaalde games wel meer dan 2gb nodig zijn, dan kun je beter voor een 4gb kaart gaan.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Watch Dogs is een goed voorbeeld van slechte optimalisaties voor PC hardware. De stutter was er ook met 6GB Titans, niet iedereen had er in dezelfde mate last van, het was bij de meeste mensen verdwenen door een community-made patch te gebruiken en het is voor een deel van de mensen nu opgelost met de officiële patches.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Het lijkt me gewoon belangrijk dat reviewers en tech sites de vinger aan de pols houden omtrent wat nou het minimale aan VRAM is was nodig is bij een game als Watch Dogs. Ze doen het al door bijv GTX 760 2gb en 4gb met elkaar te vergelijken.

Wat belangrijk is, is dat ik denk dat we nog wel even op 1080p als default resolutie gaan spelen voor we doorgaan naar 2k en 4k resoluties. Dan zal 2gb nog redelijk lang voldoende zijn.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

Mee eens, maar dat neemt niet weg dat Watch Dogs beter loopt met meer Vram met de zelfde settings, op mijn titans loop het zeer soepel en mijn gtx780's die vram te kort heeft niet.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Help!!!! schreef op zondag 24 augustus 2014 @ 12:37:
Werelds toelichting is leuk maar het lost het issue niet op dat het erg lastig is om objectief te bepalen, voor diegene die een kaart wil kopen, wanneer de hoeveelheid geheugen een bottleneck zal vormen als je abstracte zaken als caching/streaming erin gaat betrekken..
Ik snap wat je bedoelt, maar dat valt wel mee hoor, alleen is het helaas niet direct VRAM gebruik waar je naar moet kijken.

Men neme GK104 en GF110. Stop de laatste in een SLI opstelling (waarom zie je zo). Begin maar eens fijn wat benchmarks te draaien en je ziet dat die twee 570's/580's over het algemeen gewoon op het niveau van een 670/680 zitten. Ook in Battlefield 4; een stel 580's draait BF4 gewoon op 55-60 FPS op 1080p met MSAA en de hele meuk, net zoals een 670 of 680 dat doet (ik ga nu even uit van stock settings; een 680/770 op maximale clocks krijgt er wel 70 uit geperst op Ultra met MSAA).

En dan kom je ineens Crysis 3 (of beter nog, Star Citizen) tegen. Daar komt hij wel daadwerkelijk geheugen te kort met die 1.25/1.5 GB en zie je dat het gemiddelde aantal frames per seconde lager ligt. Wat echter nog veel belangrijker is, is dat microstuttering ineens stuttering wordt, doordat er zo veel assets door het geheugen gepompt worden. Het gevolg is dat beide kaarten vrij veel tijd besteden aan...niets. Ze moeten wachten tot allerlei dingen rondgeschoven zijn.

De reden dat ik SLI als voorbeeld neem is omdat het daar idioot duidelijk is, maar met enkele kaarten is dit ook waar te nemen in de frame times. Als die relatief constant zijn, maar op onregelmatige momenten gigantische spikes vertonen, is dat hoogstwaarschijnlijk een geheugen probleem als een krachtigere kaart van dezelfde fabrikant (vanwege driver issues!) dat niet heeft. Het is ook niet zo heel erg moeilijk zelf te testen; je hoeft maar met texture resolution te spelen (als een spel je dat laat doen). Een hogere texture resolutie heeft nagenoeg geen impact op performance, alleen op geheugen verbruik. Met andere woorden, als een kaart ineens inkakt als je de texture resolutie opschroeft heb je een VRAM bottleneck. Zo zijn er nog wel een aantal dingen die weinig shader tijd, maar veel geheugen nodig hebben - dat zijn de dingen die je aan/uit kunt zetten om op zoek te gaan naar VRAM bottlenecks :)


Ik ben het wel volledig met je eens dat het lastig is dit uit reviews te halen. Die hebben immers meestal alleen algehele low/medium/high/ultra presets. Het is nu in elk geval nog steeds zo dat 2 GB voldoende is voor 1080p met 4xMSAA (MSAA vreet geheugen, overigens), met uitzondering van Star Citizen met hun 12 lagen van 4096x4096 textures ;)

BF4 heeft het absoluut niet nodig en voor de rest is in de meeste games de texture resolutie bedroevend laag :(

Voor hogere resoluties raad ik wel 3+ GB aan.


@ de rest: houdt op over Watch_Dogs, asjeblieft :P

Het is een ongelofelijk stuk stront, dat spel loopt zo slecht op allerhande hardware dat je er echt niets zinnigs kunt zeggen. Zeggen dat dat spel "beter" draait op 6 GB is even nuttig als geloven in de "6 GB RAM minimum" voor CoD: Ghosts. Heeft niemand iets aan :)

[ Voor 5% gewijzigd door Werelds op 25-08-2014 12:04 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Als je het over het begin hebt geef ik je 100% gelijk Werelds, wat een ellende hoe het toen liep, nu is dat wel een stuk beter maar niet 100% goed.

Ik heb zelf veel getest met Wacht Dogs op 2560x1440 de gtx780 zit dan op 3025mb met een hele hoop stutter tijdens het rijden, met de Titan zijn die stutters een heel pak minder en ik verwacht dat het komt door vram te kort omdat het spel veel te slecht geoptimaliseerd is, maar goed met de titans gebruikt Watch dogs als nog 5,9gb

Zet ik de textures naar high ipv ultra dan loopt het op de gtx780's net zo als op de titans met textures op ultra en gebruiken bijde kaarten 2,4gb.

Watch dogs ziet er leuk uit, zeker nu de belichting ook beter is geworden en er nog meer effecten in zitten na enkele patches, maar hoort gewoon soepel te kunnen draaien met 2gb kaarten en dat doet het niet met max settings.

Edit
http://hothardware.com/Ne...s-For-Watch-Dogs/#!bJMj8U

[ Voor 4% gewijzigd door Verwijderd op 25-08-2014 14:16 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ik durf niets te zeggen over hoe W_D nu draait. Ik kan je alleen zeggen dat dat gestotter geen donder met VRAM te maken heeft. Ze komen voor bij 2 GB tot 6 GB en er zit geen enkele logica in wanneer ze zich voor doen. Je kunt ook alles helemaal omlaag gooien, waardoor het spel er uit ziet alsof het uit 2005 komt - en dan nog zal hij stotteren.

Leuk en aardig dat ze het enigzins gepatched hebben, maar mij waren ze al kwijt toen ik het op een i7-4770K @ 4.5, 8 GB RAM en een GTX 770 niet eens op medium vloeiend aan het draaien kreeg. Op die instellingen ziet het spel er gewoonweg niet uit; laat staan dat het mijn systeem zo tot z'n knieën brengt. Dat geeft aan dat er iets gruwelijk mis zit in de engine.

W_D is even nuttig als benchmark als GTA 4 - beiden lopen als dikke stront door een trechter en zullen elk systeem te zwak laten lijken :P

Acties:
  • 0 Henk 'm!

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
Werelds schreef op maandag 25 augustus 2014 @ 13:15:
W_D is even nuttig als benchmark als GTA 4 - beiden lopen als dikke stront door een trechter en zullen elk systeem te zwak laten lijken :P
Oke, slecht dat ik hier hard om moet lachen hahah :P :D

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Nog iets nieuws m.b.t. High-end HaswellMaxwell in 2014?
Met de komste van Tonga heeft AMD imo een sterke troef in handen (er vanuit gaande dat deze sneller is als een 280x) nu ook de performance per watt beter is dan de GTX 760/770 moet Nvidia haast toch met iets nieuws komen (of de prijzen verlagen)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ik denk dat je Maxwell bedoelt? En met high-end de mid-size GM204? ;)

Dan nee, niets nieuws. En Tonga zal Nvidia echt geen hoofdpijn bezorgen hoor.

Ik hoop eerlijk gezegd dat er geen donder klopt van al die geruchten. Tot nu toe hebben al die sites er volledig naast gezeten met hun onzin en ik hoop dat ze ook ongelijk hebben wat betreft een mid-end (sorry, "high" end) Maxwell in 2014. Laat Nvidia en AMD maar fijn hun volgende generatie op 20nm (met of zonder FINFETs) uit brengen. Dan kunnen we tenminste een behoorlijke sprong verwachten in plaats van nog zo'n halfbakken verbetering van 20%.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
eL_Jay schreef op maandag 25 augustus 2014 @ 13:31:
Met de komste van Tonga heeft AMD imo een sterke troef in handen (er vanuit gaande dat deze sneller is als een 280x) nu ook de performance per watt beter is dan de GTX 760/770 moet Nvidia haast toch met iets nieuws komen (of de prijzen verlagen)
Dat is nog even wachten op de reviews, persoonlijk zijn mijn verwachtingen niet zo hoog eigenlijk.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Same, ik verwacht niet dat de R9 285 potten gaat breken. Het lijkt eerder een kaart die opofferingen moet maken voor de verbeteringen. Het is nog wachten op de echte reviews maar op papier ziet het er allemaal niet zo spannend uit. De R9 285X kan wel weer leuk worden, maar dat is ook nog koffiedik kijken.

Ik ben momenteel eerder benieuwd wat Nvidia op tafel gooit.

[ Voor 9% gewijzigd door Phuncz op 25-08-2014 14:25 ]


Acties:
  • 0 Henk 'm!

  • VSA100_victim
  • Registratie: Juli 2010
  • Laatst online: 12-09 23:41
Werelds schreef op maandag 25 augustus 2014 @ 12:00:
Het is nu in elk geval nog steeds zo dat 2 GB voldoende is voor 1080p met 4xMSAA (MSAA vreet geheugen, overigens), met uitzondering van Star Citizen met hun 12 lagen van 4096x4096 textures ;)

Voor hogere resoluties raad ik wel 3+ GB aan.
Thief is ook een spel dat aan 2GB niet genoeg heeft (op 1080p), als je de beste textures wilt zien. Mijn 660 begint te hikken zodra de textures op high staan, terwijl de framerate 60fps is.
Wolfenstein schijnt ook meer dan 2GB te gebruiken.

Als we in 2014 dus al drie "cross-gen" games hebben die moeite hebben met 2GB, dan wil ik niet weten wat er volgend jaar nodig is. In ieder geval zou ik (ook voor 1080p) minstens een 3GB kaart aanraden.

R7 5700X, 16GB DDR4-3200, RTX 3070


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
4GB is zelf al te weinig, mijn GT 630 met 4GB heeft al moeite met alles op full HD. :')
O wacht ik heb geen GT 630 en videoram is niet het enige dat van belang is natuurlijk....

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Jawel man, meer VRAM = snellere kaart, dat weet toch iedereen ? trololol !
Heb in het verleden teveel noobs het moeten duidelijk maken dat "mid-rangekaart" met dubbel zoveel VRAM niet zomaar sneller is dan "high-endkaart" met de gangbare hoeveelheid VRAM.

Acties:
  • 0 Henk 'm!

  • VSA100_victim
  • Registratie: Juli 2010
  • Laatst online: 12-09 23:41
Nee, meer VRAM betekent niet meer fps. Maar een VRAM tekort betekent wel een hikkende game.

Skyrim bijvoorbeeld heeft echt niet zo'n krachtige GPU nodig, maar probeer op een 1GB kaart eens een paar HD-texturepacks uit. Veel succes.

R7 5700X, 16GB DDR4-3200, RTX 3070


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
De GK106 GPU van de GTX 660 is nu ook niet echt snel en de vrij lage geheugenbandbreedte door o.a. de 192 bit geheugenbus, maakt het ook allemaal niet beter. Je kan wel 4GB op zo'n kaart drukken (of 3GB dat is logischer/eenvoudiger met een 192bit geheugenbus), maar ik denk dat het echt heel weinig verschil zal maken, ding is gewoon niet sneller.

[ Voor 10% gewijzigd door -The_Mask- op 25-08-2014 17:21 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Werelds schreef op maandag 25 augustus 2014 @ 13:58:
Ik denk dat je Maxwell bedoelt? En met high-end de mid-size GM204? ;)

Dan nee, niets nieuws. En Tonga zal Nvidia echt geen hoofdpijn bezorgen hoor.
Typo idd. Met high-end bedoel ik uiteraard de videokaarten die Nvidia als high-end positioneerd.
(of dat nu een mid-size chip is of niet, is totaal irrelevant)

De GM107 is in de Zbox EN760 iig een BEEST!

[ Voor 5% gewijzigd door eL_Jay op 25-08-2014 17:24 ]


Acties:
  • 0 Henk 'm!

  • VSA100_victim
  • Registratie: Juli 2010
  • Laatst online: 12-09 23:41
-The_Mask- schreef op maandag 25 augustus 2014 @ 17:19:
De GK106 GPU van de GTX 660 is nu ook niet echt snel en de vrij lage geheugenbandbreedte door o.a. de 192 bit geheugenbus, maakt het ook allemaal niet beter. Je kan wel 4GB op zo'n kaart drukken (of 3GB dat is logischer/eenvoudiger met een 192bit geheugenbus), maar ik denk dat het echt heel weinig verschil zal maken, ding is gewoon niet sneller.
Aan de rekenkracht van de GK106 zal het niet liggen want in Thief is de framerate constant 60fps (vsync) en de GPU-belasting niet meer dan 70%.
Misschien dat de bandbreedte inderdaad een bottleneck vormt, ik heb geen idee hoe je dat zou kunnen testen. Maar aangezien het hikken alleen gebeurt als de VRAM limiet in zicht komt, denk ik dat het meer aan de capaciteit dan aan de bandbreedte ligt.

Dat de Radeon R9-285 slechts een 2GB kaart is lijkt me gewoon niet een erg slimme zet anno 2014. Zeker niet als er (hopelijk) volgende maand Maxwell kaarten met 4GB verkrijgbaar zijn.

R7 5700X, 16GB DDR4-3200, RTX 3070


Acties:
  • 0 Henk 'm!

Verwijderd

VSA100_victim schreef op maandag 25 augustus 2014 @ 17:16:
Nee, meer VRAM betekent niet meer fps. Maar een VRAM tekort betekent wel een hikkende game.

Skyrim bijvoorbeeld heeft echt niet zo'n krachtige GPU nodig, maar probeer op een 1GB kaart eens een paar HD-texturepacks uit. Veel succes.
Ze zaten te trollen, omdat je gelijk hebt ;)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

En ik maar denken dat mijn trololol duidelijk genoeg was -O-

Maar Skyrim + HD Texture Packs is wel de uitzondering op de regel. Zo kan je ook het omgekeerde doen natuurlijk.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
VSA100_victim schreef op maandag 25 augustus 2014 @ 16:23:
Thief is ook een spel dat aan 2GB niet genoeg heeft (op 1080p), als je de beste textures wilt zien. Mijn 660 begint te hikken zodra de textures op high staan, terwijl de framerate 60fps is.
Wolfenstein schijnt ook meer dan 2GB te gebruiken.

Als we in 2014 dus al drie "cross-gen" games hebben die moeite hebben met 2GB, dan wil ik niet weten wat er volgend jaar nodig is. In ieder geval zou ik (ook voor 1080p) minstens een 3GB kaart aanraden.
Thief heeft een memory leak :)

Na elke (in-game) cutscene behoudt hij alle textures die in die cutscenes gebruikt werden. Dat is dan geen caching meer, omdat de meeste van die textures niet daadwerkelijk in de map voor komen - ook haalt hij textures niet uit het geheugen tussen map switches. Daarnaast is het UE en cached hij niet goed vooruit (is ook belangrijk, zie verderop). Gemiddeld zit het spel zo tussen de 1.3 en 1.7 GB tijdens daadwerkelijke gameplay in verse sessies voordat hij begint te lekken ;)

En Wolfenstein, tja. Ik weet zeker dat ik het al eerder in deze thread heb gezegd, maar het is Tech 4.5. Die engine is gewoon uitermate brak. Dat geheugen gebruik ligt vooral aan het feit dat MT vol met allerlei hacks zit, niet omdat hij daadwerkelijk zo veel geheugen nodig heeft. Heb je Wolfenstein wel eens goed bekeken? De helft van de textures had gewoon Tech 3 games gepast, zo slecht zijn ze :P

Ik zei overigens ook dat dat nu nog zo is; of dat volgend jaar nog geldt weet ik niet.
VSA100_victim schreef op maandag 25 augustus 2014 @ 17:47:
Misschien dat de bandbreedte inderdaad een bottleneck vormt, ik heb geen idee hoe je dat zou kunnen testen. Maar aangezien het hikken alleen gebeurt als de VRAM limiet in zicht komt, denk ik dat het meer aan de capaciteit dan aan de bandbreedte ligt.
Nee, want door dat lek van ze moet hij ineens heel veel textures gaan swappen. Hij heeft het geheugen vol geramd met textures die hij niet gebruikt en omdat het UE3 is cached hij niet veel. Met andere woorden, dat gestotter komt doordat jij rond begint te wandelen en de engine dan pas door heeft dat hij andere textures moet laden. Jouw 2 GB zit vol en dan moet hij daar ineens 1 GB van wisselen voor textures die hij daadwerkelijk nodig heeft. Dan moet hij ineens 1 GB streamen vanaf de harde schijf (UE3, traag dus) door een hele nauwe geheugen bus - in jouw geval kost dat dan al snel 5-8ms, bijna een half frame dus.

Tuurlijk, met 3 GB zou dat enigzins verminderd zijn, maar dat neemt niet weg dat ik het er niet mee eens ben dat de hardware de bottleneck is als de software slecht in elkaar zit.
eL_Jay schreef op maandag 25 augustus 2014 @ 17:24:
Typo idd. Met high-end bedoel ik uiteraard de videokaarten die Nvidia als high-end positioneerd.
(of dat nu een mid-size chip is of niet, is totaal irrelevant)
Mag duidelijk zijn dat ik het daar niet mee eens ben :P

Als Nvidia dit 6 jaar geleden met G80 had gedaan (eerst G82 als de 8800 uit brengen, jaar later G80 als "nieuwe" chip) had niemand dat goed gevonden. Toch accepteert men het nu ineens.

Acties:
  • 0 Henk 'm!

Verwijderd

Toen werd het ook al geaccepteerd, alleen niet door mensen die er meer over weten maar die hebben er niets over te zeggen waar door het anders zou kunnen worden, die groep is zo klein en heeft overal wel wat over te klagen als het gaat om videokaarten.

Ik vond het toen ook niet erg puur om het feit dat het geen zin heeft om het erg te vinden.

Die zelfde mensen vonden de "big chips" toen ook niet goed en nu in eens wel.

[ Voor 25% gewijzigd door Verwijderd op 26-08-2014 12:17 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Werelds schreef op dinsdag 26 augustus 2014 @ 12:05:
Mag duidelijk zijn dat ik het daar niet mee eens ben :P

Als Nvidia dit 6 jaar geleden met G80 had gedaan (eerst G82 als de 8800 uit brengen, jaar later G80 als "nieuwe" chip) had niemand dat goed gevonden. Toch accepteert men het nu ineens.
Meh. Als het niet economisch rendabel is of de binning is te moeilijk?
Ik heb gewoon 300-400€ over voor een videokaart als ik een nieuwe zoek, en vervolgens kijk ik naar het aanbod en de achtergrond daarvan. Als nVidia met een grotere "complete" GPU komt die 150€ meer kost laat ik die liggen, tenzij die echt alles overstijgt en daardoor futureproof is (e.g. GTX8800).

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • VSA100_victim
  • Registratie: Juli 2010
  • Laatst online: 12-09 23:41
Werelds schreef op dinsdag 26 augustus 2014 @ 12:05:
ook haalt hij textures niet uit het geheugen tussen map switches.
Vreemd, ik zie het geheugengebruik toch echt omlaag gaan zodra je naar een andere zone gaat (bijv. in zo'n nauwe doorgang met de houten balk die je moet optillen)
Werelds schreef op dinsdag 26 augustus 2014 @ 12:05:
Door dat lek van ze moet hij ineens heel veel textures gaan swappen. Hij heeft het geheugen vol geramd met textures die hij niet gebruikt en omdat het UE3 is cached hij niet veel. Met andere woorden, dat gestotter komt doordat jij rond begint te wandelen en de engine dan pas door heeft dat hij andere textures moet laden. Jouw 2 GB zit vol en dan moet hij daar ineens 1 GB van wisselen voor textures die hij daadwerkelijk nodig heeft. Dan moet hij ineens 1 GB streamen vanaf de harde schijf (UE3, traag dus) door een hele nauwe geheugen bus - in jouw geval kost dat dan al snel 5-8ms, bijna een half frame dus.
Uhm, waarom zou de geheugenbus van mijn GPU daar mee te maken hebben? Dat is toch puur de PCI-e bus die bij het swappen de bottleneck vormt? Dat zou bij een 384-bit kaart net zo langzaam moeten gaan als bij een 192-bit kaart.
Werelds schreef op dinsdag 26 augustus 2014 @ 12:05:
Tuurlijk, met 3 GB zou dat enigzins verminderd zijn, maar dat neemt niet weg dat ik het er niet mee eens ben dat de hardware de bottleneck is als de software slecht in elkaar zit.
En wie zegt dat de software zal verbeteren? :P Zo niet, dan zal je daar een buffer voor nodig hebben, namelijk een paar extra GB op je videokaart. Liever dat, dan dat de helft van je games voor geen meter draait.

Ik ben benieuwd of er GM204 kaarten uitkomen met 2GB. Als ze het ding op de markt willen zetten als 4K-gaming card kan ik het me nauwelijks voorstellen. :|

R7 5700X, 16GB DDR4-3200, RTX 3070


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

VSA100_victim schreef op dinsdag 26 augustus 2014 @ 12:54:
Ik ben benieuwd of er GM204 kaarten uitkomen met 2GB. Als ze het ding op de markt willen zetten als 4K-gaming card kan ik het me nauwelijks voorstellen. :|
AMD heeft dat eergisteren nog gelapt met de Radeon R9 285 2GB:

Ultra-Resolution gaming

Leave HD in the dust. Expand your gaming with multiple monitors or a 4K display.

http://www.amd.com/en-us/products/graphics/desktop/r9/285

[ Voor 20% gewijzigd door Phuncz op 26-08-2014 13:41 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Phuncz schreef op dinsdag 26 augustus 2014 @ 13:39:
[...]

AMD heeft dat eergisteren nog gelapt met de Radeon R9 285 2GB:

Ultra-Resolution gaming

Leave HD in the dust. Expand your gaming with multiple monitors or a 4K display.

http://www.amd.com/en-us/products/graphics/desktop/r9/285
Wha..... Wat een grap. Net als Microsoft die zegt dat de Surface Pro 3 bedoelt is voor gaming. Minesweeper op 4k zullen ze bedoelen...

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op dinsdag 26 augustus 2014 @ 12:15:
Toen werd het ook al geaccepteerd, alleen niet door mensen die er meer over weten maar die hebben er niets over te zeggen waar door het anders zou kunnen worden, die groep is zo klein en heeft overal wel wat over te klagen als het gaat om videokaarten.

Ik vond het toen ook niet erg puur om het feit dat het geen zin heeft om het erg te vinden.

Die zelfde mensen vonden de "big chips" toen ook niet goed en nu in eens wel.
Het werd toen niet gedaan, dat is juist het probleem. Dit was de eerste keer in de 20 jaar dat Nvidia mee doet dat ze het op deze manier speelden.

Dat over grote chips is ook onzin; de krachtigste chips zijn altijd groot (door de jaren heen steeds groter, overigens - "groot" was 10 jaar geleden wat nu Nvidia's mid-end is) geweest. Waar "wij" nu over vallen is dat de grootte van de chip niet meer overeenkomt met de prestaties. Fermi was 60% groter dan Cypress (met alle gevolgen van dien: verbruik, hitte, prijs), maar presteerde met pijn en moeite 10% beter. En het spijt me heel erg, hoe mooi GK110 in z'n geheel ook is, de grootte komt wederom niet overeen met z'n prestaties en dat maakt hem gewoon duurder voor ons als consument.
XanderDrake schreef op dinsdag 26 augustus 2014 @ 12:37:
Meh. Als het niet economisch rendabel is of de binning is te moeilijk?
Ik heb gewoon 300-400€ over voor een videokaart als ik een nieuwe zoek, en vervolgens kijk ik naar het aanbod en de achtergrond daarvan. Als nVidia met een grotere "complete" GPU komt die 150€ meer kost laat ik die liggen, tenzij die echt alles overstijgt en daardoor futureproof is (e.g. GTX8800).
Nogmaals, dat is niet wat Nvidia nu heeft uitgevreten.

Met Kepler hebben ze hun mid-end chip (GK104) als high-end gepresenteerd omdat hun echte high-end chip (GK100) het niet deed. Ze plakten er vervolgens wel gewoon een bovengemiddeld prijs stikkertje op. Als Nvidia nu met GM204 komt kun je er donder op zeggen dat die ook gewoon zo duur gaat zijn. Die komt dan gewoon op $549 of wellicht zelfs $599 uit, terwijl ze hem normaal gesproken ruim onder $449 zouden plaatsen.

Een 8800 GTX was $599 - de gecastreerde GTS (nu GTX 670 dus, of de 570, of 480; 470 was dubbel gecastreerd, arm ding :P) op $449. 8800 GT en de 9 serie kwamen een jaar later als refreshes met die shrink.

Een GTX 280 was $649 (grootste chip ooit), GTX 260 was $400. 275/285 kwamen een jaar later (refresh met die shrink).

Mij als consument boeit dit weldegelijk, want GK104 kreeg pas z'n correcte prijs toen ze hun GK100 refresh (GK110, de 780 dus) klaar hadden. En dat is niet omdat ze het economisch niet voor elkaar kregen om GK104 goedkoper te maken, maar omdat ze het niet wílden doen. Ze wilden de verloren winst van het gebrek aan een echte high-end goed maken.
VSA100_victim schreef op dinsdag 26 augustus 2014 @ 12:54:
Vreemd, ik zie het geheugengebruik toch echt omlaag gaan zodra je naar een andere zone gaat (bijv. in zo'n nauwe doorgang met de houten balk die je moet optillen)
Dan hebben ze dat wellicht inmiddels gepatched. Ik speel het spel niet meer dus :P
Uhm, waarom zou de geheugenbus van mijn GPU daar mee te maken hebben? Dat is toch puur de PCI-e bus die bij het swappen de bottleneck vormt? Dat zou bij een 384-bit kaart net zo langzaam moeten gaan als bij een 192-bit kaart.
Uiteraard is de PCI-e bus de primaire bottleneck (en de reden dat UE's lazy loading zo pijnlijk is); maar het is niet zo dat daarmee de kous af is. De textures worden daarna nog wat links en rechts door het geheugen verplaatst voordat ze "klaar voor gebruik" zijn. Het is helaas niet zo dat ze binnenkomen en meteen klaar zijn. Wat de GPU precies doet hangt van de situatie af, denk aan dingen als het omgaan met tiles, mipmapping (ook dat is geen 1:1 lees actie helaas). Nu moet hij eerst wachten op de trage buses aan de buitenkant en vervolgens zo snel mogelijk ook nog eens z'n bewerkingen uitvoeren (wat in de praktijk betekent dat ze eerst naar het geheugen worden geschreven, dan weer gelezen, dan vaak nog eens terug geschreven).

Nogmaals, ja, 3GB zou het laden voorkomen, maar die verschillende bewerkingen zouden nog steeds pijnlijk zijn bij zulk geheugen gebruik op een tragere chip :)
En wie zegt dat de software zal verbeteren? :P Zo niet, dan zal je daar een buffer voor nodig hebben, namelijk een paar extra GB op je videokaart. Liever dat, dan dat de helft van je games voor geen meter draait.
Ik begrijp je volledig, alleen komt hier mijn innerlijke programmeur kijken. Persoonlijk zou ik nooit zo'n werk opleveren; de klant betaalt voor de kwaliteit dus dan vind ik dat ik ook kwaliteit moet leveren. Juist geheugen gebruik is iets waar ik zelf heel veel tijd aan besteed. Hetzelfde geldt voor games. Als het spel een bijzonder krachtig systeem nodig heeft vind ik dat best, maar dan moet dat ook wel te verantwoorden zijn.
Ik ben benieuwd of er GM204 kaarten uitkomen met 2GB. Als ze het ding op de markt willen zetten als 4K-gaming card kan ik het me nauwelijks voorstellen. :|
Als dat ding nu op 28nm uit komt maakt dat geheugen sowieso niets uit. Dan gaat hij sowieso niet snel genoeg voor 4K zijn; althans niet met acceptabele framerates.

[ Voor 4% gewijzigd door Werelds op 26-08-2014 13:56 ]


Acties:
  • 0 Henk 'm!

  • VSA100_victim
  • Registratie: Juli 2010
  • Laatst online: 12-09 23:41
Werelds schreef op dinsdag 26 augustus 2014 @ 13:48:
Uiteraard is de PCI-e bus de primaire bottleneck (en de reden dat UE's lazy loading zo pijnlijk is); maar het is niet zo dat daarmee de kous af is. De textures worden daarna nog wat links en rechts door het geheugen verplaatst voordat ze "klaar voor gebruik" zijn. Het is helaas niet zo dat ze binnenkomen en meteen klaar zijn. Wat de GPU precies doet hangt van de situatie af, denk aan dingen als het omgaan met tiles, mipmapping (ook dat is geen 1:1 lees actie helaas). Nu moet hij eerst wachten op de trage buses aan de buitenkant en vervolgens zo snel mogelijk ook nog eens z'n bewerkingen uitvoeren (wat in de praktijk betekent dat ze eerst naar het geheugen worden geschreven, dan weer gelezen, dan vaak nog eens terug geschreven).
Aangezien ik geen stutter-profiler heb is nogal moeilijk het aandeel PCI-e/VRAM-bus te testen. :P In ieder geval wordt mijn volgende kaart weer 256-bit, want mijn 660's gebruiken (bijna) nooit meer dan 1.5GB vanwege de rare geheugenconfiguratie.
Werelds schreef op dinsdag 26 augustus 2014 @ 13:48:
Ik begrijp je volledig, alleen komt hier mijn innerlijke programmeur kijken. Persoonlijk zou ik nooit zo'n werk opleveren; de klant betaalt voor de kwaliteit dus dan vind ik dat ik ook kwaliteit moet leveren. Juist geheugen gebruik is iets waar ik zelf heel veel tijd aan besteed. Hetzelfde geldt voor games. Als het spel een bijzonder krachtig systeem nodig heeft vind ik dat best, maar dan moet dat ook wel te verantwoorden zijn.
Een nette programmeur zou efficient programmeren. Helaas is dit hoe Ubisoft erover denkt. "This is PC Only, who cares". En ze zijn waarschijnlijk niet de enigen.
Werelds schreef op dinsdag 26 augustus 2014 @ 13:48:
Als dat ding nu op 28nm uit komt maakt dat geheugen sowieso niets uit. Dan gaat hij sowieso niet snel genoeg voor 4K zijn; althans niet met acceptabele framerates.
60fps zal niet lukken (zonder SLI), maar als je aan 30 fps genoeg hebt is een 780-ti al bijna genoeg. De vraag is alleen, is de 880 sneller dan een 780-Ti?

R7 5700X, 16GB DDR4-3200, RTX 3070


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Mja, het is en blijft Ubi.

Wat betreft je laatste opmerking: ik heb al eerder aangegeven dat ik het betwijfel.

Werelds in "CJ's Radeon Info & Nieuwsdiscussie - Deel 128"

Of Nvidia heeft een magische aap in de mouw zitten die ik over het hoofd zie, of de meesten zullen teleurgesteld zijn met wat een hypothetische GM204 op 28nm doet. Om een 780 Ti te evenaren moeten ze de transistor dichtheid omhoog schroeven, de chip groter maken (hoe groot wordt GM200/210 dan wel niet :O), clocks opschroeven en dan liefst ook nog iets meer performance per transistor krijgen. En dat alles op een node die eigenlijk al afgeschreven had moeten zijn :)

Edit: oh, en dat is dan ook in GK104 stijl: compute is niet z'n ding ;)

[ Voor 5% gewijzigd door Werelds op 26-08-2014 14:46 . Reden: typo :( ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Werelds schreef op dinsdag 26 augustus 2014 @ 14:40:
Edit: oh, en dat is dan ook in GK104 stijl: compute is niet z'n ding ;)
Effe wat informatie uit de praktijk: De GK104 kan heel goed meekomen als de computing gefocust is op integer berekeningen. Allicht is de GTX780(Ti) beter maar dat neemt niet weg dat de GTX 680 prima bruikbaar is. Check dit, de rechter balk (BALSA) is GTX 680 GPU-accelerated, en de eerste balk (BWAaln) is hoe het voornamelijk nog gedaan wordt tegenwoordig:

Afbeeldingslocatie: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC4060040/bin/peerj-02-421-g003.jpg
Hele paper: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC4060040/

Saliant detail: ondanks al hun ruwe rekenkracht worden AMD GPU's eigenlijk niet gebruikt in mijn werkveld, Bioinformatics. OpenCL is gewoon niet praktisch. Zie ook pagina 30 t/m 40 en 115 in de volgende paper. http://www.lifl.fr/bonsai/doc/phd-tuan-tu-tran.pdf

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Oh, begrijp me niet verkeerd, GK104 kan in sommige gevallen aardig presteren op dat vlak. Maar Fermi gaat hem dan nog steeds langs, zo ook AMD. En juist de dingen waar men meer rekenkracht wilt, zit simpelweg niet in GK104. Het is dan ook GK110 die het goed doet in dat werkgebied :)

Wat OpenCL betreft komt dat vooral doordat Nvidia er zo vroeg bij was - veel dingen zijn al gedaan via CUDA en vervolgens nooit opnieuw geprobeerd op OpenCL. Veel van de vergelijkingen houden dan ook op bij OpenCL 1.1 (let maar op de jaartallen, het meeste stopt in 2011, 2012; 1.2 werd pas halverwege 2012 helemaal ondersteund door AMD, en Nvidia...tja, die willen niet :P) en toen was het simpelweg nog niet goed genoeg. Met dank aan de trage Khronos Group. 1.2 is wat OpenCL had moeten zijn met 1.0 - als je wat tests opzoekt zie je dat 1.2 ook op hetzelfde niveau als CUDA presteert. 2.0 voegt vervolgens wat dingen toe die "leuk" zijn die CUDA niet heeft. Het meeste is echter niet bijzonder indrukwekkend, het enige grote voordeel dat OpenCL over CUDA heeft zijn de out-of-order queues (afgezien van de runtime overigens, dat gaat bij OpenCL iets makkelijker). Als je wil zal ik wel her en der wat links bij elkaar sprokkelen, hoewel ze niet zo lastig te vinden zijn

Of dat nog veranderen gaat? Ik weet het niet. Nvidia heeft inmiddels een naamsbekendheid op dit vlak waar AMD voorlopig nog niet bij in de buurt komt.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Werelds schreef op dinsdag 26 augustus 2014 @ 16:41:
Oh, begrijp me niet verkeerd, GK104 kan in sommige gevallen aardig presteren op dat vlak. Maar Fermi gaat hem dan nog steeds langs, zo ook AMD. En juist de dingen waar men meer rekenkracht wilt, zit simpelweg niet in GK104. Het is dan ook GK110 die het goed doet in dat werkgebied :)
Ik zeg dus juist dat de benchmarks van alles kunnen laten zien, maar de praktijk anders werkt, bij echte wetenschappelijke toepassingen. Zoals altijd trouwens, met benchmarks.

Lees de paper van Balsa maar es. Daar staat van alles in over de toepasbaarheid van verschillende gpus. Uiteindelijk wint de gtx 680 van andere videokaarten en Teslas.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

-The_Mask- schreef op maandag 25 augustus 2014 @ 16:28:
4GB is zelf al te weinig, mijn GT 630 met 4GB heeft al moeite met alles op full HD. :')
O wacht ik heb geen GT 630 en videoram is niet het enige dat van belang is natuurlijk....
Hey! Niks dan lof over de GT 630 wat mij betreft! Geweldige videokaart! O+ :P


...in mijn HTPC waar geen games op staan... :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op dinsdag 26 augustus 2014 @ 18:58:
[...]

Ik zeg dus juist dat de benchmarks van alles kunnen laten zien, maar de praktijk anders werkt, bij echte wetenschappelijke toepassingen. Zoals altijd trouwens, met benchmarks.

Lees de paper van Balsa maar es. Daar staat van alles in over de toepasbaarheid van verschillende gpus. Uiteindelijk wint de gtx 680 van andere videokaarten en Teslas.
Dit heeft niet zo zeer te maken met praktijk tegenover theorie, alswel een hele specifieke situatie - die jij dan ook nog eens verkeerd interpreteert ;)

Ten eerste is dit toevallig een situatie waar het vooral om single precision draait. En dan ook nog eens met relatief weinig geheugen gebruik; daar gebruiken ze het systeem geheugen voor. Dat is net zoiets als mining "de praktijk" noemen voor VLIW5* :+

Wat echter belangrijker is, en wat zij zelf ook heel duidelijk aan geven is dat ze hun 90 samples op de volgende 3 configuraties hebben getest:
- 1: 6-core Intel i7-3730k@3.2GHz + Nvidia GTX680
- 2: 6-core Intel E5-2620@2GHz + Nvidia GTX680
- 3: 6-core Intel E5-2620@2GHz + Nvidia Tesla K40

Uiteraard is dat bij #1 een typo, ze bedoelden een 3930K. 3.2 is dan ook misleidend, aangezien die turbo tot 3.8 gaat; de 2620 turbo'd tot 2.5.

Hun doel was om te kijken wat voor invloed de CPU hier nog had. Als je naar de resultaten kijkt, zie je twee interessante dingen:
- #2 is zo'n 50-60% trager dan #1 (50% minder klok tikken..eerste hint)
- #3 is zo'n 10% trager dan #2

Het mag duidelijk zijn dat ze tegen een keiharde CPU bottleneck aanlopen, dat is waarom #2 weg valt. Waarom ligt #3 dan achter #2? Omdat we het hier over single-precision hebben en GK110 daar niet sneller dan GK104 is. Het zijn immers dezelfde SPs, GK110 heeft er alleen wat meer. Maar aangezien ze sowieso al tegen een CPU bottleneck aan lopen is dat met een K40 nog erger; hij mag dan wel meer SP's hebben, hij krijgt ze toch niet aan het werk. Dus dan zit je met even veel rekeneenheden die kunnen werken aan beide kanten; en ja, dan zal de K40 verliezen, aangezien die 9.4% lager is geklokt. Zie je het al? ;)

Nogmaals, GK104 heeft zo z'n momenten op GPGPU gebied, maar dit is een puur SP voorbeeld dat hij puur op kloksnelheid wint. Zodra je met DP te maken krijgt (wat in veel financiële en natuurkundige situaties het geval is) verandert dat. Op basis van dit voorbeeld zouden Tesla en Quadro geen recht van bestaan hebben :)


offtopic:
* als er iemand is die niet weet waar ik op doel; Cypress/5870 (VLIW5) maakt gehakt van Fermi bij bitcoin mining, omdat mining veel opdrachten heeft waar alle 5 ALU's van een VLIW shader aan het werk worden gezet. En dat terwijl Fermi op alle andere GPGPU toepassingen juist gehakt maakt van Cypress.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Werelds schreef op dinsdag 26 augustus 2014 @ 20:31:
Nogmaals, GK104 heeft zo z'n momenten op GPGPU gebied, maar dit is een puur SP voorbeeld dat hij puur op kloksnelheid wint. Zodra je met DP te maken krijgt (wat in veel financiële en natuurkundige situaties het geval is) verandert dat. Op basis van dit voorbeeld zouden Tesla en Quadro geen recht van bestaan hebben :)
SP is zon beetje het enige wat telt in Computational Genetics (genome alignment, genome assembly, variant calling, gene finding, structure prediction, homology estimation). Daar doet de GK104 het uitstekend terwijl de extra's van de Tesla K40 (ECC ram, meer shaders op lagere clocks) juist roet in het eten gooit.

SP is ook computing, SP wordt veel gebruikt in CS en hoeveel benchmarks ook zeggen dat de GK104 bagger is in compute boeit mij uiteindelijk dus vrij weinig. Sterker nog, als ik die benchmarks zou volgen zou ik de verkeerde keuze maken! Dit iig de conclusie die ik wil doorgeven.

Bitcoin minen was inderdaad een AMD ding. Maar dat is ook gewoon een berekening (SHA256) die ze voor de 'fun' gekozen. Ze konden net zo goed een andere berekening achter Bitcoin gezet hebben, wat ze daarna ook veelvuldig gedaan hebben (lees Scrypt voor Litecoin, X11, Scrypt-n, etc etc). Dus ja, dat is niet echt 'praktijk' vind ik.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Snap ik, maar alleen genetica is ook niet dé praktijk. Feit is dat er in de praktijk ontzettend uiteenlopende dingen worden gedaan met GPGPU en dat er gewoon niet een algemene GPGPU toepassing is die je kunt benchmarken.

Wat je wel kunt zeggen, en dit is wat de meeste sites doen, is zo veel mogelijk uiteenlopende toepassingen testen. En dan blijkt weldegelijk dat GK104 bij het merendeel achterblijft. Dat is dan ook hoe bijvoorbeeld Anandtech hun conclusie over "Compute" trekken - ze kijken naar het algehele plaatje :)

offtopic:
Dat moet trouwens geweldig leuk zijn voor jou, je hobby en je passie (hoop ik? :D) kunnen combineren.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Werelds schreef op dinsdag 26 augustus 2014 @ 23:49:
offtopic:
Dat moet trouwens geweldig leuk zijn voor jou, je hobby en je passie (hoop ik? :D) kunnen combineren.
Jep dat is behoorlijk leuk. :) Het is trouwens pas sinds kort dat GPU's ook degelijk bruikbaar zijn voor mijn tak van sport. Heeft vooral met VRAM en bandwidth te maken. Ook de nieuwere versies van CUDA en de cache die op nVidia GPU's zit doet wonderen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

Wie zij nog al weer wanneer games pas in 2025 Physx SDK 3.xx ging gebruiken, diegene zit er in ieder geval naast, het zit nu namelijk in Metro Redux :P. Het zou gaan om SDK versie 3.3 waarschijnlijk maar ik weet niet echt of dit nu beter is of mooier, kan iemand dat uitleggen?

[ Voor 32% gewijzigd door Verwijderd op 27-08-2014 11:05 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ik zei dat, maar dat was over 3.4 (is nog niet uit) in reactie op jouw statement dat Nvidia dingen naar DirectCompute gaat brengen :)

Redux gaat "3.x" gebruiken, wat zo vaag is als het maar kan. Als het 3.0 is zijn we nog niet veel verder (even voor de goede orde: 3.2 stamt al van Mei 2012; 3.3 is inmiddels ook 10 maanden oud) :)

Acties:
  • 0 Henk 'm!

Verwijderd

Het gaat om de laatste versie
http://www.geforce.com/wh...014-metro-redux-gameworks

Het is trouwens een hele verbetering, vooral voor Metro 2033, als het gaat om de game zelf.

[ Voor 29% gewijzigd door Verwijderd op 27-08-2014 10:57 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Haha :+

Nee, je leest dat verkeerd, dat is marketing praat :P
built using PhysX 3.x, the latest version of the critically acclaimed physics software.
Ze zeggen niet dat het de nieuwste 3.x versie is, ze zeggen dat 3.x de nieuwste versie is ;)

Ze blijven bewust heel vaag :P
XanderDrake schreef op woensdag 27 augustus 2014 @ 08:35:
Jep dat is behoorlijk leuk. :) Het is trouwens pas sinds kort dat GPU's ook degelijk bruikbaar zijn voor mijn tak van sport. Heeft vooral met VRAM en bandwidth te maken. Ook de nieuwere versies van CUDA en de cache die op nVidia GPU's zit doet wonderen.
Dat wordt de komende tijd dan nog leuker. Die cache zal waarschijnlijk nog groter worden aangezien zowel AMD als Nvidia hebben gemerkt dat "de klant" dat wel erg prettig vindt (AMD loopt nog iets achter, Hawaii zit op 1MB tegenover 1.5 in GK110) :P

Ik gok ook dat Nvidia wel weer wat nieuws heeft verzonnen voor hun DP performance in Maxwell, aangezien AMD gehakt van Kepler maakt (zelfs van GK110) maakt. Gooi daar bovenop dat (naar wat ik begrepen heb) ze bezig zijn met wat features van OpenCL 2.0 in CUDA te stoppen (zou voor jou erg nuttig moeten zijn, zou onder andere minder copy werk betekenen, bespaart je weer wat bandbreedte) en jij gaat het druk hebben :D

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op woensdag 27 augustus 2014 @ 11:07:
Haha :+

Nee, je leest dat verkeerd, dat is marketing praat :P


[...]

Ze zeggen niet dat het de nieuwste 3.x versie is, ze zeggen dat 3.x de nieuwste versie is ;)

Ze blijven bewust heel vaag :P
Zou kunnen maar ik verwacht 3.3.1.
http://physxinfo.com/news...x-sdk-3-3-1-is-available/

Edit

De volledige GK110 maakt trouwens gehakt van AMD maar niet op prijs prestatie gebied maar puur prestaties.

[ Voor 12% gewijzigd door Verwijderd op 27-08-2014 11:25 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op woensdag 27 augustus 2014 @ 11:14:
[...]


Zou kunnen maar ik verwacht 3.3.1.
http://physxinfo.com/news...x-sdk-3-3-1-is-available/

Edit

De volledige GK110 maakt trouwens gehakt van AMD maar niet op prijs prestatie gebied maar puur prestaties.
Ik had het over GPGPU, waar AMD's Hawaii even snel is in single precision als GK110, maar in double precision net geen 50% sneller is. Op papier in elk geval, CPU bottlenecks en dergelijke gooien in de praktijk soms roet in het eten van beide waardoor zwakkere chips economisch gezien een betere keus zijn.

En waarom verwacht jij precies 3.3.1? Omdat men zo goed met PhysX versies mee gaat? 8)7

3.3 is juist heel erg onwaarschijnlijk, omdat de stap van 3.2 naar 3.3 aardig wat werk vereist. Meer werk dan 2.8.4 naar 3.1; zelfs 3.2 kost al aardig wat meer werk.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik verwacht dat omdat physx 3.3.1 de nieuwste bruikbare SDK versie is en de huidige physx drivers werken nog niet met gpu physx in Metro Redux, ik kan er ook naast zitten vandaar dat ik twijfel. Helaas werkt momenteel alleen maar CPU physx dus GPU Physx is niet te testen, heel misschien in de benchmark maar ik verwacht van niet.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Omdat het de nieuwste versie is? Nogmaals: want dat is de norm? Moet ik een lijst opstellen van games in de laatste anderhalf jaar die nog op 2.x draaien?

Toen Last Light uitkwam was 3.2 al een jaar oud. 3.0 zelfs al twee jaar, 3.1 anderhalf. En toch zaten ze op slechts 2.8.3. We zitten nu al bijna 3,5 jaar met 3.x en we hebben welgeteld Warframe, ArmA 3, Planetside 2 , Project CARS die 3.x gebruiken. Wellicht vergeet ik er weer een, maar veel verder dan dit kom je niet :)

Daar komt dan wel nog Witcher 3 bij, maar of ik er zo blij van wordt dat we in 2015 eindelijk 5 games op PhysX 3.x hebben draaien?

[ Voor 13% gewijzigd door Werelds op 27-08-2014 14:07 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Mmm en als deze geruchten kloppen snap ik even niet waarom het een gtx9xx serie word?

nieuws: Gerucht: Nvidia komt half september met GeForce GTX 980 en GTX 970

Ik probeer een beetje te achterhalen wat er ander is aan de physx 3x, nu lees ik af en toe dat het gaat om een hybride physx tegelijktijdig cpu en gpu berekeningen, wat ook geen performance hit heeft of in ieder geval een stuk minder dan de vorige physx die gebruikt word. Ook werkt cpu gedeelte niet meer over 1 core maar meerdere.

Neem dit nog maar even met een korreltje zout want heb het gewoon van verschillende fora waar game dev's uit Rusland er over praten.

Hier in ieder geval uitleg over 3.x
http://www.codercorner.com/blog/?p=748

Loopt sowieso minder als stront door een trechter vanaf 3.x. Hele physx engine is opnieuw weer opgebouwd en verbeterd.

[ Voor 11% gewijzigd door Verwijderd op 29-08-2014 15:25 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Er is niets vaags aan wat 3.x doet hoor, is gewoon uit de changelogs te halen.

De highlights:
- 3.0: Eerste reeks SSE instructies, een deel van de algoritmes gemoderniseerd (waardoor de performance beter wordt), instructies worden fatsoenlijk threaded verstuurd; nog geen fatsoenlijke multi core ondersteuning
- 3.1: Dit is de belangrijkste versie. Multi core ondersteuning, fatsoenlijk gebruik van de instructie uitbreidingen op CPU's (SSE 2-4 etc.), stof (cloth) volledig herwerkt. En Android ondersteuning :P
- 3.2: Betere collision detection, nauwkeurigere simulaties op allerlei vlakken (stof, voertuigen, wrijving als ik me niet vergis)
- 3.3: Verdere verbeteringen op alle vlakken; ook een andere scheduler waardoor CPU's nog iets beter mee scalen

Om het samen te vatten: 3.0 was de eerste versie waarin Nvidia eindelijk iets aan hun belachelijke CPU performance deed, 3.1 was de versie waarin dat daadwerkelijk op peil met Havok kwam. 3.2 had behoorlijk wat features en met 3.3 is de algehele footprint kleiner.

3.1 is de versie die we al lang gehad zouden moeten hebben, vooral in TWIMTBP titels.

Ik heb nog geen tijd gehad om Redux te installeren, heeft er al iemand gekeken welke PhysX versie het is? Kun je gewoon aan de DLL's zien :)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op vrijdag 29 augustus 2014 @ 13:44:
Mmm en als deze geruchten kloppen snap ik even niet waarom het een gtx9xx serie word?

nieuws: Gerucht: Nvidia komt half september met GeForce GTX 980 en GTX 970
Het lijkt me dat ze hetzelfde gaan doen als met de 200-serie --> 400-serie, maar laten we ook niet vergeten dat deze er ook al is: http://www.geforce.com/ha...ook-gpus/geforce-gtx-880m
Werelds schreef op vrijdag 29 augustus 2014 @ 20:19:
heeft er al iemand gekeken welke PhysX versie het is? Kun je gewoon aan de DLL's zien :)
PhysX3_x64.dll --> File version: 3.3.1.0

[ Voor 17% gewijzigd door Phuncz op 29-08-2014 20:36 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nou het zou verdorie eens tijd worden. Eindelijk eens een game met een PhysX versie van minder dan 18 maanden oud.

Phuncz, draai jij momenteel niet op een Intel/AMD systeem? *hint* :)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Yep, Core i5-4670K en Radeon R9-290X. Hoezo ?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Draai het eens met advanced PhysX? Dat zou nu gewoon te doen moeten zijn voor jou :)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ja is ook, heb ik meteen erop gezet en game herstart. Maar het is me nog niet bepaald opgevallen, misschien heb ik ernaast gekeken maar ben pas begonnen.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op vrijdag 29 augustus 2014 @ 22:35:
Draai het eens met advanced PhysX? Dat zou nu gewoon te doen moeten zijn voor jou :)
Die doet het niet of er is weinig van terug te zien. ik zie namelijk geen verschil in performance en graphics. Het schijnt dat het allemaal over de cpu gaat, of nvidia moet zijn software upgraden zodat de indicator ook echt laat zien waar physx op draait??

[ Voor 17% gewijzigd door Verwijderd op 30-08-2014 13:47 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Hmm. Let eens op CPU verbruik met aan/uit dan?

Of het daadwerkelijk werkt is niet zo lastig te zien. Schiet maar eens op een betonnen muur of pilaar. Die belachelijke brokstukken blijven met advanced PhysX (als het goed is) liggen. Zonder zijn ze kleiner en verdwijnen ze zodra ze de grond raken.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik zag het ja, en je hebt af en toe bewegende doeken maar meer ook niet.
http://www.twitch.tv/bloodsword_nl/b/563402822

Als dit alles is kun je het net zo goed uitlaten want het voegt maar weinig toe.

Edit

Volgende week komt er een patch die het fixed volgens een ontwikkelaar die contact met nvidia heeft gehad.

[ Voor 22% gewijzigd door Verwijderd op 30-08-2014 15:04 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

18 september:

NVIDIA Announces Game24, Massive 24-hour Celebration of PC Gaming

[ Voor 26% gewijzigd door Help!!!! op 02-09-2014 08:52 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Specs gtx980

http://www.guru3d.com/new...n-pricewatch-engines.html

•Chip: GM104 "Maxwell"
•Memory: 4 GB GDDR5, 256bit
•Shader units / TMU / ROP: 2560/160/64
•Fab: 28nm
•Shader model 5.0
•Interface: PCIe 3.0 x16
•Slot: dual-slot
•Power: 2x 6-pins PCIe

[ Voor 53% gewijzigd door Verwijderd op 05-09-2014 15:02 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
2560 SP? Dat wordt een vrij gigantische chip dan. En we zitten nu ineens weer op GM104 in plaats van GM204? :P

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ik geloof niet zo in een verviervoudiging van de GTX 750 Ti qua cudacores en ROPS, dat zou betekenen dat die in theorie dubbel zo snel is als een GTX 770, en dus ook de vloer aan veegt met alle single GPU videokaarten en in de buurt komt van Titan Z en de R9 295 X2 en die zelf verslaat op 2560x1600 en lager.

Daarnaast zou dat betekenen dat die met 2x 6 pins PEG connectors ook nog eens een betere performance per watt heeft dan de GTX 750 Ti.

Maar daarnaast heeft die ook nog eens een enorme geheugenbandbreedte te kort, waardoor de prestaties in de praktijk erg zullen tegenvallen, vooral op hoge instellingen waarvoor je juist zo'n snelle kaart zou kopen.

Een verdrievoudiging van de GTX 750 Ti en dus 1920 cudacores met een 256bit geheugenbus met 1750MHz GDDR5 is veel logischer.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Geheugenbandbreedte komt wel goed met meer mhz er op, waarschijnlijk richting de 1750mhz en efficiënter Ik geloof het zeker wel en we gaan het ook zo zien. Waarom zou het verder niet beter geoptimaliseerd kunnen zijn dan de eerste maxwell, die al weer oud is, en Nvidia weer van geleerd heeft en aanpassingen kunnen toepassen?

[ Voor 35% gewijzigd door Verwijderd op 05-09-2014 18:19 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ik zeg toch 1750MHz... Maar dat zou dus een enorme bottleneck zijn als je de rest van de GPU verviervoudigd tegenover de GTX 750 Ti. Geheugenbandbreedte groeit dan namelijk maar 2,6 maal tegenover 4 maal zoveel streamprocessors. Ook zie je de GTX 770 nu al geheugenbandbreedte te kort komen tegenover AMD, wat denk je dat er gaat gebeuren met een kaart die twee maal zo snel is in theorie, maar niet meer geheugenbandbreedte krijgt, hoe denk je dat met optimalisaties in hemelsnaam op te lossen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Even afgezien van het feit dat ik niet zie hoe ze die 2560 SP kwijt komen :)

De cijfers hierboven zijn echt op alle vlakken het viervoudige van een 750 Ti, dus er wordt geen ruimte bespaard door minder ROPs bijvoorbeeld. Al ga je er van uit dat ze alsnog 25% ruimte kunnen besparen met een ander floorplan, iets hogere dichtheid enz, dan komt het alsnog neer op een chip van tegen de 450mm². Nu is dat niet geheel onrealistisch; dat zou namelijk best daadwerkelijk GM104 zijn, waarbij GM204 dezelfde chip op 20/16nm wordt. Maar dan gaat ook een hoop van die efficiëntie van Maxwell verloren.

Acties:
  • 0 Henk 'm!

  • Aggressor
  • Registratie: Maart 2013
  • Laatst online: 23:31
momenteel heb ik een pricewatch: Gigabyte GV-N780GHZ-3GD
Deze is ongeveer 4 maanden oud. Weinig gebruikt... (met bon erbij)

Nu kan ik een pricewatch: Sapphire R9 290X 4GB GDDR5 TRI-X van een vriend kopen voor 275 euro ..

en eventueel mijn 780 verkopen hier of mp? wat zouden jullie doen?
Ik heb wel een 27 inch monitor QX2710-LED-Evolution-27-2560x1440 en 16gb ddr intel i5

[ Voor 8% gewijzigd door Aggressor op 06-09-2014 17:51 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Hmm... volgens mij heet dit het Algemene nVidia Nieuwsdiscussietopic en betreft jouw punt geen van beiden? :P

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Leuk leesvoer voor de zondagochtend - gtx980 snelste single gpu!

http://videocardz.com/521...x-970m-3dmark-performance

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Wat ik daaruit zou concluderen is dat de GTX 980 blijkbaar per clocktick nauwelijks sneller is dan de GTX 780Ti, maar een 20% sneller dan is dan de GTX 780, waar nu de GTX 970 lijkt komen te zitten.

Niks onverwachts natuurlijk, ook al zegt één synthetische, onbevestigde test niet veel. Waar zijn de 4K in-game scores ? Het wordt tijd dat de kaarten uit de doeken gedaan worden !

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Phuncz schreef op zondag 07 september 2014 @ 09:05:
Wat ik daaruit zou concluderen is dat de GTX 980 blijkbaar per clocktick nauwelijks sneller is dan de GTX 780Ti, maar een 20% sneller dan is dan de GTX 780, waar nu de GTX 970 lijkt komen te zitten.
Per kloktik? Zijn toch twee totaal verschillende GPU's, dus hoe wil je dat vergelijken.
Nou hier zit iig realisme in, als je van een GTX 970 uitgaat met 1664 cudacores op 1051MHz, gecombineerd met 4GB 1753MHz GDDR5 gekoppeld aan een 256bit geheugenbus en een GTX 980 met 1920 cudacores op een dikke 1125MHz ook gecombineerd met 4GB 1753MHz GDDR5 met een 256bit geheugenbus.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Geen geweldige performance om ook echt over te stappen als je een Titan of gtx780 hebt, ja sommigen vinden 20% meer performance voldoende maar sommigen ook niet, daar voor zijn de big chips en dat zal vast nog wel even duren helaas?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Een mainstream/high-end chip die de high-end van de vorige generatie met 20% betere performance verslaat en dat met een veel lager verbruik op hetzelfde productieproces is wel erg netjes hoor.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Ben uitermate benieuwd naar de 970 en 980m. Hopelijk ligt dat in lijn met de sublieme 860m

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Blijkbaar zijn er al review exemplaren van de GTX 970 en probably GTX 980 in de handen van reviewers, evenals zouden de kaarten onmiddellijk beschikbaar zijn op de aankondiging ! Ik ben benieuwd !

  • Ferluci92
  • Registratie: December 2012
  • Laatst online: 29-04 15:42
Phuncz schreef op woensdag 10 september 2014 @ 18:00:
Blijkbaar zijn er al review exemplaren van de GTX 970 en probably GTX 980 in de handen van reviewers, evenals zouden de kaarten onmiddellijk beschikbaar zijn op de aankondiging ! Ik ben benieuwd !
Bron?

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

http://tieba.baidu.com/p/3287030270?pn=1

Voor de kaarten in de hand van reviewers. De beschikbaarheid heb ik geen bron van maar is speculatie van mijn kant en anderen, aangezien reviewers al kaarten hebben.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
En aan de hand van zo'n screenshot zijn er op andere forums mensen die dit soort conclusies trekken:
device ID begins with 13 from the new drivers for the 970 and lists 1664 cores. 13 SMM's * 128 cores per SMM = 1644, so it adds up.

The new device ID from public drivers matches as well for this 970. The 980 has ones beginning with 16 and 17 which would presumably mean 16 or 17 SMM's * 128 = 2176 or 2048 cores!? Wowza.
|:( |:( |:( |:(

Gelukkig snappen ze hoe Vendor en Device ID's werken. Ik vraag me dan wel af hoe ze het Device ID van een 750 TI (0x1380) verklaren, ik vind het lastig om daar 5 SMM's uit te halen.

  • Gmount
  • Registratie: Maart 2012
  • Laatst online: 15-09 11:24

Gmount

Ecorunner lid

Een net zo belangrijke vraag lijkt me of nvidia ook displayport 1.2a gaat ondersteunen, daar is nog niets over gelekt/bekend voor zover ik weet :'(

1900Km/L! || i7 6700K @ 4,6 GHz | NZXT Kraken X61 | MSI GTX 970 @ 1,48 GHz | 8 GB DDR4| Bitfenix Aegis yellow


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Werelds schreef op woensdag 10 september 2014 @ 20:14:
Gelukkig snappen ze hoe Vendor en Device ID's werken. Ik vraag me dan wel af hoe ze het Device ID van een 750 TI (0x1380) verklaren, ik vind het lastig om daar 5 SMM's uit te halen.
:+
Gmount schreef op woensdag 10 september 2014 @ 20:40:
Een net zo belangrijke vraag lijkt me of nvidia ook displayport 1.2a gaat ondersteunen, daar is nog niets over gelekt/bekend voor zover ik weet :'(
Zulke dingen hoor je pas bij de launch.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • -The_Mask-
  • Registratie: November 2007
  • Niet online

Galaxy GeForce GTX 970 Pictured, Specs Confirmed, Early Benchmarks Surface

Here are some of the first pictures of an AIC partner branded NVIDIA GeForce GTX 970 graphics card, the Galaxy GTX 970 GC. Spotted across Chinese PC enthusiast forums and social networks, the latest set of leaks cover not just pictures of what the GTX 970 looks like, but also what's under its hood. To begin with, Galaxy's card appears to be built for the high-end market segment. A meaty twin-fan aluminium fin-stack heatsink, coupled by a spacey backplate cover a signature Galaxy blue PCB, holding NVIDIA's new GTX 970 GPU, and 4 GB of GDDR5 memory. The card appears to feature a high-grade VRM that draws power from a combination of 8-pin and 6-pin PCIe power connectors.

Afbeeldingslocatie: http://www.techpowerup.com/img/14-09-10/57a.jpg
Afbeeldingslocatie: http://www.techpowerup.com/img/14-09-10/57b.jpg
Afbeeldingslocatie: http://www.techpowerup.com/img/14-09-10/57c.jpg
Afbeeldingslocatie: http://www.techpowerup.com/img/14-09-10/57d.jpg

There's also a selection of pictures of a purported reference-design GeForce GTX 970 graphics card. It may look drab, but that's because NVIDIA will not ship reference-design cards. The GTX 970 will likely be an AIC-exclusive, meaning that you'll only find custom-design cards based on the chip. We wonder if that's the same with the GTX 980. Straightaway, you'll notice that the GTX 970 reference PCB bears an uncanny resemblance to the one NVIDIA used for the GTX 670, GTX 660 Ti, and GTX 760. That's probably because the GK104 and new GM204 are pin-identical. Such a thing isn't new. The "Pitcairn" silicon (Radeon HD 7870, HD 7850) and its predecessor, "Barts" (HD 6870 and HD 6850) are similarly pin-identical, differing with the die. The similarity in PCB design, if nothing, shows that the GTX 970 will be as energy-efficient as the GTX 670.

Afbeeldingslocatie: http://www.techpowerup.com/img/14-09-10/57e.jpg

Moving on to the actual-specs, and some users with access to GeForce GTX 970 managed to pull these specs off a TechPowerUp GPU-Z screenshot. Some parts of the screenshot look blurry, probably due to a failed attempt at blurring out the BIOS string. GPU-Z has preliminary support for GM204 since version 0.7.9. This is what it could make out:
GPU identified as "1C32"
1,664 CUDA cores
138 TMUs
32 ROPs
256-bit wide GDDR5 memory interface
4 GB standard memory amount
1051 MHz core, 1178 MHz GPU Boost, and 7012 MHz (GDDR5-effective) memory clocks
232 GB/s memory bandwidth
The sample was put through a quick run of 3DMark 11 Extreme Preset. It scored X3963 points, which if you factor in the dual-core Core i3-4130 used in the bench, puts the GTX 970 somewhere between the GTX 780 and GTX 780 Ti, in terms of performance.
Afbeeldingslocatie: http://www.techpowerup.com/img/14-09-10/57f.jpg
Afbeeldingslocatie: http://www.techpowerup.com/img/14-09-10/57g.jpg
Afbeeldingslocatie: http://www.techpowerup.com/img/14-09-10/57h.jpg
Afbeeldingslocatie: http://www.techpowerup.com/img/14-09-10/57i.jpg

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Pagina: 1 ... 24 ... 30 Laatste

Dit topic is gesloten.