Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 12-09 14:44

superwashandje

grofheid alom

FabiandJ schreef op zondag 11 oktober 2015 @ 22:21:
[...]

Hoezo verkeerd topic? In de TS staat "Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia." :)
nee, dit is het nieuwsdiscussietopic waar al het nieuws omtrent nvidia bediscussieerd kan worden. er is ook een ervaringentopic waar je vraag beter zou passen :) ik zou dan naar het 600 serie of 900 serie ervaringen topic zoeken.
anyway, back on topic :P :

[ Voor 3% gewijzigd door superwashandje op 12-10-2015 08:46 ]

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

FabiandJ schreef op zondag 11 oktober 2015 @ 22:21:
[...]

Hoezo verkeerd topic? In de TS staat "Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia." :)

Nee de garantie is verlopen, wat is een goede opvolger van deze kaart zonder de hoofdprijs te moeten betalen. Na de aankoop van de GTX 680 nooit meer verdiept in nieuwe kaarten :p
Interessant nieuwtje dat je videokaart kuren vertoont.

Laat je het ook even horen welke nieuwe videokaart je gaat kopen. Als je deze hebt gekocht dan is het ook gelijk interessant om dat ook gelijk even te posten.
"Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia."
Er is een reden dat er een appart ervaring topic is voor Nvidia kaarten en dat de rest van de tweakers wel een topic maken.

offtopic:
In ander nieuws, ik heb net mijn bejaarde 7800GS uit de kast gevist en hem schoongeblazen met een compressor! Wat een verschil hij ziet er weer uit als nieuw :+.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

FabiandJ schreef op zondag 11 oktober 2015 @ 22:53:
[...]

€700 euro voor een GPU is me iets teveel van het goede :p Ik zit dan meer te zoeken naar een GPU in de GeForce 900 Series die minimaal gelijk scoort als de GTX680.
970 is een goede opvolger :)

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

http://www.tweaktown.com/...cal-based-gpus/index.html

Pascal straks verkrijgbaar in GDDR5-opvolger of HBM2 smaak?

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

Verwijderd

GDDR5X is van Micron en Nvida gaat er misschien als eerste gebruik van maken? Het zal niet zo goed als HMB zijn en is bedoeld voor de goedkopere videokaarten om de prijs te drukken?
GDDR5X doet 8 Gbps en zou de max zijn voor GDDR5 en en het zal ook meer gaan verbruiken vermoed ik om die 8 Gbps te halen?

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:43
Gddr5x zou 10 tot 16 Gbps moeten doen.

En HBM lijkt me idd wat duur voor budget en midrange kaarten. Misschien kan je met gddr5x nog een top end kaart maken.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik denk dat HBM op niet al te lange termijn goedkoper zal worden dan de traditionele manier.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:43
Ik denk het niet.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dus als ik het goed begrijp zitten er twee type geheugencontrollers aan boord van de toekomstige GP100? Dat kan ook duiden op problemen met HBM? Te lage yields? Capaciteit te kort?

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

madmaxnl schreef op dinsdag 13 oktober 2015 @ 14:53:
Dus als ik het goed begrijp zitten er twee type geheugencontrollers aan boord van de toekomstige GP100? Dat kan ook duiden op problemen met HBM? Te lage yields? Capaciteit te kort?
GP104 = X60 en lager = GDDR5X
GP100 = X70 en X80 = HMB2

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 22:47
Jeroenneman schreef op dinsdag 13 oktober 2015 @ 14:56:
[...]


GP104 = X60 en lager = GDDR5X
GP100 = X70 en X80 = HMB2
Hmmm, zijn de laatste twee generaties niet, waarbij tussen haakjes dan mijn verwachting is voor pascal

x06 = x50, x60 (GDDR5X)
x04 = x70, x80 (GDDR5X/HBM)
x00 = titan, x80ti (HBM)

Waarbij voor de x70/x80 het afhangt hoeveel HBM Nvidia kan bemachtigen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
AMD heeft met zijn Fury, Fury X en Nano elk 512GB/s geheugen bandbreedte. Als AMD Fiji op 14 of 16nm zou bakken zou die kaart zich in het middensegment bevinden. Verder maakt dat dergelijke kaarten kleiner en zuiniger en haal je na genoeg elke geheugen bandbreedte bottelnek weg met HBM. Ik denk dat de voordelen van GDDR5X niet opwegen tegen de voordelen van HBM voor de volgende generatie midrange kaarten (en al helemaal niet voor de high-end kaarten). Enige uitzondering hierop zijn te weinig capaciteit en te hoge kosten.

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

madmaxnl schreef op dinsdag 13 oktober 2015 @ 15:16:
AMD heeft met zijn Fury, Fury X en Nano elk 512GB/s geheugen bandbreedte. Als AMD Fiji op 14 of 16nm zou bakken zou die kaart zich in het middensegment bevinden. Verder maakt dat dergelijke kaarten kleiner en zuiniger en haal je na genoeg elke geheugen bandbreedte bottelnek weg met HBM. Ik denk dat de voordelen van GDDR5X niet opwegen tegen de voordelen van HBM voor de volgende generatie midrange kaarten (en al helemaal niet voor de high-end kaarten). Enige uitzondering hierop zijn te weinig capaciteit en te hoge kosten.
Want Nvidia loopt echt achter op AMD met GDDR5...

Van HBM merk je in de praktijk helemaal "niks".

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Jeroenneman schreef op dinsdag 13 oktober 2015 @ 15:51:
[...]
Van HBM merk je in de praktijk helemaal "niks".
Heel veel? De videokaart wordt duidelijk kleiner en zuiniger. Voor het halen van 512GB/s met GDDR5 was een 512 bit geheugenbus met 8Gb/s chips nodig, dat wordt dan weer een complex PCB en een vrij hoog verbruik.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

-The_Mask- schreef op dinsdag 13 oktober 2015 @ 16:08:
[...]

Heel veel? De videokaart wordt duidelijk kleiner en zuiniger. Voor het halen van 512GB/s met GDDR5 was een 512 bit geheugenbus met 8Gb/s chips nodig, dat wordt dan weer een complex PCB en een vrij hoog verbruik.
Afgezien van de Nano (leuk kaartje) is daar weinig van te zien. Deels omdat koelblokken voor de core nog steeds groter zijn dan het PCB zelf, dus high-end kaarten zullen niet opeens kleiner zijn.

Qua performance ben ik nog geen review tegengekomen waar men concludeert dat de Fury (X) de GTX980 er echt keihard voorbijholt door geheugenbandbreedte.

Geheugen is nog niet de beperkende factor, maar coresnelheid.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:43
Bij gpu's heb je in principe overal wel wat aan, als je je core omhoog gooit wordt ie sneller, als je de memory omhoog gooit ook, geen harde bottlenecks.

Met HBM kan je bandbreedte omhoog met een heel bescheiden verbruik. Sowieso technisch superieur aan gddr5 (en gddr5x). Maar je moet wel de memory stacken, een logic die onder die stack stoppen, en alles op een interposer zetten.

Mechwarrior Online: Flapdrol


Acties:
  • +2 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Jeroenneman schreef op dinsdag 13 oktober 2015 @ 16:12:
[...]


Afgezien van de Nano (leuk kaartje) is daar weinig van te zien. Deels omdat koelblokken voor de core nog steeds groter zijn dan het PCB zelf, dus high-end kaarten zullen niet opeens kleiner zijn.
Fury X is duidelijk veel kleiner als een vergelijkbare nVidia of minder snelle AMD kaart. En je bent door de radiator de warme lucht ook nog eens direct kwijt uit de behuizing. Een R9 290X/390X, GTX 980 Ti of Titan X zal met zo'n koeler niet echt kleiner worden.
Qua performance ben ik nog geen review tegengekomen waar men concludeert dat de Fury (X) de GTX980 er echt keihard voorbijholt door geheugenbandbreedte.
De geheugenbandbreedte is gewoon mee geschaald met de R9 290X/390X. Het is de geheugenbandbreedte die gewoon minimaal noodzakelijk is, zelfs het overklokken van het geheugen op Fury X geeft al duidelijke performance winst, dus de geheugenbandbreedte is gewoon noodzakelijk.

Als AMD met Fury X kwam met 2GHz (8GT/s) GDDR5 en een 512 bit geheugenbus en een verbruik van ~350/375W had je moord en brand geschreeuwd over het veel te hoge verbruik en vond je het ongetwijfeld belachelijk dat AMD daar niks aan doet. En nu hebben ze het aangepakt en heb je ook nog een bonus erbij dat de kaart een stuk kleiner is en klaag je dat je niks merkt van HBM?
Geheugen is nog niet de beperkende factor, maar coresnelheid.
Duidelijk niet waar als je de reviews erbij pakt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

-The_Mask- schreef op dinsdag 13 oktober 2015 @ 16:47:
[...]
Fury X is duidelijk veel kleiner als een vergelijkbare nVidia of minder snelle AMD kaart. En je bent door de radiator de warme lucht ook nog eens direct kwijt uit de behuizing. Een R9 290X/390X, GTX 980 Ti of Titan X zal met zo'n koeler niet echt kleiner worden.

[...]
De geheugenbandbreedte is gewoon mee geschaald met de R9 290X/390X. Het is de geheugenbandbreedte die gewoon minimaal noodzakelijk is, zelfs het overklokken van het geheugen op Fury X geeft al duidelijke performance winst, dus de geheugenbandbreedte is gewoon noodzakelijk.

Als AMD met Fury X kwam met 2GHz (8GT/s) GDDR5 en een 512 bit geheugenbus en een verbruik van ~350/375W had je moord en brand geschreeuwd over het veel te hoge verbruik en vond je het ongetwijfeld belachelijk dat AMD daar niks aan doet. En nu hebben ze het aangepakt en heb je ook nog een bonus erbij dat de kaart een stuk kleiner is en klaag je dat je niks merkt van HBM?

[...]

Duidelijk niet waar als je de reviews erbij pakt.
Nou, laat de reviews maar zien dan.


Als AMD met Fury X kwam met 2GHz (8GT/s) GDDR5 en een 512 bit geheugenbus en een verbruik van ~350/375W had je moord en brand geschreeuwd over het veel te hoge verbruik en vond je het ongetwijfeld belachelijk dat AMD daar niks aan doet. En nu hebben ze het aangepakt en heb je ook nog een bonus erbij dat de kaart een stuk kleiner is en klaag je dat je niks merkt van HBM?

Uhh, want Nvidia kaarten verbruiken allemaal 300 Watt omdat ze wel nog GDDR5 gebruiken? Dacht het niet.

Ik klaag ook niet over HBM, ik zeg alleen dat je het verschil NU nog niet echt merkt. Als geheugenbandbreedte zoveel had uitgemaakt, hadden we immers de Fury X ver voorbij de 980Ti moeten zien gaan toch? Blijkbaar maakt het dus toch niet zoveel uit.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 21:16
-The_Mask- schreef op dinsdag 13 oktober 2015 @ 16:47:
[...]
Fury X is duidelijk veel kleiner als een vergelijkbare nVidia of minder snelle AMD kaart. En je bent door de radiator de warme lucht ook nog eens direct kwijt uit de behuizing. Een R9 290X/390X, GTX 980 Ti of Titan X zal met zo'n koeler niet echt kleiner worden.
Klopt, maar dat ontkent niemand volgens mij. Klein is prima, maar er komt wel een interposer bij en geheugen wat (nog lastig) is om te produceren. Productie op massa schaal kost nog tijd. Het zal nog wel even duren voordat HBM naar midrange komt.
De geheugenbandbreedte is gewoon mee geschaald met de R9 290X/390X. Het is de geheugenbandbreedte die gewoon minimaal noodzakelijk is, zelfs het overklokken van het geheugen op Fury X geeft al duidelijke performance winst, dus de geheugenbandbreedte is gewoon noodzakelijk.
Daar gaan we weer. Het voorbeeld wat je al eerder hebt opgehoest liet nauwelijks winst zien (1 to 3% stijging is verwaarloosbaar bij een verbruikstoename van 20 tot 40%). HBM is een tof geheel, maar de Fury X gpu is niet de chip die het huidige HBM geheugen op de standaard snelheid laat bottlenecken. Dit gaat nog wel gebeuren natuurlijk, maar op dit moment is het imo nog redelijk overkill. Dit was natuurlijk een van de redenen om het geheugen zo laag te clocken voor de fury X.
Hoger is gewoon nog niet nodig en daar gaat ook het voordeel van lager verbruik teniet.
Als AMD met Fury X kwam met 2GHz (8GT/s) GDDR5 en een 512 bit geheugenbus en een verbruik van ~350/375W had je moord en brand geschreeuwd over het veel te hoge verbruik en vond je het ongetwijfeld belachelijk dat AMD daar niks aan doet. En nu hebben ze het aangepakt en heb je ook nog een bonus erbij dat de kaart een stuk kleiner is en klaag je dat je niks merkt van HBM?
Ja logisch, dat is ook veel stroom en vooral heel veel hitte. De aanpak met HBM als middel is prima, maar het geheel is toekomstmuziek en niet nu al onmisbaar. Het hoge verbruik van de Fury kaarten, komt vooral door de onzuinige chip volgens mij.
Duidelijk niet waar als je de reviews erbij pakt.
Ik zeg beide, afhankelijk van het scenario en sowieso 1 van de 2 :P

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Want dit is de eerste generatie die er actief gebruik van maakt, er ging altijd een bottleneck zijn :P De techniek is nu al gewoon zo goed dat er op een measly 500 MHz al genoeg bandbreedte is om de GPU tot praktisch z'n strot toe vol te proppen. En zodra we een schaal omlaag gaan kunnen de kloks weer een stuk omhoog voor hetzelfde verbruik, in theorie in ieder geval. Dan gaan we daar echt iets van merken in de praktijk, GDDR5 is leuk maar gewoon een verouderende standaard. Kudo's voor de innovatie, met bijkomende extra voordelen, toch? Beetje een non-point om over te discussiëren lijkt me Jeroenneman.

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op dinsdag 13 oktober 2015 @ 16:47:
[...]


[...]

Duidelijk niet waar als je de reviews erbij pakt.
Word wat verkeerd verwoord denk ik. Maar gpu kracht is nog altijd het meeste van belang voor 4k en hoger en dat is een stuk belangrijker voor extra fps en dat laat benchmarks ook duidelijk zien neem bijvoorbeeld 2x of 3x de gpu kracht daar mee gaat je fps overal harder mee omhoog dan extra geheugen of extra veel bandbreedte voor het geheugen. De gpu zelf is nog steeds de bottlenek voor hogere resoluties met veel nieuwe games maar je ziet wel dat nieuwere kaarten 4k steeds beter aankunnen al zijn het alleen de high end kaarten tot nu toe zoals de gtx980 ti en Fury x
Snelheden van HMB ga je pas vernemen wanneer er ook echt vraag naar meer geheugen is en dat is nog niet het geval op 4k in heel veel games. Het is een leuke techniek maar de voordelen merk je pas goed op ver boven de 4k vermoed ik.

[ Voor 18% gewijzigd door Verwijderd op 13-10-2015 19:01 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Jeroenneman schreef op dinsdag 13 oktober 2015 @ 16:52:
[...]


Nou, laat de reviews maar zien dan.
sjekneck schreef op dinsdag 13 oktober 2015 @ 17:06:
[...]

Daar gaan we weer. Het voorbeeld wat je al eerder hebt opgehoest liet nauwelijks winst zien (1 to 3% stijging is verwaarloosbaar
Ik heb het idd eerder uitgelegd, dus beetje dubbelop, maar hier nogmaals voor degenen die het gemist hebben of niet gesnapt hebben.

Afbeeldingslocatie: https://tpucdn.com/reviews/AMD/R9_Fury_X_Overvoltage/images/memory.gif
In dit geval zijn de eerste drie staafdiagrammen interessant. In de eerste twee staafdiagrammen daar zie je een GPU overklok van 1050MHz naar 1160MHz met een geheugen dat op dezelfde 500MHz blijft. Een GPU overklok van 1050MHz naar 1160MHz is een verhoging van zo'n 10,5%, de prestaties gaat hier echter maar 5% vooruit, van 50,9 fps naar 53,5 fps. In de derde staaf zie je dat ook het geheugen wordt overgeklokt, van 500MHz naar 560MHz, een overklok van 12% dus. Wat je nu ziet is dat de prestaties tussen de eerste en derde staaf van 50,9 fps naar 55,1 fps zijn gegaan, een verhoging van 8,25%. Hier kun je dus zien dat de Fiji GPU wel degelijk de geheugenbandbreedte nodig heeft, had die dat niet dan was het verschil tussen de eerste en tweede staaf veel groter geweest en tussen de tweede en derde veel kleiner.
HBM is een tof geheel, maar de Fury X gpu is niet de chip die het huidige HBM geheugen op de standaard snelheid laat bottlenecken. Dit gaat nog wel gebeuren natuurlijk, maar op dit moment is het imo nog redelijk overkill.
Het is duidelijk niet overkill zoals je hierboven kunt zien en dat zou ook raar zijn anders had de Tonga en Hawaii GPU ook veel te veel geheugenbandbreedte gehad. Dezen zijn immers op een vergelijkbare architectuur gebaseerd en de geheugenbandbreedte is gewoon gelijk meegegroeid met het aantal streamprocessors van de GPU's. AMD heeft ook niet voor niks bij Grenada de geheugenfrequentie opgeschroeft in vergelijking met Hawaii.
Jeroenneman schreef op dinsdag 13 oktober 2015 @ 16:52:
Uhh, want Nvidia kaarten verbruiken allemaal 300 Watt omdat ze wel nog GDDR5 gebruiken? Dacht het niet.
Dat heeft er toch echt helemaal niks mee nodig, dat slaat echt nergens op.
Ik klaag ook niet over HBM, ik zeg alleen dat je het verschil NU nog niet echt merkt. Als geheugenbandbreedte zoveel had uitgemaakt, hadden we immers de Fury X ver voorbij de 980Ti moeten zien gaan toch? Blijkbaar maakt het dus toch niet zoveel uit.
Nee dat kan toch niet. De architectuur is vergelijkbaar gebleven en dan krijg je met dit aantal streamprocessors deze prestaties, mits nergens een bottleneck ligt. Dat je niet oneindig streamprocessors kunt toevoegen en perfecte scaling behoudt moet je ook niet vergeten.
sjekneck schreef op dinsdag 13 oktober 2015 @ 17:06:
[...]

Ja logisch, dat is ook veel stroom en vooral heel veel hitte. De aanpak met HBM als middel is prima, maar het geheel is toekomstmuziek en niet nu al onmisbaar. Het hoge verbruik van de Fury kaarten, komt vooral door de onzuinige chip volgens mij.
Ja, maar dat weet je en daar moet je mee werken. Het is niet dat je een gehele nieuwe architectuur even uit een hoge hoed tovert, daar gaat echt jaren overheen. En als TSMC en GloFo dan beide hebben zitten te prutsen met het 20nm process waardoor je op 28nm blijft zitten blijft er maar heel weinig over. Fiji uitbrengen op 28nm met HBM is dus een hele logische keuze en ook de enige goede. Beter dan een 512 bit geheugenbus met 2GHz GDDR5, een groot PCB en een verbruik van 350/375W. Ook beter dan helemaal geen kaart/GPU uitbrengen. En dat zijn de enige twee andere opties die ik kan bedenken. Maar als je een betere optie hebt dan hoor ik hem graag.
Verwijderd schreef op dinsdag 13 oktober 2015 @ 18:57:
[...]


Word wat verkeerd verwoord denk ik.
Wat?
Maar gpu kracht is nog altijd het meeste van belang voor 4k en hoger en dat is een stuk belangrijker voor extra fps en dat laat benchmarks ook duidelijk zien neem bijvoorbeeld 2x of 3x de gpu kracht daar mee gaat je fps overal harder mee omhoog dan extra geheugen of extra veel bandbreedte voor het geheugen.
Als je een 2 tot 3 maal krachtigere GPU maakt en dezelfde geheugenbandbreedte behoud dan kun je wel dag zeggen tegen de performance want dat wordt echt helemaal niks.

En het is toch echt HBM, je maakt er telkens wat anders van.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op dinsdag 13 oktober 2015 @ 19:43:
[...]


[...]

Als je een 2 tot 3 maal krachtigere GPU maakt en dezelfde geheugenbandbreedte behoud dan kun je wel dag zeggen tegen de performance want dat wordt echt helemaal niks.

En het is toch echt HBM, je maakt er telkens wat anders van.
Kijk maar naar de meeste 4k benchmarks met 2 of 3 gtx 980's TI's conclusie gpu power te kort met 1 gpu waar 2 en 3 overal meer fps halen en een betere frametime. Dit geldt natuurlijk niet voor kaarten met een te kleine doorvoer waar jij op doelt.

Je ziet spoken denk ik ;)

[ Voor 15% gewijzigd door Verwijderd op 13-10-2015 20:16 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Multi-GPU is iets compleet anders, dat kun je niet zomaar vergelijken met de bottleneck van een enkele kaart.

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

-The_Mask- schreef op dinsdag 13 oktober 2015 @ 19:43:
[...]


[...]

Ik heb het idd eerder uitgelegd, dus beetje dubbelop, maar hier nogmaals voor degenen die het gemist hebben of niet gesnapt hebben.

[afbeelding]
In dit geval zijn de eerste drie staafdiagrammen interessant. In de eerste twee staafdiagrammen daar zie je een GPU overklok van 1050MHz naar 1160MHz met een geheugen dat op dezelfde 500MHz blijft. Een GPU overklok van 1050MHz naar 1160MHz is een verhoging van zo'n 10,5%, de prestaties gaat hier echter maar 5% vooruit, van 50,9 fps naar 53,5 fps. In de derde staaf zie je dat ook het geheugen wordt overgeklokt, van 500MHz naar 560MHz, een overklok van 12% dus. Wat je nu ziet is dat de prestaties tussen de eerste en derde staaf van 50,9 fps naar 55,1 fps zijn gegaan, een verhoging van 8,25%. Hier kun je dus zien dat de Fiji GPU wel degelijk de geheugenbandbreedte nodig heeft, had die dat niet dan was het verschil tussen de eerste en tweede staaf veel groter geweest en tussen de tweede en derde veel kleiner.

En wat zegt dit? Als ik overclock, dan levert dat meer performance op?

Het gaat me erom of we HBM nodig hebben. Hieruit blijkt duidelijk van niet. Het is weinig overklokbaar (GDDR5 op de Nvidia kaarten haalt makkelijk een 15% overklok) en dan nog is de winst luttle FPS.

Je zegt dat HBM als voordeel een lager verbruik heeft. Dat is zeker mooi, maar heeft Nvidia dan een gigantische voorsprong op de core? Want Nvidia's kaarten zijn allemaal nog GDDR5, en verbruiken minder dan hun AMD counterpart.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op dinsdag 13 oktober 2015 @ 20:05:
Multi-GPU is iets compleet anders, dat kun je niet zomaar vergelijken met de bottleneck van een enkele kaart.
Jawel dat kan wel omdat de hoeveelheid bandbreedte niet omhoog gaat maar gpu power wel.
Als gpu's nog sneller worden met de zelfde bandbreedte heb je het zelfde effect.
http://nl.hardware.info/r...-benchmarks-the-witcher-3

[ Voor 8% gewijzigd door Verwijderd op 13-10-2015 20:12 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 04:32
-The_Mask- schreef op dinsdag 13 oktober 2015 @ 19:43:


[afbeelding]
In dit geval zijn de eerste drie staafdiagrammen interessant. In de eerste twee staafdiagrammen daar zie je een GPU overklok van 1050MHz naar 1160MHz met een geheugen dat op dezelfde 500MHz blijft. Een GPU overklok van 1050MHz naar 1160MHz is een verhoging van zo'n 10,5%, de prestaties gaat hier echter maar 5% vooruit, van 50,9 fps naar 53,5 fps. In de derde staaf zie je dat ook het geheugen wordt overgeklokt, van 500MHz naar 560MHz, een overklok van 12% dus. Wat je nu ziet is dat de prestaties tussen de eerste en derde staaf van 50,9 fps naar 55,1 fps zijn gegaan, een verhoging van 8,25%. Hier kun je dus zien dat de Fiji GPU wel degelijk de geheugenbandbreedte nodig heeft, had die dat niet dan was het verschil tussen de eerste en tweede staaf veel groter geweest en tussen de tweede en derde veel kleiner.

[...]

Het is duidelijk niet overkill zoals je hierboven kunt zien en dat zou ook raar zijn anders had de Tonga en Hawaii GPU ook veel te veel geheugenbandbreedte gehad. Dezen zijn immers op een vergelijkbare architectuur gebaseerd en de geheugenbandbreedte is gewoon gelijk meegegroeid met het aantal streamprocessors van de GPU's. AMD heeft ook niet voor niks bij Grenada de geheugenfrequentie opgeschroeft in vergelijking met Hawaii.
Als ik die grafieken zie ben ik het met je analyse eens. Die kaart kan nog wel wat bandbreedte gebruiken.

Het roept bij mij echter wel wat vragen op. Immers zit de Fury al op 512 GB/s terwijl de 980 Ti nog op 336 GB/s zit. Is die architectuur van AMD dan zoveel inefficiënter? Gaat dit geen problemen opleveren op het moment dat Nvidia ook met HBM komt???

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op dinsdag 13 oktober 2015 @ 20:08:
[...]


Jawel dat kan wel omdat de hoeveelheid bandbreedte niet omhoog gaat maar gpu power wel.
Als gpu's nog sneller worden met de zelfde bandbreedte heb je het zelfde effect.
http://nl.hardware.info/r...-benchmarks-the-witcher-3
Meerdere GPUs zijn niet gelijk aan een 2 of 3x zo krachtige GPU, zo werkt het niet.
Als je over 100% efficiëntie kunt praten en niet moest afrekenen met AFR en SFR, met een gedeelde geheugenbus zou het nog geen vergelijking zijn. Want elke GPU heeft zijn eigen bandbreedte, die vlieger gaat gewoon niet op.

Acties:
  • 0 Henk 'm!

Verwijderd

Jawel dat gaat wel op want een gpu die sneller word heeft vaak weer meerdere cores en alles word bij elkaar opgeteld op gpu gebied behalve de dingen die het geheugen regelt en dat komt omdat je min of meer 2 of 3 keer de perormance uit de gpu's trekt.

Helaas zijn ze nog niet zo ver om alles te gebruiken bij multi-gpu zoals Microsoft met dx12 belooft dan komt er misschien nog verandering in zodat je ook het geheugen en zijn interface kunt optellen.

*weg*

[ Voor 161% gewijzigd door br00ky op 14-10-2015 09:39 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
*weg*

[ Voor 23% gewijzigd door br00ky op 14-10-2015 09:39 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
*weg*

[ Voor 94% gewijzigd door br00ky op 14-10-2015 09:40 ]


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Verwijderd schreef op dinsdag 13 oktober 2015 @ 20:18:
Jawel dat gaat wel op want een gpu die sneller word heeft vaak weer meerdere cores en alles word bij elkaar opgeteld op gpu gebied behalve de dingen die het geheugen regelt en dat komt omdat je min of meer 2 of 3 keer de perormance uit de gpu's trekt.

Helaas zijn ze nog niet zo ver om alles te gebruiken bij multi-gpu zoals Microsoft met dx12 belooft dan komt er misschien nog verandering in zodat je ook het geheugen en zijn interface kunt optellen.


[...]


Als je niets in te brengen hebt laat dat trollen dan maar liever achterwege of kom met tegengas ;w
*weg*

[ Voor 7% gewijzigd door br00ky op 14-10-2015 09:41 ]

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op dinsdag 13 oktober 2015 @ 20:08:
[...]


Jawel dat kan wel omdat de hoeveelheid bandbreedte niet omhoog gaat maar gpu power wel.
Als gpu's nog sneller worden met de zelfde bandbreedte heb je het zelfde effect.
http://nl.hardware.info/r...-benchmarks-the-witcher-3
Nee, met AFR hoeft een GPU maar de helft van het werk te doen; namelijk om het frame. Waarom zou hij meer bandbreedte nodig hebben daarvoor? Dat is gewoon hardstikke onlogisch....

Cores worden niet bij elkaar opgetelt.... elke GPU werkt zelfstandig nadat hij te horen heeft gekregen welke data hij moet renderen. Bij AFR gaat een GPU echt niet de andere GPU aanspreken met als bericht "pssst hey, ik heb mijn frame nog niet af, kan jij nog een stukje renderen?". Ten eerste zou dat te lang duren omdat je via een SLI/Crossfire bridge/PCI-E bus nog dingen moet gaan corresponderen, ten tweede kan het zijn dat de andere GPU niet eens over de correcte data beschikt in zijn geheugen.

Ga je eerst eens inlezen hoe zulke zaken echt werken.

Acties:
  • +1 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
tomcatha schreef op dinsdag 13 oktober 2015 @ 13:01:
ik denk dat HBM op niet al te lange termijn goedkoper zal worden dan de traditionele manier.
Afhankelijk van de kracht van de GPU, de beschikbaarheid van snel geheugen en wat je nodig hebt. Een 512 bit geheugenbus maakt het PCB erg complex en duur, in zo'n geval kan HBM best wel goedkoper zijn. Misschien is HBM nu ook wel goedkoper voor AMD dan een 512 bit geheugenbus met 2GHz chips.
Verwijderd schreef op dinsdag 13 oktober 2015 @ 20:02:
[...]


Kijk maar naar de meeste 4k benchmarks met 2 of 3 gtx 980's TI's conclusie gpu power te kort met 1 gpu waar 2 en 3 overal meer fps halen en een betere frametime. Dit geldt natuurlijk niet voor kaarten met een te kleine doorvoer waar jij op doelt.
Zoals anderen al zeggen, slaat dit echt helemaal nergens op.
Je ziet spoken denk ik ;)
Het staat volgens mij heel duidelijk uitgelegd met cijfertjes erbij nog wel.
sdk1985 schreef op dinsdag 13 oktober 2015 @ 20:12:
[...]


Als ik die grafieken zie ben ik het met je analyse eens. Die kaart kan nog wel wat bandbreedte gebruiken.

Het roept bij mij echter wel wat vragen op. Immers zit de Fury al op 512 GB/s terwijl de 980 Ti nog op 336 GB/s zit. Is die architectuur van AMD dan zoveel inefficiënter?
Lijkt wel zo, maar ik denk trouwens dat het eerder andersom is. :p Volgens mij is nVidia gewoon heel erg efficiënt bezig.
Gaat dit geen problemen opleveren op het moment dat Nvidia ook met HBM komt???
Waarom zou dat uitmaken? HBM2 heeft zoveel bandbreedte dat moet meer dan genoeg zijn. En sowieso zie ik niet in waarom nVidia daar wat mee te maken heeft. Bij een toekomstige architectuur kan het trouwens ook anders zijn. Als AMD met betere compressie komt kan het zo weer andersom zijn.
Jeroenneman schreef op dinsdag 13 oktober 2015 @ 20:08:
En wat zegt dit? Als ik overclock, dan levert dat meer performance op?
Begrijpend lezen blijft een kunst.

Er wordt beweerd dat wel niks aan HBM hebben en dat het overdreven veel bandbreedte is. Ik laat duidelijk zien dat dat niet zo is en dat HBM de enige juiste keuze is voor AMD's Fiji GPU. En als je denkt dat dat niet zo is geef dan maar een betere optie.

Wat iig geen optie is:
GDDR5, reden al gegeven, te hoog verbruik en misschien nog wel duurder ook.
Andere meer efficiënte architectuur met betere compressie, reden ook gegeven, te weinig tijd, zoiets kost jaren.
Geen Fiji GPU uitbrengen, lijkt mij ook geen goede optie.
Jij nog iets anders?
Het gaat me erom of we HBM nodig hebben. Hieruit blijkt duidelijk van niet. wel
Wel idd, zie mijn uitgebreide vorige bericht wat volledig onderbouwd is.
Het is weinig overklokbaar (GDDR5 op de Nvidia kaarten haalt makkelijk een 15% overklok) en dan nog is de winst luttle FPS.
Zo toe maar 15% nog wel.

Afbeeldingslocatie: http://static.tweakers.net/ext/f/i2Vjuz8PSmmOA77DASp2v4yE/medium.png
100% OC en dat is een softwarematige limitatie. Er zijn gewoon heel erg weinig OC resulataten bekend van Fiji doordat de software bij de launch nog geen ondersteuning er voor had. En bijna alle reviews worden geschreven tijdens de launch en bijna niemand doet ze nog eens een aantal maanden of weken later.
Je zegt dat HBM als voordeel een lager verbruik heeft. Dat is zeker mooi, maar heeft Nvidia dan een gigantische voorsprong op de core? Want Nvidia's kaarten zijn allemaal nog GDDR5, en verbruiken minder dan hun AMD counterpart.
Iedereen weet toch dat Maxwell een erg energie efficiënte GPU architectuur is voor gaming? Het is mooi wat jaren andersom geweest en Maxwell is de eerste generatie sinds jaren waarbij nVidia duidelijk een energie efficiëntere architectuur heeft.



Info over GDDR5X:

Room For Innovation On GDDR5: Higher Density, Faster Data Rates Coming With 'GDDR5X'

With the adoption of 4K monitors on the rise, and the release of consumer-grade virtual reality just around the corner, the need for larger amounts of faster memory has never been so high. Graphics cards have been released with ever-increasing frame buffers year over year to accommodate high resolutions. Graphics cards today come equipped with as much as 8 GB, and in some cases even 12 GB of memory. Until now, 4 Gb modules were the highest density available, forcing manufacturers to work with limited frame buffers, or build large PCBs to house all the memory modules.

With today's announcement, Micron has released memory chips with 8 Gb density, effectively doubling the maximum memory capacity of upcoming graphics cards and other products that use GDDR5 memory, such as game consoles.

On the other hand, it is now also possible to reduce the size of board needed, while maintaining the same amount of graphics memory, making it possible to design cards that take up a smaller footprint.

In addition to launching higher density GDDR5 modules, Micron also hinted at what's to come in 2016. Currently, 7 Gbps GDDR5 is what we see on many graphics cards offered today. Micron said that 8 Gbps modules are currently in production, but it sees this as the absolute peak for GDDR5 in its current form. The company said it observed that command address protocoling and array speed were the two limiting factors, while the interface had plenty of additional headroom.

Afbeeldingslocatie: http://media.bestofmicro.com/3/8/523700/gallery/gddr5x_w_600.png

In order to surpass the 8 Gbps barrier of GDDR5, without completely building a new memory technology from the ground up, Micron doubled the pre-fetch of GDDR5 from eight data words for each memory access, to 16 data words per access. Doing this resulted in 10 to 12 Gbps on the first generation, and the company expects to be able to surpass 14 Gbps, and perhaps reach 16 Gbps and beyond as the technology is refined.

Micron will make a formal announcement about this new memory technology some time in 2016, but what we know so far is that the company is calling it "GDDR5X," and it will be significantly faster than current offerings. The company wanted to make adoption as simple as possible, so it retained as much of the GDDR5 commands and protocols as possible. Additionally, Micron is not keeping this as a proprietary option, and has instead approached JEDEC to make GDDR5X a widely available standard.

8 Gb GDDR5 modules are available now for hardware manufacturers. Micron expects availability of products using GDDR5X to start hitting the market in the second half of 2016.

http://www.tomshardware.c...-gddr5-modules,29974.html

[ Voor 25% gewijzigd door -The_Mask- op 14-10-2015 00:27 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Is nvidia niet al jaren meer efficient met geheugen bandbreedte en amd met geheugen gebruik?
Lijkt me meer een verhaal van keuzes dan welke beter is.

Verder NVIDIA heeft een erg energie zunige generatie omdat ze minder focused op gpgpu voor de normale video kaart. Ik weet uit mijn hoofd niet wat de verbruik is van de top end met wel focus op gpgpu. Ik vind de verbruik van AMD zoals verwacht eigenlijk maar ik twijfel nog wel een beetje of AMD er wel wat aan heeft gezien hoe nvidia focused veel van die markt is om verschillende redenen.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-09 07:14

SG

SG surft naar info hardewaren

NV is zuiniger omdat ze extra refreshes aanhouden en minder bits breede bus voor de high end gaan. Maar voor hoog geklokt GDDR5 ram.

AMD gaat voor lager geklokt geheugen maar met grotere bits bredere bus.
Het is dat elk lijntje tussen GPU mem controler en naar mem vermogen kost. Nou is een lijntje niet veel maar dat is wel 512x.
Bij elke refresh wordt de performance wat verhouding beter voor beide firma's.
Maar die extra 128 bit tov 384 blijft extra erbij. Met refresh achter vreet dat extra stroom.
HBM lost dit probleem op. En je krijgt er latency voordeel bij.
GDDR5X lost dat probleem dus niet op.

Er zijn ook nadelen aan. Naast de gpu bin zit je met geheugen chip bin en de interposer .
Dus volume productie zal er niet in zitten. Dus mogelijk blijven de midrange conventioneel.
De nV top gpu is groter dan fury dus heeft van iets meer dan de fury. Dus kwa die space zou iets meer verwachten van nV chip. Kwa testalatie en ROPs biet het meer.
Daar waar de games meer bandbreedte bound zijn doet fury het goed. Niet waar het ROP bound.
Nv gaat ook voor HBM mij lijkt dat HBM voor de next gen gpu die flinke stap krachtiger zijn. HBM goed mee schaald kwa bandbreedte memory grote en daarbij zuiniger is.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

Verwijderd

Racing_Reporter schreef op dinsdag 13 oktober 2015 @ 23:22:
[...]

Is dit layman's taal voor 'ik snap niet hoe GPU's werken'? Je hebt echt geen idee waar je het over hebt.
*weg*Veder was het een bewijze van spreken wat je niet letterlijk op moet nemen. Natuurlijk kun je geen cores bij elkaar opstellen maar je moet weten dat ik het zo niet bedoelde.
Sp3ci3s8472 schreef op woensdag 14 oktober 2015 @ 00:19:
[...]


Nee, met AFR hoeft een GPU maar de helft van het werk te doen; namelijk om het frame. Waarom zou hij meer bandbreedte nodig hebben daarvoor? Dat is gewoon hardstikke onlogisch....

Cores worden niet bij elkaar opgetelt.... elke GPU werkt zelfstandig nadat hij te horen heeft gekregen welke data hij moet renderen. Bij AFR gaat een GPU echt niet de andere GPU aanspreken met als bericht "pssst hey, ik heb mijn frame nog niet af, kan jij nog een stukje renderen?". Ten eerste zou dat te lang duren omdat je via een SLI/Crossfire bridge/PCI-E bus nog dingen moet gaan corresponderen, ten tweede kan het zijn dat de andere GPU niet eens over de correcte data beschikt in zijn geheugen.

Ga je eerst eens inlezen hoe zulke zaken echt werken.
Ik heb het niet eens over meer bandbreedte nodig zijn maar juist meer gpu kracht.
Kortom door meer gpu power krijg je meer fps wat ik dus de hele tijd al bedoel, ik zeg ook niet direct dat je het bij elkaar op kunt telen maar zo kun je het ongeveer zien en ik weet hoe AFR 1 en 2 SFR werken,
dus nee ik hoef me niet in te lezen over iets wat ik al weet omdat meer gpu power toch belangrijker is voor meer fps op hogere resoluties, anders zouden multigpu opstellingen het daar ook niet beter op doen. *weg*

Daarom zie je ook terug dat extra veel bandbreedte zo weinig extra oplevert en meer gpu power wel.
-The_Mask- schreef op woensdag 14 oktober 2015 @ 00:21:


Zoals anderen al zeggen, slaat dit echt helemaal nergens op.
Nee dit bericht slaat nergens op omdat je de feiten ontkend net zoals de rest. AFR EN SFR staan los van het feit dat meer gpu kracht zorgt voor mee performance. Nu word alles omgedraaid ja maar het werkt anders, het werkt ook anders maar dat neemt niet weg dat die extra fps uit extra gpu kracht komt en over dat anders AFR/SFR had ik het niet over daar kwam Punche mee.


Om het hierna kort te houden hier een Multi-gpu FAQ, er staat precies in hoe het werkt en wat ik er mee bedoelde over die extra kracht die je door de extra gpu krijgt.

http://international.down...-GPU-FAQ-Updated-0707.pdf

[ Voor 55% gewijzigd door br00ky op 14-10-2015 09:42 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
tomcatha schreef op woensdag 14 oktober 2015 @ 02:42:

Verder NVIDIA heeft een erg energie zunige generatie omdat ze minder focused op gpgpu voor de normale video kaart. Ik weet uit mijn hoofd niet wat de verbruik is van de top end met wel focus op gpgpu.
Klopt daarom zette ik er ook expliciet als game videokaart bij.
SG schreef op woensdag 14 oktober 2015 @ 07:23:
NV is zuiniger omdat ze extra refreshes aanhouden en minder bits breede bus voor de high end gaan. Maar hoog geklokt GDDR5 ram.

AMD gaat voor lager geklokt geheugen maar met grotere bits bredere bus.
Het is dat elk lijntje tussen GPU mem controler en naar mem vermogen kost. Nou is een lijntje niet veel maar dat is wel 512x.
Er zit idd wel een beetje verlies in de kopersporen, er is immers geen supergeleiding. Maar dit verlies aan stroom valt alleszins mee. Het is echt de geheugenchip zelf die wel wat lust. Daarnaast ook de geheugencontroller in de GPU en het PCB wordt natuurlijk erg complex.
Verwijderd schreef op woensdag 14 oktober 2015 @ 07:57:
[...]


Waar slaat dit op blijkbaar weet je zelf helemaal niets er over anders sprak je het wel tegen met goede feiten zoals tot nu toe nog niemand heeft gedaan, nee je gaat trollen om je eigen nietsnap. 8)7
Het wordt toch ook gewoon uitgelegd met cijfers en feiten?
Nee dit bericht slaat nergens op omdat je de feiten ontkend net zoals de rest. AFR EN SFR staan los van het feit dat meer gpu kracht zorgt voor mee performance. Nu word alles omgedraaid ja maar het werkt anders, het werkt ook anders maar dat neemt niet weg dat die extra fps uit extra gpu kracht komt en over dat anders AFR/SFR had ik het niet over daar kwam Punche mee.


Om het hierna kort te houden hier een Multi-gpu FAQ, er staat precies in hoe het werkt en wat ik er mee bedoelde over die extra kracht die je door de extra gpu krijgt.

http://international.down...-GPU-FAQ-Updated-0707.pdf
Eh nu wijs je naar een FAQ voor meerdere professionele videokaarten, een multi GPU Quadro/Tesla FAQ. Wat heeft dat te maken met geheugenbandbreedte? Je zit er nu wel heel ver naast. Het ene heeft echt helemaal niks nodig met het andere, zijn twee totaal andere gebieden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Verwijderd schreef op woensdag 14 oktober 2015 @ 07:57:
[...]
Om het hierna kort te houden hier een Multi-gpu FAQ, er staat precies in hoe het werkt en wat ik er mee bedoelde over die extra kracht die je door de extra gpu krijgt.

http://international.down...-GPU-FAQ-Updated-0707.pdf
@Spilfffire:
Ben je nou serieus een Multi-gpu FAQ aan posten... *weg*

Een aantal personen lopen al zo'n tiental jaren rond in dit forum en/of hebben redelijk ervaring/kennis opgedaan in de GPU industrie.

Ik vind het nogal denigrerend overkomen zo. :?

[ Voor 1% gewijzigd door br00ky op 14-10-2015 09:43 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Verwijderd

Ik vind dat er nog al denigrerend tegen mij word gedaan door volledige ontkenning en zelfs trollen tegen iemand met genoeg kennis van zaken als dit waar ik totaal word neergezet als onzin verkoper.

Ik vind het gewoon jammer dat mijn post totaal omgedraaid worden in een ander verhaal en kom ook met feiten zoals benchmarks aan zetten. Ik snap het ergens wel wat Tweakers staat nog al bekent om elitair gedrag in somige topics. Ik denk dat dat mee het probleem is in dit geval.

[ Voor 8% gewijzigd door Verwijderd op 14-10-2015 09:23 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op woensdag 14 oktober 2015 @ 09:22:
Ik vind dat er nog al denigrerend tegen mij word gedaan door volledige ontkenning en zelfs trollen tegen iemand met genoeg kennis van zaken als dit waar ik totaal word neergezet als onzin verkoper.
Maar dat is ook precies wat je nu doet. Je komt met extreem vreemde argumenten die er echt helemaal niks mee te maken hebben. Het is alsof iemand zegt, hé de klok loopt achter waar jij op antwoord dat dat komt omdat de fiets een lekke band heeft. Zoiets slaat ook nergens op.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 06:43

br00ky

Moderator Harde Waren
Modbreak:Even de boel ontdaan van persoonlijke aanvallen. De discussie zelf laat ik staan. Ik ga er vanuit dat het vanaf dit rode blok weer over nuttiger zaken gaat. Als je wil discussiëren over de zin en onzin van voorgaande, open dan een apart topic:).

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
nVidia heeft zijn compressie beter op orde.

Afbeeldingslocatie: http://techreport.com/r.x/radeon-r9-fury-x/b3d-bandwidth.gif

Daar valt voor AMD met de nieuwe generatie nog aan te werken, maar zelfs bij een verbetering lijkt me HBM, zeker voor high-end kaarten, onmisbaar. HBM zal denk ik zelfs voor de volgende generatie mid-range kaarten lonen.

Om met GDDR5X en bijbehorende bus een zelfde bandbreedte te verkrijgen doet een dergelijke kaart de das om. Voor high-end is het niet interessant omdat je de performance gewoon niet haalt die. Voor mid-range is het te complex, duur en verbruikt het te veel. Of denkt er iemand dat nVidia bij de volgende generatie voor mid-range kaarten (gebaseerd op de GP104) een 512 bits geheugenbus krijgt?

Ik denk dat de Fury kaarten qua performance in de volgende generatie in de mid-range performance klassen gaan vallen. Een GPU met om en nabij 4096 SPs, op 14/16nm, zal de mid-range gaan invullen. Hiervoor is HBM t.o.v. GDDR5X m.b.t. performance dus vrijwel zeker lonend.

Het verhaal van GDDR5X bij nVidia zie ik dan ook als een slecht teken voor de implementatie van HBM bij nVidia. Slechte yields? Te kort aan capaciteit? Te doer?

Vergeet niet dat het hierbij niet alleen de afweging HBM of GDDR5X is voor nVidia. Er wordt immers gesproken over een hybride oplossing. Dus één chip die met beide overweg kan afhankelijk van de PCB. Ergo je hebt dus ook twee geheugencontrollers aan boord, met alle nadelen en voordelen van dien.

Dit hybride idee lijkt me voor high-end kaarten van de volgende generatie sowieso een no-go.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:26
Terugkomend op DX12: Met de nieuwe drivers van beide AMD en nVidia heeft Computerbase.de een nieuwe benchmark gedraaid (alleen op 1080p dat wel). De 980 Ti gaat nu de Fury X voorbij op 1080p, maar met niet meer dan 1 fps. T.o.v. de vorige driver draait de 980 Ti 11% sneller in DX12. (Tegen 6% beter van de Fury X)
http://www.computerbase.d...hmarks-mit-amd-und-nvidia

Ik ben meer benieuwd naar de prestaties op 1440p en 4K, want je koopt een 980 Ti niet voor 1080p...

Acties:
  • +1 Henk 'm!

Verwijderd

LongBowNL schreef op donderdag 15 oktober 2015 @ 12:41:
Terugkomend op DX12: Met de nieuwe drivers van beide AMD en nVidia heeft Computerbase.de een nieuwe benchmark gedraaid (alleen op 1080p dat wel). De 980 Ti gaat nu de Fury X voorbij op 1080p, maar met niet meer dan 1 fps. T.o.v. de vorige driver draait de 980 Ti 11% sneller in DX12. (Tegen 6% beter van de Fury X)
http://www.computerbase.d...hmarks-mit-amd-und-nvidia

Ik ben meer benieuwd naar de prestaties op 1440p en 4K, want je koopt een 980 Ti niet voor 1080p...
Dikke winst voor Nvidia in Directx 12 waar komt die winst weg, ik zelf vermoed Ace's via drivers geoptimaliseerd waar Oxide en Nvidia het al over hadden omdat te verbeteren? Staat in ieder geval niet ergens als fix in een release note.

Persoonlijk vind ik de TI prima voor 1080p kun je ook wat langer de nieuwere games op hogere instelling spelen.

[ Voor 6% gewijzigd door Verwijderd op 15-10-2015 12:51 ]


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:26
Het is natuurlijk zo dat bij DX12 minder in de drivers te doen valt. Misschien heeft AoS zelf een update gehad om beter te draaien op nVidia.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
madmaxnl schreef op donderdag 15 oktober 2015 @ 12:24:
Om met GDDR5X en bijbehorende bus een zelfde bandbreedte te verkrijgen doet een dergelijke kaart de das om. Voor high-end is het niet interessant omdat je de performance gewoon niet haalt die. Voor mid-range is het te complex, duur en verbruikt het te veel. Of denkt er iemand dat nVidia bij de volgende generatie voor mid-range kaarten (gebaseerd op de GP104) een 512 bits geheugenbus krijgt?
Halverwege 2016 zou de eerste generatie GDDR5X moeten komen, dat is ook ongeveer de verwachting van de nieuwe generatie videokaarten. Dan zouden ze met 10Gbps en 12Gbps moeten komen, op dit moment gebruikt nVidia 7Gbps. Als je dan nog nog wat meer schaaft aan de compressie kun je met 12Gbps een verdubbeling van geheugenbandbreedte krijgen in de praktijk.

Maar al wordt de geheugencompressie niet verbeterd dan nog kun je een kaart vergelijkbaar met een GTX 980 Ti of Titan X een 256 bit geheugenbus met 10Gbps (eigenlijk 10,5Gbps) GDDR5X geven en dan heb je al een vergelijkbare geheugenbandbreedte en dus een gelijk presterende kaart. Maar wel een veel kleinere GPU door het nieuwe productieproces.

Met 12Gbps heb je natuurlijk al een verhoging van dik 70% tegenover 7Gbps, dus er zit nog wel wat rek in GDDR5X. Een 70% snellere GPU dan de huidige GTX 980 Ti en Titan X is natuurlijk voor een nieuwe generatie een beste stap, dat is lang geleden dat de vooruitgang zo groot was volgens mij. Moet je nagaan wat er met HBM2 mogelijk gaat zijn. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Zojuist via de Nvidia Geforce experience software mijn driver bijgewerkt naar v358.50
Nu was ik de afgelopen dagen mij lekker door bioshock aan het worstelen echter nu ineens start het spel niet meer op en krijg ik de melding bioshock.exe stopped working.
Wanneer ik mijn andere intel graphics kaart aanspreek om het spel te spelen werkt het wel (ware het niet op 800x640)

Hebben er meer mensen dergelijke problemen sinds de nieuwe update?
En of misschien zelfs een makkelijke manier om te downgraden of een andere oplossing?

Mijn systeem (laptop) bestaat uit:
I7-4710MQ
8gig ram
geforce gtx860M
Op windows 8.1

Als ik hier beter een los topic voor moet openen hoor ik het ook graag, vond het zelf beter hier passen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Je kan hiervoor beter een los topic openen. Heb je al geprobeert de vorige drivers goed met DDU te verwijderen?
Indien deze drivers niet goed werken kan je beter gewoon naar de versie teruggaan die wel stabiel bij jou liep.

Acties:
  • 0 Henk 'm!

Verwijderd

Nee nog niet met DDU geprobeert, want dan moet ik een vervangende (oude) driver weer installeren om het werkend te krijgen.
En ik kan nergens vinden waar ik de update ongedaan kan maken of waar ik oudere drivers kan vinden, want ook via de nvidia website vind ik alleen de nieuwste (huidige) driver.

Drivers van bijv. sourgeforce downloaden ben ik een beetje huiverig voor geworden.
Dankjewel voor je reactie trouwens


-edit- Via via via een linkje gevonden naar de nvidia site waar ik wel alle voorgaande drivers te zien krijg wanneer ik zoek op mijn grafische kaart.
Na installatie werkt de game weer naar behoren alleen alle bijbehorende nvidia software is over de pis en wil niks meer doen totdat ik update naar een nieuwere driver.
nou zijn die programma's voor mij niet voor levensbelang dus eerst maar eens rustig de oude bioshock uitspelen en daarna weer updaten.

[ Voor 35% gewijzigd door Verwijderd op 15-10-2015 16:08 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Herstelpunt voorziening in Windows kan je gebruiken om terug te gaan naar een vorige driver.

Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op donderdag 15 oktober 2015 @ 16:06:
Herstelpunt voorziening in Windows kan je gebruiken om terug te gaan naar een vorige driver.
Die moest ik nog aanzetten (relatief nieuwe laptop), daar kom je altijd pas achter als je hem de eerste keer nodig hebt. :(

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat staat toch standaard aan ?

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Iemand het nieuws op Guru3D al gelezen?

Het gedrocht dat Geforce Experience heet wordt de preferred manier voor driver releases. Binnenkort kun je dat dus niet meer simpel via de site regelen.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • +1 Henk 'm!

Verwijderd

Jeroenneman schreef op donderdag 15 oktober 2015 @ 16:30:
Iemand het nieuws op Guru3D al gelezen?

Het gedrocht dat Geforce Experience heet wordt de preferred manier voor driver releases. Binnenkort kun je dat dus niet meer simpel via de site regelen.
Bah hopelijk is dit onzin. Nu maak ik wel deftig gebruik van GFE want het werkt hier goed voor streaming en game opnames in 4k, voor de rest doe ik er vrij weinig mee want een hele tijd terug ging het nog fout om via GFE een driver te installeren 8)7

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:43
Zag het ook op techreport, alle "game ready" drivers gaan via gfe.

Gewone releases blijven op de site, zal voor mij dus weinig uitmaken, aangezien ik spellen nooit bij launch al koop.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Jeroenneman schreef op donderdag 15 oktober 2015 @ 16:30:
Iemand het nieuws op Guru3D al gelezen?

Het gedrocht dat Geforce Experience heet wordt de preferred manier voor driver releases. Binnenkort kun je dat dus niet meer simpel via de site regelen.
Ja las het ook, vind het persoonlijk helemaal niks. Maar goed, ik kan het niet veranderen.

En oh ja, dit stuk:
Future "Game Ready" drivers will no longer be made available through GeForce.com and instead will ONLY be delivered through GeForce Experience. You'll also be required to have a validated email address to get the downloads for beta drivers - though NVIDIA admitted to me you would be able to opt-out of the mailing list anytime after signing up.
:N :r
Hoop echt dat de volgende AMD weer een knaller is zodat ik nvidia vaarwel kan zeggen.

[ Voor 37% gewijzigd door Help!!!! op 15-10-2015 19:22 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

Verwijderd

Net nog eens een clean install gedaan via GFE en dat werkte vlekkeloos deze keer. Dit zal ook wel gewoon weer een test zijn die Nvidia niet door gaat zetten gezien de vele negatieve reacties, die ook terecht zijn.

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Verwijderd schreef op vrijdag 16 oktober 2015 @ 11:24:
Net nog eens een clean install gedaan via GFE en dat werkte vlekkeloos deze keer. Dit zal ook wel gewoon weer een test zijn die Nvidia niet door gaat zetten gezien de vele negatieve reacties, die ook terecht zijn.
Maar welke wereldvreemde werknemer verzint dit?

Wie komt er op het idee: "Goh, laten we drivers voortaan achter een programma en achter een email adres verbergen!"

Dan kun je er toch donder op zeggen dat je gezeik krijgt?

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Maar er komen nog elk kwartaal drivers uit op hun website ? Als je ze echt MOET hebben buiten GFE om.
En het wordt zelfs makkelijker om drivers te krijgen nu, misschien in de toekomst zelfs incremental drivers. Ook leuk dat je als non-gamer in de toekomst geen irrelevante updates meer krijgt of moet onderzoeken die geen betrekking hebben op je gebruik.

Veel gedoe voor een voorziening die in mijn ogen juist een goede move van Nvidia is.

[ Voor 9% gewijzigd door Phuncz op 16-10-2015 11:34 ]


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Phuncz schreef op vrijdag 16 oktober 2015 @ 11:32:
Maar er komen nog elk kwartaal drivers uit op hun website ? Als je ze echt MOET hebben buiten GFE om.
En het wordt zelfs makkelijker om drivers te krijgen nu, misschien in de toekomst zelfs incremental drivers. Ook leuk dat je als non-gamer in de toekomst geen irrelevante updates meer krijgt of moet onderzoeken die geen betrekking hebben op je gebruik.

Veel gedoe voor een voorziening die in mijn ogen juist een goede move van Nvidia is.
Wat is hier precies goed aan?

De "domme" users hadden toch al auto-updates via GFE.
De users die zelf willen bepalen wat ze draaien, hebben nu weinig keuze meer.

Game-ready drivers zijn vaak erg prettig bij de release van nieuwe games. Of moet ik dan maar een kwartaal met brakkere drivers spelen, omdat ik GFE niet op mijn PC wil?

En als non-gamer gaan nieuwe drivers toch niks uitmaken.

Imho dus voor iedereen een slechte keuze. Letterlijk 0 voordelen.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • +1 Henk 'm!

Verwijderd

Jeroenneman schreef op vrijdag 16 oktober 2015 @ 11:29:
[...]


Maar welke wereldvreemde werknemer verzint dit?

Wie komt er op het idee: "Goh, laten we drivers voortaan achter een programma en achter een email adres verbergen!"

Dan kun je er toch donder op zeggen dat je gezeik krijgt?
Je email adres heeft zo wat iedere site waar je inlogt dus die grap gaat niet op.

Wat er precies goed aan is Shadwolplay maar daar is het dan ook wel mee gezegd maar lees ook veel dat het voor de noobs goed is maar dat betwijfel ik nog even.

En bij de miljoenen mensen waarbij het wel goed werkt, die gaan echt geen topic's openen omdat het goed werkt, wat wel weer veel gebeurd bij die paar honderd die problemen ondervinden. .

[ Voor 28% gewijzigd door Verwijderd op 16-10-2015 11:54 ]


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Verwijderd schreef op vrijdag 16 oktober 2015 @ 11:39:
[...]


Je email adres heeft zo wat iedere site waar je inlogt dus die grap gaat niet op.

Wat er precies goed aan is Shadwolplay maar daar is het dan ook wel mee gezegd maar lees ook veel dat het voor de noobs goed is maar dat betwijfel ik nog even.

En bij de miljoenen mensen waarbij het wel goed werkt, die gaan echt geen topic's openen omdat het goed werkt, wat wel weer veel gebeurd bij die paar honderd die problemen ondervinden. .
Ik zal het versimpelen:

Wat gaat er mis in de huidige situatie?

Volgens mij niks?

Wat gaat er straks mis:
Bloatware.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • +1 Henk 'm!

Verwijderd

Dat bloatware een probleem is vaak persoonlijk, ik heb het zelf geaccepteerd al heel vroeg toen men met Steam aan kwam zetten, was er absoluut tegen omdat ik bang was mijn spellen kwijt te raken.

[ Voor 13% gewijzigd door Verwijderd op 16-10-2015 12:01 ]


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:26
Nog een mooi verhaaltje over de DX12 capabilities van AMD en nVidia:
http://ext3h.makegames.de/DX12_Compute.html

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Verwijderd schreef op vrijdag 16 oktober 2015 @ 12:00:
Dat bloatware een probleem is vaak persoonlijk, ik heb het zelf geaccepteerd al heel vroeg toen men met Steam aan kwam zetten, was er absoluut tegen omdat ik bang was mijn spellen kwijt te raken.
Huh?

Hoe kan bloatware persoonlijk zijn? Niemand zit er toch op te wachten om weer een extra programma te moeten downloaden?

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • +1 Henk 'm!

Verwijderd

Jeroenneman schreef op vrijdag 16 oktober 2015 @ 13:44:
[...]


Huh?

Hoe kan bloatware persoonlijk zijn? Niemand zit er toch op te wachten om weer een extra programma te moeten downloaden?
Hoe dat kan, vrij simpel de een vind het geen probleem en de ander weer wel, we zijn mensen dus denken en doen verschillend over bepaalde dingen.

Wist je trouwens dat 90% van de nvidia gebruikers de drivers update via GFE. Komt omdat 90% niet snapt hoe het anders moet vermoed ik?
LongBowNL schreef op vrijdag 16 oktober 2015 @ 13:41:
Nog een mooi verhaaltje over de DX12 capabilities van AMD en nVidia:
http://ext3h.makegames.de/DX12_Compute.html
Zo mooi vind ik het niet want ik lees dat er voor en nadelen zijn voor beide partijen waar je niet tegelijk gebruik van kunt maken met huidige videokaarten. DX12 heeft dus nog niet echt voordelen op low level gebied voor huidige hardware want er moet weer specifiek voor bepaalde merken aangepast worden.

[ Voor 33% gewijzigd door Verwijderd op 16-10-2015 13:54 ]


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Verwijderd schreef op vrijdag 16 oktober 2015 @ 13:50:
[...]


Hoe dat kan, vrij simpel de een vind het geen probleem en de ander weer wel, we zijn mensen dus denken en doen verschillend over bepaalde dingen.

Wist je trouwens dat 90% van de nvidia gebruikers de drivers update via GFE. Komt omdat 90% niet snapt hoe het anders moet vermoed ik?
Ik denk dat je het nu meer hebt over de definitie van bloatware.

Ik had inderdaad gelezen dat 90% de drivers update via GFE. Kon bij vrienden ook niet weerstaan om te vragen waarom ze die zut erop hadden staan. "Oh, dat is nu standaard". "Wow, kon je dat uitvinken?".

En dan denkt ik altijd aan een quote:

George Carlin — 'Think of how stupid the average person is, and realize half of them are stupider than that.'

En Nvidia maakt daar mooi gebruik van. :|

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • +1 Henk 'm!

Verwijderd

Ik snap het ook niet dat Nvidia een download link open houd voor die andere 10% van de gebruikers, zo veel extra werk is dat niet lijkt mij?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Er zullen heus andere redenen zijn dan gewoon een andere manier van downloaden aanbieden.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Phuncz schreef op vrijdag 16 oktober 2015 @ 14:21:
Er zullen heus andere redenen zijn dan gewoon een andere manier van downloaden aanbieden.
Zoals GFE door je strot duwen? :+
Maar dit zal vast niet het laatste zijn wat ze zullen doen, indien ze langzaam naar een monopolie gaan dan zal je veel vaker zulke dingen krijgen.

Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 11-09 10:26
denk dat dit voor de gemiddelde gebruiker met geforce kaarten weinig uit zal maken, maar als je zoals sommigen van ons zo nu en dan de ene laptop naar de andere moet herinstalleren (images niet altijd van toepassing) is het toch wel fijn dat je die software kunt omzeilen. Moet ik zeggen dat ik gamingevolved nog veel irritanter vindt, for some reason gaat die ongevraagd videoclips opnemen in 3d applicaties.

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • +1 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op vrijdag 16 oktober 2015 @ 15:47:
[...]


Zoals GFE door je strot duwen? :+
Maar dit zal vast niet het laatste zijn wat ze zullen doen, indien ze langzaam naar een monopolie gaan dan zal je veel vaker zulke dingen krijgen.
Heeft AMD ook zelf zo in de hand gewerkt anders had AMD wel 80% marktaandeel :+

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

aminam schreef op vrijdag 16 oktober 2015 @ 15:51:
denk dat dit voor de gemiddelde gebruiker met geforce kaarten weinig uit zal maken, maar als je zoals sommigen van ons zo nu en dan de ene laptop naar de andere moet herinstalleren (images niet altijd van toepassing) is het toch wel fijn dat je die software kunt omzeilen. Moet ik zeggen dat ik gamingevolved nog veel irritanter vindt, for some reason gaat die ongevraagd videoclips opnemen in 3d applicaties.
Dat Gaming Evolved iritanter is dan GFE dat zou ik niet weten, ik gebruik beide niet. Het verschil in dit geval tussen de twee is dat je GFE nodig hebt indien je de laatste drivers wilt hebben. Je kan ze niet meer downloaden van de Nvidia site, dat vind ik ergelijk.
Zover ik weet heb je geen GE nodig om de nieuwste beta drivers te instaleren.

Het is van Nvidia dus de ideale zet om meer mensen naar GFE te forceren.

Het zou mij overigens niet verbazen als wat slimme mensen de drivers uit GFE weten te rippen en deze op een site zoals guru3d laat hosten. In ieder geval hier hoop ik op :P.
Verwijderd schreef op vrijdag 16 oktober 2015 @ 16:25:
[...]
Heeft AMD ook zelf zo in de hand gewerkt anders had AMD wel 80% marktaandeel :+
Sorry, maar wat voor een loze opmerking is dit? Zover ik weet maakt AMD prima hardware, ze laten alleen veel steken vallen in het marketings gebeid.

[ Voor 13% gewijzigd door Sp3ci3s8472 op 16-10-2015 16:29 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik zou me niet zo blindstaren op de marktaandelen. Zeker niet als je weet dat AMD met GCN, Mantle, 4K enzovoort stevig op de toekomst is gericht. Dat heeft op de korte termijn gewoon veel gekost. Hopelijk werpt dat straks ook zijn vruchten af.

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

madmaxnl schreef op vrijdag 16 oktober 2015 @ 17:38:
Ik zou me niet zo blindstaren op de marktaandelen. Zeker niet als je weet dat AMD met GCN, Mantle, 4K enzovoort stevig op de toekomst is gericht. Dat heeft op de korte termijn gewoon veel gekost. Hopelijk werpt dat straks ook zijn vruchten af.
Zeker weten? Telkens als het zijn vruchten af begon te werpen, was er alweer iets nieuwers te koop. In de verre toekomst blijkt AMD op GPU-vlak heel lang toekomstbestendig, maar tegen die tijd is zelfs dat alweer obsoleet omdat er iets sterkers verkrijgbaar is. Daar kunnen of hebben ze amper op gekapitaliseerd.

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik doelde niet zozeer op de levensduur van AMD videokaarten want die is inderdaad m.b.t. performance beter dan nVidia. Ik doelde op het al hebben van de feature tech en zorgen dat je als eerste daarmee bent. Zie Mantle, waarmee AMD zijn eigen succes met toekomstige standaarden zoals DX12 en Vulkan veilig heeft gesteld. Ze zijn weer eens de geheugen pionier (GDDR4, GDDR5 en nu HBM). Vooral GDDR5 is destijds een succes geweest aangezien nVidia toen nog op GDDR3 zat met dikke geheugenbussen.

Het bericht van nVidia die GDDR5X als alternatief wil gaan gebruiken zegt in mijn ogen al dat iets is met HBM dat hun niet goed lukt. Dus hopelijk zal HBM voor de volgende generatie voor AMD een troef zijn.

Binnen het verhaal, van low level APIs en daarop een voorsprong krijgen op nVidia, passen ook de console design wins met GCN architecturen. Dan is die 80% marktaandeel mooi, maar veel games komen zowel op console als Windows uit. Met DX12 gaat dit zeker zijn voordeel opleveren voor andere GCN videokaarten.

Acties:
  • +2 Henk 'm!

Verwijderd

HMB 2.0 zal wel te duur zijn en vandaar niet op low en mid end kaarten komt. Er gingen geruchten dat Nvidia er ook extra voor zou moeten betalen maar weet zo niet meer aan wie en AMD gebruikt ook al geen HMB op mid end videokaarten tot nu toe.

Sta je niet dood op dx12 en AMD want Nvidia maakt er ook goed gebruik van en heeft veel van de game ontwikkelaars achter zich en dat ook mede omdat Nvidia ook bezig is om bepaalde dingen uit dx 12 aan te sporen naar de ontwikkelaars toe. Het maakt dus niet zo veel uit welk merk je gebruik voor dx 12 games in de toekomst. Bijna alle games op de consoles hebben ok iets van gameworks en cpu physx.

Veder heeft Nvidia al windows drivers voor Vulkan dus die lopen wat dat betreft ook niet achter de feiten aan en dat ook mede omdat niet alles om Ace's draait het is maar een klein deel wat wel belangrijk is maar niet zo belangrijk dat AMD daar door heer en meester word in 2016. Dan mogen ze eerst wel een groot markt aandeel terug pakken want zonder dat gaan ontwikkelaars niet 80% van de pc gamers links laten liggen.


Nog wat leuk leesvoer

[Exclusive] Asynchronous Compute Investigated On Nvidia And AMD in Fable Legends DX12 Benchmark, Not Working on Maxwell

Read more: http://wccftech.com/async...-benchmark/#ixzz3owUgQfNq


http://www.tweaktown.com/...est-new-driver/index.html

Afbeeldingslocatie: http://imagescdn.tweaktown.com/news/4/8/48021_06_nvidia-beats-amd-ashes-singularity-dx12-test-new-driver.jpg

Maar goed ben het er niet mee eens dat Nvidia wint want het gaat niet eens om een volledige fps en op 4k is de TI ook langzamer vermoed ik dus het woord winnen komt hier niet bij kijken voor beide niet.

[ Voor 108% gewijzigd door Verwijderd op 18-10-2015 20:09 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op zondag 18 oktober 2015 @ 19:11:
Sta je niet dood op dx12 en AMD want Nvidia maakt er ook goed gebruik van en heeft veel van de game ontwikkelaars achter zich en dat ook mede omdat Nvidia ook bezig is om bepaalde dingen uit dx 12 aan te sporen naar de ontwikkelaars toe. Het maakt dus niet zo veel uit welk merk je gebruik voor dx 12 games in de toekomst. Bijna alle games op de consoles hebben ok iets van gameworks en cpu physx.
Bijna alle games? Zelfs op de pc hebben niet bijna alle games GameWorks, dit zal op de consoles nog een heel stuk minder (misschien zelfs non-existant) zijn omdat het over het algemeen voor geen meter op AMD hardware draait. Ben benieuwd wat je bron is.

Nog even terugkomend op het Geforce Experience "debakel". Zelf heb ik er geen ervaring mee, maar worden driver updates geforceerd? Indien dit het geval is dan lijkt dat mij een zeer slechte zaak. Nvidia drivers zijn niet meer wat ze zijn geweest als je die van nu met die van 2 jaar geleden vergelijkt. Het aantal mensen dat ik op het forum moet aanraden om een oudere versie te pakken groeit gestaag.
Als GFE drivers forceerd of je niet meer de optie geeft om een oudere driver te pakken dan lijkt mij dat een pijnlijk punt. Wat als je een nieuwe driver installeerd via GFE en je komt erachter dat deze niet stabiel is voor jouw systeem; moet je dan een oudere (niet game-ready) driver gaan instaleren?

Acties:
  • +2 Henk 'm!

Verwijderd

Niet alle gameworks effecten draaien slechter op AMD, bij enkele effecten van gameworks klopt het wel zoals tessellation. Maar er zit in veel games cpu physx en dat is een gameworks onderdeel vandaar :)
Met bijna alle game bedoel ik eigenlijk bijna alle nieuwe games ik had dat wat verkeerd verwoord want in bijna alle games zit niet iets van gameworks.

Ik installeer gewoon de nieuwste drivers vrijwel altijd zonder problemen en al die miljoenen die dat ook doen maken geen topics aan om te laten weten dat een driver wel goed werkt. Dat het fout gaat is maar bij een kleine groep en het zelfde geldt voor AMD. Stel het is wel een groot probleem aan het worden die Nvidia drivers dan geef ik je groot gelijk maar ik vermoed dat Nvidia dit niet door gaat zetten omdat men nu al loopt te klagen terwijl er nog niets aan de hand is.

[ Voor 10% gewijzigd door Verwijderd op 18-10-2015 21:13 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op zondag 18 oktober 2015 @ 21:03:
Niet alle gameworks effecten draaien slechter op AMD, bij enkele effecten van gameworks klopt het wel zoals tessellation. Maar er zit in veel games cpu physx en dat is een gameworks onderdeel vandaar :)
Met bijna alle game bedoel ik eigenlijk bijna alle nieuwe games ik had dat wat verkeerd verwoord want in bijna alle games zit niet iets van gameworks.
Dat zijn dus Physx effecten en heeft niks te maken met DX12 en de visuele GameWorks effecten (even los van de extra physics effecten). Dus Nvidia kan op die manier geen invloed op game developers uitoefenen.
Wat ik probeer te verduidelijken is dat de consoles (haast?) helemaal lostaan van Nvidia + DX12. Daarentegen staat het niet los van AMD + DX12 omdat alle consoles op AMD hardware draaien.
Sta je niet dood op dx12 en AMD want Nvidia maakt er ook goed gebruik van en heeft veel van de game ontwikkelaars achter zich en dat ook mede omdat Nvidia ook bezig is om bepaalde dingen uit dx 12 aan te sporen naar de ontwikkelaars toe.
Hier kan ik me eventueel in vinden, het is logisch dat developers die in het TWIMTBP programma zitten dingen van Nvidia aannemen.
Bijna alle games op de consoles hebben ok iets van gameworks en cpu physx.
Dit stukje is gewoon onlogisch omdat het weinig met elkaar te maken heeft, zie uitleg hierboven.
Ik installeer gewoon de nieuwste drivers vrijwel altijd zonder problemen en al die miljoenen die dat ook doen maken geen topics aan om te laten weten dat een driver wel goed werkt. Dat het fout gaat is maar bij een kleine groep en het zelfde geldt voor AMD.
Bij AMD zie je vooral dat het fout gaat doordat mensen klakkeloos nieuwe drivers over de oude gooien. Daarmee doel ik op de drivers sinds de Omega driver omdat daar duidelijk staat aangegeven op de AMD site dat de oude drivers verwijdert moeten worden. In andere gevallen geven ze de driver de schuld terwijl het systeem geheugen niet stabiel is (dit heb ik maar al te vaak gezien :/).
Twee jaar geleden heb ik weinig gezien dat Nvidia drivers het niet goed deden, dat is nu toch echt wel anders. Dat het bij jou goed gaat is natuurlijk mooi :P, helaas is dat niet bij iedereen het geval. Naast de posts die je ziet op het forum zullen er genoeg mensen zijn die gewoon geen post aanmaken en stilletjes lopen te vloeken op hun pc of hem bij de computerboer/servicebalie langsbrengen :p.

Acties:
  • +1 Henk 'm!

  • brid
  • Registratie: Januari 2001
  • Laatst online: 29-07-2024

brid

Onze excuses voor het ongemak

Wat is het probleem met GFE?
Wil je iedere keer zelf checken of er een driver is?
De meeste mensen denk ik niet.
Ben het er wel mee eens dat er te veel functies inzitten. Driver update en aanbevolen settings prima. Maar de rest kan weg.
Wil je geen GFE dan kun je altijd nog via Windows update, maar dan moet je langer wachten. Net als straks met de handmatige downloaden.

Ik heb hier in ieder geval nog geen game crashes gehad met GFE. Met de amd software gebeurde dat nog weleens

DIY NAS, Hoofd PC
Unchain your pc/laptop, buy a SSD!!!!!


Acties:
  • +2 Henk 'm!

Verwijderd

In het begin van GFE liep bij mij GFE zelf wel eens vast bij het inschakelen van Shadowplay en nog iets wat een bekent probleem was dat je door shadowplay een performance hit kon hebben van 5% zonder op te nemen en ook drivers die niet willen installeren heb ik meegemaakt . Nu werkt Shadoplay wel gewoon goed voor een tijdje maar ja na een update van wat da ook kan het weer fout gaan en dqat hoeft niet gelijk aan Shadowplay te liggen maar kan net zo goed een windows update zijn voor een netframework of wat dan ook.

Driver en software problemen komen en gaan dat is nooit anders geweest.

Nvidia heeft een hele tijd last dat internet programma's voor problemen zorgen als je daar een probleem mee hebt kun je beter hardwarematige acceleratie voor je browser uitschakelen 9 van de 10 keer zal je dan geen (internet) crashes meer hebben.

[ Voor 17% gewijzigd door Verwijderd op 19-10-2015 10:45 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Hardware acceleratie op browsers is zo te horen dus nog redelijk brak, dat ligt denk ik niet aan Nvidia of AMD :p.
brid schreef op zondag 18 oktober 2015 @ 23:12:
Wat is het probleem met GFE?
Wil je iedere keer zelf checken of er een driver is?
De meeste mensen denk ik niet.
Ben het er wel mee eens dat er te veel functies inzitten. Driver update en aanbevolen settings prima. Maar de rest kan weg.
Wil je geen GFE dan kun je altijd nog via Windows update, maar dan moet je langer wachten. Net als straks met de handmatige downloaden.

Ik heb hier in ieder geval nog geen game crashes gehad met GFE. Met de amd software gebeurde dat nog weleens
Het probleem is dat je de game ready drivers alleen via GFE kan verkrijgen en je daarvoor je email moet invullen wat niet iedereen wil. Niet iedereen wil GFE op de achtergrond draaien.

Voor een heleboel mensen zal het dus best oke zijn, maar er is ook een groep die graag wat meer controle over zijn systeem heeft.
Ik kijk over het algemeen zelf voor nieuwe drivers als ik een nieuw spel koop. Ik hoef niet elke maand een nieuwe driver, als mijn videokaart goed presteerd in de spellen die ik speel en alles loopt stabiel dan heb ik geen reden tot klagen. Mijn mening is dat als je in dat geval elke maand een nieuwe driver instaleerd is dat je dan inderdaad de kans hebt dat er een keer een tussenzit met een bug of dat de instalatie niet helemaal goed gaat. Waarom updaten als het voor je huidige situatie niet nodig is?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Probleem blijft dat je niet van tevoren weet waneer een tussentijdse driver voor jou wel van toepassing is.
Op dat moment is er simpelweg geen andere keuze dan GFE.

Zelf heb ik geen behoefte aan GFE omdat
  • ik de functionaliteit niet gebruik
  • ik het opgeven van emailadres belachelijk vind. (ja je kan daar omheen werken met spamadres maar heb helemaal geen zin om daar tijd in te steken. Het is opdringerig to say the least.)
  • je toch elke keer moet kijken of nvidia niet een setting ineens anders heeft neergezet dan jezelf prettig vind
  • zelfs in het separate driverpack gebruik ik alleen de driver & physix. De rest vink ik uit want niet nodig.
  • Het erop lijkt dat je na een update niet terug kunt naar de vorige driver. Alleen naar de ‘quarterly’ driver.

[ Voor 4% gewijzigd door Help!!!! op 19-10-2015 13:55 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-09 07:14

SG

SG surft naar info hardewaren

Sp3ci3s8472 schreef op vrijdag 16 oktober 2015 @ 16:25:
[...]


Dat Gaming Evolved iritanter is dan GFE dat zou ik niet weten, ik gebruik beide niet. Het verschil in dit geval tussen de twee is dat je GFE nodig hebt indien je de laatste drivers wilt hebben. Je kan ze niet meer downloaden van de Nvidia site, dat vind ik ergelijk.
Zover ik weet heb je geen GE nodig om de nieuwste beta drivers te instaleren.

Het is van Nvidia dus de ideale zet om meer mensen naar GFE te forceren.

Het zou mij overigens niet verbazen als wat slimme mensen de drivers uit GFE weten te rippen en deze op een site zoals guru3d laat hosten. In ieder geval hier hoop ik op :P.


[...]

Sorry, maar wat voor een loze opmerking is dit? Zover ik weet maakt AMD prima hardware, ze laten alleen veel steken vallen in het marketings gebeid.
Steken vallen? Net als R&D en Driver team is marketing een kwesti van kapitaal.
INtel heeft kapitaal en markt overwicht om zelfs met crap hardware nog voorop te lopen. Dat is marketing. NV kan met opdringen bij devs zelfs meer doen dan wat met marketing mogelijk is. Cuda effect PhysIcs door PhysX Trekken ze ook volkstammen over met PhysX verrijkte GFX.

AMD heeft de middelen niet om zo agressief te doen. Markt leidende middleware op kopen, leger render gurus rond te sturen naar high profile games.
Bij AMD moet de hardware dat voorlopig zelf doen tenzij hun kas flink aanzwelt maar zakt eerder dieper in rood. Dat niet alleen de CPU tak in diep dal zit maar GPU mee sleurt. Het is dat ze iig voor de toekomst nog wel wat in petto hebben om mogelijk uit het dal te komen. Op CPU gebied. Zen is stap in de goede richting op moderne procédé, we horen wel geruchten over pascal maar weinig wat voor GPU op nieuwe procede uitkomen van AMD.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:26
Crosspost uit het AMD topic: http://www.anandtech.com/...-plus-radeon-mgpu-preview

NVidia en AMD samen (dankzij DirectX 12) in 1 PC. Crossfire en SLI zijn allebei langzamer dan de combinatie van NVidia en AMD. :P

[ Voor 22% gewijzigd door LongBowNL op 26-10-2015 17:25 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ook wel weer logisch, zal de workload wel dusdanig verdeelt worden zodat elke kaart zo goed mogelijk tot zijn recht komt.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

madmaxnl schreef op maandag 26 oktober 2015 @ 18:37:
Ook wel weer logisch, zal de workload wel dusdanig verdeelt worden zodat elke kaart zo goed mogelijk tot zijn recht komt.
Daarom presteren de Nvidia kaarten zo slecht als primaire kaart, ze denken dat ze alles beter kunnen :+ :+.

Acties:
  • +1 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Sp3ci3s8472 schreef op maandag 26 oktober 2015 @ 18:46:
[...]


Daarom presteren de Nvidia kaarten zo slecht als primaire kaart, ze denken dat ze alles beter kunnen :+ :+.
Je ken merken dat je wat tegen nvidia hebt ondertussen :)

Al met al, is met de komst van DX12 voor diegene die multi gpu gaat gebruiken, het beste van beide werelden kan krijgen zolang het spel ook multi gpu zal ondersteunen.

Dit maakt de connectie tussen 2 werelden toch een stukje dichterbijer voor de gamer. Vind het een mooie uitvinding!

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Xtr3me4me schreef op maandag 26 oktober 2015 @ 18:52:
[...]


Je ken merken dat je wat tegen nvidia hebt ondertussen :)

Al met al, is met de komst van DX12 voor diegene die multi gpu gaat gebruiken, het beste van beide werelden kan krijgen zolang het spel ook multi gpu zal ondersteunen.

Dit maakt de connectie tussen 2 werelden toch een stukje dichterbijer voor de gamer. Vind het een mooie uitvinding!
Ik ben inderdaad meer AMD minded, over het algemeen probeer ik mijn posts toch objectief te houden (dit lukt mij niet altijd). Ik ben meer tegen de manier van werken van Nvidia dan dat ik tegen Nvidia ben (geen idee of dit logisch klinkt :P).
Edit:
Om dit wat toe te lichten, als Nvidia zich zou gedragen en in mijn ogen geen hufterstreken zou uithalen dan zou ik in principe gewoon Nvidia kaarten kopen indien die in dat prijssegment beter presten. Voorheen heb ik ook gewoon Nvidia kaarten gehad en keek ik niet verder dan de prijs/performance en oc mogelijkeden die een kaart had.
AMD kaarten hebben op dit moment in veel segmenten de betere prijs/performance en AMD is de underdog, naast het feit dat ik bedrijfsvoering van Nvidia minder leuk vind zal ik dus ook eerder een AMD kaart kopen.
Daarentegen heb ik voor mijn doeleinden op mijn pc een cpu met hoge singlethreaded performance nodig, een AMD cpu in is dat geval gewoon geen optie. Ik staar mij dus niet blind op een merk en koop wat ik nodig heb :P.

Overigens denk ik dat ik in dit geval dezelfde grap had gemaakt als AMD degene was die niet goed presteerde als primaire kaart en madmaxnl die post had gemaakt. Als ik het niet had gedaan dan was iemand anders het. Het is een inkoppertje :P.

Zoals ik al in het AMD topic had gepost zijn de frametimes van Nvidia + Nvidia wel iets netter, daar kan AMD in dit geval nog wat van overnemen.

Het is echt een mooie uitvinding, zometeen kan ik ook mijn IGP van Intel aan het werk zetten. Mensen zullen ook eerder geneigd zijn om een systeem met APU/IGP te kopen indien ze hier gebruik van kunnen maken in DX12.

[ Voor 22% gewijzigd door Sp3ci3s8472 op 26-10-2015 19:11 . Reden: zie edit ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Sp3ci3s8472 schreef op maandag 26 oktober 2015 @ 19:00:
[...]


Ik ben inderdaad meer AMD minded, over het algemeen probeer ik mijn posts toch objectief te houden (dit lukt mij niet altijd). Ik ben meer tegen de manier van werken van Nvidia dan dat ik tegen Nvidia ben (geen idee of dit logisch klinkt :P).
Overigens denk ik dat ik in dit geval dezelfde grap had gemaakt als AMD degene was die niet goed presteerde als primaire kaart en madmaxnl die post had gemaakt. Als ik het niet had gedaan dan was iemand anders het. Het is een inkoppertje :P.

Zoals ik al in het AMD topic had gepost zijn de frametimes van Nvidia + Nvidia wel iets netter, daar kan AMD in dit geval nog wat van overnemen.

Het is echt een mooie uitvinding, zometeen kan ik ook mijn IGP van Intel aan het werk zetten. Mensen zullen ook eerder geneigd zijn om een systeem met APU/IGP te kopen indien ze hier gebruik van kunnen maken in DX12.
Voor mij als consument maakt het me geen bal uit, of het nu nvidia is die goed presteert of amd. Ik wil gewoon het beste kunnen draaien voor me games met hoogste settings en liefst 60fps+

Nu amd een troef heeft met dx12 async en nvidia niet, maakt dx12 het beste van beide wereld om dit te combineren.

Multigpu, alleen ben ik bang dat komende dx12 AAA titels de huidige generatie gpu's niet zal volstaan op 1440p en hoger. Wie weet wat de nieuwe engines hierop in petto hebben en de kracht van de nieuwe generaties gpu's.
En dat te bedenken dat je ze kan combineren is helemaal een plus punt voor de gamer.

Maar aangezien de VR weer in opmars is, zal ik meer tijd daarin steken en dit vereist nog meer gpu kracht. Dus kan straks weer diep in me buidel tasten.
Ik zou heel graag top of the line AAA game willen zien a la witcher 3 met alle pracht en praal in VR en de fantasie wereld bewonderen met 90fps+. Ehhh...dromen mag toch :P

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 04:32
LongBowNL schreef op maandag 26 oktober 2015 @ 16:14:
Crosspost uit het AMD topic: http://www.anandtech.com/...-plus-radeon-mgpu-preview

NVidia en AMD samen (dankzij DirectX 12) in 1 PC. Crossfire en SLI zijn allebei langzamer dan de combinatie van NVidia en AMD. :P
Dus dan heb je in de even frames PhysX en in de oneven frames TrueAdio? :+ :+ :+

In het verleden had je een tijdje die Lucid Logix chips op moederborden voor AMD+Nvidia alleen ik meen me te herinneren dat dat een stuk minder presteerde.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

Verwijderd

Xtr3me4me schreef op maandag 26 oktober 2015 @ 19:09:
[...]

.

Maar aangezien de VR weer in opmars is, zal ik meer tijd daarin steken en dit vereist nog meer gpu kracht. Dus kan straks weer diep in me buidel tasten.
Ik zou heel graag top of the line AAA game willen zien a la witcher 3 met alle pracht en praal in VR en de fantasie wereld bewonderen met 90fps+. Ehhh...dromen mag toch :P
VR is ook iets waar ik op zit te wachten voor games als Alien Isolation, ik denk dat een gtx 680 al voldoende is voor VR tenminste zo werd het aangegeven in het begin en werkte met vr dev kits.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Verwijderd schreef op donderdag 29 oktober 2015 @ 07:43:
[...]


VR is ook iets waar ik op zit te wachten voor games als Alien Isolation, ik denk dat een gtx 680 al voldoende is voor VR tenminste zo werd het aangegeven in het begin en werkte met vr dev kits.
Voor cv1 kan je het wel vergeten met gtx680. De resolutie + 2x de hoeveelheid pixels en ook nog eens 90fps moeten behalen om misselijkheid en out of sync niet worden zal gtx970 of de amd 290x minimaal worden.

Tenzij je graag vr wilt spelen a la doom 1 ofzo. Van alle gasten op oculus forum en de admins daar, raden ook ten strengste aan om echt minimaal in die range te zitten van kaarten.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

Verwijderd

Ach ja is ook zo games zijn ook weer in de tussentijd wat zwaarder geworden. Het wilde wel met een gtx580 maar dat is al weer jaren terug.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:43
Ja, met VR wil je hoge framerate en hoge resolutie. Maar met de bescheiden specs van de consoles zal het met een 290 of 970 wel moeten lukken.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-09 07:14

SG

SG surft naar info hardewaren

sdk1985 schreef op maandag 26 oktober 2015 @ 19:11:
[...]

Dus dan heb je in de even frames PhysX en in de oneven frames TrueAdio? :+ :+ :+

In het verleden had je een tijdje die Lucid Logix chips op moederborden voor AMD+Nvidia alleen ik meen me te herinneren dat dat een stuk minder presteerde.
Klopt en wat we nu weten had het ook geen kans van slagen. Als AMD en nV al voor elke high profile game in hun driver herkent wordt en de driver daar zijn ding voor moet doen. Wat nogal een werkt is. En dus de toko met meeste kapitaal daar ook een grote driverteam voor kan op zetten. Voor dit afvang werk tussen hardware en games.
Dan houd in dat lucid logix dat dan ook moet doen maar dan voor verschillende architecturen.

De unlinked mode beperkt zich tot de meest generieke features dus wat elke hardware architectuur standaard ondersteuned. In tegen stelling tot linked waar je wel de volle feature set beschikbaar hebt en dus veel minder beperkt bent.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

Verwijderd

Videokaart oorlog op ieder prijs punt.
http://www.kotaku.com.au/...amd-at-every-price-point/
Pagina: 1 ... 10 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.