CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 133 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 ... 11 Laatste
Acties:
  • 59.935 views

  • enchion
  • Registratie: Februari 2002
  • Niet online
Kan ik eindelijk m`n onboard GPU gebruiken, ookal zal dat waarschijnlijk alleen microstutter en latency als reultaat hebben.

Multi GPU is wel erg groot nieuws dus eigenlijk, alleen niet iets waar je nu wat aan hebt zoals zovelen nu liever hadden gehad.

[ Voor 34% gewijzigd door enchion op 25-02-2016 13:22 ]

How do you save a random generator ?


Anoniem: 64119

-The_Mask- schreef op donderdag 25 februari 2016 @ 13:18:
Het is 2GHz i.p.v. 8GHz en spanning i.p.v. voltage. ;)

Is maar de vraag of ze meer verbruiken en hoeveel dan, zijn nieuwere chips op een zuiniger en kleiner productieproces dan de geheugenchips die op de 290X zaten. In de formule voor het berekenen van het verbruik zit ook nog een constante en die is bij de moderne chips sowieso lager als bij de oudere.
Van Dale:

Betekenis ' voltage '
Je hebt gezocht op het woord: voltage.
vol·ta·ge (het; o; meervoud: voltages) 1in volts uitgedrukte elektrische spanning


http://www.vandale.nl/opzoeken?pattern=voltage&lang=nn

Wikipedia: Elektrische spanning

Gewoon correct Nederlands dus. Bovendien begrijpt iedereen wat hij bedoelt.

Anoniem: 64119

-The_Mask- schreef op donderdag 25 februari 2016 @ 23:44:
Is geen correct Nederlands, is een Engels woord. Of spreek jij het op zijn Nederlands uit? :p
I know :+

Je kan het op zijn Engels of Nederlands uitspreken, trm0001 spreekt het uit hoe de pet staat.....

Volgens de firma van Dale is het iig ook correct Nederlands, dat zegt genoeg.

Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
Kinders, kinders, rustig maar :P

Ik had ook spanning moeten zeggen, my bad.
haarbal schreef op donderdag 25 februari 2016 @ 13:10:
[...]

Proportioneel met busbreedte en clock, kwadratisch met voltage.

Maar voor de 8GHz uit die slide zal je ook wel een flink voltage nodig hebben.
[afbeelding]
Niet helemaal, bus breedte is een apart beestje. Het heeft wel invloed op het stroom verbruik, maar het is niet proportioneel; maar ook niet kwadratisch. Dat heeft te maken met de 32-bits interface van GDDR5 zelf (zie ook hieronder voor wat leesvoer). De gangbare formule is dan ook (correct me if I'm wrong The_Mask, heb hem niet bij de hand): P=C*V^2*f waarbij V uiteraard de spanning is en f de kloksnelheid. C? Dat is die geheime constante :P
-The_Mask- schreef op donderdag 25 februari 2016 @ 13:18:
Het is 2GHz i.p.v. 8GHz en spanning i.p.v. voltage. ;)

Is maar de vraag of ze meer verbruiken en hoeveel dan, zijn nieuwere chips op een zuiniger en kleiner productieproces dan de geheugenchips die op de 290X zaten. In de formule voor het berekenen van het verbruik zit ook nog een constante en die is bij de moderne chips sowieso lager als bij de oudere.
Ik heb even moeten zoeken, maar ik heb gevonden waar ik naar op zoek was: http://images.nvidia.com/...res-exascale-systems.html

Relevante plaatje (16:12 en beyond in de video):

Afbeeldingslocatie: http://f.cl.ly/items/1R413y2j293E2x393L3C/Image%202016-02-26%20at%2012.04.25%20.png

Kijk maar even over de row/column/IO power heen, het gaat om het hele balkje. Let ook op wat er gebeurt met HBM, column power schiet gigantisch omhoog. Dit is iets waar ze een oplossing voor moeten bedenken (zonder er al te diep op in te gaan, het heeft te maken met die idioot brede interfaces :P).

Dus ja, met die 320+ GB/s die we momenteel uit GDDR5 pompen trekken die chips zonder moeite meer dan 50W onder load. GDDR5 is al best oud en door de manier waarop het werkt doen nieuwe procedé's er niet veel aan. GDDR5 schakelt echt idioot veel en dat kost nu eenmaal. Het is ook wel een verhaal met veel pieken en dalen, want het is ook in staat om vrijwel acuut alles los te laten en niets meer te verbruiken.

Voor diegenen die meer willen weten (de manier waarop het schakelt is echt heel apart), met name Micron en SK Hynix hebben flink wat leesvoer ter beschikking. Maar er zijn sowieso veel papers over GDDR5 geschreven :P

Ook interessant om te lezen als het om verbruik gaat: http://www.cse.psu.edu/~juz138/files/islped209-zhao.pdf - vrij aparte paper om te lezen.

[ Voor 4% gewijzigd door Werelds op 26-02-2016 00:25 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Formule klopt wel.

Stukje van de cpu:

P=Pdyn + Psc + Pleak
Pdyn komt van de logic gates: C*V^2*f
Pleak is de bekende leakage (lekstroom)
Psc is van short-circuit (kortsluiting)

Hierbij is c bij de formule overigens de elektrische capaciteit (capacitance). Wat minder mysterieus dan geopperd :P.

Geinige slide overigens. Aangezien de laatste 5 jaar juist het stroomverbruik van de gpu als geheel flink hebben zien dalen had ik die stijgende lijn niet verwacht. (Niet dat ik me er in heb verdiept). Aan de andere kant geeft die figuur eigenlijk ook aan dat het geheugen vroeger een stuk minder significant onderdeel van het verbruik voor zijn rekening nam.

Overigens kreeg ik bij natuurkunde 1,2 op vwo een jaar of 10 geleden gewoon het woord voltage te horen (spreek uit voltaaguh en niet voltuhge).

[ Voor 52% gewijzigd door sdk1985 op 26-02-2016 01:36 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 59888

offtopic:
De reden dat voltage fout is, is niet zozeer taalkundig maar technisch. Het is vreemd om een fenomeen (spanning) te noemen naar de eenheid waarin het gemeten wordt (volt). Je spreekt tenslotte ook niet over het metrage van een persoon, atletiekwedstrijd of gebouw, maar over lengte, afstand en hoogte (resp.). Dat is maar goed ook, hoe zou je anders moeten weten of het bij iemands centrimetrage gaat over lengte danwel buikomvang? ;)

Ik zou er persoonlijk niet zo'n punt van maken overigens, het is fout maar enorm ingeburgerd en zo'n ramp is dat nou ook weer niet. :)

[ Voor 13% gewijzigd door Anoniem: 59888 op 26-02-2016 02:15 ]


Acties:
  • 0 Henk 'm!

Anoniem: 64119

Met links en rechts een klein stukje marge zit er in die grafiek een bijna perfect lineair verband tussen stroomverbruik en bandbreedte.

Twee keer zoveel bandbreedte = twee keer zo hoog verbruik.

GDDR5 1500 a 80 Watt vs HBM2 eff 1,5 3200 a 160 Watt

Neemt niet weg dat 160 Watt verbruik voor alleen het geheugen extreem veel is.
Maar voor dat extra verbruik krijg je dan ook evenredig veel bandbreedte voor terug.

Pontentiaalverschil = spanning = voltage = delta volt = U = stroomsnelheid = potentieel spanningsverschil etc.
Capt. Ramsey: "Simple matter of voltage". (Gene Hackman - Crimson Tide 1995)

@Wes:
Volt & Voltage zijn twee verschillende woorden met ook een andere invalshoek.
Je kan wel zeggen 10 Volt maar niet 10 Voltage........dit gezien met Voltage "de spanning" word bedoelt.
Wel mogelijk: het Voltage = 10 Volt.

[ Voor 15% gewijzigd door Anoniem: 64119 op 26-02-2016 02:19 ]


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
sdk1985 schreef op vrijdag 26 februari 2016 @ 01:25:
Formule klopt wel.

Stukje van de cpu:

P=Pdyn + Psc + Pleak
Pdyn komt van de logic gates: C*V^2*f
Pleak is de bekende leakage (lekstroom)
Psc is van short-circuit (kortsluiting)

Hierbij is c bij de formule overigens de elektrische capaciteit (capacitance). Wat minder mysterieus dan geopperd :P.
Het geheim ligt er in dat die...geheim is :P

Bij Intel bijvoorbeeld kun je daar in principe een range (de ene CPU is de ander niet; ze werken met een marge) voor opvragen voor een specifieke stepping. Ik zeg in principe, want ze willen wel graag weten waarom :P

Bij de geheugen fabrikanten houden ze die helemaal stil. Volgens mij heeft nog nooit iemand dat kunnen los peuteren.
Geinige slide overigens. Aangezien de laatste 5 jaar juist het stroomverbruik van de gpu als geheel flink hebben zien dalen had ik die stijgende lijn niet verwacht. (Niet dat ik me er in heb verdiept). Aan de andere kant geeft die figuur eigenlijk ook aan dat het geheugen vroeger een stuk minder significant onderdeel van het verbruik voor zijn rekening nam.
De laatste 5? Niet eens Maxwell hoor. Het is alleen maar omhoog gegaan; efficiëntie bij Nvidia is wel gigantisch veel beter geworden, maar het verbruik is niet minder. Let wel, ik heb het dan over het daadwerkelijke verbruik, niet over die afgrijselijke term "TDP" die in veel gevallen gewoon een glasharde leugen is :p

GF100 ging over de 260W heen, GF110 zat er een 30-40W onder. GK110-300 (780, gecastreerd dus) gaat makkelijk over de 220W, GK110-425 (780 Ti, volledige chip) doet gewoon 270W. GM200 doet ook gewoon 235W. Dat ligt allemaal op grofweg dezelfde lijn, de "uitschieter" is Fermi omdat dat gewoon een stuk stront was. "TDP" was telkens "250W".

Een 680 tel ik niet tussen die grote chips. De kleinere chips zijn juist flink gestegen bij Nvidia. GF104 deed zo'n 130W (geweldige chip), GF114 steeg al naar zo'n 170W. GK104 en GM204 gaan ook zonder moeite over de 185W heen. "TDP" bij deze chips varieerde van 160W tot 195W; GM204 heeft een "TDP" van 165W, wat dus gewoon bullshit is.

Bij AMD is het eigenlijk nog erger. Cypress deed zo'n 150-160W onder load (!), met Cayman was dit al eerder tegen de 200W. Tahiti zat rond de 225, met Hawaii en Fiji zit je tegen de 300 aan. Cypress had een "TDP" van 228W (kwam die dus niet eens aan), de rest was allemaal 250W en Fiji zelfs 275W.

Ik kijk hierbij niet naar Furmark cijfers, want daar hebben we niets aan. Nvidia beperkt dat sinds GF110, terwijl AMD dat niet doet. Dan krijg je van die claims dat GM204 maar tot 275W gaat en Fiji 430W trekt, terwijl dat helemaal niet zo is; Nvidia laat hun GPU gewoon niet op volle snelheid werken met Furmark.

Iedereen heeft een veel te rooskleurige blik op "verbruik" dankzij die schijt term "TDP". Ja, TDP's zijn lager of gelijk gebleven, maar het daadwerkelijke verbruik is toch echt een ander verhaal.

Wat je wel kan zeggen is dat Nvidia hun efficiëntie probleem goed heeft opgelost, terwijl AMD duidelijk moeite heeft met meer uit 28nm te pompen. Tegelijkertijd zie je ook waarom ik zo'n fan van Cypress, Tahiti en Maxwell ben. Wat die chips doen met hun grootte en verbruik is gewoon prachtig. Cypress is gewoon mindblowing vergeleken met GF100. Ik blijf er bij dat Cypress en G80 de twee beste chips van de laatste 15 jaar zijn.
Anoniem: 64119 schreef op vrijdag 26 februari 2016 @ 02:14:
Met links en rechts een klein stukje marge zit er in die grafiek een bijna perfect lineair verband tussen stroomverbruik en bandbreedte.

Twee keer zoveel bandbreedte = twee keer zo hoog verbruik.

GDDR5 1500 a 80 Watt vs HBM2 eff 1,5 3200 a 160 Watt
Nee joh, je kijkt verkeerd. De linkerkant van de Y-as is inderdaad verbruik en slaat op de hoogte van de balkjes, maar voor de bandbreedte moet je naar de lijn kijken, niet de balkjes.

GDDR5 40W: +- 200 GB/s (ik "gok" 228 GB/s :P)
GDDR5 65W: +- 300 GB/s (ik "gok" 336 GB/s :P)
GDDR5 75W: +- 365 GB/s (ik "gok" 384 GB/s :P)
HBM 40W: 512 GB/s

[ Voor 0% gewijzigd door Werelds op 26-02-2016 11:04 . Reden: Schoonheidsfoutjes :( ]


Acties:
  • 0 Henk 'm!

Anoniem: 64119

Werelds schreef op vrijdag 26 februari 2016 @ 10:59:
knip/plak quote......

Nee joh, je kijkt verkeerd. De linkerkant van de Y-as is inderdaad verbruik en slaat op de hoogte van de balkjes, maar voor de bandbreedte moet je naar de lijn kijken, niet de balkjes.

GDDR5 40W: +- 200 GB/s (ik "gok" 228 GB/s :P)
GDDR5 65W: +- 300 GB/s (ik "gok" 336 GB/s :P)
GDDR5 75W: +- 365 GB/s (ik "gok" 384 GB/s :P)
HBM 40W: 512 GB/s
OK ik ging er dus vanuit dat de balkjes net als het stroomverbruik ook de bandbreedte weergaven.
(Daarom is trm0001 geen voorstander van 6 waardes in 1 grafiek proppen, dat gaat ten koste van overzicht)

Anyways in dat geval is de HBM hoeveelheid brandbreedte spectaculair veel beter per Watt dan bij GDDR5.
Helaas gaat dat dus blijkbaar sterk ten koste van de totale hoeveelheid Watts.
Bij 160 Watt voor het HBM 2 (1,5 eff) geheugen krijg je dan wel 3,2 TB/s.

Ik vermoed dat weinig GPU fabrikanten bereid zijn om ffe 160 Watt te reserveren voor alleen het geheugen ?

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Ik doelde vooral op de ontwikkeling dat je tegenwoordig met een high-end kaart helemaal niet zo gek veel verbruikt. Niet zo heel lang geleden zat je met een 480 op 257W peak. De 580 werd zelfs 326W. Toen kwam de 680 (Kepler) en daalde het naar 228W. Ik snap wel dat sommigen puur naar het chip type kijken maar voor mij, als consument, is vooral de prijs bepalend. Ding heet 680, is significant sneller (580 zat op 84%, 5970 op 85% vh prestatie niveau) en kost $499. Dan is het voor mij gewoon een high-end kaart. Ook de GTX 980 ($549) piekt met 184W weer een stuk lager. Er is tot heden, wat mij betreft, ook geen reden om aan te nemen dat de volgende generatie x80 kaart weer significant meer gaat gebruiken.

Natuurlijk heb je tegenwoordig een categorie boven high-end (sinds de Titan). Echter het marktaandeel daarvan is zo klein dat het wat mij betreft geen nut heeft om daar trends op te baseren.

Koop je nu een Nvidia kaart van pak hem beet 500 euro dan is een 350W voeding voldoende. Dat had ik de jaren voor 2012 niet durven beweren. Is overigens ook niet zo vreemd, het was letterlijk de design doelstelling van Nvidia met Kepler.

Bij AMD is dat nog niet zo, alleen ga er eigenlijk vanuit dat nano het resultaat is van een bewuste focus op het verlagen van het vermogen. Daarom vermoed ik dat we dat ook wel gaan terug zien in de hele line-up van Polaris. Maar goed dat is pure speculatie :P. Kleinere nm zou in ieder geval moeten helpen.

[ Voor 40% gewijzigd door sdk1985 op 26-02-2016 13:11 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
sdk1985 schreef op vrijdag 26 februari 2016 @ 12:53:
Ik doelde vooral op de ontwikkeling dat je tegenwoordig met een high-end kaart helemaal niet zo gek veel verbruikt. Niet zo heel lang geleden zat je met een 480 op 257W peak. De 580 werd zelfs 326W. Toen kwam de 680 (Kepler) en daalde het naar 228W. Ik snap wel dat sommigen puur naar het chip type kijken maar voor mij, als consument, is vooral de prijs bepalend. Ding heet 680, is significant sneller (580 zat op 84%, 5970 op 85% vh prestatie niveau) en kost $499. Dan is het voor mij gewoon een high-end kaart. Ook de GTX 980 ($549) piekt met 184W weer een stuk lager. Er is tot heden, wat mij betreft, ook geen reden om aan te nemen dat de volgende generatie x80 kaart weer significant meer gaat gebruiken.

Natuurlijk heb je tegenwoordig een categorie boven high-end (sinds de Titan). Echter het marktaandeel daarvan is zo klein dat het wat mij betreft geen nut heeft om daar trends op te baseren.

Bij AMD eigenlijk precies hetzelfde verhaal alleen heeft het tot de nano geduurd voor die daling kwam. Ik ga er eigenlijk vanuit dat nano het resultaat is van een bewuste focus op het verlagen van het vermogen en we dat ook wel gaan terug zien in Polar. Maar goed dat is pure speculatie :P.
Die categorie "boven" high-end is kunstmatig; jij slaat op deze manier een hele categorie over. GT200 -> GF100, GF100 -> GK110, GK110 -> GM200 zijn allemaal sprongen van minimaal 50%. Die sprong die jij meetelt van GF100 naar GK104 is een sprong van amper 20%.

De categorie die jij mist is de marketing misleiding van Nvidia met hun Titan kaarten tegenover de 780 (Ti) en 980 Ti. Dat zijn gewoon volledige GK110/GM200 chips en dat is de daadwerkelijke highend - dat ze daarnaast diezelfde chips met hogere DP rate verkopen voor 50% meer is een ander verhaal, dat is die categorie "boven" high-end. Dat Nvidia geen GK100 kon produceren en dus GK104 in dat segment verkocht is leuk en aardig, maar als puntje bij paaltje komt is Tahiti vele malen beter. Die kan nu ook nog vrij probleemloos mee, terwijl GK104 al op z'n bek ging met een beetje compute van TressFX, laat staan dat die iets met DX12 kan gaan doen ;)

Bij AMD zijn de sprongen wat minder de laatste 2 generaties, maar nog steeds 35-40%, geen magere refresh-like 20% ;)

Acties:
  • 0 Henk 'm!

Anoniem: 64119

sdk1985 schreef op vrijdag 26 februari 2016 @ 12:53:
knip/

Koop je nu een Nvidia kaart van pak hem beet 500 euro dan is een 350W voeding voldoende. Dat had ik de jaren voor 2012 niet durven beweren. Is overigens ook niet zo vreemd, het was letterlijk de design doelstelling van Nvidia met Kepler.

Plak.
Dat klopt voor zover ik weet niet. Kaarten die voldoende hebben aan een 350 Watt voeding mogen dan voor alleen de videokaart niet meer verbruiken dan 150 Watt. Dan blijft er slechts 150 Watt over voor de rest vd PC.
(50 Watt marge / inefficiency PSU)

Zo zuinig zijn die High-end Nvidia kaarten nu ook weer niet.......

Financieel AMD GPU nieuws:

http://www.thecountrycall...of-singularity-benchmark/
http://www.senecaglobe.co...logies-nasdaqmlnx/315328/

Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 00:17
sdk1985 schreef op vrijdag 26 februari 2016 @ 12:53:
Koop je nu een Nvidia kaart van pak hem beet 500 euro dan is een 350W voeding voldoende. Dat had ik de jaren voor 2012 niet durven beweren. Is overigens ook niet zo vreemd, het was letterlijk de design doelstelling van Nvidia met Kepler.
Veel plezier met je 350 watt voeding...

Afbeeldingslocatie: http://hardocp.com/images/articles/14192008366QHJaRnDQg_9_1.gif

TPU zit lager, maar dan nog zou ik geen 350W voeding nemen..

[ Voor 5% gewijzigd door Zeara op 26-02-2016 13:37 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Ik baseer me altijd op Techpowerup: https://www.techpowerup.c...SI/GTX_980_Gaming/23.html

Peak 184W voor de normale, 205W voor een GT X980 OC editie. Nog iets pessimistischer dus. Echter dan heb je nog voldoende over om een i5 te voeden. Zelfs de (onverstandige :P) combinatie van een overgeclockte i5 K met een overgelockte GTX 980 zal nog wel gaan. Een 4670K op 4.6 GHz pakt namelijk 162W.

Vergeet niet dat we het hier over piek vermogens hebben onder maximale belasting. De average belasting ligt een stuk lager en ook die cpu zal niet het vermogen afnemen wat je tijdens een burn meet.

Verder zit er altijd marge in de voedingen. Mijn Corsair HX750W voeding doet 912W met +5 graden. Dat is een logisch gevolg van de 80Plus certificering. Ter indicaitie, ik heb zelf een kaart die volgens techpowerup 146W peak doet met een i5 2500K op 4.4 GHz en ik haal de 350W niet (uit het stopcontact).

Tot zover de onderbouwing van mijn statement dat het kan.

Dat gezegd hebbende raad ik het niet aan. Ik ben juist juist voorstander van een ruime voeding. Bijvoorbeeld het gemiddeld vermogen x2. Voordelen van een ruime voeding zijn het maximale rendement dat je behaalt tijdens load (idle boeit niet omdat zelfs een 10% verschil op 50W maar 5W bedraagt, en zo groot zijn die verschillen niet. Immers ook op een 350W voeding is 50W slechts 14% load.) Verder resulteert de ruime voeding in een lagere temperatuur van je PSU. Dit is weer positief voor de geluidsproductie (idle in de meeste scenario's) en de levensduur.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:35
sdk1985 schreef op vrijdag 26 februari 2016 @ 14:02:
Zelfs de (onverstandige :P) combinatie van een overgeclockte i5 K met een overgelockte GTX 980 zal nog wel gaan. Een 4670K op 4.6 GHz pakt namelijk 162W.
Dat is het verbruik onder load, met een idle gtx680 inclusief psu verliezen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 64119

@sdk1985:

Dat is wel een beetje een alles of niets show op die manier, of te weinig vermogen of het dubbele.... :F
Zelf probeer ik netjes rekening te houden met de opgegeven vermogens van voedingen/cpu's/gpu's en nog wat marge, zodoende zit je altijd safe en betaal niet te veel voor een te zware & dure voeding.

Verder leuk dat een specifieke voeding ondergespecificeerd is maar dat is meer uitzondering dan regel.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 64119 schreef op vrijdag 26 februari 2016 @ 13:20:
[...]

Dat klopt voor zover ik weet niet. Kaarten die voldoende hebben aan een 350 Watt voeding mogen dan voor alleen de videokaart niet meer verbruiken dan 150 Watt. Dan blijft er slechts 150 Watt over voor de rest vd PC.
(50 Watt marge / inefficiency PSU)
Die 50 Watt die je 'reserveert' voor inefficientie, zit aan de andere kant van de PSU. Die heeft dus niets te maken met wat de componenten uit de voeding kunnen trekken. Een (kwaliteits) voeding die 350 Watt kan leveren op de 12V lijn, kan daadwerkelijk (continu) 350 Watt over de 12V lijn leveren.

Verder kun je prima een videokaart op zo'n PSU plaatsen die meer dan 200 Watt nidig heeft, zolang dat maar gecompenseerd wordt met componenten die niet zo veel nodig hebben (zuinige CPU/Chipset, niet te veel harde schijven etc).

Acties:
  • 0 Henk 'm!

Anoniem: 64119

dahakon schreef op vrijdag 26 februari 2016 @ 14:15:
[...]


Die 50 Watt die je 'reserveert' voor inefficientie, zit aan de andere kant van de PSU. Die heeft dus niets te maken met wat de componenten uit de voeding kunnen trekken. Een (kwaliteits) voeding die 350 Watt kan leveren op de 12V lijn, kan daadwerkelijk (continu) 350 Watt over de 12V lijn leveren.

Verder kun je prima een videokaart op zo'n PSU plaatsen die meer dan 200 Watt nidig heeft, zolang dat maar gecompenseerd wordt met componenten die niet zo veel nodig hebben (zuinige CPU/Chipset, niet te veel harde schijven etc).
Nee er staat letterlijk dat ik 50 Watt reserveer voor marge & inefficiency.
Niet iedere voeding is een kwaliteitsvoeding* waardoor ik met het bovenstaande nog nooit de plank heb misgeslagen. Ik ben alles behalve ervan overtuigd om daar vanaf te stappen...... ;)

* dat is helaas een studie op zich.......

Vergeet overigens stroomzuipend USB 3.0 niet.
Sluit je daar veel mee aan dan heb je al snel een extra voeding nodig...... :+

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Mijn punt is dat je blij mag zijn dat efficientie dus niet van toepassing is. Een goede voeding met een basis 80 plus certificaat certificaat zit misschien net op 80% efficientie op volle belasting. Bij 350 Watt betekent dat dat je dus al 70 Watt nodig hebt.

Had je het alleen over marge gehad, zou je een punt hebben, voor als je eventueel dingen bij wil prikken op later tijdstip.

De meeste USB apparaten zullen nog altijd vooral op 5V werken en daarmee de 5V lijn belasten, waarmee je weinig/geen invloed uitoefent op de 12V lijn. Voor de rest geldt mijn 'etc' ook voor het volhangen van je PC met USB apparaten

Verder is een goede voeding vinden zo lastig niet. Zoek gewoon goede reviews op om te zien of een voeding kan leveren wat het belooft en binnen de (ATX) specificaties blijft.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Anoniem: 64119 schreef op vrijdag 26 februari 2016 @ 14:15:
@sdk1985:

Dat is wel een beetje een alles of niets show op die manier, of te weinig vermogen of het dubbele.... :F
Zelf probeer ik netjes rekening te houden met de opgegeven vermogens van voedingen/cpu's/gpu's en nog wat marge, zodoende zit je altijd safe en betaal niet te veel voor een te zware & dure voeding.

Verder leuk dat een specifieke voeding ondergespecificeerd is maar dat is meer uitzondering dan regel.
Te weinig vermogen was puur een hypothetical. Ik vindt het zelf redelijk onzinnig als je een gpu van 500 euro zou kopen en daar een voeding van 35 euro aan koppelt. Maar het kan wel :P. Durf het best te doen met mijn Be Quiet 350W of mijn Seasonic G-series 360.

Een krappe voeding noem ik zelf 90% piek belasting. Dus voor het eerder genoemde systeem zou een educated guess (208+162)/0,9=411W. Dus dan zou het een 450W worden als minimum.

Aanschafprijs verschil tussen een 450W en 650W voeding (krap vs ruim) is pak hem beet 30 euro. Als je veel gamed verdien je de ruime voeding relatief snel terug. Een voeding gaat bij mij minimaal 5 jaar mee (zit soms ook 5 jaar garantie op). Met een euro of 8 per jaar voor een doorsnee systeem zit je dan op 40 euro in 5 jaar.

Ik heb daar ooit samen met tweaker Douwe Egbertje een scriptje voor gemaakt op basis van de 80 plus specificatie (zie tabel): Is een efficiënte voeding de investering waard? – Stroomkosten Tool. Je kunt hier je eigen gegevens invullen en dan wordt er een schatting gedaan wat je stroomkosten zijn bij een Bronze, Silver, Gold en Platinum voeding. Bovendien wordt 90% vs 50% belasting afgezet.

Dit geeft overigens ook meteen aan hoe snel een gamer een platinum voeding terug verdient. Bij 40 uur per week en 350W load loopt het verschil tov bronze op tot 21 euro per jaar. Dat is in 5 jaar 105 euro. Die meerprijs heb je in dat geval ruim terug verdient. Wel een klein probleempje. De gamers die 40 uur gamen zijn vaak student en die betalen de stroomkosten toch niet zelf :P.

[ Voor 19% gewijzigd door sdk1985 op 26-02-2016 15:44 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

Ach wanneer mensen een 350 Watt verstokende videokaart willen installeren in een systeem met een voeding van 350 Watt dan moeten ze dat vooral doen.

Er zijn dan ook nog mensen die gaan uitleggen dat dit best wel kan "al is het misschien niet het beste idee ter wereld". Wat je daarvan krijgt is brand in woningen van mensen die niet goed / helemaal niet kunnen overzien dat ze met vuur spelen.......

Aan alle kanten een buitengewoon slecht idee dus.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Anoniem: 64119 schreef op vrijdag 26 februari 2016 @ 15:31:
Ach wanneer mensen een 350 Watt verstokende videokaart willen installeren in een systeem met een voeding van 350 Watt dan moeten ze dat vooral doen.

Er zijn dan ook nog mensen die gaan uitleggen dat dit best wel kan "al is het misschien niet het beste idee ter wereld". Wat je daarvan krijgt is brand in woningen van mensen die niet goed / helemaal niet kunnen overzien dat ze met vuur spelen.......

Aan alle kanten een buitengewoon slecht idee dus.
Het ging over een GTX 980 waarvan de reference versie niet verder komt dan 184W. Dat was nu juist het hele punt, de 500 euro kaarten zijn significant zuiniger geworden (bij Nvidia).

Verder ga je echt geen brand van je voeding krijgen door te veel vermogen te vragen. Heb je überhaupt ooit weleens teveel vermogen van je voeding getrokken? Heb je weleens een voeding met een defecte fan gebruikt? Heb je over het punt heenlezen dat door de 80plus specificatie je voeding snel 20% meer aan kan (alleen met lagere efficiëntie)?

Je bent onzin aan het spouwen ;).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

sdk1985 schreef op vrijdag 26 februari 2016 @ 15:40:
[...]
knip/plak quote:
Je bent onzin aan het spouwen ;).
Dank je voor je waarde oordeel. Echt iets waar ik op zit te wachten.
Kom je er niet uit dan maak je het lekker persoonlijk, waarom ook niet. :X

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Anoniem: 64119 schreef op vrijdag 26 februari 2016 @ 15:44:
[...]

Dank je voor je waarde oordeel. Echt iets waar ik op zit te wachten.
Kom je er niet uit dan maak je het lekker persoonlijk, waarom ook niet. :X
Tja als je met hyperbolen aankomt om een punt te maken dan kun je daar weleens op aangesproken worden. Als je dat niet prettig vindt dan moet je geen hyperbolen gebruiken.

Los daarvan: Ieder die hier gaat beweren dat je van overbelaste pc voedingen brand krijgt had die reactie gekregen dus voel je vooral niet persoonlijk aangesproken :).

Ik heb ooit weleens mysterieuze pc uitval gehad. Na 2 uur Call of Duty4 Modern warfare 4 viel mijn pc uit. Heel vreemd. Toen dat 3x gebeurde ben ik toch eens op onderzoek uitgegaan. Ik voelde aan de kast en die was warm aan de achterkant. Toen was meteen duidelijk wat het probleem was, er zat een voedingskabel tussen de psu fan die daardoor niet kon draaien. Lang leve de oververhittingsbeveiliging ;).

[ Voor 48% gewijzigd door sdk1985 op 26-02-2016 15:52 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

sdk1985 schreef op vrijdag 26 februari 2016 @ 15:47:
[...]

Tja als je met hyperbolen aankomt om een punt te maken dan kun je daar weleens op aangesproken worden. Als je dat niet prettig vindt dan moet je geen hyperbolen gebruiken.

Los daarvan: Ieder die hier gaat beweren dat je van overbelaste pc voedingen brand krijgt had die reactie gekregen dus voel je vooral niet persoonlijk aangesproken :).
Goed punt:

Omdat ik overdrijf (wat ik dus niet doe) verdien ik het volgens jou om persoonlijk aangevallen te worden.
(het een heeft overigens niets met het ander te maken, het blijft gewoon jouw keuze)
En vervolgens ga je dat nog goedpraten ook.

Nogmaals dank. :N

EDIT: zoals je merkt blijven verder inhoudelijke berichten uit. Dat is mijn keuze om verdere persoonlijke aanvallen van jou te voorkomen. Hoe terecht die ook mogen zijn naar jouw mening.

[ Voor 11% gewijzigd door Anoniem: 64119 op 26-02-2016 15:55 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Anoniem: 64119 schreef op vrijdag 26 februari 2016 @ 15:53:
[...]

Goed punt:

Omdat ik overdrijf (wat ik dus niet doe) verdien ik het volgens jou om persoonlijk aangevallen te worden.
(het een heeft overigens niets met het ander te maken, het blijft gewoon jouw keuze)
En vervolgens ga je dat nog goedpraten ook.

Nogmaals dank. :N
Je doet het opnieuw.

Je maakt van aanspreken aanvallen (net als dat je van 180W, 350W maakt). Vervolgens ga je op basis daarvan weer beledigd doen over mijn keuze om dat te doen.
EDIT: zoals je merkt blijven verder inhoudelijke berichten uit. Dat is mijn keuze om verdere persoonlijke aanvallen van jou te voorkomen. Hoe terecht die ook mogen zijn naar jouw mening.
Heel verstandig want argumenteren dat voedingen brandgevaarlijk zijn staat toch echt haaks op de realiteit. Dat idee kun je beter snel laten varen. Everything You Need to Know About Power Supply Protections

[ Voor 32% gewijzigd door sdk1985 op 26-02-2016 16:04 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

sdk1985 schreef op vrijdag 26 februari 2016 @ 15:58:
[...]

Je doet het opnieuw.

Je maakt van aanspreken aanvallen (net als dat je van 180W, 350W maakt). Vervolgens ga je op basis daarvan weer beledigd doen over mijn keuze om dat te doen.
Je hebt gelijk, ik verdien het dubbel en dwars om met persoonlijke aanvallen te worden "aangesproken".

De echte vraag is of andere lezers wel zitten te wachten op persoonlijke aanvallen aansprekingen ? :N

Modbreak:Pot - ketel. Er zit echt niemand te wachten op posts als dit :o

Post on-topic, vriendelijk en behulpzaam, of post niet. Dat Henkje of Pietje naar aan het posten was is geen excuus om dat zelf ook te doen. Dat is meer iets voor de kleuterschool... Als iemand ander fout post, negeren. Of topireport aanmaken. En als je opvallend vaak doelwit lijkt te zijn van dergelijke posts, sla hand in eigen boezem en vraag je af hoe je zelf anders had kunnen posten.

[ Voor 30% gewijzigd door dion_b op 29-02-2016 10:31 ]


Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Tja als ik aantoonbaar onzin uitkraam dan hoop ik eigenlijk wel dat ik daar op aangesproken wordt. Juist voor de meelezers. De komende jaren staat dit op internet. Stel je voor dat meelezers onterecht bang worden van hun voeding... Wie weet heeft Haarbal de brandblusser zo juist klaargezet ;).

Maar goed, “Sarcasm is the lowest form of wit.” Het niveau daalt en het wordt tijd voor een modbreak. ;). Ik hoop niet dat je er wakker van ligt als iemand aangeeft dat je onzin aan het spouwen bent. Dat lijkt me te veel eer voor een offtopic discussie op GoT. Zeker ook niet de intentie.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 24-05 17:33

Racing_Reporter

Contentmaker

Je kan ook het gewoon lekker uitvechten per DM en niet hier? ;)
Werelds schreef op vrijdag 26 februari 2016 @ 00:23:
Kinders, kinders, rustig maar :P

Ik had ook spanning moeten zeggen, my bad.


[...]

Niet helemaal, bus breedte is een apart beestje. Het heeft wel invloed op het stroom verbruik, maar het is niet proportioneel; maar ook niet kwadratisch. Dat heeft te maken met de 32-bits interface van GDDR5 zelf (zie ook hieronder voor wat leesvoer). De gangbare formule is dan ook (correct me if I'm wrong The_Mask, heb hem niet bij de hand): P=C*V^2*f waarbij V uiteraard de spanning is en f de kloksnelheid. C? Dat is die geheime constante :P


[...]


Ik heb even moeten zoeken, maar ik heb gevonden waar ik naar op zoek was: http://images.nvidia.com/...res-exascale-systems.html

Relevante plaatje (16:12 en beyond in de video):

[afbeelding]

Kijk maar even over de row/column/IO power heen, het gaat om het hele balkje. Let ook op wat er gebeurt met HBM, column power schiet gigantisch omhoog. Dit is iets waar ze een oplossing voor moeten bedenken (zonder er al te diep op in te gaan, het heeft te maken met die idioot brede interfaces :P).

Dus ja, met die 320+ GB/s die we momenteel uit GDDR5 pompen trekken die chips zonder moeite meer dan 50W onder load. GDDR5 is al best oud en door de manier waarop het werkt doen nieuwe procedé's er niet veel aan. GDDR5 schakelt echt idioot veel en dat kost nu eenmaal. Het is ook wel een verhaal met veel pieken en dalen, want het is ook in staat om vrijwel acuut alles los te laten en niets meer te verbruiken.

Voor diegenen die meer willen weten (de manier waarop het schakelt is echt heel apart), met name Micron en SK Hynix hebben flink wat leesvoer ter beschikking. Maar er zijn sowieso veel papers over GDDR5 geschreven :P

Ook interessant om te lezen als het om verbruik gaat: http://www.cse.psu.edu/~juz138/files/islped209-zhao.pdf - vrij aparte paper om te lezen.
Erg interessante post om te lezen! Ik vraag me af hoe GDDR5X zich verhoudt in dit lijstje, ik heb het idee dat de grafiek daardoor flink anders kan uitvallen? Uit m'n hoofd was GDDR5X een toename van iets van 80 procent van de bandbreedte, binnen dezelfde power envelop.

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Hele voedingen verhaal, alhoewel best interessant, is mij ook teveel OT. Kan altijd hier:

Voeding advies en informatie topic - Deel 32

Dan hoeft The_Mask zich ook niet te vervelen... 8)

[ Voor 41% gewijzigd door Help!!!! op 26-02-2016 17:55 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
[b]Racing_Reporter schreef op vrijdag 26 februari 2016 @ 17:31
Erg interessante post om te lezen! Ik vraag me af hoe GDDR5X zich verhoudt in dit lijstje, ik heb het idee dat de grafiek daardoor flink anders kan uitvallen? Uit m'n hoofd was GDDR5X een toename van iets van 80 procent van de bandbreedte, binnen dezelfde power envelop.
Ik denk dat Micron dat heel graag had gezien. De laatste mededeling van de marketing machine was 'een lager verbruik per bitpersecond. Ofwel, het verbruik gaat per snelheid naar beneden, maar doordat de snelheid omhoog gaat, zou het verbruik ook nog wel eens omhoog kunnen gaan.

Het bestaansrecht van gDDR5x is niet zozeer het verbruik van 7/8gbps gDDR5, maar het probleem dat het normale gDDR5 niet echt verder gepushed kan worden dan de huidige 8gbps (2000MHz).

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
Racing_Reporter schreef op vrijdag 26 februari 2016 @ 17:31:
Erg interessante post om te lezen! Ik vraag me af hoe GDDR5X zich verhoudt in dit lijstje, ik heb het idee dat de grafiek daardoor flink anders kan uitvallen? Uit m'n hoofd was GDDR5X een toename van iets van 80 procent van de bandbreedte, binnen dezelfde power envelop.
dahakon schreef op vrijdag 26 februari 2016 @ 19:16:
Ik denk dat Micron dat heel graag had gezien. De laatste mededeling van de marketing machine was 'een lager verbruik per bitpersecond. Ofwel, het verbruik gaat per snelheid naar beneden, maar doordat de snelheid omhoog gaat, zou het verbruik ook nog wel eens omhoog kunnen gaan.

Het bestaansrecht van gDDR5x is niet zozeer het verbruik van 7/8gbps gDDR5, maar het probleem dat het normale gDDR5 niet echt verder gepushed kan worden dan de huidige 8gbps (2000MHz).
Dat is wel wat Micron claimed. Prefetch van 8n naar 16n (dus 2 keer zo veel data per data tik) en van 1.5V naar 1.35V. Met die twee dingen claimen ze dat ze letterlijk het dubbele aan data door de chips kunnen rammen met min of meer hetzelfde verbruik.

We zullen het wel zien, er komen binnenkort vast wel wat meer papers over met o.a. GTC om de hoek. De praktijk laat nog wel een driekwart jaar op zich wachten gok ik :P

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Heel veel 'normaal' gDDR5 draait tegenwoordig ook op 1.35V, dus daar is niet bepaald winst te halen. Bovendien is de spanning slechts 1 onderdeel die het werkelijke verbruik bepaald. Maar inderdaad, over ruim een half jaar zouden we meer moeten weten.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Een interessante benchmark van een alpha build van de nieuwe Doom (volledig OpenGL, non-Vulkan) op Linustechtips' forum.

https://linustechtips.com...n-nvidia-geforce-for-now/

Ben benieuwd of drivers daar nog grote verschillen gaan brengen.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

dahakon schreef op maandag 29 februari 2016 @ 06:16:
Een interessante benchmark van een alpha build van de nieuwe Doom (volledig OpenGL, non-Vulkan) op Linustechtips' forum.

https://linustechtips.com...n-nvidia-geforce-for-now/

Ben benieuwd of drivers daar nog grote verschillen gaan brengen.
Waar deze nogal forse voorsprong van AMD op Nvidia ineens vandaan komt is mij niet helemaal duidelijk:

Afbeeldingslocatie: http://static.tweakers.net/ext/f/9I1ou8heCxSQMAZ2GQ4lz8KV/full.jpg

Afbeeldingslocatie: http://static.tweakers.net/ext/f/7p2lfnXL7Vp3huEUKuScVpS3/full.jpg

Afbeeldingslocatie: http://static.tweakers.net/ext/f/eksWOxcyWPbQxweNEY1MB6Fr/full.jpg

In een heel grijs verleden was AMD met OpenGL vaak sneller dan Nvidia maar of dat hier een rol speelt ?

Verder is de cpu belasting ook netjes, nergens 100% voor een fractie vd Intel variant kosten _/-\o_

Afbeeldingslocatie: http://static.tweakers.net/ext/f/LzPzcNFRHgg12JdHfFGSdLZG/full.jpg

Afbeeldingslocatie: http://static.tweakers.net/ext/f/tcN162CBMZv4Eb0B90AU2nY5/full.jpg

Bron (russisch oid):
http://gamegpu.com/action.../doom-alpha-test-gpu.html

(sidenote: dubbelposten ? Liever niet.......)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Propere multicore ondersteuning bijvoorbeeld, welke bij DX11 vaak nog ernstig beperkt is en waar nVidia met veel drivertrucjes meerdere cores weet te belasten. Maar het is natuurlijk nog een alpha en de vraag is hoe het zich doorontwikkeld. Het zou in ieder geval een idee kunnen geven over hoe Id6 zich kan gedragen.

P.s., normaal edit ik mijn post wel, als er niet te veel tijd tussen zit, de zaken gerelateerd zijn, of ik nog een reactie op iemand anders geef dan in de rest van de post. Een nieuw nieuwtje? Doe ik standaard liever in een nieuwe post, zodat het niet gemist wordt.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Geen SLI of Crossfire !

Kan dit betekenen dat ID-Tech 6 uiteindelijk Multi-GPU wordt ? Of heeft SLI/CF nooit gewerkt op OpenGL.
En kan Vulkan wel Multi GPU. (lijkt me van wel)

(Als reactie op de laatste roodkleurige slide)
Verder zoals ik zelf al ondervonden heb met mijn Triple-Core PhenomII processor, is ID-Tech 5&6 een console-oriented-engine (XB1 en PS4 hebben 8CPUcores en niet veel GPU-power) die netaan 6 maar eigenlijk gewoon 8 CPU-cores nodig heeft om goed te werken.

Ik heb Rage en de 2 nieuwe Wolfenstein games gespeeld met de texture streaming functie zo aangepast dat ik geen texture pop-in heb maar wel ook max texture kwaliteit, maar met maar 3 cores werd die ervaring wel een tactische shooter (Rainbow 6) ipv een reflex shooter (zoals Quake3) om het zo te zeggen.

The-Evil-Within draait alweer wat soepeler mbt hoeveelheid detail vs render snelheid, en het is goed te merken dat ze de engine blijven verbeteren.
Wat erg fijn is aangezien het op dit moment artistiek/filmisch de mooiste engine is imho.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

Anoniem: 64119

enchion schreef op maandag 29 februari 2016 @ 08:30:
Geen SLI of Crossfire !

Kan dit betekenen dat ID-Tech 6 uiteindelijk Multi-GPU wordt ? Of heeft SLI/CF nooit gewerkt op OpenGL.
En kan Vulkan wel Multi GPU. (lijkt me van wel)

Knip plak quote......
Volgens de reacties eronder was SLI/CF niet actief, het zou puur gaan over single kaarten.
Of dat klopt weet ik niet, dat is echt boven mijn pet.....

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
enchion schreef op maandag 29 februari 2016 @ 08:30:
Geen SLI of Crossfire !

Kan dit betekenen dat ID-Tech 6 uiteindelijk Multi-GPU wordt ? Of heeft SLI/CF nooit gewerkt op OpenGL.
En kan Vulkan wel Multi GPU. (lijkt me van wel)
Gebrek aan multi-GPU ondersteuning zal met name liggen aan het feit dat het een vroege alpha-build is en multi-GPU meestal wat later ingebouwd wordt, niet omdat het niet zou kunnen in OpenGL.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

dahakon schreef op maandag 29 februari 2016 @ 09:56:
[...]


Gebrek aan multi-GPU ondersteuning zal met name liggen aan het feit dat het een vroege alpha-build is en multi-GPU meestal wat later ingebouwd wordt, niet omdat het niet zou kunnen in OpenGL.
Volgens sommige commentaren onder het linustechtips artikel heeft ID nooit multi GPU ondersteuning gehad.
Dus geen SLI en ook geen CF. Of dat klopt weet ik niet. trm0001 = wel ID fan maar geen CF fan..... ;)
Mocht deze Doom versie dat wel krijgen dan zou het dus een uitzondering zijn.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
Die Fury's doen er niet heel lang meer over.
https://twitter.com/Roy_techhwood/status/704022817478569984

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
enchion schreef op maandag 29 februari 2016 @ 08:30:
Geen SLI of Crossfire !

Kan dit betekenen dat ID-Tech 6 uiteindelijk Multi-GPU wordt ? Of heeft SLI/CF nooit gewerkt op OpenGL.
En kan Vulkan wel Multi GPU. (lijkt me van wel)
In Doom 3 en Quake 4 werkte SLI prima, maar dat was met de GTX6600 en SFR ipv AFR.

Ben benieuwd wat de nieuwe AA modus in Doom 4 gaat doen, TSSAA of Temporal Super Sampling Anti-Aliasing. Het schijnt ook in WOT te zijn geimplementeerd en is niet biased richting AMD of Nvidia waar TXAA bijv. alleen op Nvidia draait en er niet uit ziet imho.
http://gamegpu.com/images...on/DOOM_Alpha_/aa_off.jpg
http://gamegpu.com/images...on/DOOM_Alpha_/aa_onn.jpg

Het lijkt goed zijn werk te doen en lost ook de aliasing bij textures op. Helaas als je naar de rocket launcher(?) kijkt zie je dat je wel veel detail verliest en dat het blurry wordt.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 07-06 15:00

edward2

Schieten op de beesten

TXAA moet altijd wel gecorrigeerd worden met een (negatieve) lod bias.
Id-engine kennende valt dat door een custom config wel in te stellen.
Je kan natuurlijk ook bv. 5K op een 27" draaien, dan heb je nauwelijks meer zorgen om AA.
Dat liep hier trouwens op 1 Fury al bijna smooth (30-40 fps).

Hopelijk krijgt deze game niet alsnog een late minute gamewoks behandeling om hem even op de Radeon te castreren.

[ Voor 10% gewijzigd door edward2 op 29-02-2016 17:29 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
edward2 schreef op maandag 29 februari 2016 @ 17:27:
TXAA moet altijd wel gecorrigeerd worden met een (negatieve) lod bias.
Id-engine kennende valt dat door een custom config wel in te stellen.
Je kan natuurlijk ook bv. 5K op een 27" draaien, dan heb je nauwelijks meer zorgen om AA.
Dat liep hier trouwens op 1 Fury al bijna smooth (30-40 fps).

Hopelijk krijgt deze game niet alsnog een late minute gamewoks behandeling om hem even op de Radeon te castreren.
Dat is toch juist SSAA waarbij dat nodig is? Ik ben van mening dat als je TXAA in een spel aanzet dat je dan automatisch een negatieve LOD bias correctie moet krijgen en niet dat je daar zelf nog voor moet zorgen, de gemiddelde leek weet echt niet wat dat is :P.
SMAA ziet er beter uit en daar is geen negatieve texture filtering LOD bias voor nodig.

Ik zit maar op 1440p met een 25" scherm dus ik moet nog wel AA aanzetten, maar al een stuk minder als voorheen met 1200p ;).

Nu hopen dat ze met TSSAA ook automatisch die LOD bias gelijk goedzetten.

Overigens lees ik net op een forum dat iemand een LOD bias van 1 aanraad met adaptive MSAA of SSAA 8)7. Hij vind het blurry mooier blijkbaar, kwestie van smaak.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 20:58

Damic

Tijd voor Jasmijn thee

Anoniem: 64119 schreef op maandag 29 februari 2016 @ 08:09:
[...]


Waar deze nogal forse voorsprong van AMD op Nvidia ineens vandaan komt is mij niet helemaal duidelijk:

[afbeelding]

[afbeelding]

[afbeelding]

In een heel grijs verleden was AMD met OpenGL vaak sneller dan Nvidia maar of dat hier een rol speelt ?

Verder is de cpu belasting ook netjes, nergens 100% voor een fractie vd Intel variant kosten _/-\o_

[afbeelding]

[afbeelding]

Bron (russisch oid):
http://gamegpu.com/action.../doom-alpha-test-gpu.html

(sidenote: dubbelposten ? Liever niet.......)
Is 60fps cap vermoedelijk.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 21:00

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
Ik ben sceptisch, voor hetzelfde geld staat het niet aan in de drivers omdat er nog geen kaarten zijn die het ondersteunen en zodra Pascal er is dan zetten ze het aan :+. In dat geval liegt Nvidia niet en lijkt het erop alsof ze het elk moment gaan activeren voor Maxwell.
Als ze het hadden waarom is het dan nog steeds niet actief?

Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 21:00
Op zich liegen ze dan niet maar zoals het er nu naar uit ziet ondersteunt de huidige generatie het niet hardwarematig. Ik heb het gevoel dat ze potentiële overstappers vast proberen te houden.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08

FreeSync-over-HDMI: Samsung Launches 1800R Curved FHD Monitors in the CF591 and CF390

One of the big things to come out of Computex last year was our exclusive preview of a new project by AMD: being able to bring variable refresh rate technology through HDMI rather than via the more traditional method, DisplayPort. At the time, the demo seemed limited to a single monitor using a custom protocol between the standard GPU and a Realtek TCON with custom firmware to enable it. HDMI by default does not support the commands for a variable refresh rate, but the custom protocol additions made it possible with AMD wanting to move the standard in order to do so. At the time we were told that AMD wasn’t looking to produce the monitors needed to drive it, but wanted to open the standard up so any monitor manufacturer. In December, AMD announced that several manufacturers had stepped up to the plate, including Samsung, LG and Acer, with Samsung seeming to commit to more retail models than the others. Today’s announcement is a culmination of that effort.
Goed nieuws voor AMD en het Freesync kamp (indien Intel nog een keer meedoet). Hoopt overigens nog steeds dat HDMI langzaam uitsterft :p.


Overigens uit het volgende artikel van HardOCP waar ze de performance van de nieuwe Tomb Raider game testen en kijken wat voor settings het meest impact hebben op performance.
AMD lijkt beter (/op een andere manier) met geheugen om te gaan dan Nvidia.
VRAM utilization was one of the more interesting aspects of Rise of the Tomb Raider. It appears to be very different depending on what GPU you are running. There is no question this game can consume large amounts of VRAM at the right settings. With the GeForce GTX 980 Ti we maxed out its 6GB of VRAM just at 1440p with No AA and maximum settings. The TITAN X revealed that it was actually using up to 7GB of VRAM for that setting. In fact, when we pushed the TITAN X up to 4K with SSAA it used up to almost 10GB of VRAM.

However, for the AMD Radeon R9 390X utilization was a bit odd when you first see it, never exceeding 4.2GB and remaining "flat" with "Very High" textures and SSAA. We did see the proper decrease in VRAM using lower settings, but the behavior was odd indeed. This didn't seem to negatively impact the video card however. The VRAM is simply managed differently with the Radeon R9 300 series.

The AMD Radeon R9 Fury X kind of backs that statement up since it was able to allocate dynamic VRAM for extra VRAM past its 4GB of dedicated VRAM capacity. We saw up to a 4GB utilization of dynamic VRAM. That allowed the Fury X to keep its 4GB of dedicated VRAM maxed out and then use system RAM for extra storage. In our testing, this did not appear to negatively impact performance. At least we didn't notice anything in terms of choppy framerates or "micro-stutter." The Fury X seems to be using the dynamic VRAM as a cache rather than a direct pool of instant VRAM. This would make sense since it did not cause a performance drain and obviously system RAM is a lot slower than local HBM on the Fury X. If you remember a good while ago that AMD was making claims to this effect, but this is the first time we have actually been able to show results in real world gaming. It is awesome to see some actual validation of these statements a year later. This is what AMD said about this in June of 2015.

Note that HBM and GDDR5 memory sized can’t be directly compared. Think of it like comparing an SSD’s capacity to a mechanical hard drive’s capacity. As long as both capacities are sufficient to hold local data sets, much higher performance can be achieved with HBM, and AMD is hand tuning games to ensure that 4GB will not hold back Fiji’s performance. Note that the graphics driver controls memory allocation, so its incorrect to assume that Game X needs Memory Y. Memory compression, buffer allocations, and caching architectures all impact a game’s memory footprint, and we are tuning to ensure 4GB will always be sufficient for 4K gaming. Main point being that HBM can be thought of as a giant embedded cache, and is not directly comparable to GDDR5 sizes.

[ Voor 53% gewijzigd door Sp3ci3s8472 op 29-02-2016 23:58 . Reden: laatste post ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 07-06 15:00

edward2

Schieten op de beesten

Sp3ci3s8472 schreef op maandag 29 februari 2016 @ 18:50:
[...]


Dat is toch juist SSAA waarbij dat nodig is? Ik ben van mening dat als je TXAA in een spel aanzet dat je dan automatisch een negatieve LOD bias correctie moet krijgen en niet dat je daar zelf nog voor moet zorgen, de gemiddelde leek weet echt niet wat dat is :P.
SMAA ziet er beter uit en daar is geen negatieve texture filtering LOD bias voor nodig.

Ik zit maar op 1440p met een 25" scherm dus ik moet nog wel AA aanzetten, maar al een stuk minder als voorheen met 1200p ;).

Nu hopen dat ze met TSSAA ook automatisch die LOD bias gelijk goedzetten.

Overigens lees ik net op een forum dat iemand een LOD bias van 1 aanraad met adaptive MSAA of SSAA 8)7. Hij vind het blurry mooier blijkbaar, kwestie van smaak.
Was TXAA ook niet een soort van partitionele SSAA? In ieder kan ik me nog herinneren dat met een sharpening compensatie TXAA er erg goed uit zag in Crysis3 en met erg goede perf. SMAA filtert alleen geen specular aliasing, daar heb je echt brute force voor nodig .

Volgens mij zou het goed zijn voor TXAA om dit automatisch te compenseren net zoals (sg)ssaa.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
edward2 schreef op dinsdag 01 maart 2016 @ 12:39:
[...]


Was TXAA ook niet een soort van partitionele SSAA? In ieder kan ik me nog herinneren dat met een sharpening compensatie TXAA er erg goed uit zag in Crysis3 en met erg goede perf. SMAA filtert alleen geen specular aliasing, daar heb je echt brute force voor nodig .

Volgens mij zou het goed zijn voor TXAA om dit automatisch te compenseren net zoals (sg)ssaa.
Nee niet precies. Het is een temporal filter in combinatie met normale MSAA, de LOD bias verlagen zal dus ook niet echt helpen. Wat ze waarschijnlijk met een temporal filter doen is het vorige frame gebruiken en dat mixen met het nieuwe frame om op die manier shimmering tegen te gaan, dit lost o.a. shimmering op en werkt dus in principe ook op specular aliasing.
Nadeel hiervan is omdat het alleen van MSAA gebruik maar dat dingen zoals blaadjes van bomen in tegen stelling tot adaptive/coverage antialiasing en SSAA een boel detail verliezen omdat dit niet aanwezig is en als het in het ene frame wel aanwezig is en het andere niet dan wordt het blurry.
Het zal waarschijnlijk mooier beeld geven als je adaptive/coverage aanzet via het AMD/NV control pannel.

Grappig dat jij Crysis 3 als voorbeeld aanroept, ik wilde dat als een van de slechtste implementaties ooit naar voren halen. Als je het artikel van HardOCP over de verschillende AA modi leest in Crysis 3 dan komt die vorm van AA niet echt positief naar voren.

SMAA is een combinatie van post processing AA (FXAA/MLAA) en MSAA, en zal dus in enige mate wel specular aliasing filteren (maar natuurlijk niet zo goed als SSAA wat ook veel duurder is). SMAA vind ik er over het algemeen mooier uitzien dan TXAA en kost veel minder performance.

Afbeeldingslocatie: http://www.hardocp.com/images/articles/1362959270a9V2nme9e6_9_6_l.png
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1362959270a9V2nme9e6_8_17_l.png

Als ik ergens een foutje heb gemaakt mag iemand mij verbeteren >:).

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Het lijkt me niet dat HDMI de komende 10 jaar gaat uitsterven. Als er een input (of ouput) ergens ontbreekt dan is het niet HDMI. Dat lijkt een beetje de nieuwe VGA te worden.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

sdk1985 schreef op dinsdag 01 maart 2016 @ 15:00:
Het lijkt me niet dat HDMI de komende 10 jaar gaat uitsterven. Als er een input (of ouput) ergens ontbreekt dan is het niet HDMI. Dat lijkt een beetje de nieuwe VGA te worden.
HDMI kan nu al geen 4k resoluties verwerken op hoger dan 60Hz.
Daarvoor heb je 2 x DVI of displayport nodig.

Dus ja HDMI zal er nog wel even zijn maar loopt nu al tegen zijn limieten aan.
Daarmee is het einde voor HDMI iig in zicht. _/-\o_

Dat er op veel kastjes nu een HDMI aansluiting zit zegt echt totaal niets/nada.
Ooit was dat VGA, en dat is ook zo goed als verdwenen bij de introductie van digitale signalen.....

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:35
Anoniem: 64119 schreef op dinsdag 01 maart 2016 @ 15:59:
[...]

HDMI kan nu al geen 4k resoluties verwerken op hoger dan 60Hz.
Daarvoor heb je 2 x DVI of displayport nodig.

Dus ja HDMI zal er nog wel even zijn maar loopt nu al tegen zijn limieten aan.
Daarmee is het einde voor HDMI iig in zicht. _/-\o_

Dat er op veel kastjes nu een HDMI aansluiting zit zegt echt totaal niets/nada.
Ooit was dat VGA, en dat is ook zo goed als verdwenen bij de introductie van digitale signalen.....
VGA zit anders nog op bijna alle videokaarten, alleen kaarten gebaseerd op de 290 en fury chip hebben het niet.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 298195

Heb dit hier volgensmij nog niet voorbij zien komen maar AMD heeft weer wat marktaandeel terug gesnoept.

Afbeeldingslocatie: http://cdn.wccftech.com/wp-content/uploads/2016/03/AMD-NVIDIA-GPU-Market-Share-Q4-2015.pngU-Market-Share-Q4-2015.png

Acties:
  • 0 Henk 'm!

Anoniem: 64119

haarbal schreef op dinsdag 01 maart 2016 @ 16:17:
[...]

VGA zit anders nog op bijna alle videokaarten, alleen kaarten gebaseerd op de 290 en fury chip hebben het niet.
Dat het nog op videokaarten zit zegt op zich niet zo veel. Zelfs al zou het ook op de high-end kaarten zitten.
Voor de meeste videokaarten + lcd's totaal niet meer zinvol om het te gebruiken, zie het als analoog legacy.
Sluit je het wel aan dan ga je een kleine 20 jaar terug in de tijd, ook qua signaal kwaliteit.

EDIT@laurens: Das best wel goed en ook wel onverwacht nieuws.

[ Voor 5% gewijzigd door Anoniem: 64119 op 01-03-2016 16:45 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:35
Anoniem: 64119 schreef op dinsdag 01 maart 2016 @ 16:23:
[...]

Dat het nog op videokaarten zit zegt op zch niet zo veel. Zelfs al zou het ook op de high-end kaarten zitten.
Voor de meeste videokaarten + lcd's totaal niet meer zinvol om het te gebruiken, zie het als analoog legacy.
Sluit je het wel aan dan ga je een kleine 20 jaar terug in de tijd, ook qua signaal kwaliteit.
Het is leuk voor wie nog een werkende FW900 heeft.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 64119

haarbal schreef op dinsdag 01 maart 2016 @ 16:30:
[...]

Het is leuk voor wie nog een werkende FW900 heeft.
Ik ken niet alle typenummers uit mijn hoofd (mijn excuus daarvoor) maar wanneer dat evt een beeldbuis scherm betreft dan is dat op zichzelf al een Retro Legacy apparaat. Ze bestaan nog wel maar zijn ze nog relevant ?

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:35
Anoniem: 64119 schreef op dinsdag 01 maart 2016 @ 16:35:
Ze bestaan nog wel maar zijn ze nog relevant ?
Misschien binnenkort niet meer, als oled goed verkrijgbaar wordt.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

sdk1985 schreef op dinsdag 01 maart 2016 @ 15:00:
Het lijkt me niet dat HDMI de komende 10 jaar gaat uitsterven. Als er een input (of ouput) ergens ontbreekt dan is het niet HDMI. Dat lijkt een beetje de nieuwe VGA te worden.
HDMI is de nieuwe SCART, aangezien beide de defacto aansluiting zijn voor TV en media devices. Terwijl ze minder gewenst/gericht zijn op PC-gebruik. DisplayPort lijkt het snel van DVI te winnen wat in mijn ogen de opvolger van VGA is. De enige plek op moderne niet-monitor apparaten waar ik een VGA-aansluiting (rechtstreeks) aantref is op servers, waar zelfs PS/2 nog niet zo lang opgeschort is.

HDMI is op zich ook niet slecht, maar voor PC doeleinden is DisplayPort beter dankzij locking connector en langdurige ondersteuning voor 4K evenals betere ondersteuning voor FreeSync/Adaptive Sync.

[ Voor 7% gewijzigd door Phuncz op 01-03-2016 17:22 ]


Acties:
  • 0 Henk 'm!

Anoniem: 64119

haarbal schreef op dinsdag 01 maart 2016 @ 16:41:
[...]

Misschien binnenkort niet meer, als oled goed verkrijgbaar wordt.
Kleurechtheid en LCD panelen is idd wel een pijnpunt van aandacht.
trm0001 zal ook blij zijn wanneer rood gewoon weer rood is en niet flets-rood of oranje etc.
Of dat nu via Oled (SED whats that ?) of iets anders is maakt me niet veel uit

Ik heb net mijn budget philips tn scherm opgewaardeerd naar een ips Dell waarvan de kleuren echt veel beter zijn maar rood blijft te flets. Dwz ongeacht de investering in de videokaart of gebruikte aansluiting........

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Phuncz schreef op dinsdag 01 maart 2016 @ 17:20:
[...]

HDMI is de nieuwe SCART, aangezien beide de defacto aansluiting zijn voor TV en media devices. Terwijl ze minder gewenst/gericht zijn op PC-gebruik. DisplayPort lijkt het snel van DVI te winnen wat in mijn ogen de opvolger van VGA is. De enige plek op moderne niet-monitor apparaten waar ik een VGA-aansluiting (rechtstreeks) aantref is op servers, waar zelfs PS/2 nog niet zo lang opgeschort is.

HDMI is op zich ook niet slecht, maar voor PC doeleinden is DisplayPort beter dankzij locking connector en langdurige ondersteuning voor 4K evenals betere ondersteuning voor FreeSync/Adaptive Sync.
Dat kan pas op het moment dat die Displayport standaard met je pc / laptop wordt meegeleverd. Momenteel lijkt die rol toch echt door HDMI te worden vervult. Denk aan een Z77 bord die nog werden uitgerust met DVI-D, HDMI, VGA (D-Sub) . Op de Z170A is dat DVI-D, HDMI geworden. VGA is er nu eindelijk vanaf, maar display port is niet gekomen.

Overigens is het niet heel vreemd dat HDMI 2.0 (nog) niet meer dan 60 Hz op 4K kan weergeven aangezien de hardware nog niet op dat niveau zit. Ze zijn vast al met HDMI 2.1 bezig.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

sdk1985 schreef op dinsdag 01 maart 2016 @ 17:32:
[...]
Overigens is het niet heel vreemd dat HDMI 2.0 (nog) niet meer dan 60 Hz op 4K kan weergeven aangezien de hardware nog niet op dat niveau zit. Ze zijn vast al met HDMI 2.1 bezig.
Er zijn genoeg videokaarten en monitoren die dit aankunnen.
Je kan dat op dit moment alleen doen via een dubbele DVI kabel.

HDMI en displayport schieten dan gewoon te kort.
Beide zijn daarmee niet erg op de toekomst voorbereid.
Displayport zou N.B. de kabel voor de HR toekomst zou moeten zijn.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Voordat iets een de facto standaard wordt, zoals VGA decennia lang is geweest (ding stamt uit 1987), zal het toch echt overal op moeten zitten. En niet alleen op losse videokaarten. Veel zal afhangen van Intel.

Ik vindt persoonlijk de mini-display port in ieder geval geen prettige connector (zit er één op mijn Surface Pro 2). Ik probeer hem er vaak verkeerd om in te duwen :P. Ik zeul ook altijd een DP>HDMI/VGA/DVI adapter mee omdat de kans te groot is dat ik anders het ding niet kan aansluiten.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

Enige verschil met VGA is dat er nu veel meer types aansluiting zijn met nog meer op komst.

Verder denk ik niet dat de komende standaard zich veel laat afhangen of jij hem als prettig of niet ervaart.

Voor Full-HD kan HDMI nog prima mee maar of HDMI uberhaupt genoeg bandbreedte kan verwerken voor heel hoge resoluties 4k+ icm boven de 100HZ aan beeldwisselingen is bij mij niet bekend......

USB 3.0 is ook een problemenkindje geworden qua stroomverbruik, bizar slecht ontworpen kabels, uitval van doorvoer etc. Dit is ook een typische kabel die geforceerd werd naar een te hoge branbreedte:
Afbeeldingslocatie: http://static.tweakers.net/ext/f/Ykn2b8MR852a4P9FOk2jR5Ol/full.png

Videokaarten zullen zich steeds meer richten op fors hogere resoluties dan Full-HD icm hogere verversings frequenties, net als monitoren en TV's. Vooralsnog blijven de kabels achter.......

Acties:
  • 0 Henk 'm!

  • wappiewappie
  • Registratie: Juli 2012
  • Laatst online: 23:17
sdk1985 schreef op dinsdag 01 maart 2016 @ 18:04:
Ik vindt persoonlijk de mini-display port in ieder geval geen prettige connector...
mini-hdmi is anders ook niet echt prettig. heeft hetzelfde probleem met verkeerd om inpluggen (De oriëntatie is misschien nog wel wat slechter te zien dan bij mini-dp) en echt stevig vast zitten doet het ook niet.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
Bijkomend probleem van HDMI is dat het nog steeds niet stabiel is icm receivers en dat het geluid constant uitvalt. Uit ellende heb ik hier "AVR Audio Guard" draaien dat constant een fake signaal richting mijn receiver stuurt, dat Intel dit nog niet heeft gefixed is iritant.
Nog iets anders leuks is dat indien je een monitor hebt die groter is dan 1080p en je schakelt deze uit en je hebt toevallig een receiver via HDMI aangesloten dan zijn al je schermen of verdwenen naar het niet bestaande extra desktop of zijn ze naar 1080p verkleint..... Het is niet mogelijk om HDMI zonder extra desktop te gebruiken voor audio.

Ik wordt er kriegelig van dat mijn icoontjes overal naar toe springen in Windows elke keer dat ik mijn pc opstart of dat ik mijn versterker aan of uit zet. Het terugvinden van een programma met de windows toets + pijltjes toetsen is ook common practice geworden.

Maar genoeg geklaag :P.

Overigens wat betreft VGA, steeds minder laptops worden geleverd met een VGA aansluiting en op veel videokaarten wordt het analoge signaal alleen nog maar geleverd via de DVI poort.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 07-06 15:00

edward2

Schieten op de beesten

Sp3ci3s8472 schreef op dinsdag 01 maart 2016 @ 13:13:
[...]


Nee niet precies. Het is een temporal filter in combinatie met normale MSAA, de LOD bias verlagen zal dus ook niet echt helpen. Wat ze waarschijnlijk met een temporal filter doen is het vorige frame gebruiken en dat mixen met het nieuwe frame om op die manier shimmering tegen te gaan, dit lost o.a. shimmering op en werkt dus in principe ook op specular aliasing.
Nadeel hiervan is omdat het alleen van MSAA gebruik maar dat dingen zoals blaadjes van bomen in tegen stelling tot adaptive/coverage antialiasing en SSAA een boel detail verliezen omdat dit niet aanwezig is en als het in het ene frame wel aanwezig is en het andere niet dan wordt het blurry.
Het zal waarschijnlijk mooier beeld geven als je adaptive/coverage aanzet via het AMD/NV control pannel.

Grappig dat jij Crysis 3 als voorbeeld aanroept, ik wilde dat als een van de slechtste implementaties ooit naar voren halen. Als je het artikel van HardOCP over de verschillende AA modi leest in Crysis 3 dan komt die vorm van AA niet echt positief naar voren.

SMAA is een combinatie van post processing AA (FXAA/MLAA) en MSAA, en zal dus in enige mate wel specular aliasing filteren (maar natuurlijk niet zo goed als SSAA wat ook veel duurder is). SMAA vind ik er over het algemeen mooier uitzien dan TXAA en kost veel minder performance.

[afbeelding]
[afbeelding]

Als ik ergens een foutje heb gemaakt mag iemand mij verbeteren >:).
Hmm, ik dacht dat TXAA ook gebruik maakte van het principe van (meer) informatie naar een kleiner oppervlak(frame?) wegschrijven, een soort downsdampelen, maar dan intelligent (m.a.w. een gedeelte van de frame(s)/objecten filtreren i.t.t. klassieke SSAA, RGSSAA en SGSSAA die de hele frame filteren)? Daarom worden in dat geval ook specular en alpha textures (oa. foliage), gefilterd, maar ik gebruik het dan ook al een tijdje niet meer, dus misschien is de kennis wat weggezakt.

Toen ik nog een Geforce had en Crysis 3 uitkwam gebruikte ik wat extra sharpening, bv. op "1.25" en dat zag er dan i.c.m. met TXAA toch goed uit en ik haat blurr. ;)
Nou weet ik niet in hoeverre lodbias verschilt met een postsharperer zoals in Crysis 3 en/of sweefx, maar vermoedelijk heft een postsharperer een deel van het effect van TXAA op, en vormt zo een goed gemiddeld compromis?

SMAA vind ik toch vaak wat matig matig voor shaderaliasing, vooral de reflecties, kijk maar eens naar het effect in bv. de indoorlevels met veel specular, maar is overall wel erg efficiënt, perf. vriendelijk en erg flexibel. Ik gebruik het vaak met reshade en/of sweetfx en werkt nagenoeg in elke game.

offtopic:
Desktop Ok is ideaal om je pictogrammen vast te zetten, ik word ook gek van 100 verspringende iconen op je desktop, je zoekt je een ongeluk :D

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 20:21

Trygve

Redacteur

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

16.2.1 heeft een Crossfire profile voor Far Cry Primal, voor de rest identiek aan 16.2 volgens de patch notes.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

Freesync is dadelijk verkrijgbaar voor een vanaf prijs van 209 euro:
nieuws: Samsung brengt eind april drie gebogen FreeSync-monitoren uit - update

Nvidia's Paysync is er momenteel vanaf 435 euro:
http://tweakers.net/categ...GRCYguS8wBmmdubmaoVFtbCwA

Imho is dat een nogal sterk voordeel voor Radeon kaarten. Je moet wel heel erg gericht zijn op Nvidia kaarten om te zeggen: "die 225 euro extra kan er ook nog wel bij"........

Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 20:21

Trygve

Redacteur
In de Pricewatch zie ik FreeSync al vanaf 140 euro?

Acties:
  • 0 Henk 'm!

Anoniem: 64119

Daar was ik dus even vergeten te kijken, my bad.

Ik vermoedde dat 209 euro eigenlijk wel erg laag geprijsd was. Het verschil is dus nog veel groter..... :F

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Alleen worden het 60 Hz monitoren en dan heb je niet bar veel aan FreeSync.

Het grootste probleem van Freesync is dat je er in de originele implementatie niets aan had zodra je onder de minimum Hz van de monitor komt (bijvoorbeeld 40 Hz). Nvidia lost dat op door de frames te herhalen met een dedicated chip (=duurder). Uiteindelijk heeft AMD dit ook ingezien en hebben ze gewerkt aan low framerate compensation. http://www.pcper.com/revi...-and-Frame-Pacing-Support

Een vereist daarvoor is echter dat de maximale verversingssnelheid een stuk hoger ligt dat de minimum framerate (2.5x).

De Low Frame Rate Compensation (LFC) gaat dus niet werken op de betaalbare Samsung displays. Waarschijnlijk zijn alleen framerates tussen de 40 en 60 fps vloeiend. Daaronder is het terug naar de 60 Hz en krijg je weer ouderwets tearing of judder. Zet wat mij betreft geen zoden aan de dijk. Zie ook de FrontPage: Finraziel in 'nieuws: Samsung brengt eind april drie gebogen FreeSync-monitor...

[ Voor 22% gewijzigd door sdk1985 op 02-03-2016 18:37 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 17-05 11:15
sdk1985 schreef op woensdag 02 maart 2016 @ 18:32:
Alleen worden het 60 Hz monitoren en dan heb je niet bar veel aan FreeSync.

Het grootste probleem van Freesync is dat je er in de originele implementatie niets aan had zodra je onder de minimum Hz van de monitor komt (bijvoorbeeld 40 Hz). Nvidia lost dat op door de frames te herhalen met een dedicated chip (=duurder). Uiteindelijk heeft AMD dit ook ingezien en hebben ze gewerkt aan low framerate compensation. http://www.pcper.com/revi...-and-Frame-Pacing-Support

Een vereist daarvoor is echter dat de maximale verversingssnelheid een stuk hoger ligt dat de minimum framerate (2.5x).

De Low Frame Rate Compensation (LFC) gaat dus niet werken op de betaalbare Samsung displays. Waarschijnlijk zijn alleen framerates tussen de 40 en 60 fps vloeiend. Daaronder is het terug naar de 60 Hz en krijg je weer ouderwets tearing of judder. Zet wat mij betreft geen zoden aan de dijk. Zie ook de FrontPage: Finraziel in 'nieuws: Samsung brengt eind april drie gebogen FreeSync-monitor...
Laten we wel wezen: het is alsnog een mooie upgrade boven normale 60 Hz schermen. Ik weet niet wat het prijsverschil is met monitoren zonder Freesync, maar als het een paar euro scheelt is het een hele mooie extra feature. Tuurlijk werkt het nog veel beter op 120/144 Hz, maar dat is niet voor iedereen weggelegd. Daarnaast zijn de problemen die Freesync daar oplost minder erg, omdat je refreshrate al hoger is.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

sdk1985 schreef op woensdag 02 maart 2016 @ 18:32:
Alleen worden het 60 Hz monitoren en dan heb je niet bar veel aan FreeSync.

Het grootste probleem van Freesync is dat je er in de originele implementatie niets aan had zodra je onder de minimum Hz van de monitor komt (bijvoorbeeld 40 Hz). Nvidia lost dat op door de frames te herhalen met een dedicated chip (=duurder). Uiteindelijk heeft AMD dit ook ingezien en hebben ze gewerkt aan low framerate compensation. http://www.pcper.com/revi...-and-Frame-Pacing-Support

Een vereist daarvoor is echter dat de maximale verversingssnelheid een stuk hoger ligt dat de minimum framerate (2.5x).

De Low Frame Rate Compensation (LFC) gaat dus niet werken op de betaalbare Samsung displays. Waarschijnlijk zijn alleen framerates tussen de 40 en 60 fps vloeiend. Daaronder is het terug naar de 60 Hz en krijg je weer ouderwets tearing of judder. Zet wat mij betreft geen zoden aan de dijk. Zie ook de FrontPage: Finraziel in 'nieuws: Samsung brengt eind april drie gebogen FreeSync-monitor...
Het scherm van 138 euro = gewoon 75 hz. dus geen 60:

Afbeeldingslocatie: http://static.tweakers.net/ext/f/vuLv1Tceo4u16NzJUpobq2pI/full.jpg

Verder heeft het natuurlijk allemaal prima zijn nut ook bij 60hz.

Dat er mensen zijn die sub 35 fps prettig of acceptabel vinden kunnen de fabrikanten niets aan doen. :O

EDIT@hieronder:

De 139 euro 75hz. Monitor is uiteraard met Freesync en dat zal dus prima werken boven de 40FPS.

[ Voor 3% gewijzigd door Anoniem: 64119 op 02-03-2016 19:14 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Anoniem: 64119 schreef op woensdag 02 maart 2016 @ 18:53:
[...]

Het scherm van 138 euro = gewoon 75 hz. dus geen 60:

[afbeelding]

Verder heeft het natuurlijk allemaal prima zijn nut ook bij 60hz.

Dat er mensen zijn die sub 35 fps prettig of acceptabel vinden kunnen de fabrikanten niets aan doen. :O
Los van of de specs al kloppen: 60 of 75 Hz verandert eigenlijk helemaal niets:
Do you have a monitor with a 40-144Hz FreeSync range? You're good. Do you have one of the first 48-75Hz displays? Sorry, you are out luck
Toen G-Sync werd aangekondigd was ik daar best enthousiast over. Voor mij persoonlijk verkies ik altijd tearing boven V-Sync. Niets is irritanter dan ineens van 60 fps naar 30 fps dippen (standaard v-sync gedrag). Adaptive V-Sync was wat dat betreft een redelijke compromis. Die zet V-sync uit zodra je onder de 60 fps komt, dan krijg je dus weer tearing maar geen drop naar 30 fps.

In theorie is G-Sync de volgende stap in "smooth" gaming (na frametime gate). Komt ook prima uit met de overstap naar 4K schermen en producten als de Occulus Rift.

Echter drie jaar later G-Sync is nog steeds veel te duur en is het aanbod veel te beperkt.

Van FreeSync bleek eigenlijk meteen dat je er vrij weinig aan had: http://www.pcper.com/revi...c-How-Technologies-Differ. Dus ook daar zie ik de redding voor 4K gaming en de occulus rift niet plaats vinden.

Beide technieken zijn voorlopig wat mij betreft nog een gemiste kans. Ik heb in 2015 een Ultrawide monitor van 350 euro gekocht en dat vond ik duur zat (dat was overigens ook een compromis aankoop want met 60 HZ en IPS is dat geen gaming monitor). Zowel G-Sync als Freesync zal mijn aankoop beslissing in ieder geval voorlopig niet beïnvloeden.

[ Voor 47% gewijzigd door sdk1985 op 02-03-2016 19:15 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

Voor iedereen die nog prangende Radeon vragen heeft:

Morgen 3 maart is er Ask-me-anything bij Radeon group:

http://www.senecaglobe.co...poration-nysenptn/316097/

Geen idee of het ook Wereldwijd is en hoe je vragen kan stellen.........?

O.a. deze onderwerpen:

Fury X2
Polaris
FreeSync
Vulkan
GPUOpen
VR
DirectX 12

https://www.reddit.com/r/..._qa_is_happening_here_on/
http://hothardware.com/ne...host-reddit-ama-march-3rd

Afbeeldingslocatie: http://static.tweakers.net/ext/f/aNzOnCVUDMj4VMMzRxXtncA6/full.jpg

[ Voor 34% gewijzigd door Anoniem: 64119 op 02-03-2016 21:08 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
sdk1985 schreef op woensdag 02 maart 2016 @ 18:32:
Alleen worden het 60 Hz monitoren en dan heb je niet bar veel aan FreeSync.

Het grootste probleem van Freesync is dat je er in de originele implementatie niets aan had zodra je onder de minimum Hz van de monitor komt (bijvoorbeeld 40 Hz). Nvidia lost dat op door de frames te herhalen met een dedicated chip (=duurder). Uiteindelijk heeft AMD dit ook ingezien en hebben ze gewerkt aan low framerate compensation. http://www.pcper.com/revi...-and-Frame-Pacing-Support

Een vereist daarvoor is echter dat de maximale verversingssnelheid een stuk hoger ligt dat de minimum framerate (2.5x).

De Low Frame Rate Compensation (LFC) gaat dus niet werken op de betaalbare Samsung displays. Waarschijnlijk zijn alleen framerates tussen de 40 en 60 fps vloeiend. Daaronder is het terug naar de 60 Hz en krijg je weer ouderwets tearing of judder. Zet wat mij betreft geen zoden aan de dijk. Zie ook de FrontPage: Finraziel in 'nieuws: Samsung brengt eind april drie gebogen FreeSync-monitor...
Je wijst nu de Freesync technology als boosdoener aan terwijl het eigenlijk de fabrikanten zijn die zo'belaberde range aan een scherm geven. Daar kan AMD en Freesync weinig aan doen.
Overigens is de ondergrens bij mij persoonlijk 40 fps, alles lager boeit me niet en wat mij betreft kunnen die variable sync opties dan ook uit. Het is onzin dat je niks aan Freesync hebt bij een 60hz scherm, ik zou het best willen op mijn Dell U2515H want ik heb nog liever tearing dan dat ik vsync aanzet en input lag heb.

Volgens mij kan AMD prima frames herhalen in de driver daar hebben ze geen dure chip voor nodig, ik heb alleen liever niet dat ze dat doen want wat heb je aan 2x dezelfde frame met 30fps. Dat luie game ontwerpers het tegenwoordig "de cinematic experience" vinden boeit mij niks want het ziet er nog steeds bagger uit. Bij films kan het prima omdat je zelf niet voor input zorgt en er motion blur is als de beelden te snel zijn, dat heb je bij games over het algemeen niet.
Het eerste spel dat ik redelijk speelbaar vond op 40fps was de eerste Crysis door de goede implementatie van motion blur.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Zowel G-Sync als FreeSync gooien V-Sync aan zodra je op de max Hz komt. Dit kun je dan wel weer uitschakelen maar dan krijg je weer tearing. Op 144 Hz is die tearing niet zo erg. Immers een tear van 1/144e van een seconde is haast niet zichtbaar. Op 60 Hz is dat een ander verhaal en krijg je gewoon weer zichtbare tearing...

Dus Freesync op een 60 Hz monitor werkt niet aan de onderkant en ook niet aan de bovenkant (G-sync ook niet!). Dat is vermoedelijk ook de redden dat we geen goedkope 60 Hz G-Sync monitoren zien. Het heeft gewoon niet zo veel nut.

Verder kunnen ze inderdaad met de driver frames herhalen. En dat doen ze ook, dat is die LFR. Daar komt alleen die beperking vandaan. Immers 39 Hz kun je niet verdubbelen binnen 60Hz om maar iets te noemen.

Waarom we al jaren trage monitoren hebben is mij ook een raadsel. Ik had zelf ook liever een verstelbare ultrawide monitor gehad met 2ms en 120 Hz en dan nog freesync/gsync. Maar die zijn er gewoon niet. Zal wel iets met vraag/aanbod te maken hebben. De markt is klein en erg verspreid. Als je nu een monitor zoekt kun je kiezen tussen:

-4K monitor (handig want is precies 4x full hd)
-Ultrawide monitor (handig want je ziet dan in games net even wat meer in de breedte)
-120/144 Hz monitor al dan niet meet free/g-sync (vereiste voor CS:GO etc)
-budget monitor

Alles heeft zo zijn voor en nadelen. Ik zie het zo 1,2,3 niet bijdraaien omdat de 4K monitoren weer roet in het eten gooien voor de doorbraak van Ultrawide monitoren. De 4k monitoren zijn op hun beurt weer niet nuttig op 120+ Hz omdat onze videokaarten nog niet snel genoeg zijn.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

sdk1985 schreef op woensdag 02 maart 2016 @ 22:12:

Dus Freesync op een 60 Hz monitor werkt niet aan de onderkant en ook niet aan de bovenkant (G-sync ook niet!). Dat is vermoedelijk ook de redden dat we geen goedkope 60 Hz G-Sync monitoren zien. Het heeft gewoon niet zo veel nut.

knip/plak quote:
Ik vermoed dat de reden is dat we geen voordelige Paysync monitoren zien is dat nvidia er zoveel mogelijk geld uit wil slaan. Zoals dit ook al eerder bekend is gemaakt. Paysync zou tussen de 100 en 200 dollar extra gaan kosten. En wat blijkt, dat klopt tot op de laatste centen:

Het voordeligste AOC scherm met Paysync kost maar liefst 440 euro:
pricewatch: AOC G2460PG Zwart

Een vergelijkbaar 144Hz. AOC scherm met Freesync kost slechts 250 euro:
pricewatch: AOC G2460PF Zwart

Oftewel grofweg 200 euro extra voor vrijwel hetzelfde scherm maar dan met Paysync.
Waarbij ook nog even opgemerkt dient te worden dat het Paysync scherm slechts 1 aansluiting heeft terwijl het Freesync scherm er 4 heeft. Verder valt vooral het 200 euro kostende groene stukje plastic op rond de voet van het Paysync scherm en het gratis stukje rood plastic rond de voet van het Freesync scherm.

Back-on-topic:

Vergeet vandaag niet je vragen te stellen over alles wat met Radeon te maken heeft op deze Ask-me-anything dag van het Radeon team ! (zie mijn post hoger)

Je kan op de reddit pagina al je vragen kwijt over:

Freesync
VR
Alle GPU kaarten en APU's
DX12
Polaris
Fury

Etc. Etc. maak er gebruik van want dit is echt een unieke kans !

https://www.reddit.com/r/..._qa_is_happening_here_on/

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Op zich leuk initiatief maar ben wel sceptisch over wat we er aan gaan hebben.

Toch waarschijnlijk veel antwoorden waar je niet echt iets aan hebt.

"Wanneer komen de HBM 2 kaarten?" => Zo snel mogelijk.

etc.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Mirage
  • Registratie: Februari 2001
  • Laatst online: 07-06 21:51
Hier een update van de ashes of singularity benchmark. Dit is gedaan met de laatst drivers van AMD en Nvidia.Ook testen ze een Multi GPU opstelling met een AMD en Nvidia GPU in 1 systeem.

http://www.legitreviews.c...chmarks-amd-nvidia_179551

Farcry primal benchmarks. Waar AMD kaarten niet onverdienstelijk uit komen.

http://techfrag.com/2016/...ormance-lead-over-nvidia/

[ Voor 26% gewijzigd door Mirage op 03-03-2016 09:39 ]

https://www.afrikareisopmaat.nl


Acties:
  • 0 Henk 'm!

Anoniem: 64119

Help!!!! schreef op donderdag 03 maart 2016 @ 09:19:
^
Op zich leuk initiatief maar ben wel sceptisch over wat we er aan gaan hebben.

Toch waarschijnlijk veel antwoorden waar je niet echt iets aan hebt.

"Wanneer komen de HBM 2 kaarten?" => Zo snel mogelijk.

etc.
Sommige dingen kan AMD gewoon (nog) niet naar buiten brengen omdat ze niet bekend zijn of het niet in het belang is van AMD's concurrentie positie.

Dat gezegd hebbende ben ik alles behalve pessimistisch over de mate van openheid van de nieuwe Radeon Tech Group. Deze man:

http://www.amd.com/en-us/...on/leadership/raja-koduri

Heeft meer inzage gegeven over de toekomst van Graphics dan ooit naar buiten is gekomen _/-\o_

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
sdk1985 schreef op woensdag 02 maart 2016 @ 18:32:
Een vereist daarvoor is echter dat de maximale verversingssnelheid een stuk hoger ligt dat de minimum framerate (2.5x).
Even voor de duidelijkheid, dit is bij Nvidia ook zo en is ook volledig verklaarbaar.

Als het panel een minimum rate van 40 Hz heeft moet er dus tot en met 39 FPS gedupliceerd worden. 39 * 2 = 78 Hz. Die vereiste van "2.5x" is niet zo zeer een harde eis van 2.5x, maar meer een eis dat het minimaal 2 * <minimum - 1> moet zijn. En dan valt het weer terug op de panels; wanneer heb jij voor het laatst een panel gezien met 80 Hz? ;)

Na 75 Hz krijg je 90 (vrijwel niet te krijgen - dit zou 2.5x voor 40 Hz zijn), 100 (ook bar weinig), en meteen alweer 120, 144 en 165 Hz. Beide technieken zijn volledig afhankelijk van de panels die fabrikanten maken.

Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 21:00
Dit soort publiciteit kun je nu net even niet hebben http://nl.hardware.info/n...ten-oplossing-is-onderweg

De kop suggereert dat alleen AMD problemen heeft.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

Anoniem: 64119

winwiz schreef op donderdag 03 maart 2016 @ 11:27:
Dit soort publiciteit kun je nu net even niet hebben http://nl.hardware.info/n...ten-oplossing-is-onderweg

De kop suggereert dat alleen AMD problemen heeft.
""De redactie van ExtremeTech wijst naar de ontwikkelaars als voornaamste oorzaak, omdat zij een paar opvallende beslissingen hebben genomen. Men heeft namelijk geprobeerd de spelervaring van de originele Gears of War na te bootsen, onder andere door de code uit 2006 over te nemen en daarop door te ontwikkelen. Er is bijvoorbeeld ondersteuning voor 4K-resoluties toegevoegd, naast betere textures en grafische effecten. Ook DirectX 12 is ingebouwd, ondanks dat de onderliggende Unreal Engine 3 dat niet ondersteunt.""

Een Game gebaseerd op software van 10 jaar oud waarbij bewust buiten de specs word gewerkt geeft problemen, dat is ook raar :+ Het valt me nog mee dat het uberhaupt af en toe nog werkt.......

EDIT: wel netjes van AMD dat ze toch willen meewerken aan oplossing..........

[ Voor 3% gewijzigd door Anoniem: 64119 op 03-03-2016 11:57 ]


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 21:00
Als je het originele artikel leest steekt het wel heel crappy in elkaar: http://www.forbes.com/sit...deon-gamers/#41a0f6087e7e

AMD’s Radeon Fury X and Radeon 380 also choked when switching quality to High and running at 1440p or higher.

Surely the performance gets even worse as you make your way down the Radeon product stack, right? Oddly enough, no. I tested an Asus Strix R7 370 under the same demanding 4K benchmark, and it turned in only a 13% lower average framerate. Crucially, no stuttering or artifacting was present.

The Radeon 390x is just fine, achieving double the framerate at High Quality/4K as the more expensive Fury and Nano cards.

What on earth is happening? I can only speculate at this point, but Microsoft PR finally sent me a statement late last night confirming the issue, although not with any level of detail: “We are working closely with AMD to address a few issues that users of some AMD Radeon Hardware are experiencing while playing Gears of War: Ultimate Edition for Windows 10 and expect that they will be addressed quickly in an upcoming update.”

That statement was preceded by the heading “driver issues.” It’s important to note here that I was using the latest AMD Radeon Crimson 16.2 driver, after double-checking with AMD that it supported Gears PC.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
Bij DX12 problemen ben ik eerder geneigd om een ontwikkelaar aan te wijzen, doordat er nu geen driver is die alle fouten af probeert te vangen zoals in DX11 kan het eerder fout gaan.
Typisch dat dit gebracht wordt alsof het een probleem van AMD is (uiteindelijk is het wel een probleem voor AMD maar het is niet van AMD).

offtopic:
Forbes als bron |:(.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Anoniem: 64119 schreef op donderdag 03 maart 2016 @ 11:46:
[...]

""De redactie van ExtremeTech wijst naar de ontwikkelaars als voornaamste oorzaak, omdat zij een paar opvallende beslissingen hebben genomen. Men heeft namelijk geprobeerd de spelervaring van de originele Gears of War na te bootsen, onder andere door de code uit 2006 over te nemen en daarop door te ontwikkelen. Er is bijvoorbeeld ondersteuning voor 4K-resoluties toegevoegd, naast betere textures en grafische effecten. Ook DirectX 12 is ingebouwd, ondanks dat de onderliggende Unreal Engine 3 dat niet ondersteunt.""

Een Game gebaseerd op software van 10 jaar oud waarbij bewust buiten de specs word gewerkt geeft problemen, dat is ook raar :+ Het valt me nog mee dat het uberhaupt af en toe nog werkt.......

EDIT: wel netjes van AMD dat ze toch willen meewerken aan oplossing..........
Vreemd, ging er eigenlijk stiekem van uit dat de game draaide op UE4.

MS is er een behoorlijke zooi van aan het maken met hun gaming strategie voor windows...

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Werelds schreef op donderdag 03 maart 2016 @ 09:50:
[...]

Even voor de duidelijkheid, dit is bij Nvidia ook zo en is ook volledig verklaarbaar.

Als het panel een minimum rate van 40 Hz heeft moet er dus tot en met 39 FPS gedupliceerd worden. 39 * 2 = 78 Hz. Die vereiste van "2.5x" is niet zo zeer een harde eis van 2.5x, maar meer een eis dat het minimaal 2 * <minimum - 1> moet zijn. En dan valt het weer terug op de panels; wanneer heb jij voor het laatst een panel gezien met 80 Hz? ;)

Na 75 Hz krijg je 90 (vrijwel niet te krijgen - dit zou 2.5x voor 40 Hz zijn), 100 (ook bar weinig), en meteen alweer 120, 144 en 165 Hz. Beide technieken zijn volledig afhankelijk van de panels die fabrikanten maken.
In ieder geval duidelijk waarom het 2,5 is dan :). Verder merkte ik inderdaad ook al op dat je ook geen 60 Hz G-Sync monitoren ziet. Met FreeSync straks dus wel.

Zijn die 120 Hz panelen nu echt zo lastig te produceren??? Een 120 Hz FreeSync panel lijkt me namelijk wel weer nuttig (anders ga je lopen swappen tussen 120 en 60 fps met V-sync aan, of heb je weer wat tearing met adaptive v-sync).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

sdk1985 schreef op donderdag 03 maart 2016 @ 13:46:
[...]

In ieder geval duidelijk waarom het 2,5 is dan :). Verder merkte ik inderdaad ook al op dat je ook geen 60 Hz G-Sync monitoren ziet. Met FreeSync straks dus wel.

Zijn die 120 Hz panelen nu echt zo lastig te produceren??? Een 120 Hz FreeSync panel lijkt me namelijk wel weer nuttig (anders ga je lopen swappen tussen 120 en 60 fps met V-sync aan, of heb je weer wat tearing met adaptive v-sync).
Alle A.M.A. vragen over Freesync kun je (alleen vandaag) dus stellen aan het AMD Radeon team:
https://www.reddit.com/r/..._qa_is_happening_here_on/

Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 20:21

Trygve

Redacteur
Onze favoriete Schot heeft weer een nieuwe interessante video:

Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 05-06 13:24
ik ben wel degelijk geinterreseerd in een 1440p freesync scherm, mijn qnix krijgt trouwens ook gewoon tearing met vsync enabled op 60 fps. pas als ik frame target control aanzet op de standaard 55fps is mijn tearing weg. Maarja zoals iedereen weet schopt vsync je continu naar 30fps als je niet continu de 60 kunt halen -_-

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Altijd leuk om een video te kijken van iemand met een flink gekleurde bril. In plaats van dat meneer AdoredTV concludeert dat AMD nog wel eens wat werk mag verrichten aan de afhandeling van DX11 wordt de conclusie omgedraaid en kan, volgens hem, Nvidia het gat met DX12 via de driver nooit meer dichten omdat er sprake is van een hardware beperking. Aangezien 99% van de games de komende tijd geen DX12 gebruiken lijkt dat me niet de meest voor de hand liggende conclusie...

Natuurlijk op de voet gevolgd door de, aluhoedjes, redenatie dat Gears of War Ultimate edition een complot van Nvidia is omdat de eerste DX12 titel nu eenmaal het vaakst voor benchmarks wordt gebruikt 8)7 .

De rel omtrent Gears of War Ultimate edition heb overigens ik even gemist: http://www.extremetech.co...dition-is-a-dx12-disaster. Geweldige game was dat om Co-Op te spelen (misschien omdat het één van de eerste co-op shooters was). Jammer dat ze nooit een vervolg op de PC hebben uitgebracht. Een dergelijke DX12 remastered edition is een beetje mosterd na de maaltijd. Microsoft doet dat wel vaker. Denk aan de Age of Empires, Age of Mythology en Rise of Nations "HD" versies. Alle drie de games zaten ook vol bugs tijdens de release. Maak gewoon een nieuwe (DX12) game en stop met die onzin aub...

Los van dat alles heeft meneer AdoredTV wel een punt dat Nvidia voorlopig erg achterloopt op DX12. In ieder geval als we ons baseren op Ashes of Singularity. Het zit er alleen dik in dat zowel Nvidia als AMD in de volgende generatie dik inzetten op DX12... Gaat spannend worden voor AMD dit jaar. Ze zijn in ieder geval in de goede richting bezig met de afsplitsing naar RTG (lekker verzelfstandigen aub) en de focus op software verbetering (Crimson). Wie weet krijgen we een comeback met Polaris :).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 20:21

Trygve

Redacteur
sdk1985 schreef op donderdag 03 maart 2016 @ 16:40:
Altijd leuk om een video te kijken van iemand met een flink gekleurde bril. In plaats van dat meneer AdoredTV concludeert dat AMD nog wel eens wat werk mag verrichten aan de afhandeling van DX11 wordt de conclusie omgedraaid en kan, volgens hem, Nvidia het gat met DX12 via de driver nooit meer dichten omdat er sprake is van een hardware beperking. Aangezien 99% van de games de komende tijd geen DX12 gebruiken lijkt dat me niet de meest voor de hand liggende conclusie...
Hij is zeker niet onpartijdig, maar uit ook kritiek op AMD in andere video's. De redenering in jouw reactie snap ik vervolgens niet. AMD gooit zeker geen hoge ogen met hun DX11-driver, maar in deze analyse worden AMD en nVidia in DX12 met elkaar vergeleken. Maar omdat 99% van de games (huidige of toekomstige btw?) geen DX12 gebruiken kan nVidia een hardwaregebrek wél softwarematig oplossen? Kun je dat toelichten?

Ik weet niet het fijne van de gpu-architecturen, maar ik vind het wel opmerkelijk dat nVidia al 5 maanden bezig is met een driver om async compute te ondersteunen. Vijf! Met hun gigantische driverteam en budget kan dat toch niet zo lang duren? En qua communicatie draaien ze er maar wat omheen.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Mijn punt was dat gezien de situatie het zinniger is te concluderen dat AMD aan de bak moet met DX11 in plaats van Nvidia aan de bak moet met DX12. Zeker als je van mening bent dat de hardware van AMD sneller is. Zonde om die 20% (zo iets was het toch in de video?) te laten liggen. Lijkt me wel zo handig voor je huidige klanten met de huidige games... De geschiedenis leert dat de adoptie van een nieuwe DX überhaupt tergend traag gaat. Het aantal DX10 titels is op handen en voeten te tellen.

[ Voor 44% gewijzigd door sdk1985 op 03-03-2016 17:28 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • auto660
  • Registratie: November 2010
  • Laatst online: 03-06 18:45

auto660

1991 240 GL Brick

sdk1985 schreef op donderdag 03 maart 2016 @ 17:25:
Mijn punt was dat gezien de situatie het zinniger is te concluderen dat AMD aan de bak moet met DX11 in plaats van Nvidia aan de bak moet met DX12. Zeker als je van mening bent dat de hardware van AMD sneller is. Zonde om die 20% (zo iets was het toch in de video?) te laten liggen. Lijkt me wel zo handig voor je huidige klanten met de huidige games... De geschiedenis leert dat de adoptie van een nieuwe DX überhaupt tergend traag gaat. Het aantal DX10 titels is op handen en voeten te tellen.
Ik denk dat ze beide eens flink aan de bak moeten. AMD presteerd slecht (vergeleken met DX12) op DX11, terwijl de DX12 drivers van Nvidia nou ook niet echt een succes zijn.

Gaming~ |Ryzen 5 5500, Asrock B450M PRO4, 16GB 2666@3600MHz DDR4, GTX1650 Super 4GB, 1TB + 256GB SSD, 250W Apevia PSU| Workstation~ |Q9550, 8GB CL4 DDR2, P5B Premium, GTX950, 512GB SSD + 1TB HDD, 550W PSU


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 00:17
sdk1985 schreef op donderdag 03 maart 2016 @ 17:25:
Lijkt me wel zo handig voor je huidige klanten met de huidige games... De geschiedenis leert dat de adoptie van een nieuwe DX überhaupt tergend traag gaat. Het aantal DX10 titels is op handen en voeten te tellen.
Beide moeten inderdaad aan de bak. Al lijkt het verschil tussen AMD en Nvidia op DX11 kleiner dan op DX12.
Ik bedoel, stel je voor dat AMD de DX11 overhead weg krijgt... Dan is het ook doei doei Nvidia.

Maar goed. Ik denk dat de adoptie van DX12 heel anders gaat zijn dan al het voorgaande.
Mijn inziens waren de verbeteringen van DX9 --> DX10 --> DX11 dusdanig klein dat het meer een paar toegevoegde effecten waren (ik kan er naast zitten, ik zit niet diep in de materie). Terwijl dat DX12 gewoon compleet anders is.
Pagina: 1 ... 5 ... 11 Laatste

Dit topic is gesloten.