Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Dennism schreef op zaterdag 27 januari 2018 @ 11:34:
[...]


Dat is inderdaad ook wel iets waar ik benieuwd naar ben, er even voor dit voorbeeld uitgaande dat Pcper niet wist dat hun link op de Radeon site stond.

Zouden zij dan kunnen zien dat een deel van de inkomsten via hun eigen affiliate links komt op hun eigen website / youtube kanaal en waar verder ze die ook gepost mogen hebben en een via bijv. de Radeon website of gaat dit bij amazon op de grote hoop omdat alle links uiteinde hetzelfde referral ID bevatten.
Lijkt me wel logisch dat amazon die data levert -- zodat je weet welke content 'succesvol' is en je referrals oplevert enzo; hetzij per product dat is gekocht, hetzij per originating URL.

[ Voor 4% gewijzigd door foppe-jan op 27-01-2018 11:36 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
Dennism schreef op zaterdag 27 januari 2018 @ 11:13:
[...]


Ik vind het eerste net zo onacceptabel als het 2de.
Ik vind het vooral heel erg dom. Te dom om bewust te zijn. Als het bewust is, dan is het nog dommer dan onbewust. Ik ben eigenlijk wel blij dat de RTG nu direct onder Su valt want het zakelijke leiderschap van de RTG Koduri was een behoorlijke mislukking. Ze hebben nu een andere voormalige ATi ontwerper erbij gehaald die ook heel wat kan, en dan een fatsoenlijke zakelijke manager ernaast.
Ik doelde er meer op dat het schrijven van whitepapers op aanvraag van fabribant X in de basis geen vreemde praktijk is, ik zie bij mijn werk bijna iedere dag wel whitepapers geschreven voor fabrikant x of y. Dat je dan data uit dat whitepaper zonder duidelijke bron vermelding ergens anders ook gebruikt dat klopt gewoon niet, maar dat gaf ik ook al aan.
En dat vind ik dus veel kwalijker. Dit is paid review zonder enige ethische basis. Dat Adored kennelijk de steun heeft gekregen van andere techmedia voor deze video zegt al genoeg.
Dennism schreef op zaterdag 27 januari 2018 @ 11:34:
[...]


Dat is inderdaad ook wel iets waar ik benieuwd naar ben, er even voor dit voorbeeld uitgaande dat Pcper niet wist dat hun link op de Radeon site stond.

Zouden zij dan kunnen zien dat een deel van de inkomsten via hun eigen affiliate links komt op hun eigen website / youtube kanaal en waar verder ze die ook gepost mogen hebben en een via bijv. de Radeon website of gaat dit bij amazon op de grote hoop omdat alle links uiteinde hetzelfde referral ID bevatten.
Kennelijk kan je zien welke producten er zijn gekocht met gebruik van die links. Voor de Vega links zou er dus zoveel Vega's maal percentage bekent moeten zijn voor Pcper...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:25
DaniëlWW2 schreef op zaterdag 27 januari 2018 @ 11:35:

Ik vind het vooral heel erg dom. Te dom om bewust te zijn. Als het bewust is, dan is het nog dommer dan onbewust. Ik ben eigenlijk wel blij dat de RTG nu direct onder Su valt want het zakelijke leiderschap van de RTG Koduri was een behoorlijke mislukking. Ze hebben nu een andere voormalige ATi ontwerper erbij gehaald die ook heel wat kan, en dan een fatsoenlijke zakelijke manager ernaast.


En dat vind ik dus veel kwalijker. Dit is paid review zonder enige ethische basis. Dat Adored kennelijk de steun heeft gekregen van andere techmedia voor deze video zegt al genoeg.
Ik vind beide gevallen dom, kwalijk en onacceptabel :P
Kennelijk kan je zien welke producten er zijn gekocht met gebruik van die links. Voor de Vega links zou er dus zoveel Vega's maal percentage bekent moeten zijn voor Pcper...
Dat snap ik, ik vraag me alleen af of ze kunnen zien dat Vega A,B,C verkocht zijn via hun Vega review referral link, Vega E,F en G bijv. via een referral link op hun youtube kanaal en Vega H.I en J via de Radeon site (wat je eigenlijk wel zou verwachten).

Of dat Amazon dat op een grote hoop gooit en PCper enkel ziet dat ze commissie hebben gekregen op de verkoop van Vega A,B,C,D,E,F,G,H,I en J omdat deze allemaal gekocht zijn via referral links met ID PCper-20 (of wat het ID ook exact was).

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Dennism schreef op zaterdag 27 januari 2018 @ 11:34:
[...]


Dat is inderdaad ook wel iets waar ik benieuwd naar ben, er even voor dit voorbeeld uitgaande dat Pcper niet wist dat hun link op de Radeon site stond.

Zouden zij dan kunnen zien dat een deel van de inkomsten via hun eigen affiliate links komt op hun eigen website / youtube kanaal en waar verder ze die ook gepost mogen hebben en een deel via bijv. de Radeon website of gaat dit bij amazon op de grote hoop omdat alle links uiteindelijk hetzelfde referral ID bevatten.
Ah, dat is interessant. Als je via een affil link binnenkomt, maakt amazon een cookie aan dat 24u geldig is, en krijg je een deel van alles dat die persoon in die periode in een winkelmand gooit, zolang de producten 'qualifien'. Dus of er Vega FE's verkocht zijn is niet de relevante vraag
You earn advertising fees on any qualifying items placed in a customer's Shopping Cart within 24 hours of their arrival at Amazon.co.uk via your Associates link. However, this 24-hour window closes once the customer submits his order or reenters Amazon.co.uk through another Associate's link. Once the window is closed, you will not earn advertising fees on any subsequent purchases. However, if the customer then returns to Amazon.co.uk through one of your Associates links, this opens a new 24-hour window.
It is of course possible that a customer may arrive at Amazon.co.uk via your Associates link, add an item to his Shopping Cart, and then leave Amazon.co.uk without placing an order. As long as the item was added to the customer's Shopping Cart during this 24-hour window, you will still earn a referral fee if the order is placed before the Shopping Cart expires (usually after 90 days). The referral fee will not be credited to your Associates account until the customer has purchased the item, accepted delivery, and remitted full payment to Amazon.co.uk.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:25
Wow, dat kan potentieel best veel geld opleveren dan.....

Acties:
  • +2 Henk 'm!

Verwijderd

After a discussion with Ryan @pcper he agreed to modify the FreeSync video title and add a disclaimer to the Optane review. I should have a video out by tonight on this and some other related topics. For now, I'm mostly satisfied and I'm putting the video private again.

Like I said I'll cover the issues and Ryan's response in a video tonight, now that he has exercised his right of reply. I care about the outcome, not a witch-hunt.

There are various copies out there, the video will be watched by anyone who wants it - the only difference is I won't be profiting from it. There are various copies out there, the video will be watched by anyone who wants it - the only difference is I won't be profiting from it.
DaniëlWW2 schreef op zaterdag 27 januari 2018 @ 11:35:
[...]

Ik vind het vooral heel erg dom. Te dom om bewust te zijn. Als het bewust is, dan is het nog dommer dan onbewust. Ik ben eigenlijk wel blij dat de RTG nu direct onder Su valt want het zakelijke leiderschap van de RTG Koduri was een behoorlijke mislukking.
Ja, dat lag natuurlijk meer aan AMD dan aan Koduri. Hoewel het niet ongebruikelijk is dat ingenieurs een manager worden bij dergelijke bedrijven en dit vaak uitstekend werkt (ASML is ook zo'n bedrijf) is het wel een specialisatie waarvoor lang niet iedere goede ingenieur geschikt is.
Ik denk dat AMD het nu goed heeft opgelost met de vervangers van Koduri, voor zo ver ik het kan overzien. Wel afwachten hoe het in de praktijk uitpakt maar in ieder geval lijkt het mij verstandig om die twee verwantwoordelijkheden te splitsen, het is zwaar genoeg om de hardware en software voor de GPU te regelen, dan kan je niet nog eens goed het management erbij nemen, om nog maar te zwijgen over dat de beste ingenieur voor het een niet per se de beste manager is.
En dat vind ik dus veel kwalijker. Dit is paid review zonder enige ethische basis. Dat Adored kennelijk de steun heeft gekregen van andere techmedia voor deze video zegt al genoeg.
Hij heeft het niet gemeld maar het lijkt erop dat Anandtech en Tom's Hardware contact met hem hierover hebben gehad aangezien hij expliciet meldde dat deze twee media aanzienlijk groter zijn dan PCPerspective.

[ Voor 98% gewijzigd door Verwijderd op 27-01-2018 21:25 ]


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
YouTube: PC Perspective's Right to Reply.

2de video hier over. De 1ste blijft gewoon online.
YouTube: A Flawed PC Perspective

[ Voor 24% gewijzigd door Enchantress op 28-01-2018 13:20 ]


Acties:
  • 0 Henk 'm!

  • Derby
  • Registratie: Januari 2010
  • Niet online
Wat een droef toeter bij dat PCPer. Volledig terecht in mijn ogen dat Jim die video weer online gooit. Jim heeft er wel een gewoonte van gemaakt mensen tegen de haren in te strijken.

Is er al enige nieuws over opvolgers van de RX 500 serie? Die zijn al weer een poos uit, niet leverbaar, maar al weer oude techniek. Op de CES werd er met geen woord over gerept.

If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair


Acties:
  • 0 Henk 'm!

Verwijderd

Derby schreef op zondag 28 januari 2018 @ 13:41:
Wat een droef toeter bij dat PCPer. Volledig terecht in mijn ogen dat Jim die video weer online gooit. Jim heeft er wel een gewoonte van gemaakt mensen tegen de haren in te strijken.
Hij is een man met een missie, hij begon aan deze vlogs met 1 intentie: de fouten van hardwarejournalisten onder een vergrootglas leggen. Dit omdat hij vaststelde dat er teveel misgaat in de hardwarejournalistiek en hij ertoe wil bijdragen dat dit verandert in het belang van ons gewone mensen die hardware gebruiken. Ik parafraseer nu wat hij zelf heeft aangegeven in eerdere video's.
Is er al enige nieuws over opvolgers van de RX 500 serie? Die zijn al weer een poos uit, niet leverbaar, maar al weer oude techniek. Op de CES werd er met geen woord over gerept.
Nope. Voor de laatste stand van zaken raad ik aan om dit interview met Lisa Su te lezen.
https://www.anandtech.com...w-with-dr-lisa-su-amd-ceo


PS
Deze vraag illustreert mooi waarom Su een betere manager is dan Koduri (ik mis hem echter wel nog steeds).

Q: What system do you use in the office?

LS: I don’t have it here but we have a system that we had built specifically with AMD branding on it so I actually use an AMD branded notebook that currently is still Bristol Ridge. I have not switched over to a Raven Ridge notebook yet, but it has quite good battery life. I decided that if I use anybody’s notebook, I am going to appear as if I have favorites, so I’m using an AMD branded notebook.

Altijd diplomatiek en altijd het totale plaatje overziend.

[ Voor 22% gewijzigd door Verwijderd op 28-01-2018 15:22 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Derby schreef op zondag 28 januari 2018 @ 13:41:
Wat een droef toeter bij dat PCPer. Volledig terecht in mijn ogen dat Jim die video weer online gooit. Jim heeft er wel een gewoonte van gemaakt mensen tegen de haren in te strijken.

Is er al enige nieuws over opvolgers van de RX 500 serie? Die zijn al weer een poos uit, niet leverbaar, maar al weer oude techniek. Op de CES werd er met geen woord over gerept.
Als je die reacties bekijkt op twitter over dat Intel verhaal met die auto OC. Wat een schoolkinderen..
https://twitter.com/pcper/status/918318231151980545

Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 23-09 13:38
Ik ben al lang blij dat er iemand is die dit soort relletjes op poten zet, normaal gesproken wordt het beklag van lezers over dit soort praktijken (en het krioelt ervan in deze technologie sector) erg snel vergeten.

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op zondag 28 januari 2018 @ 15:43:
[...]


Als je die reacties bekijkt op twitter over dat Intel verhaal met die auto OC. Wat een schoolkinderen..
https://twitter.com/pcper/status/918318231151980545
Tja, het is een duidelijk verhaal voor iedereen die een beetje begrijpt hoe het werkt. Intel biedt een automatische overklokfunctie aan voor hun locked CPU's (een beetje raar maar goed) en moederbordfabrikanten gebruiken het. Reviewers die hun huiswerk maakten wisten dit en hadden correct getest. AdoredTV leidde zeer correct op basis van de klokfrequentie en 'IPC'-winst af dat een aantal reviewers overklokt testten en hij wees hierop. De redenatie klopte volledig. 1,5* voor de extra kernen, maximaal 5% voor 'IPC'-winst dus maximaal score X in Cinebench. Idem natuurlijk voor hoe hij afleidde dat Intel sjoemelde met de opgegeven boost. Je kan discussiëren of dat Intel het nu juist correcter deed doordat de boost daadwerkelijk een bonus is die enkel wordt gehaald onder bijzondere omstandigheden (koeling, kast...) en mogelijk nooit langdurig maar het feit dat je de ene generatie de boost daadwerkelijk haalt en die veel langer vasthoudt terwijl de volgende generatie die boost nauwelijks wordt gehaald voor een OEM, dat riekt naar sjoemelen, dat wijst erop dat Intel camoufleerde dat de werkelijke performance in een typische OEM-bak voor de R5 1600 hoger is dan voor de i5 8400. AdoredTV wees ook hierop met dezelfde redenatie: 1,5 keer voor het aantal kernen, dus bijna 1,5 keer de TDP voor dezelfde klokfrequentie, "hier klopt iets niets". Aldus werd Coffee Con Job geboren.

Dat hij hiervoor de wind van voren krijgt is inderdaad nogal kinderachtig van deze heren. Het is als een groep schooljongens die iemand bespot en pest die toch al de sigaar is, zich sterker voelende omdat ze weten dat terwijl ze met zijn allen meedoen met die jongen te pesten ze zelf veilig zijn. Erg onvolwassen en erg onbeschaafd. Nog een reden dat ik heel wat meer respect heb voor de heren van Level1Techs dan voor deze heren. Ondertussen doen die heren van Level1Techs het slechts als hobby en testen ze in hun vrije tijd, puur uit enthousiasme, zaken als het draaien van Windows in een virtuele machine met een Threadripper CPU, een GTX 1080 en hardware passthrough terwijl je FreeSync kan gebruiken. Ik raad gamers aan om naar deze stream van hen te kijken:

Hetzelfde geldt voor Ryzen. Als je de moeite wil nemen om het op te zetten dan is het nu mogelijk om niet meer Windows te gebruiken buiten een virtuele machine. Waarom is dat handig en nuttig? Omdat Windows dan geen low level access heeft tot je hardware, voor wie zich druk maakt om telemetrie en dat soort zaken. In theorie is het ook veiliger om Windows in een zandbak te gebruiken aangezien meer virussen en dergelijke gericht zijn op Windows, simpelweg omdat het veel meer wordt gebruikt.
1 probleempje though: je moet helaas een tweede grafische kaart gebruiken. Dus bijvoorbeeld een R7 270/GTX 950 in Linux en een Vega56 voor gaming. AMD zou het kunnen regelen dat dat niet meer nodig is maar helaas heeft AMD geweigerd om dit voor Vega in te voeren, ondanks dat AMD had aangegeven het wel te overwegen. Nog altijd veel beter dan Nvidia die passthrough volledig blokkeert op driver-niveau. Binnen een paar jaar zal AMD waarschijnlijk wel ondersteunen dat een grafische kaart gedeeld kan worden tussen meerdere systemen. Er bestaat een technische afkorting van 5 letters voor dit fenomeen, ik heb die hier eerder genoemd maar ik vergeet die steeds. |:(
Het punt is dat momenteel een grafische kaart slechts door 1 systeem met low level access kan worden benaderd terwijl het ook mogelijk is voor bedrijven zoals AMD om die door meerdere systemen tegelijkertijd met low level access te laten benaderen zonder dat er een relevante overhead is.

[ Voor 5% gewijzigd door Verwijderd op 28-01-2018 18:36 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Q6: With the launch for the 2017 products, the increase in market share, and the financial results, has that enabled AMD to expand into doing more projects simultaneously?

LS: It has definitely given us the affordability to invest more in our R&D. We invested more in R&D in 2017 than we did in 2016, and we will invest more in 2018 than in 2017. As our revenue grows, it gives us the opportunity to invest more. I think from my standpoint, those investments tend to be very much along the lines of expanding our capability, particularly in the graphics space, and around some of the software enablement because we believe that’s really important for us. And then, in the CPU space, we’ve had these multiple leapfrogging of generations and we’re going to continue to do that.

Q: Does that mean that there is room in the future for GPU bifurcation, between a gaming focus and a compute focus?

LS: I think there is. You will see us move on this, and we’re very committed to gaming so that’s not going to change, but you will see us do some more purpose-built products for the compute side of things.

Q17: For 7 nanometers, AMD has stated that the first product for this node is Vega and the focus is on machine learning. Some might feel that it is a bit odd for the first 7nm product to be on an existing GPU architecture and for the enterprise market. Do you have any comment?

LS: I think that we always think about this very systematically, as to how we bring out new process technology. In this case it made a lot of sense to bring Vega down to 7nm. Vega, as you know, is practically a brand-new architecture and it has only been out since August, so we believe Vega has legs. We have so many new features in Vega, such as adding some of the compute centric features – but the beauty of 7nm is density and the power. When you think about just how much compute horsepower you can put in the new technology, it made sense. We usually start with the GPU; the GPU is usually for us the first product in a technology. Graphics does have the capability for a lot of redundancy on it and so we feel like it’s a great utilization of the technology.
aminam schreef op zondag 28 januari 2018 @ 16:16:
Ik ben al lang blij dat er iemand is die dit soort relletjes op poten zet, normaal gesproken wordt het beklag van lezers over dit soort praktijken (en het krioelt ervan in deze technologie sector) erg snel vergeten.
Inderdaad, hij vervult een hele nuttige rol in die sector. Bovendien, als ze niet kwaad zouden worden op hem dan zou hij zijn werk niet goed doen.

[ Voor 70% gewijzigd door Verwijderd op 28-01-2018 19:28 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:25
Verwijderd schreef op zondag 28 januari 2018 @ 18:31:
[...]

Tja, het is een duidelijk verhaal voor iedereen die een beetje begrijpt hoe het werkt. Intel biedt een automatische overklokfunctie aan voor hun locked CPU's.
MCE is niet echt iets dat Intel aanbied, het is een artifact van het turbo boost systeem, waar Intel juist geen support voor geeft en ook niet binnen de Intel specs valt, maar eigenlijk puur een implementatie van bepaalde moederbord fabrikanten. In OEM machines zul je het bijvoorbeeld niet vinden.
Het punt is dat momenteel een grafische kaart slechts door 1 systeem met low level access kan worden benaderd terwijl het ook mogelijk is voor bedrijven zoals AMD om die door meerdere systemen tegelijkertijd met low level access te laten benaderen zonder dat er een relevante overhead is.
Dit wordt al jaren toegepast GPU's en bijv. VDI. Mogelijk met zowel AMD als Nvidia GPU's. Zie bijv. hier en dan het stukje vGPU https://docs.microsoft.co...s-graphics-virtualization Nu is vGPU niet volledig low level, er zit een MS driver tussen maar het werkt prima. Heb er zelfs voor lol wel eens een spelletje op getest.

Wil je volledig low level dan is DDA wat je zoekt, maar dat is inderdaad een 1 op 1 relatie tussen GPU en VM.
RemoteFX vGPU
RemoteFX vGPU is a graphics virtualization technology that allows the processing power of a GPU to be split across various guest operating systems

[ Voor 8% gewijzigd door Dennism op 29-01-2018 11:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dennism schreef op maandag 29 januari 2018 @ 11:31:
[...]


MCE is niet echt iets dat Intel aanbied, het is een artifact van het turbo boost systeem, waar Intel juist geen support voor geeft en ook niet binnen de Intel specs valt, maar eigenlijk puur een implementatie van bepaalde moederbord fabrikanten. In OEM machines zul je het bijvoorbeeld niet vinden.
Laten we het er op houden dat het speculatief is of dat Intel het al dan niet goedkeurt. Het was inderdaad correcter geweest om te stellen dat de moederborden deze functie aanbieden voor specifiek Intel.
In het verleden was het mogelijk om via een achterdeurtje de klokfrequentie van gelockte Skylake-CPU's aan te passen, daar stak Intel een stokje voor, Intel leverde nieuwe microcode die de functie uitschakelde op het eerstvolgende moment dat je de BIOS van het moederbord updatete. Oops.
We kunnen vaststellen dat Intel voor Coffee Lake vooralsnog niet deze achterdeur heeft gesloten. Vervolgens kan je speculeren waarom Intel dat niet heeft gedaan. De Concurrentie van Ryzen? Ik kan me voorstellen dat het Intel wel goed uitkwam dat hun gelockte CL-CPU's zo beter lijken te presteren dan dat ze zullen presteren in een OEM-bak.
Dit wordt al jaren toegepast GPU's en bijv. VDI. Mogelijk met zowel AMD als Nvidia GPU's. Zie bijv. hier en dan het stukje vGPU https://docs.microsoft.co...s-graphics-virtualization Nu is vGPU niet volledig low level, er zit een MS driver tussen maar het werkt prima. Heb er zelfs voor lol wel eens een spelletje op getest.

Wil je volledig low level dan is DDA wat je zoekt, maar dat is inderdaad een 1 op 1 relatie tussen GPU en VM.


[...]
Ik denk niet dat deze software het mogelijk maakt om vanuit Linux met Windows in een virtuele machine Windows directe toegang tot de grafische kaart te geven maar laat het vooral weten als dat wel mogelijk is. ;)
Ik had het over SR-IOV wat een verwaarloosbare performancehit geeft en wat platform-agnostisch is zoals Wendell het graag uitdrukt.
Heel het punt van wat hij daar doet is natuurlijk dat je geen Windows hoeft te draaien voor Windows-exclusieve software.
AMD had aangegeven te overwegen om SR-IOV te ondersteunen voor Vega, helaas hebben ze het niet gedaan, de consequentie hiervan is dat als je Windows enkel virtueel wil draaien dat je dan nog steeds een tweede grafische kaart nodig hebt. Zonde.
Zelf zou ik er graag mee experimenteren als je er geen tweede grafische kaart voor nodig zou hebben. Echt handig is het natuurlijk voor bepaalde groepen developers die veel in een Linux-omgeving moeten werken maar ook niet ontkomen aan bepaalde Windows-exclusieve software, het is dan fijn als je niet hoeft te dual booten. Ik hoop dat Wendell zijn voorspelling klopt dat we in de toekomst zullen zien dat alle software met nagenoeg geen verlies aan performance gedraaid kan worden in elk OS via containers. Een van de redenen dat hij die ontwikkeling verwacht is omdat het de gemakkelijkste manier is om backwardscompatibility te hebben voor oudere software die voor een ouder OS werd gemaakt. Dat zou ideaal zijn.

Uiteraard had en heb ik het over RX Vega.

[ Voor 6% gewijzigd door Verwijderd op 29-01-2018 14:11 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:25
Verwijderd schreef op maandag 29 januari 2018 @ 14:04:


Ik denk niet dat deze software het mogelijk maakt om vanuit Linux met Windows in een virtuele machine Windows directe toegang tot de grafische kaart te geven maar laat het vooral weten als dat wel mogelijk is. ;)
MS software zal dat inderdaad niet mogelijk maken op Linux, maar als MS de benodigde technieken kan implementeren in Hyper-V moeten andere partijen dat ook kunnen in hun Hypervisors. Ik zie in ieder geval geen technische bezwaren waarom zowel MS vGPU als DDA niet mogelijk zou moeten kunnen zijn in Linux.

Zowel AMD als Nvidia hebben met MxGPU en vGPU ook ondersteuning voor dit soort zaken in vSphere en Xen Server.
Heel het punt van wat hij daar doet is natuurlijk dat je geen Windows hoeft te draaien voor Windows-exclusieve software.
Misschien dat ik wat mis, maar die snap ik niet helemaal, voor zover ik kan zien draait hij gewoon Windows in een VM. Dat is nog steeds gewoon Windows draaien ;) Je hebt nog steeds een licentie nodig ook, dus qua kosten bespaar je ook niets in dat opzicht.
AMD had aangegeven te overwegen om SR-IOV te ondersteunen voor Vega, helaas hebben ze het niet gedaan, de consequentie hiervan is dat als je Windows enkel virtueel wil draaien dat je dan nog steeds een tweede grafische kaart nodig hebt. Zonde.
Dat klopt, echter zou een simpele gpu voldoende moeten zijn, ik heb iets soortgelijks in het verleden wel eens ter test gedraait op een Intel machine met de standaard gpu in de CPU en dan de dedicated kaart doorgeven. Werkte prima. Echter daar is een AMD user natuurlijk niet snel mee geholpen, tenzij deze een APU heeft ;)

Ik verwacht ook niet dat dit heel erg snel een echt grote use case krijgt onder het algemene publiek, en anders kun je natuurlijk altijd nog Windows draaien op de hardware voor je games, Hyper-V rol erop knallen en Linux in VM's draaien. Eigenlijk het omgekeerde van de test van Wendell, ik verwacht eigenlijk persoonlijk dat die methode mogelijk zelfs een stuk beter werkt.

Acties:
  • 0 Henk 'm!

Verwijderd

Dennism schreef op maandag 29 januari 2018 @ 14:54:
Misschien dat ik wat mis, maar die snap ik niet helemaal, voor zover ik kan zien draait hij gewoon Windows in een VM.
Hij draait de Windows-software maar Windows is daar niet de OS van het systeem. Het is misschien een beetje een semantische kwestie, het gaat erom dat Windows niet met bare-metal-access draait en dat je niet hoeft te dual booten terwijl je van software in ene omgeving (Linux) naar software in de andere omgeving schakelt. Dat scheelt tijd (en ergernis) en het is handig voor multitasking en omdat je de GUI van je eigen voorkeur kan gebruiken en zo.

offtopic:
De perfecte OS heb ik nog niet gevonden, zowel Windows als Linux hebben helaas een flink aantal gebreken, maar er zijn zeker voldoende relevante verschillen om een voorkeur te hebben. Een onmiskenbaar voordeel van Linux is dat de zoekfunctie sterk superieur is t.o.v. die van Windows, in het bijzonder als je voor W10 kijkt (aiaiai, W7 heeft er zelfs nog moeite mee om op een SSD van 500 GB snel iets te vinden 8)7). Ik vind de vensters en desktop van Gnome superieur t.o.v. Windows wanneer je er eenmaal aan gewend bent geraakt. Ik vind de GUI van W\10 een ramp. Ik haat het dat je voor de vensters slechts een klein aantal kleuren, 'wit', 'zwart' en grijs (alle 3 zijn uiteraard een ramp bij LCD-schermen) kan kiezen, al die kleuren op de laatste 3 na zijn belachelijk fel en schreeuwerig (een beetje zoals het rood van Tweakers ;)), waarom niet toestaan zoals bij W7 dat je zelf bepaald hoe gesatureerd, fel etc. de kleuren zijn? Daarnaast natuurlijk dat geklookt met twee instellingen-menu's waarbij het nieuwe instellingen-menu eerder voor tabletten en smartphones met een touchscreen lijkt te zijn gemaakt dan voor desktop/laptop-computers. Simpele tekeningen, 1 saaie kleur, geen duidleijke pictogrammen zoals in de control panel. Binnen de GUI ontbreekt het in het algemeen aan consistentie, het een is vernieuwd (niet noodzakelijk verbeterd) terwijl het ander nog de oude GUI-elementen gebruikt.
Windows 10 kan naar verluidt nog steeds niet goed omgaan met hoge resoluties omdat het niet vectorieel karakters laat berekenen maar bitmaps gebruikt. |:(

Tenslotte een laatste GUI-klacht. Druk op de Windows-knop terwijl je fullscreen een applicatie draait en je krijgt de takenbalk. So far so good. Druk nog een keer op de Windows-knop en Windows weigert om de applicatie terug in fullscreen te zetten. Dat zijn details die mij storen, omdat ik vaak terwijl ik een Youtube-filmpje bekijk naar de klok kijk en hiervoor de takenbalk laat verschijnen. Dit heeft MS pas bij W8 of W10 verbeterd, ik weet dat het bij W10 is opgelost aangezien ik dat een paar dagen heb geprobeerd (en toen gillend wegrende).
Een probleem wat MS nog steeds niet heeft opgelost: er zijn nog steeds een paar pixels (2 hoog?) te zien wanneer de takenbalk 'verborgen' is. Ik vermoed dat MS dit deed omdat het als volgt de takenbalk heeft geprogrammeerd; een verticale translatie van de pixels bij het tonen en verbergen waarbij een overlapping van de muiscursor met de bovenste pixels de takenbalk doet verschijnen. Geen excuus, want wat houdt MS tegen om de takenbalk niet te tekenen terwijl je wel die coördinaten opslaat. [/li]
Hiermee komen we op een ander puntje waarom ik graag zie dat je niet langer een OS moet gebruiken omdat bepaalde software OS-exclusief is. De bedrijven die een OS maken worden gedwongen om de OS beter te maken. Nu kopen mensen toch wel Windows, ongeacht hoe bont MS het maakt. Idem voor Apple en OSX maar met een paar relevante verschillen. Laat MS het maar afdwingen dat mensen hun OS kopen door het zo gebruiksvriendelijk mogelijk te maken voor alle groepen gebruikers.

Dit zijn slechts GUI-elementen, ik heb het nog niet eens over telemetrie, gedwongen potentieel systeembrekende updates en in-OS reclame (voor Microsoft-producten en crapware die wordt gebundeld met Windows en doodleuk bij elke grote update opnieuw wordt geïnstalleerd nadat de gebruiker het heeft verwijderd) gehad . Onlangs liet MS weten wat voor data ze allemaal versturen, ze laten zelfs automatisch opsturen hoeveel video's jij bekijkt, welke programma's jij gebruikt en welke programma's jij voor wat gebruikt, dat gaat hen echt niets aan!

Natuurlijk is het nadeel van Linux dat de hardwarecompatibiliteit nog steeds soms wat problematisch is in die zin dat je meer moeite moet doen om bepaalde hardware te laten werken. Ik heb een geluidskaart die niet out of the box werkt bij Linux, bij Mint is het een kwestie van Alsa installeren (Joost mag weten waarom het niet gebundeld wordt nadat je hardware is gedetecteerd) en bij sommige andere distro's is het nog wat ingewikkelder om het werkende te krijgen (Alsa en Pulse zijn geïnstalleerd maar toch werkt het niet). Om fair te zijn, dit ligt veel meer aan de hardwarebedrijven dan aan Linux maar het is een probleem. Net als de exclusieve software voor Windows. Alleen zou dat geen reden moeten zijn om voor het ene of het andere besturingssysteem te kiezen. Verder kan het bij Linux best wel lastig zijn om informatie te vinden terwijl je voor Windows gemakkelijk alles kan opzoeken. Je hebt bij Windows weinig keuze maar het werkt wel out of the box.
1 kanttekening hierbij: mijn ethernetkaart werkt bij de twee Linux-distro's die ik heb uitgeprobeerd out of the box, bij Windows 7 niet! Erg handig als je voor het eerst je computer in gebruik neemt. Je moet een internetverbinding hebben om de driver te downloaden maar je kan de driver pas krijgen als je een internetverbinding hebt. Kom op MS, stop dat eens in de installer. :')
Voor de context, mijn moederbord heeft geen onboard-internet.


Vandaar dat ik enthousiast ben over ontwikkelingen die het mogelijk maken om alle software in alle besturingssystemen (bare metal access!) te draaien - met een virtuele machine of beter, met een container - zonder een noemenswaardig performanceverlies te hebben. Helaas is het nu nog geen realistische optie omdat je een tweede grafische kaart nodig hebt en ideaal gesproken nog wat extra hardware nodig hebt (KVM), ik hoop dat AMD in de volgende ronde wel SR-IOV ondersteunt voor de RX-kaarten.

Voor wie nu denkt dat je nog steeds veel tijd verliest door het opstarten met de virtuele machine, niet echt, binnen 2 seconden is het opgestart. Natuurlijk is het fijn als dat nog sneller gebeurt maar iedereen die spinning rust heeft gebruikt als enige interne opslagmedium zal hier niet over vallen. ;)
Je hebt nog steeds een licentie nodig ook
Ja en nee (je kan Windows ook gebruiken zonder licentie, zowel bij een virtuele machine als bij bare metal, MS blokkeert Windows op geen enkel moment, het beperkt enkel wat customization-opties, je kan er dus in theorie voor kiezen om het zonder licentie te gebruiken, for the time being). Qua licentie maakt het inderdaad geen verschil maar daar gaat het dan ook niet om.
Dat klopt, echter zou een simpele gpu voldoende moeten zijn
Bij AMD kom je op een RX 550 uit (vanaf €95), bij Nvidia zou je op een GT 1030 (vanaf €70) uitkomen. In beide gevallen is de prijs best wel hoog afgezet tegenover hoeveel GPU je krijgt. Dat heeft natuurlijk ook te maken met dat niet alle kosten goed scalen met hoeveel GPU je krijgt (PCB, marketing, distributieketen, retailer).
Ja, met geïntegreerde graphics zou het ook prima werken maar dat is voorlopig niet echt een optie bij Zen, lijkt het. Ik ben van mening dat je nu geen CPU met minder dan 12 threads meer moet kopen.
Ik verwacht ook niet dat dit heel erg snel een echt grote use case krijgt onder het algemene publiek
Dat klopt maar AMD heeft laten zien wel bereid te zijn om voor een relatief kleine doelgroep dit soort zaken uit te werken. Ze steken momenteel veel energie in Linux en ze hebben voor Linux al best veel geoptimaliseerd in het afgelopen jaar. Sommige doorbraken kwamen van elders (een 'gewone' gebruiker die voor een gespecialiseerd softwarebedrijf werkt, laatst een medewerker van MSI die zelf een enthusiast is en op het Level1Techsforum actief is...) maar AMD heeft naar verluidt ook veel bijgedragen. Het zit er dus wel in dat AMD in de toekomst SR-IOV (en MR-IOV) ondersteunt voor de RX-kaarten, het hangt natuurlijk af van hoeveel tijd het kost om dat goed uit te werken. Misschien een leuke klus voor een stagiair die een afstudeeroprdacht heeft? ;)
Eigenlijk het omgekeerde van de test van Wendell, ik verwacht eigenlijk persoonlijk dat die methode mogelijk zelfs een stuk beter werkt.
Het is te hopen aangezien Linux open source is. ;)
Hoewel Wendell pragmatisch is (niet iemand die de Linux-religie verkondigt) speelt volgens mij een beetje idealisme (een aversie hebben tegen het locken van software in een OS) ook mee.

Acties:
  • 0 Henk 'm!
Ik reageer hier want dit gaat veel te ver offtopic. :)
Dennism schreef op woensdag 31 januari 2018 @ 18:36:
Ben trouwens wel benieuwd waar dat 300k cijfer per kwartaal voor iMac Pro's vandaan komt, of zijn dat nog ramingen? Die machine is namelijk amper een week of 6 op de markt :)
Dat was een ruwe schatting, kwam uit een comment van YouTube: AMD vs NV Drivers: A Brief History and Understanding Scheduling &amp...
Verder is het niet zonder basis. Apple verscheept behoorlijk wat product, zeker bij een launch. Genoeg mensen die er zulke belachelijke bedragen voor willen betalen omdat het Apple is en de iMac Pro lijn was toe aan vervanging.
En ook vraag ik me het nog steeds af of het wel zo handig je trouwe AIB (en dan zeker de AMD exclusieve) partners (en de consumenten) zo te behandelen. Stel dat je ze ooit nog weer nodig hebt..... Korte termijn is het allemaal zeer begrijpelijk vanuit AMD, maar lange termijn moet ik nog maar even zien...
Ten eerste was het Nvidia die hier weer eens een paar presenten heeft gezet en AMD volgt die weer. Nvidia verkoopt FE kaarten direct aan mensen. Nvidia heeft hun Quadro lijn exclusief gemaakt zodat ze al die winsten zelf opstrijken en Nvidia verkoopt hun Tesla's direct aan klanten. Waarom zou AMD dit niet mogen doen voor hun HPC chip? Dat is Vega, een HPC chip. Leuk die RX Vega, ben er zelf behoorlijk tevreden mee, maar het is geen gaming GPU. AMD zal ook nooit winst maken op RX Vega verkopen. Niet tussen de kosten van die enorme chip, HBM2, PCB, koeling AIB's en retail die allemaal wel winst willen maken.

Nu dat uit de weg is, de AIB's zelf. Die hebben echt geen recht tot klagen vanwege Polaris 10. Dit hele cryptomining gedoe is al lang bezig. Het begon eigenlijk al voordat de RX5xx uberhaupt uitkwamen. Die kwamen in april 2017 uit in volume. Ze waren allemaal weg tegen eind mei. In die twee maanden kochten miners ze ook, maar bleven ze in de winkel te krijgen voor normale prijzen. De miners waren namelijk druk bezig om ook alle RX470's en RX480's te kopen die er nog waren. Gamers kochten die kaarten niet omdat ze liever een GTX1060 of zelfs GTX1050Ti kochten want Nvidia. Totaal bezopen, zeker in het geval van de RX470, maar het gebeurde wel.

De AIB's kunnen nu al bijna een jaar lang hun bestellingen van Polaris 10 direct verkopen aan miners. Ze hoeven geen retailketen in waar iedereen een marge moet draaien. Nee, ze verkopen ze direct. Zeker nu er geen alternatief is, kunnen de AIB's er gewoon MSRP prijzen of meer voor vragen. Al die mining bedrijven hun hallen staan echt niet voor niks vol met RX470/480/570/580's. Je ziet vooral heel veel Sapphire en MSI. Dan krijgen ze maar nauwelijks Vega 10 chips, ze hebben niks te klagen omdat ze meer dan genoeg verdienen op Polaris 10 sales aan miners. Verder kunnen ze zelf ook nauwelijks wat verdienen aan RX Vega. Wie koopt die kaarten nu werkelijk voor €200 meer dan een tegenhanger van Nvidia?

Verder hoe behandeld AMD hun klanten slecht? Gamers zijn geen klanten van AMD. Verder kan AMD er helemaal niks aan doen dat gamers geen Polaris 10 meer kunnen kopen, los van zelf de productie van referencekaarten opstarten en deze verkopen op een eigen website, maximaal een per persoon. Het zijn de AIB's, niet AMD die verantwoordelijk zijn dat de kaarten verdwijnen naar de miners. De echte klanten van AMD, partijen zoals Baidu of Apple behandelen ze uitstekend. Ze leveren gewoon wat is besteld en hebben volgens Lisa Su ook geen limiet bereikt op wafercapaciteit.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:25
DaniëlWW2 schreef op woensdag 31 januari 2018 @ 19:44:
Ik reageer hier want dit gaat veel te ver offtopic. :)


[...]


Dat was een ruwe schatting, kwam uit een comment van YouTube: AMD vs NV Drivers: A Brief History and Understanding Scheduling &amp...
Verder is het niet zonder basis. Apple verscheept behoorlijk wat product, zeker bij een launch. Genoeg mensen die er zulke belachelijke bedragen voor willen betalen omdat het Apple is en de iMac Pro lijn was toe aan vervanging.
Ah duidelijk dan, wel met de kant tekening dat dit de eerste iMac Pro is, aan vervanging toe zijn van de range zal niet direct aan de orde zijn ;)

De Mac Pro is wel aan vervanging toe, maar die range komt als het goed is dit jaar aan de beurt. Ik verwacht ook niet dat de iMac Pro direct een vervanger is voor de Mac Pro voor veel gebruikers van die range. De iMac Pro is een klein beetje "vreemd", namelijk wel een zakelijk georiënteerde cpu (een langzamere Xeon-W variant), wel ECC geheugen, maar bijv. weer geen Professionele videokaart waardoor deze (mede door het geïntegreerde glossy scherm) een beetje blijft hangen tussen zakelijk en prosumer in.

Waarom zouden gamers trouwens geen (indirecte) klanten zijn van AMD, ik bijv. heb jaren gelukkig gegamed op Ati / AMD, het enige waarom ik nu geen AMD kaart heb is vanwege een bug die ze verzuimden op te lossen met de HD79xx series en de X58 chipset (niet compleet verzuimden, na een jaar was er eindelijk een fix). Hadden ze die bug niet gehad en hadden ze verkrijgbare kaarten was ik zeer waarschijnlijk op dat vlak nog steeds AMD klant geweest. En zo zie ik er best veel, genoeg comments overal van gamers die graag AMD Vega zouden hebben (ook al het geen optimale chip), ze zijn alleen niet verkrijgbaar en daarom bijna wel veroordeeld tot het groene team.

[ Voor 19% gewijzigd door Dennism op 31-01-2018 19:57 ]


Acties:
  • 0 Henk 'm!
Dennism schreef op woensdag 31 januari 2018 @ 19:50:
[...]


Ah duidelijk dan, wel met de kant tekening dat dit de eerste iMac Pro is, aan vervanging toe zijn van de range zal niet direct aan de orde zijn ;)

De Mac Pro is wel aan vervanging toe, maar die range komt als het goed is dit jaar aan de beurt. Ik verwacht ook niet dat de iMac Pro direct een vervanger is voor de Mac Pro voor veel gebruikers van die range. De iMac Pro is een klein beetje "vreemd", namelijk wel een zakelijk georiënteerde cpu (een langzamere Xeon-W variant), wel ECC geheugen, maar bijv. weer geen Professionele videokaart waardoor deze (mede door het geïntegreerde glossy scherm) een beetje blijft hangen tussen zakelijk en prosumer in.
Mensen betalen er minimaal $5000 voor. Beetje raar zijn ze dan toch al. :P
Apple hoor je niet klagen hoor. Verder dan de Mac Pro zomaar eens de Vega 20 chip krijgen. Ik zou niet verbaast zijn. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:25
DaniëlWW2 schreef op woensdag 31 januari 2018 @ 19:55:
[...]


Mensen betalen er minimaal $5000 voor. Beetje raar zijn ze dan toch al. :P
Apple hoor je niet klagen hoor. Verder dan de Mac Pro zomaar eens de Vega 20 chip krijgen. Ik zou niet verbaast zijn. ;)
Dat er AMD in gaat zitten staat denk ik wel vast, ik verwacht de spec varianten (of vernieuwde revisies) uit de Radeon Pro lijn als optie.

Acties:
  • 0 Henk 'm!
Dennism schreef op woensdag 31 januari 2018 @ 19:58:
[...]


Dat er AMD in gaat zitten staat denk ik wel vast, ik verwacht de spec varianten (of vernieuwde revisies) uit de Radeon Pro lijn als optie.
Vega 20 gaat alleen maar HPC zijn. 32GB aan HBM2 gaat niet voor gamers beschikbaar komen gok ik zo. :+
Dus je mag kiezen tussen de Instinct of Radeon Pro smaakjes. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Dat gezegd hebbende, waarom was het nodig om voor 7nm vega te gaan, terwijl een chiplet-aanpak veel logischer is voor een nieuw proces (los van het feit dat TSMC geen problemen heeft)? Willen ze voor navi specifiek van glofo gebruik maken? Want anders betekent dat natuurlijk dat het ontwerp van navi nog niet af is / niet wil, of dat 7nm glofo vertraging heeft opgelopen. Kan natuurlijk dat ze op dit moment verwachten q1 2019 voor zen 2 wel te halen, maar goed, ook dan is het wat wonderlijk dat vega20 en navi elkaar zo snel zouden opvolgen. (En over navi heb ik ze nog niet horen zeggen dat het ontwerp 'af' was, zoals ze met zen2 wel hebben gedaan.)

[ Voor 28% gewijzigd door foppe-jan op 31-01-2018 22:38 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

Daar (waarom AMD voor dit TSMC kiest ) valt nog weinig zinnigs over te zeggen, een paar mogelijkheden die ik zie:
- TSMC gaat iets eerder klaar zijn voor productie op grote schaal
- AMD vindt de node van TSMC geschikter voor de GPU maar die van GF beter voor de CPU
- GF gaat wel genoeg capaciteit hebben om al die CPU's te produceren maar om ook de GPU's te doen is het nog wat te vroeg
- AMD kiest uit strategische overwegingen ervoor om niet enkel met GF samen te werken

Ik kan me voorstellen dat andere mensen nog meer redenen kunnen bedenken. Als we gaan speculeren, mijn speculatie is dat AMD sowieso geen haast heeft met nieuwe gamingkaarten gezien de 'mining'-gekte. Als ze nu een nieuwe generatie uitbrengen dan wordt die weer door miners gebruikt, dus wat is het punt? Je kan dan net zo goed nog verder gaan met wat je al hebt totdat die 'mining'storm gaat liggen. De vraag is nu of dat op een gegeven moment die 'mining'markt verzadigd gaat zijn. Het is duidelijk dat nu ook tal van grote bedrijven kaarten opkopen en het gaat helaas niet enkel om de grote miningfarms, ook andere bedrijven zitten er nu in.
Zouden bedrijven zoals Goldman Sachs nu ook kaarten opkopen? Ze deden dat eerder met rijst waardoor het wereldwijd fors duurder werd waarmee dat 'bedrijf' hun zakken vulde ten koste van de gewone mensen.
DaniëlWW2 schreef op woensdag 31 januari 2018 @ 19:44:
Verder kan AMD er helemaal niks aan doen dat gamers geen Polaris 10 meer kunnen kopen, los van zelf de productie van referencekaarten opstarten en deze verkopen op een eigen website, maximaal een per persoon. Het zijn de AIB's, niet AMD die verantwoordelijk zijn dat de kaarten verdwijnen naar de miners.
Als AMD voor de gamers zou kiezen dan zou AMD inderdaad zelf kaarten verkopen aan de gamers. Niet enkel referentiekaarten met een blowerkoeler maar ook uit andere modellen (stevige heatsink, open fans, grote en brede kaart).
Dat AMD dit nu niet doet valt goed te begrijpen, bedrijfskundig gezien, just saying. Het lijkt me duidelijk dat de extra kosten voor het uitschakelen van de distributieketen niet opwegen tegen de huidige prijsstijgingen. :)
DaniëlWW2 schreef op woensdag 31 januari 2018 @ 19:55:
[...]


Mensen betalen er minimaal $5000 voor. Beetje raar zijn ze dan toch al. :P
Apple heeft zeer verdiend de reputatie belachelijke winstmarges te hanteren maar in dit geval - voor nu - valt het nog wel mee. Ik bash zo graag Apple als eenieder wie maar daar bestaan veel betere aanleidingen voor.
Bij de oudere generatie maakte Apple het heel erg bont met de prijzen voor SSD's en meer RAM.
YouTube: Tek Syndicate Rebuilds a Mac Pro: 64GB RAM / 12 core CPU

Linus maakte een vergelijking door zelf een volgens hem vergelijkbare PC te bouwen.
Afbeeldingslocatie: https://s10.postimg.org/x4kow2gqx/Apple.png
Hier maak ik de kanttekening bij dat hij op een aantal punten voor (aanzienlijk) duurdere hardware koos dan die die Imac Pro heeft (CPU-koeler, kast, voeding, mechanisch toetsenbord) en dat ze waarschijnlijk een forse korting krijgen op die monitor en een minder grote korting krijgen op andere hardware, compenseer daarvoor en het valt nog steeds meer, voor Apple-begrippen. Een ander puntje is dat Apple onnodig de kosten verhoogt door een Xeon-CPU en ECC-RAM te gebruiken.
Bij Apple is typisch het probleem dat ze een paar jaar met zo'n configuratie doen en de prijs niet verlagen, over 3 jaar gaan mensen dus weer terecht klagen dat je voor hetzelfde geld een veel beter systeem kan maken of voor minder geld een even goed of beter systeem. Daarnaast rekent Apple altijd idiote premies voor betere specs dan de basisconfiguratie, ook nu (Vega 64 i.p.v. Vega 56).

[ Voor 22% gewijzigd door Verwijderd op 31-01-2018 23:25 ]


Acties:
  • 0 Henk 'm!
foppe-jan schreef op woensdag 31 januari 2018 @ 22:34:
Dat gezegd hebbende, waarom was het nodig om voor 7nm vega te gaan, terwijl een chiplet-aanpak veel logischer is voor een nieuw proces (los van het feit dat TSMC geen problemen heeft)? Willen ze voor navi specifiek van glofo gebruik maken? Want anders betekent dat natuurlijk dat het ontwerp van navi nog niet af is / niet wil, of dat 7nm glofo vertraging heeft opgelopen. Kan natuurlijk dat ze op dit moment verwachten q1 2019 voor zen 2 wel te halen, maar goed, ook dan is het wat wonderlijk dat vega20 en navi elkaar zo snel zouden opvolgen. (En over navi heb ik ze nog niet horen zeggen dat het ontwerp 'af' was, zoals ze met zen2 wel hebben gedaan.)
Navi is al af en lijkt gewoon gebakken te gaan worden op 7nm TSMC. Het probleem is dat tape-out tot product in de winkel minstens een jaar duurt. Dat is dus H2/2018 op zijn vroegst. Vega 20 is ondertussen een ander beestje. Het zal een Vega 10 chip zijn met vier in plaats van twee HBM2 stacks en wat aanpassingen hiervoor. Gebakken op 7nm zodat je een kleinere die krijgt, die hopelijk ook flink hoger clocked. Dan 32GB HBM2 erbij en je hebt een behoorlijke HPC chip.

Navi lijkt echt een MCM te gaan worden. Ook hint het bestaan van Vega 20 als dedicated HPC chip een beetje dat Navi wel eens meer gamer georiënteerd kan zijn. Ik denk nog steeds GCN, maar hopelijk weer wat beter getweaked dan Vega. Dan moeten we hopen dat DX12/Vulkan eindelijk doorbreken dit en volgend jaar. Ik heb zoveel verschillende theorieën gezien wat er mis is met Vega of Fiji, maar ze verklaren geen van allen de prestatieverschillen zo goed als mijn theorie over een limiet aan draw calls.


@Verwijderd Apple betaalt dus geen MSRP's hé. Nee, daar zit met gemak $1000 winst op.

[ Voor 4% gewijzigd door DaniëlWW2 op 01-02-2018 10:23 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
DaniëlWW2 schreef op donderdag 1 februari 2018 @ 10:21:
[...]


Navi is al af en lijkt gewoon gebakken te gaan worden op 7nm TSMC. Het probleem is dat tape-out tot product in de winkel minstens een jaar duurt. Dat is dus H2/2018 op zijn vroegst. Vega 20 is ondertussen een ander beestje. Het zal een Vega 10 chip zijn met vier in plaats van twee HBM2 stacks en wat aanpassingen hiervoor. Gebakken op 7nm zodat je een kleinere die krijgt, die hopelijk ook flink hoger clocked. Dan 32GB HBM2 erbij en je hebt een behoorlijke HPC chip.

Navi lijkt echt een MCM te gaan worden. Ook hint het bestaan van Vega 20 als dedicated HPC chip een beetje dat Navi wel eens meer gamer georiënteerd kan zijn. Ik denk nog steeds GCN, maar hopelijk weer wat beter getweaked dan Vega. Dan moeten we hopen dat DX12/Vulkan eindelijk doorbreken dit en volgend jaar. Ik heb zoveel verschillende theorieën gezien wat er mis is met Vega of Fiji, maar ze verklaren geen van allen de prestatieverschillen zo goed als mijn theorie over een limiet aan draw calls.
Het staat je vrij optimistisch te zijn enzo, maar dergelijk optimisme lijkt me niet echt 'warranted'.
Zie earnings call transcript:
Lisa:
Later this year, we plan to sample our first 7-nanometer Vega GPU, optimized for machine learning.
...
We are doing very active developments in the 7 across our GPU and our CPU portfolios. Relative to shipment date, I will until we get closer to production before we talk about that. But what we have said is that we will sample a GPU here in 2018, targeted machine learning and that will be in 7 nanometer technologies.
Dit soort vaagheid is een patroon -- m.a.w., sampling gebeurt voor 31 dec '18, volume launch van dit product (vega 7) in 2018q4 op zijn vroegst, waarschijnlijker 2019q1/2. Waarom zou je dat doen, behalve omdat navi toch nog niet klaar is (die ook prima voor hpc zou moeten kunnen worden ingezet)?

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
@foppe-jan Ik ga uit van informatie die ik heb gezien en wat redeneringsvermogen. Ik pretendeer niet de ondoorgrondelijke RTG werkelijk goed te begrijpen. Het is niet Nvidia die zo voorspelbaar zijn. :P

Maar je punten. Ik had de earnings call niet gelezen, dus dit is nieuw voor mij. Verder zeg ik voor Navi dat het H2/2018 op zijn vroegst is. 2019 kan heel goed. Wel weet ik dat TSMC 7nm wafers in volle productie zal gaan in mei. Dan minstens drie maanden erbij en dan kan je een launch verwachten. Dus vanaf H2/2018.

Qua Navi vs Vega speelt er mogelijk wat anders. Een tijdje terug werd bekent dat AMD iemand heeft ingehuurd voor het ontwerp van een GDDR6 controller voor GPU's. De verschillen tussen HBM2 en GDDR6 zijn dusdanig dat je er grote aanpassingen aan je architectuur voor moet doen. GDDR6 werkt met maximaal een 384 bit bus, Vega 10 heeft een 2048 bit bus. Dat soort zaken waardoor ze niet uitwisselbaar zijn. Ik begin te vermoeden dat AMD nog met minstens een monolithische GPU gaat komen voor HPC, en voor Navi een splitsing gaat maken naar een meer gamer georiënteerd ontwerp met GDDR6. Ik hoop dat die er zijn voor kerst, maar 2019 kan dus heel goed.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
@DaniëlWW2 mbt navi en dat gddr6 linkedin profiel: dat werd recent gespot, maar hij werkt al sinds sep 2015 voor AMD. Zou niet verwachten dat de vertraging daarin zit.

Wat betreft vega20: het valt mij op dat lisa nergens iets zegt over een volume launch . In het beste geval willen ze dat niet zeggen (begrijpelijk gegeven dat ook nvidia daarover zwijgt), in minder goed geval durven ze dat nog niet te zeggen / weten ze het nog niet, in slechtste geval weten ze al dat ze dat niet gaan halen.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op donderdag 1 februari 2018 @ 10:21:

@Verwijderd Apple betaalt dus geen MSRP's hé. Nee, daar zit met gemak $1000 winst op.
Dat begrijp ik, ik gaf dit zelf ook aan in mijn reactie: "en dat ze waarschijnlijk een forse korting krijgen op die monitor en een minder grote korting krijgen op andere hardware" , de OEM-korting en quantitydiscount.
Ik vergeleek het met de OEM's die voor budget-PC's meestal rond de zelfbouwprijs zitten, bij modellen van €700-900 typisch zo'n €50-100 boven de zelfbouwprijs en waarbij je marges van een paar honderd € ziet bij de ietwat 'luxere' PC's die een goede grafische kaart, betere CPU etc. hebben, oplopende tot $500-1000 voor de echt luxe modellen waarbij ik een buitenbeentje zoals Alienware buiten beschouwing laat.
Alienware lijkt de Beats onder de OEM's te zijn: veel marketing, extreem hoge winstmarges en meestal een matige kwaliteit. Gericht op leken die geen besef hebben van wat de waarde is van wat ze kopen.
Afgezet daartegen valt het deze ronde mee, Apple lijkt nu rond de 12,5% winst bovenop wat het zou kosten als je naar de MSRP kijkt. Natuurlijk zijn de winstmarges hoger omdat ze minder betalen. We zijn echter van Apple veel erger gewend, in de video waar ik naar verwees zie je mooie voorbeelden met de RAM en de SSD waarbij Apple honderden % winstmarges hanteerde. :Nu bij de Vega64-kaart rekenen ze ook de volle prijs van de Vega64 bovenop de basisprijs waarbij de Vega56 al inbegrepen is. Dit soort fratsen zijn voor mij de standaard geworden bij Apple.

Dat je deze computers van Apple om tal van redenen beter niet koopt - in essentie omdat je voor $3000 een PC kan bouwen en een monitor kan kopen die alles bij elkaar genomen een betere performance biedt en wel volledig upgradebaar is - is een ander verhaal. Qua prijs afgezet tegen de hardware valt het nu nog mee als je de basisconfiguratie neemt, dat zal over 2 jaar vast weer anders gaan zijn. Ik ben het dus helemaal met jou eens dat je gek bent als je $5000 betaalt voor deze computers (ik begrijp er übherhaupt niets van hoe mensen zich laten hersenspoelen door Apple) maar de prijs is misschien minder buitensporig hoog dan dat het lijkt, afgezet tegen de hardware, het is iets meer pro (of minder niet pro >:)) dan dat we van Apple zijn gewend.



Nu weer ontopic.
DaniëlWW2 schreef op donderdag 1 februari 2018 @ 10:21:
Navi lijkt echt een MCM te gaan worden. Ook hint het bestaan van Vega 20 als dedicated HPC chip een beetje dat Navi wel eens meer gamer georiënteerd kan zijn. Ik denk nog steeds GCN, maar hopelijk weer wat beter getweaked dan Vega. Dan moeten we hopen dat DX12/Vulkan eindelijk doorbreken dit en volgend jaar. Ik heb zoveel verschillende theorieën gezien wat er mis is met Vega of Fiji, maar ze verklaren geen van allen de prestatieverschillen zo goed als mijn theorie over een limiet aan draw calls.
Laten we hopen dat AMD in ieder geval de bottlenecks van GCN wegneemt door de gamingkaarten te laten afwijken van de Instinct-kaarten, van mij mogen er ook rustig in ruil daarvoor wat CU's verdwijnen die je meestal niet gebruikt. Fingers crossed.
Wat betreft Vulkan en DX12, typisch duurt het ontwikkelen van een spel ongeveer 4 jaar. Wanneer werden DX12 en Vulkan beschikbaar? Respectievelijk 2,5 en 1,5 jaar geleden? Dan moet je er nog rekening mee houden dat developers tot op zekere hoogte moeten leren ermee te werken en dat ze mogelijk koudwatervrees hadden, vooral voor Vulkan. Het kan nog even duren voordat we de volle vruchten van DX12 en Vulkan gaan zien.
Wat zeker is m.b.t. de GF 7 nm. node en Navi is dat ze op schema zitten, de CPU's en Navi komen ergens in de eerste helft van 2019 of eerder. Ik hoop eerder maar ik reken nergens op en met die 'mining'gekte maakt het ook weinig uit of dat het eerder komt, dat is nu een veel groter probleem, dat en de extreem hoge RAM-prijzen.

offtopic:
Ik hoop natuurlijk dat Vulkan elke versie van DX en andere proprietary single-platform software (zoals Havok) uit de markt gaat schoppen zodat alle spellen cross-platform worden. Het is idioot dat we nu met de loop van een pistool op ons hoofd MS Windows moeten gebruiken om die spellen te kunnen spelen.

[ Voor 30% gewijzigd door Verwijderd op 01-02-2018 13:01 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
DaniëlWW2 schreef op donderdag 1 februari 2018 @ 12:15:
@foppe-jan Ik ga uit van informatie die ik heb gezien en wat redeneringsvermogen. Ik pretendeer niet de ondoorgrondelijke RTG werkelijk goed te begrijpen. Het is niet Nvidia die zo voorspelbaar zijn. :P

Maar je punten. Ik had de earnings call niet gelezen, dus dit is nieuw voor mij. Verder zeg ik voor Navi dat het H2/2018 op zijn vroegst is. 2019 kan heel goed. Wel weet ik dat TSMC 7nm wafers in volle productie zal gaan in mei. Dan minstens drie maanden erbij en dan kan je een launch verwachten. Dus vanaf H2/2018.

Qua Navi vs Vega speelt er mogelijk wat anders. Een tijdje terug werd bekent dat AMD iemand heeft ingehuurd voor het ontwerp van een GDDR6 controller voor GPU's. De verschillen tussen HBM2 en GDDR6 zijn dusdanig dat je er grote aanpassingen aan je architectuur voor moet doen. GDDR6 werkt met maximaal een 384 bit bus, Vega 10 heeft een 2048 bit bus. Dat soort zaken waardoor ze niet uitwisselbaar zijn. Ik begin te vermoeden dat AMD nog met minstens een monolithische GPU gaat komen voor HPC, en voor Navi een splitsing gaat maken naar een meer gamer georiënteerd ontwerp met GDDR6. Ik hoop dat die er zijn voor kerst, maar 2019 kan dus heel goed.
Lijkt mij ook een raar idee dat de HBM(2) controller op die van GDDR6 lijkt. Ik denk dat een GDDR6 controller dichter in de buurt zit van een GDDR5(x) controller zit. HBM heeft ook een interposer nodig, GDDR niet.
Denk inderdaad dat we Navi nog niet in Q2 gaan zien, dat zal nog wel iets langer op zich laten wachten.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:25
Verwijderd schreef op woensdag 31 januari 2018 @ 23:15:


Apple heeft zeer verdiend de reputatie belachelijke winstmarges te hanteren maar in dit geval - voor nu - valt het nog wel mee. Ik bash zo graag Apple als eenieder wie maar daar bestaan veel betere aanleidingen voor.
Zo heel erg valt dat niet mee hoor, Apple is meester in het uitknijpen van toeleveranciers (en de consument :P ), ik verwacht dat iedere toeleverancier (zelfs Intel) op componenten in een iMac Pro maar zeer weinig marge pakt, het volume kan dat echter (deels) goedmaken. Daarnaast het helpen om aan bepaalde volumes te komen die je nodig hebt.

Maar kijk bijv. naar deze iMac Pro, upgrade van Vega 56 naar Vega 64 mag je 720 euro voor neerleggen, een upgrade die zou je het MSRP volgens zo'n 100 euro zou mogen kosten. Je betaald bij Apple dus gewoon voor de Vega 56, wil je die niet mag je nog steeds die Vega 56 betalen, en ook nog eens 720 euro voor de Vega 64.

Van Intel Xeon W 8 core naar Xeon W 18 core, 2880 euro meerprijs, meer dan de RCP van de Xeon W-2195 18 core met gelijke specs, terwijl je dus ook nog eens net als bij de videokaart de 8 core cpu die je niet afneemt wel volledig betaald.

Wees maar niet bang, Apple hanteert ook hier gewoon lekker hoge winstmarges, zeker op de niet basis modellen ;)

Acties:
  • 0 Henk 'm!
@Dennism Zeker voor AMD zal dit daarom zo aantrekkelijk zijn geweest. Ze zullen op elke chip wat verdienen, verkopen gegarandeerd enorme volumes, vervullen hun wafercontract met GoFlo veel makkelijker en kunnen opscheppen dat hun chips worden gebruikt door Apple. :Y


@Sp3ci3s8472 Had ik het dan over Q2? Nee, H2/2018 misschien. ;)


@Verwijderd Dus je wil dat AMD chips meer gaat ontwerpen zoals Nvidia? Al het niet noodzakelijke eruit halen en afmeten? Ja dat dacht ik al. :+

Met Navi, als het een MCM is, moet AMD juist flink omhoog gaan schalen. Weg met maar 64CU's en 4 pipelines. Gewoon 128CU's en 8 pipelines. Als mijn theorie klopt over drawcalls, en ik denk dat die aardig zal kloppen, dan heeft het voor AMD alleen zin om voorbij Polaris 10 formaat te gaan als DX12/Vulkan door zijn gebroken. Anders hoeven ze niet eens meer met een nieuwe generatie te komen. Die loopt dan nog meer tegen een bottleneck aan dan Fiji of Vega nu al doen. Als je ziet wat Vega al kan met een beetje DX12 titel dan weet je dat dit de enige toekomst is voor de RTG in gaming.

[ Voor 60% gewijzigd door DaniëlWW2 op 01-02-2018 16:53 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Wie weet gaat Intel daar mee helpen duwen (vulkan)? ;)

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op donderdag 1 februari 2018 @ 16:47:
Dus je wil dat AMD chips meer gaat ontwerpen zoals Nvidia? Al het niet noodzakelijke eruit halen en afmeten? Ja dat dacht ik al. :+

Met Navi, als het een MCM is, moet AMD juist flink omhoog gaan schalen. Weg met maar 64CU's en 4 pipelines. Gewoon 128CU's en 8 pipelines. Als mijn theorie klopt over drawcalls, en ik denk dat die aardig zal kloppen, dan heeft het voor AMD alleen zin om voorbij Polaris 10 formaat te gaan als DX12/Vulkan door zijn gebroken. Anders hoeven ze niet eens meer met een nieuwe generatie te komen. Die loopt dan nog meer tegen een bottleneck aan dan Fiji of Vega nu al doen.
Precies, daarom heb je momenteel meer aan een kaart met minder 'compute' en mee 'geometrie'. Voor Vulkan mogen we nog minstens zo'n 2,5 jaar wachten, voor DX12 minstens 1,5 jaar voordat het goed op gang komt. Hopelijk zal DX12 niet meer dan een kortstondig lapmiddel zijn totdat Vulkan goed op gang komt, hoe sneller heel die DX een zachte dood sterft hoe liever.
Natuurlijk vind ik het ook prima als alles flink omhoog gaat en je veel meer GPU krijgt voor hetzelfde geld maar dat levert je wel een hoger vermogen op. In alle eerlijkheid, hoeveel van ons gebruiken de kaart voor toepassingen zoals Blender en CAD. Niet dat ik geen zin heb om daar ooit nog eens mee aan de gang te gaan maar ik ben waarschijnlijk niet zo representatief.
Als je ziet wat Vega al kan met een beetje DX12 titel dan weet je dat dit de enige toekomst is voor de RTG in gaming.
Ik denk dat Vulkan voorlopig een veel beter voorbeeld is al is de samplesize nogal klein en komen de successen van 1 publisher maar het is duidelijk dat de architectuur die AMD gebruikt het best uit de verf komt bij moderne API's. Die moderne API's hebben waarschijnlijk de toekomst maar in de tussentijd zal AMD ook rekening moeten houden met dat DX11 nog een paar jaar relevant blijft, niet enkel voor nieuwe spellen, ook voor oude spellen. Ik denk dat AMD een tussenweg moet zoeken. Meer CU op highend-kaarten is enerzijds awesome, anderzijds stijgt het vermogen en staan veel van die CU's te slapen, zelfs op jouw Vega56 kaart al is er verhoudingsgewijs een overkill aan CU's maar een gebrek aan 'geometrie' aangezien het onderklokken aanzienlijk minder dan evenredig tot een verminderde FPS leidt en dan hebben we het over de cut, die Vega64 is in principe helemaal niet interessant voor gaming tenzij het je niet interesseert dat het vermogen idioot hoog wordt.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:25
DaniëlWW2 schreef op donderdag 1 februari 2018 @ 16:47:


@Verwijderd Dus je wil dat AMD chips meer gaat ontwerpen zoals Nvidia? Al het niet noodzakelijke eruit halen en afmeten? Ja dat dacht ik al. :+
Je kan er een beetje lacherig over doen, naar tenzij Navi inderdaad MCM is en echt een enorm verschil gaat maken zou ik het eigenlijk niet erg vinden. Nvidia laat duidelijk zien dat het werkt. Vooral de Gaming divisie (en nu mining) betaald al jaren de R&D en investeringen voor de high end zakelijke chips. Waarbij een deel van die ontwikkelingen ook weer in nieuwe gaming ranges toegepast worden zodat die weer sneller zijn, weer als warme broodjes over de toonbank gaan en weer de R&D betalen voor de volgende generatie en ga zo maar door. Koppel dat aan een sterk software team en je hebt een redelijk powerhouse. Nvidia heeft natuurlijk wel wat DX12 uitdagingen voor de boeg.

Echter moet je ook nog maar zien hoe snel zaken als DX12 en Vulkan echt mainstream worden, ik zie nog steeds veel oplossingen waarbij DX12 / Vulkan support "Bolted on" lijkt, in plaats van dat DX12/Vulkan de native api is en DX11 support "bolted on" is voor backwards compatibility. En zolang Nvidia nog steeds het markt aandeel heeft dat ze hebben, en het relatief beter doen in DX11 dan in DX12/Vulkan zie ik mogelijk de markt nog niet direct verschuiven. Developers willen hun klanten ook tevreden houden en als die massaal Nvidia draaien..... Met daarnaast nog de kanttekening dat voor zover ik weet DX12/Vulkan voor optimale implementatie ook nog eens meer werk van developers vereist dan DX11, waarbij ik me afvraag of ze bereid zijn die investering te doen tot het punt komt dat je met DX11 echt niet meer wegkomt.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Op zich werkt DX12 prima op Nvidia alleen moet Nvidia wat hardware features beter ondersteunen. Iets wat ik met Volta al wel heb gezien, flinke boost in performance tegenover Pascal, maar de winst in DX11 is minimaal met Volta (Titan V)
Modbreak:Misschien ben je verdwaald, maar dit is niet een nVidia info&nieuwsdiscussietopic. Hou het on-topic of zoek een topic waar dit wel relevant is.

[ Voor 27% gewijzigd door dion_b op 02-02-2018 18:24 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!
Waarom zou het verminderen van compute en het verbeteren van geometrie ook maar iets gaan helpen?
GCN GPU's zoals Fiji of Vega hebben een serieus probleem om de frontend van de GPU goed belast te krijgen, in elke DX11 titel. In DX12 absoluut niet. Dan komt er zo 20-30% aan framerates bij als het niet nog meer is. Dat lijkt me nu niet echt een duidelijk signaal van een geometrie bottleneck.

Dat kan ik ook geweldig demonstreren met CiV 6 en mijn RX Vega 56. Ik draai dus even snel de benchmark in zowel DX11 als DX12. Helaas is deze benchmark hatelijk en geven ze alleen frametimes, geen framerates maar het verschil moet duidelijk zijn...

DX11
Afbeeldingslocatie: https://tweakers.net/ext/f/ywIoSoPgt2K7JhBKjWlwVQbk/full.jpg

Framerate was zeker in de eerste helft gewoon slecht. Zat tussen de 40 en 50. GPU utilisatie piekte rond de 75%, maar zat zeker in de eerste helft rond de 50%.

DX12
Afbeeldingslocatie: https://tweakers.net/ext/f/qWOHwjCW5r7UxAMxcTjFcaLf/full.jpg

Overal 98-99% utilisatie, veel betere frametimes en veel hogere framerates. Eerste helft was gewoon het dubbele want dubbele utilisatie en perfecte schaling.


Problemen met geometrie heeft deze kaart niet. Problemen met frontend utilisatie in elke DX11 game die ik heb wel. Zelden komt die over de 80% als piek en meestal is het 70% of minder. DX12 is altijd 98-99%. Waarom moet AMD dus wat aan compute verminderen?

Dan krijg je dus kaarten met minder CU's en meer ROP's die helemaal niet beter gaan presteren in DX11 titels, en ook niet in DX12. Ook zijn die chips niet meer bruikbaar voor instapmodellen voor de Radeon Pro of Instinct lijnen. Als laatste en meest vernietigende argument is dat de volgende generatie van Radeon chips helemaal niet beter gaan presteren dan de huidige generatie. Dan krijg je alweer de verhalen over hoe AMD GPU's waardeloos zijn. In dit geval zou je van mij gelijk krijgen als ze bij de RTG werkelijk zo dom zouden zijn om al hun voordelen met GCN weg te gooien.

Nee, de enige snelle fix zou zijn dat AMD hetzelfde trucje met drivers zou doen als Nvidia. Vanuit de AMD driver moet er ook een softwarematige spitsing van draw calls op moeten treden zodat de kaarten in DX11 ook eens gaan presteren. Dat zie ik alleen niet gebeuren. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Mijd FF15 maar als je een AMD-kaart hebt. Het gebruikt een nogal groot aantal Gimpworks-functies. De RX 580 haalt 60% van de FPS van de GTX 1060. :')

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Verwijderd schreef op zaterdag 3 februari 2018 @ 03:06:
Mijd FF15 maar als je een AMD-kaart hebt. Het gebruikt een nogal groot aantal Gimpworks-functies. De RX 580 haalt 60% van de FPS van de GTX 1060. :')
[video]
De benchmark is nog maar net uit dus misschien moet er nog driver optimalisaties voor AMD gpu's komen. Hier loopt het overigens ook niet lekker want ik heb regelmatig stutters dus op Nvidia loopt het ook niet 100% soepel. Ik had wel minder goede performance verwacht als het gaat om de hoeveelheid fps als ik FF15 vergelijk met Ghost Recon Wildlands.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23-09 08:02
Verwijderd schreef op zaterdag 3 februari 2018 @ 03:06:
Mijd FF15 maar als je een AMD-kaart hebt. Het gebruikt een nogal groot aantal Gimpworks-functies. De RX 580 haalt 60% van de FPS van de GTX 1060. :')
Om 60 fps te halen moet de 1060 al terug naar standard settings en is dan maar 5% sneller dan de 580.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Verwijderd schreef op zaterdag 3 februari 2018 @ 03:06:
Mijd FF15 maar als je een AMD-kaart hebt. Het gebruikt een nogal groot aantal Gimpworks-functies. De RX 580 haalt 60% van de FPS van de GTX 1060. :')
[video]
AMD heeft aangegeven pas met een "game ready" driver te komen als het spel over een maand uitkomt. Enigzins verstandig, iets rushen lijkt mij geen goed plan. Alleen jammer dat iedereen die benchmark dus nu al draait.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Sp3ci3s8472 schreef op zaterdag 3 februari 2018 @ 13:19:
[...]


AMD heeft aangegeven pas met een "game ready" driver te komen als het spel over een maand uitkomt. Enigzins verstandig, iets rushen lijkt mij geen goed plan. Alleen jammer dat iedereen die benchmark dus nu al draait.
Aan de andere kant zijn het maar gebruikers ervaringen met alleemaal verschillende hardware, de review zeggen meer straks in maart/april.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • +1 Henk 'm!

Verwijderd

Gekke Jantje schreef op zaterdag 3 februari 2018 @ 07:31:
[...]


De benchmark is nog maar net uit dus misschien moet er nog driver optimalisaties voor AMD gpu's komen.
Dat verklaart 10-20%, niet 60%. Alleen al bij het op brute kracht draaien mag dat gat nooit zo groot zijn tenzij Gimpworks erbij betrokken is. ;)
Hier loopt het overigens ook niet lekker want ik heb regelmatig stutters dus op Nvidia loopt het ook niet 100% soepel.
Logisch want het doel van Gameworks is om de performance te beperken door de kaart tegen een bottleneck te laten oplopen, bij de concurrent meer dan bij jezelf maar ook de performance van Nvidia-kaarten lijdt eronder, in het bijzonder de oudere generaties en de low- en midendkaarten maar ook de GTX 1080 en GTX 1080 Ti presteren veel slechter met deze garbage. Het probleem zit vooral in de minima. Inmiddels heeft GamersNexus de benchmarks gepresteneerd (followup), je kan op de website zien dat zelfs voor de Volta en de 1080 Ti het spel dipjes van ruim onder de 30 FPS heeft, bij Volta zelfs rond de 10 FPS. -slik-
Nu zal je vast bij de uieindelijk versie van het spel Gimpworks-features kunnen uitschakelen maar wil je €60 betalen voor een lazy port waarbij slechts wat Gimpworks-features zijn toegevoegd in plaats van dat de developer ofwel GPUOpen gebruikte (platformneutraal!) ofwel zelf code schreef om de graphics te verbeteren? Die keuze mag iedereen voor zichzelf maken, zelf laat ik een spel liggen zolang de minima onder de 60 FPS komen bij een RX580 en 1080p en medium settings, in dit geval zijn de minima ook nog fors lager. Dan koop ik het spel misschien jaren later als ik een nieuwe grafische kaart heb en het spel is afgeprijsd naar <€10.

Het probleem zit vooral in het feit dat deze garbage-code het spel voor iedereen veel minder speelbaar maakt terwijl het visuele effect matig is. Zie bijvoorbeeld de extra tessellation voor het oppervlakte van de weg. Leuk hoor maar zet het op de helft en je hebt nog steeds hetzelfde visuele effect terwijl je het verschil niet zal zien. Beter nog, maak het dynamisch: als je stilstaat dan gebruik je het op een hogere stand en als je beweegt dan gebruik je een lagere stand. Dit soort optimalisaties zal je niet vinden in Gameworks-code aangezien het doel niet is om een optimale performance te bieden maar het doel is om met visuele effecten developers te verleiden om Nvidia-kaarten een voordeel te geven in benchmarks of om gamers de boodschap te geven dat ze voor de beste graphics een Nvidia-kaart moeten hebben ("The Way It Is Meant To Be Played", PhysX). Zelfs de GTX 1080 Ti kan TW3 niet met Hairworks op full kan draaien, zelfs niet op 1080p. Niet als je een goede FPS en niet zeer lage minima wil hebben. Vooral de minima zijn hierbij het probleem. Developers zouden echt eens moeten leren om ofwel GPUOpen te gebruiken - het biedt aardig wat opties tegenwoordig - ofwel zelf code te schrijven. Als ze nu met zijn allen meeschrijven aan GPUOpen wanneer ze iets missen dan wint iedereen op de lange termijn, de gamers en de developers.

Wat betreft dat haareffect, als de developer er enige moeite voor zou doen dan zou je op Vega-kaarten en op toekomstige AMD-kaarten bijna de dubbele performance halen (voor het haar alleen!) zonder dat de performance op Nvidia-kaarten daalt (sterker nog, die zal eveneens stijgen omdat die code niet als doel heeft om kaarten tegen een bottleneck te doen oplopen).
Een kleine rant omdat ik het als gamer zat ben dat de performance van spellen door dit spel van Nvidia wordt verneukt en omdat ik het als gamer zat ben dat developers steeds voor the lazy way out kiezen en maar niet willen inzien dat GPUOpen ook veel te bieden heeft maar zonder dat het een platform een nadeel geeft.
haarbal schreef op zaterdag 3 februari 2018 @ 12:08:
[...]

Om 60 fps te halen moet de 1060 al terug naar standard settings en is dan maar 5% sneller dan de 580.
Niet echt.
Afbeeldingslocatie: https://www.gamersnexus.net/images/media/2018/games/ffxv-gpu/bench/ffxv-gpu-bench-1080p-medium.png
Het gemiddelde, ja, maar daar heb je weinig aan, het zijn de minima die het spel slecht speelbaar maken. Ik heb het ervaren bij Assassin's Creed 2 Revelations. De FPS zit typisch op 62 (FPS-cap) maar elke keer dat je draait in de stad krijg je een gigantische microstutter door het Nvidia rookeffect. Het maakt het spel min of meer onspeelbaar voor een grafische kaart die het spel verder gemakkelijk met de hoogste instellingen aankan en die niet ver boven de 60% GPU-gebruik uitkomt maar de benchmarks laten wel een gemiddelde FPS van rond de 60 zien. Je wil overigens niet met een Vega56-kaart en een 1440p monitor dit spel met 1080p spelen en zelfs bij 1080p zakken de minima naar ruim onder de 60 voor een Vega56. 8)7

Deze is nog het meest veelzeggend: Afbeeldingslocatie: https://www.gamersnexus.net/images/media/2018/games/ffxv-gpu/bench/ffxv-gpu-bench-1440p-high.png
De mighty Titan V: 9 FPS minima. Het is vooral interessant hoe het komt dat die minima zoveel lager ligt bij de Titan V dan bij de 1080 Ti, 1080 en 1070. Zou zelfs Nvidia flink moeten optimaliseren in de drivers om het spel nog enigszins draaiende te krijgen wanneer zoveel Gameworksfeatures worden gebruikt? Naar verluidt zijn er al minstens 5/6 Gameworks-features gevonden in het spel, dat is niet meer zoals bij TW3 of RotTR, het is nu een plaag. ;)

Edit
Het zijn er 6. Een nieuw record?
NVIDIA Flow
NVIDIA HairWorks
NVIDIA Shadow Libs
NVIDIA Terrain Tessellation
NVIDIA Turf
NVIDIA VXAO

Je kan je ook afvragen of dat dit alles wel iets bijdraagt want tegelijkertijd heb je hele lelijke artefacten doordat de lucht niet correct wordt gereflecteerd in het water. Misschien was het beter geweest om minder resources te besteden aan Gameworks (lees: 0) en dit soort zaken in orde te maken?

[ Voor 22% gewijzigd door Verwijderd op 03-02-2018 14:58 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Gelukkig kunnen wij Loreal uitzetten met een slider, Nvidia gebruikers hebben dat niet :P.

Acties:
  • 0 Henk 'm!

Verwijderd

Kijk rond 1m35s

Ligt het aan mij of is die popping van struiken en schaudwen en zo terwijl je al best dichtbij bent storend. Het hoort natuurlijk een openwereldspel maar hier is het wel erg opvallend, ik had bij GTAV de indruk dat ze het wat subtieler deden (grotere afstand, meer geleidelijk in plaats van alles of niets). Dat bedoel ik nu met "doe niets met die Gameworks-features maar gebruik de resources voor dit soort problemen." Een distanceslider zou m.i. visueel meer toevoegen dan al die Gameworks-features.
Sp3ci3s8472 schreef op zaterdag 3 februari 2018 @ 14:40:
Gelukkig kunnen wij Loreal uitzetten met een slider, Nvidia gebruikers hebben dat niet :P.
Ja, dat is mooie ironie. >:)
Die tessellation-cap is erg handig maar het zou natuurlijk veel beter zijn als developers gewoon GPUOpen zouden gebruiken of zelf code zouden schrijven en hierbij goed zouden optimaliseren. Loreal in volle glorie bij stilstaand beeld en Loreal op een lage stand bij beweging. Zomaar een gek idee. :+
Sp3ci3s8472 schreef op zaterdag 3 februari 2018 @ 13:19:
[...]


AMD heeft aangegeven pas met een "game ready" driver te komen als het spel over een maand uitkomt. Enigzins verstandig, iets rushen lijkt mij geen goed plan. Alleen jammer dat iedereen die benchmark dus nu al draait.
Dat ben ik volledig met jou eens maar die driver-optimalisaties gaan natuurlijk niets veranderen aan het beeld dat AMD-kaarten fors lagere FPS zullen behouden, minder extreem dan nu maar fors lager. Tenzij de gebruiker inderdaad via AMD-settings de tessellation-cap gebruikt en de instellingen tweakt. Het zou inderdaad meer verantwoord zijn als ze wachten met benchmarken.
Gekke Jantje schreef op zaterdag 3 februari 2018 @ 14:14:
[...]


Aan de andere kant zijn het maar gebruikers ervaringen met alleemaal verschillende hardware, de review zeggen meer straks in maart/april.
Ja, maar je gaat jaren later nog krijgen dat mensen met googlen deze benchmark vinden en verspreiden terwijl zij en de mensen die het lezen niet de context kennen.

[ Voor 76% gewijzigd door Verwijderd op 03-02-2018 21:52 ]


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Het is mooi voor gamers dat er ondertussen al gelijk wordt gecontroleerd op dit soort zaken, wie weet doet het de devs (of nvidia) schrikken.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
@Verwijderd Uh dat over de Witcher 3 en Hairworks is echt onzin. :P
Als totaal Witcher 3 verslaafde, serieus beste game van tenminste het afgelopen decennium, die deze game zeer uitvoerig heeft gespeeld met een 7950, RX580 en RX Vega 56 kan ik je vertellen dat Hairworks iets minder dan tien frames kost. De hit was iets erger voor de RX Vega, maar die rendered dan ook meer frames dan een RX580. ;)

Nee het echte probleem met Hairworks in de Witcher 3 is dat het gewoon lelijker is dan uit. O-)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op zaterdag 3 februari 2018 @ 19:41:
@Verwijderd Uh dat over de Witcher 3 en Hairworks is echt onzin. :P
Als totaal Witcher 3 verslaafde, serieus beste game van tenminste het afgelopen decennium, die deze game zeer uitvoerig heeft gespeeld met een 7950, RX580 en RX Vega 56 kan ik je vertellen dat Hairworks iets minder dan tien frames kost. De hit was iets erger voor de RX Vega, maar die rendered dan ook meer frames dan een RX580. ;)
Ja, met de tessellation-limiter van AMD settings. Probeer het eens op full detail te draaien met een GTX 1080 en 1440p met de hoogste grafische instellingen. Succes om de FPS boven de 60 te houden. ;)
Misschien haal je nog net de 60 FPS bij 1440p met een 1080 Ti met Hairworks op volle stand (ik meen mij te herinneren dat je de FPS niet constant boven de 60 houdt maar misschien als je wat settings verlaagt) maar is de 1080 Ti niet interessanter voor 4k? Voor 1440p volstaat de GTX 1080 ook nog wel een tijdje.
Nee het echte probleem met Hairworks in de Witcher 3 is dat het gewoon lelijker is dan uit. O-)
En dat. Ik begrijp nog steeds niet waarom ze niet gewoon TressFX gebruikten. Ja, het zal vast wel iets anders werken dan Hairworks maar draag dan bij aan die bibliotheek, neem de goede basis (niet enkel wordt het haar goed getekend, na wat aanvangsprobleempjes is de physics ervan ook flink verbeterd) die TressFX levert en breid het uit. Daarvoor ben je toch een developer? Je bent niet eens verplicht om je uitbreiding te delen met de wereld maar vanzelfsprekend zou het netjes zijn als je dat doet wanneer je open code als basis gebruikt. Verder geen klachten over CD Project Red (ze nemen de PC als platform serieus, ze leveren waar voor het geld en ze zijn ook redelijk goed bezig met GOG) maar dit beschouw ik als een flater van hen. Ik begrijp dat op het laatst iemand van Nvidia Haireffect pushte maar dan nog, kom dan na de release met een patch die het fatsoenlijk implementeert in plaats van bij de release iets te forceren wat zo sterk de FPS verlaagt.
foppe-jan schreef op zaterdag 3 februari 2018 @ 18:06:
Het is mooi voor gamers dat er ondertussen al gelijk wordt gecontroleerd op dit soort zaken, wie weet doet het de devs (of nvidia) schrikken.
Goed punt, het is heel erg positief dat ze op Reddit direct achterhalen dat het spel vol zit met Gimpworks-features en dat kanalen/reviewers zoals GamersNexus en HardwareUnboxed (en dus ook Techspot) dit oppikken. Er wordt nu flink geklaagd op de fora en in de comments onder die video's omdat de gamers inmiddels ook de nadelen en problemen hiervan begrijpen. Hopelijk schrikken de developers of publishers ervan. :)
Voor mij is het duidelijk dat GPUOpen de toekomst moet hebben, niet omdat het van AMD is maar omdat het platform-agnostisch is en omdat het open source is wat betekent dat developers en een groot aantal vrijwilligers beetje bij beetje de code kunnen verbeteren en uitbreiden.

[ Voor 35% gewijzigd door Verwijderd op 03-02-2018 21:51 ]


Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 3 februari 2018 @ 21:35:
Probeer het eens op full detail te draaien met een GTX 1080 en 1440p met de hoogste grafische instellingen.
Zowel in de driver als in het spel zelf is Hairworks al heel lang geleden geoptimaliseerd. Die patch was er binnen een maand, dus wellicht dat @DaniëlWW2 het spel pas daarna heeft gespeeld.

Acties:
  • 0 Henk 'm!
Werelds schreef op zaterdag 3 februari 2018 @ 22:58:
[...]

Zowel in de driver als in het spel zelf is Hairworks al heel lang geleden geoptimaliseerd. Die patch was er binnen een maand, dus wellicht dat @DaniëlWW2 het spel pas daarna heeft gespeeld.
Afgelopen jaar, meer uur dan ik bereid ben toe te geven. :P
Ook ruim nadat de GTX1xxx serie ook bestond. Maar iets van 10 fps voor wat haar effecten is natuurlijk al belachelijk. Het is gewoon een belachelijke hoeveelheid MSAA en tesselation die werkelijk nergens op slaat. Het is niet eens echt mooi zoals TressFX in Tomb Raider ofzo...


Maar weer een titel die "geoptimaliseerd" is door Nvidia. Ergens mis ik de relevantie met AMD. O-)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
DaniëlWW2 schreef op zaterdag 3 februari 2018 @ 19:41:
@Verwijderd Uh dat over de Witcher 3 en Hairworks is echt onzin. :P
Als totaal Witcher 3 verslaafde, serieus beste game van tenminste het afgelopen decennium, die deze game zeer uitvoerig heeft gespeeld met een 7950, RX580 en RX Vega 56 kan ik je vertellen dat Hairworks iets minder dan tien frames kost. De hit was iets erger voor de RX Vega, maar die rendered dan ook meer frames dan een RX580. ;)

Nee het echte probleem met Hairworks in de Witcher 3 is dat het gewoon lelijker is dan uit. O-)
Mee een, hier ook met hairworks op 1440p zit ik continu boven de 80fps. Ook draait FF15 gewoon prima op max instellingen hier alleen heb ik af en toe een hele korte framespike en dat is vast op te lossen via patches in de volledige game. Hele gameworks gedoe word hier ook helemaal opgeblazen, het is opensource en dus aanpasbaar voor alle hardware, hier blijf ik ook bij want dit is gewoon een feit. Men vergeet ook even dat de benchmark niet eens volledig af en bij AMD en Nvidia ook niet op driver niveau

Je zegt wel mooi geoptimaliseerd door Nvidia, dat klopt in het standaard pakket, maar de gameontwikkelaars mag Gamworks aanpassen tegenwoordig, en als dat niet gebeurd jammer voor de gamers en slecht van de gameontwikkelaars.

[ Voor 32% gewijzigd door Gekke Jantje op 04-02-2018 09:05 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Gimpworks is nu open source lees ik. Iemand hier die weet of en wat het addertje onder het gras is :?

Namelijk niks voor nVidia om het OS te maken.... :P
Sp3ci3s8472 schreef op zaterdag 3 februari 2018 @ 14:40:
Gelukkig kunnen wij Loreal uitzetten met een slider, Nvidia gebruikers hebben dat niet :P.
Final Fantasy XV bevat niet-uitschakelbare Nvidia GameWorks-effecten in 'high settings'

[ Voor 83% gewijzigd door Help!!!! op 04-02-2018 10:42 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Help!!!! schreef op zondag 4 februari 2018 @ 10:01:
Gimpworks is nu open source las ik ergens. Iemand hier die weet of en wat het addertje onder het gras is :?

Namelijk niks voor nVidia om het OS te maken.... :P


[...]

Final Fantasy XV bevat niet-uitschakelbare Nvidia GameWorks-effecten in 'high settings'
Het adertje bij FF15 is dat het nog niet af is en dat er blijkbaar niet is geoptimaliseerd door de gameontwikkelaar en AMD zal de code waarschijnlijk nog niet in hebben gezien voor driver verbeteringen, ik vermoed dat de benchmark in de volledige game komt en dat je dan hele andere resultaten gaat zien. Mar goed dit gaat over Nvidia volgens de mod dus hoort dit in het Nvidia topic :+

[ Voor 27% gewijzigd door Gekke Jantje op 04-02-2018 10:22 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

In dat antwoord heb ik niets. Ik wil dus graag weten in hoeverre gimpworks nu idd open source is en of daarmee alle negatieve effecten uit het verleden niet meer meer hoeven op te treden. Of dat er dus nog addertjes onder het gras zitten.

En wat nvidia en developers doen met gimpworks heeft effect op de AMD ingame resultaten dus is dat m.i. prima relevant voor dit topic. Mocht een moderator daar anders over denken dan hoor ik dat vanzelf wel vd moderators :)

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Help!!!! schreef op zondag 4 februari 2018 @ 10:49:
In dat antwoord heb ik niets. Ik wil dus graag weten in hoeverre gimpworks nu idd open source is en of daarmee alle negatieve effecten uit het verleden niet meer meer hoeven op te treden. Of dat er dus nog addertjes onder het gras zitten.

En wat nvidia en developers doen met gimpworks heeft effect op de AMD ingame resultaten dus is dat m.i. prima relevant voor dit topic. Mocht een moderator daar anders over denken dan hoor ik dat vanzelf wel vd moderators :)
Oke want ik mocht laatst niet in gaan op een reactie wat over Nvidia en AMD ging als het ging over DX12. Dus ik dacht dat het hier dus niet thuis hoorde. Maar goed. Hairworks is een voorbeeld van opensource omdat het volledig aanpasbaar is in de game Als er een ader onder het zit zal dat nog moeten worden gevonden. Opensource betekent verder ook niet dat een bepaald effect op alle architecturen even goed draait, zie ook tress FX (amd's gimpworks tegenhanger genaamt gimp-open) wat een hit geeft op Nvidia hardware met de hoogste settings in Tomb Raider. Dat het van 150 naar 130 fps is doet er niet toe.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Help!!!! schreef op zondag 4 februari 2018 @ 10:01:
Gimpworks is nu open source lees ik. Iemand hier die weet of en wat het addertje onder het gras is :?

Namelijk niks voor nVidia om het OS te maken.... :P


[...]

Final Fantasy XV bevat niet-uitschakelbare Nvidia GameWorks-effecten in 'high settings'
Ik bedoelde de tesselation slider, zodra we die op 8x-16x dan kan Hairworks nog zo hard aanstaan maar dat doet niks, dit zal overigens geen effect hebben op terrain tesselation omdat standaard een lagere tesselation factor is, AMD is sterk met tesselation zolang de tesselation factor niet overdreven wordt, het zijn dingen zoals 64x Loreal die de boel verpseten.
Bij Nvidia zie je ook dat er microstuttering optreedt met Hairworks aan, min fps is meer dan gehalveerd. Het ziet er nauwelijks beter uit en het heeft zo'n performance impact, het is gewoon bullshit dat dit gebruikt wordt.

Ik vind het nog steeds klote dat studios Hairworks gebruiken, het is gewoon een inferieure techniek en wordt alleen maar gebruikt om performance naar de grond te brengen bij AMD terwijl het ook Nvidia raakt maar minder.

[ Voor 0% gewijzigd door Sp3ci3s8472 op 04-02-2018 14:29 . Reden: bold ]


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Sp3ci3s8472 schreef op zondag 4 februari 2018 @ 14:16:
[...]


Ik bedoelde de tesselation slider, zodra we die op 8x-16x dan kan Hairworks nog zo hard aanstaan maar dat doet niks, dit zal overigens geen effect hebben op terrain tesselation omdat standaard een lagere tesselation factor is, AMD is sterk met tesselation zolang de tesselation factor niet overdreven wordt, het zijn dingen zoals 64x Loreal die de boel verpseten.
Bij Nvidia zie je ook dat er microstuttering optreedt met Hairworks aan, min fps is meer dan gehalveerd. Het ziet er nauwelijks beter uit en het heeft zo'n performance impact, het is gewoon bullshit dat dit gebruikt wordt.

Ik vind het nog steeds klote dat studios Hairworks gebruiken, het is gewoon een inferieure techniek en wordt alleen maar gebruikt om performance naar de grond te brengen bij AMD terwijl het ook Nvidia raakt maar minder.
Altijd grappig die complot theorieën waarom Nvidia dit en dat doet terwijl het aan de gameontwikkelaar is. Ook werkt de Hairworks aanpassingen gewoon goed in game.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Gekke Jantje schreef op zondag 4 februari 2018 @ 14:22:
[...]


Altijd grappig die complot theorieën waarom Nvidia dit en dat doet terwijl het aan de gameontwikkelaar is. Ook werkt de Hairworks aanpassingen gewoon goed in game.
Lees het nog eens, ik zeg dat over studios die het gebruiken. Die zijn o.a. te lui om de default tes slider lager te zetten naar iets wat beter werkt zoals 16x.
Dit is de zoveelste titel waar Gameworks in zit die bagger loopt op AMD en Nvidia, daar hoef je geen theorie voor te hebben. Dit lijkt mij ook slechte marketing voor Nvidia. Het spel hoeft maar iets slecht te lopen en iedereen gooit de termen "Gimpworks" en "Shiteworks".
Wat ik grappiger vind is dat mensen Nvidia altijd een engeltje vinden :+.

Ik zal mijn comment editten en studios vetgedrukt neerzetten, misschien dat het zo beter leesbaar wordt.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Ach het zelfde met AMD Gimps open kost ook allemaal performance. Maar test The Witcher maar eens met Hairwoks op low en 2xAA het schil met Hairworks high en 8xAA is best groot, hier 30fps op 1440p van gemiddeld 93 fps naar 130 fps. Ik vind persoonlijk Nvidia helemaal geen engeltje alleen zie ik nooit de feiten van de complot theorieën.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Gekke Jantje schreef op zondag 4 februari 2018 @ 14:36:
Ik vind persoonlijk Nvidia helemaal geen engeltje alleen zie ik nooit de feiten van de complot theorieën.
1 'feit' is dat 64x hairworks nergens op slaat, omdat er gewoon geen merkbaar verschil is met 8x, laat staan dat het specifiek een klasse mooier is. Toch hebben ze die slider toegevoegd aan hun middleware. Waarom?

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • +1 Henk 'm!
Help!!!! schreef op zondag 4 februari 2018 @ 10:01:
Gimpworks is nu open source lees ik. Iemand hier die weet of en wat het addertje onder het gras is :?

Namelijk niks voor nVidia om het OS te maken.... :P
Ja, het is helemaal niet open source. O-)
Vrijwel alle effecten staan achter een EULA, je kan de code zien maar geen fork van de code aanbrengen en aanpassingen van de code zijn aan Nvidia om te accepteren. Dat is dus publiek toegankelijk, niet open source.

Nee, GPU Open is echt open source. AMD heeft ook zo zijn library met effecten. Het probleem is dat AMD niet de financiele middelen heeft om deze te pushen aan veel developers. Dat ze nu al Fireaxis, CA, Bethesda en Ubisoft voor Far Cry 5 hebben is heel wat.

Zoals altijd speelt AMD de long game. Wat ze eigenlijk willen bereiken is hun library geïntegreerd krijgen in de grote game engines. Dus UE4, Unity, CryEngine, Frostbite, Id Tech 6, Source 2 etc. AMD bouwt een platform, zet alles online en nodigt developers uit om met input te komen, hulp te vragen van AMD of anderen te helpen of voor developers om zelf eigen code te delen. Veel meer kunnen ze niet want ze hebben geen geld voor veel deals met developers. Met GPU Open pushen ze natuurlijk ook Vulkan/DX12 met ondersteuning en best practices. Verder ondersteunt elke AMD van de afgelopen tijd niet voor niks Vulkan of DX12. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
we zien al jaren gimpworks dingen die een fatsoenlijke dev nooit zou toelaten in zijn game. Het eerste echte goede voorbeeld wat ik me zo kan herrineren was crysis 2 geloof ik met idioot veel tessalation en ook nog eens altijd water onder de grond dat gerendered werd met veel tessalation.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
DaniëlWW2 schreef op zondag 4 februari 2018 @ 15:04:
[...]


Ja, het is helemaal niet open source. O-)
Vrijwel alle effecten staan achter een EULA, je kan de code zien maar geen fork van de code aanbrengen en aanpassingen van de code zijn aan Nvidia om te accepteren. Dat is dus publiek toegankelijk, niet open source.

Nee, GPU Open is echt open source. AMD heeft ook zo zijn library met effecten. Het probleem is dat AMD niet de financiele middelen heeft om deze te pushen aan veel developers. Dat ze nu al Fireaxis, CA, Bethesda en Ubisoft voor Far Cry 5 hebben is heel wat.
Toch apart dan dat CDPROJECT RED hairworks heeft aangepast als het niet eens mag van Nvidia. Blijkbaar is het dus wel open source en valt niet te ontkennen. Men wil liever niet dat het open source is want men vertrouwd Nvidia niet.

Nvidia aren’t done yet though, promising that HairWorks, HBAO+ and WaveWorks would also see a public release. This news means developers will be free to “look under the hood” of the software, and be able to better tweak the performance for multiple hardware, or better integrate GameWorks with their chosen game engine.

In theory, this will also provide AMD users with a performance boost for titles which heavily use GameWorks, providing AMD the opportunity to better optimize their drivers.
While it’s early days to see how this all plays out, credit must be given to Nvidia for embracing a more open nature approach to game development. With any luck we’ll start seeing both AMD and Nvidia cooperating a little, and perhaps in the future developers will start taking the best parts of GPUOpen and GameWorks to create even more impressive titles, which is good news for everyone in the industry – especially end users.

It’s also possible Nvidia’s Open Source plans with GameWorks might filter into other areas of the company, including CUDA. This is especially true since both AMD and Otoy are working on plans to convert native Cuda source code to C++ or OpenCL (respectively).


Ik ga er niet eens meer op in hier onder ontkenning ten top terwijl het overal staat beschreven. Maar goed dit is dan ook het pro AMD en Nvidia afzeik topic.
http://www.redgamingtech....commits-to-vr-with-unity/
Modbreak:Nee, dit is het AMD Radeon Info & Nieuwsdiscussietopic. Jij gaat voortdurend offtopic met posts over andere merken en apparaten. Als je dat niet kunt laten, blijf aub uit dit topic weg. Dit mag je als laatste waarschuwing op dat vlak beschouwen. Ga je door, dan kun je consequenties verwachten.

[ Voor 12% gewijzigd door dion_b op 06-02-2018 09:55 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Gekke Jantje schreef op zondag 4 februari 2018 @ 15:08:
[...]

Toch apart dan dat CDPROJECT RED hairworks heeft aangepast als het niet eens mag van Nvidia. Blijkbaar is het dus wel open source en valt niet te ontkennen. Men wil liever niet dat het open source is want men vertrouwd Nvidia niet.
Er is een heel (kan dit niet genoeg benadrukken) groot verschil tussen de settings van iets veranderen en de sourcecode mogen aanpassen. Elke fatsoenlijke library exposed zulke dingen, dat het mogelijk is om de settings te veranderen betekent niet dat CD Project Red toegang had tot de source code.

Als jij via een library call de settings aanpassen gelijk gaat stellen aan toegang tot source code....

Nee, waar het om draait is dat Nvidia slecht geoptimaliseerde troep heeft uitgebracht, waar wat mij betref de discussie openstaat of het met de intentie was dat het slechter draait bij de concurentie; en dat een developer zoals CD Project Red en dus Squaresoft te lui waren om slider in te bouwen in hun menu om de settings aan te passen. Daar heb je geen toegang tot de source voor nodig :z.

Niet iedereen heeft dezelfde gedachte bij opensource :p :
https://developer.nvidia.com/gameworks-source-sdk-eula

[ Voor 5% gewijzigd door Sp3ci3s8472 op 04-02-2018 16:26 . Reden: url ]


Acties:
  • +2 Henk 'm!

Verwijderd

Ik ben het volstrekt eens met @Sp3ci3s8472 zijn laatste reactie.
Richard Huddy verwoordde het volgens mij wel aardig: “Nvidia Gameworks typically damages the performance on Nvidia hardware as well, which is a bit tragic really. It certainly feels like it’s about reducing the performance, even on high-end graphics cards, so that people have to buy something new.”

Nog eventjes kort terugkomende op FF15 met een update. Inmiddels heeft GN wat meer testresultaten gedeeld.
Afbeeldingslocatie: https://www.gamersnexus.net/images/media/2018/games/ffxv-gpu/bench/gameworks/fps-gameworks-scaling-relative-v56-1070.png
Afbeeldingslocatie: https://www.gamersnexus.net/images/media/2018/games/ffxv-gpu/bench/gameworks/fps-gameworks-scaling-vega-56.png
Afbeeldingslocatie: https://www.gamersnexus.net/images/media/2018/games/ffxv-gpu/bench/gameworks/fps-gameworks-scaling-gtx-1070.png
Conclusie, Gimpworks veroorzaakt het leeuwendeel van het verschil, het feit dat AMD het spel nog niet heeft geoptimaliseerd ook een deel van het verschil, immers zou de Vega56 normaal gesproken boven de GTX 1070 moeten eindigen bij een gelijk speelveld. Met name de minima (alle Gimpworks-effecten uitgeschakeld) duiden m.i. op een gebrek aan optimalisatie.
https://www.gamersnexus.n...mark-tool-gameworks-tests

Meer interessant, het spel is heel erg slecht afgewerkt in dit stadium.
Er wordt van alles getekend wat niet zou moeten worden getekend omdat het niet zichtbaar is en in zones die verder niet worden getekend buiten een simpel oppervlakte zonder fatsoenlijke textures en zo worden wel die dieren met haireffect getekend.
Nvidia heeft een medewerker gestuurd om eraan te werken.
GamersNexus gebruikte die camera-tool (Ansi of zo) nadat ze in de gaten kregen dat de FPS meer zakte dan wat logisch was, ze vermoedden dat het Haireffect actief was terwijl ze niets zagen wat haar heeft.
Gekke Jantje schreef op zondag 4 februari 2018 @ 10:53:
Opensource betekent verder ook niet dat een bepaald effect op alle architecturen even goed draait, zie ook tress FX
Oh? Waar haal jij dat vandaan? Tomb Raider draaide net zo goed (zelfs iets beter) op de Nvidia-kaarten als op de AMD-kaarten kort nadat het uitkwam. Niet de eerste maand omdat Nvidia nog moest optimaliseren maar een paar maanden later had Nvidia 0 nadeel. Het is volledig platformneutraal uitgewerkt. We kunnen enkel speculeren waarom dat het geval is: omdat AMD niet aan dit soort fratsen doet en/of omdat ze wel moeten als ze willen dat developers het gebruiken. Hoe dan ook, het is zonde dat niet meer developers TressFX gebruiken, het effect kan goed worden verwerkt door de kaarten die we tegenwoordig hebben en goed haar voegt veel toe.

Van Haireffect ben ik eerlijk gezegd niet onder de indruk.
Afbeeldingslocatie: https://www.gamersnexus.net/images/media/2018/games/ffxv-gpu/bench/gameworks/gw-ffxv-hair-standard.jpg
Afbeeldingslocatie: https://www.gamersnexus.net/images/media/2018/games/ffxv-gpu/bench/gameworks/gw-ffxv-hair-furwork.jpg
De eerste: zonder Hairworks.
De tweede: met Hairworks. Ik begrijp nu waarom ik het er zo matig vind uitzien, er worden veel te weinig haren getekend. In de video kan je het met bewegend beeld zien, dat maakt het duidelijker dan een screenshot. Vergelijk dit met de haarbos van Lara Croft. Het viel in het verleden vaak op bij Gimpworks-effecten dat die nogal slecht geoptimaliseerd zijn; een 2-4 keer zo'n hoge stand als waarmee het nog iets toevoegt voor het visuele effect en dit bij een screenshot.
AMD is nu juist de andere kant op gegaan, ze hebben de developers de mogelijkheid gegeven om zelfs een minder grote nauwkeurigheid te gebruiken wanneer dit mogelijk is en voor het visuele effect weinig verschil maakt en in ruil daarvoor bijna twee keer zoveel te kunnen tekenen. Rapid Packed Math. Voor haar heb je niet zo'n grote nauwkeurigheid nodig, je hebt vooral een groot aantal haren nodig.
Persoonlijk vind ik het gras en die vlammen er wel leuk uitzien, maar gezien de impact die het lijkt te hebben (voor AMD-kaarten) is het nog erg slecht geoptimaliseerd.
In ieder geval is het niet meer zo zoals 5-10 jaar geleden dat Nvidia effecten pusht die op AMD-kaarten gigantische microstutter veroorzaken zonder dat het effect wordt getekend en waarbij het effect ook nog eens niet kan worden uitschakeld in de configuratie. :')
tomcatha schreef op zondag 4 februari 2018 @ 15:05:
we zien al jaren gimpworks dingen die een fatsoenlijke dev nooit zou toelaten in zijn game. Het eerste echte goede voorbeeld wat ik me zo kan herrineren was crysis 2 geloof ik met idioot veel tessalation en ook nog eens altijd water onder de grond dat gerendered werd met veel tessalation.
Ja, voor o.a. dat spel werd aangetoond dat een twee keer zo'n lage stand van de tessellation exact hetzelfde beeld geeft, op een screenshot! Ingame kan je het rustig 4 keer zo laag zetten en je zal het verschil niet zien. En dan inderdaad nog het water maar ik vermoed dat dat een bug was. Zonde, want die engine was/is verder best wel goed. De graphics zijn indrukwekkend, wat er nog meer mogelijk zou zijn geweest zonder die fratsen kunnen we enkel raden. Zelfs met een HD 7850 kan ik dat spel met hoge instellingen spelen met meestal een FPS van rond de 50 in een grotere open wereld (binnen start je met 80 of zo, in het eerste open stuk is 45 het laagst wanneer je met je neus op de vlammen gaat staan). De CryTek-engine had een geweldige demo en de eerste twee spellen haalden ze alles uit de kast (bewegend gras, alles kapot kunnen maken...) maar om het op consoles te forceren hebben ze een paar stappen teruggedaan.
Ik krijg er een beetje het Mass Effect gevoel bij, die 3 spellen hadden nog zoveel mooier kunnen zijn als EA het niet als een stiefkindje had behandeld en niet steeds de beste mensen van het project had gehaald en met die DLC-waanzin was begonnen.


edit
NVIDIA Trademark Placement in Games, Demos and other applications. For Games, Demos and other applications that incorporate NVIDIA GameWorks™ or portions thereof, the NVIDIA logo must appear, on splash screens and on the back cover of the instruction manual, if applicable, or similar placement in an electronic file, at least in parity with other technology providers and IHV partners.
En daarom duurt het ook met een SSD een minuut voordat een spel is opgestart, we moeten eerst worden doodgegooid met 100 advertentieschermen en dan maar hopen dat er een mogelijkheid bekend wordt om die rotzooi uit te schakelen.

[ Voor 23% gewijzigd door Verwijderd op 04-02-2018 17:13 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Ik heb de "benchmark" even gedownload en getest wat de de tesselation slider als invloed heeft op de score; nu heb ik een Vega64 en is de tesselation engine een stuk beter dan op kaarten zoals de 290 enzo.
Systeem
1700x stock, 32GB 3200 CL14 (safe stilts),
Samsung 960 EVO, Vega64 balanced, settings in drivers op standaard.
De driver is wat ouder, 17.10.2.

Scores heb ik genoteerd na 3 runs warmlopen (ik heb dus niet elke run 3 keer gedaan, ik heb wel wat beters te doen ;)). Ik heb geen clean boot gedaan maar wel de meeste programma's de nek om gedraait.

High preset 1920x1080, tesselation AMD optimized
Score: 5539
Percentage: 100%

High preset 1920x1080, tesselation 16x
Score: 5790
Percentage: 104,5%

High preset 1920x1080, tesselation 16x
Score: 6055
Percentage: 109,3%

Visueel kon ik eigenlijk geen verschil zien tussen de 3 varianten. Wat me overigens opviel tijdens de benchmark is dat deze niet consistent is, de characters doen niet altijd precies hetzelfde, volgens mij was de camera ook niet in alle gevallen precies op dezelfde locatie. Tijdens cutscenes was dit wel het geval.

Edit:
Dus hoewel er 10% performance mee te winnen valt is het nog geen groot wonder. Het is dus even wachten tot AMD een driver uitbrengt.

Disclaimer gezien het systeem kan je deze scores ook niet vergelijken met andere, driver is oud, cpu loopt stock etc, geen schone Windows en boot.

Edit 2:
Wellicht dat ik vanavond nog even test met 2x, 4x en 6x tesselation :+.

[ Voor 14% gewijzigd door Sp3ci3s8472 op 04-02-2018 18:00 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Fairly High A standard level of performance can be expected. Adjustments to the graphics settings are recommended if possible.
3 schalen erboven (high, very high en extremely high) , 4 schalen eronder (standard, slightly low, low en insufficient).
En dat met een Vega64. -slik-

Just for fun ga ik ook eens de benchmark draaien met een HD 7850 en een i5-750 die boost (1 kern) naar 3,3 GHz. Eens zien of dat low mogelijk is. In theorie zou het spel moeten draaien als het beschikbaar is op de PS4...
Wat dat betreft is het een aardige test, als het op mijn computer niet draait dan verlies je inderdaad performance bij gelijkwaardige hardware tussen de console en de PC.


edit
3017 bij de eerste run bij lite quality en 1920*1080 en 3083 bij de tweede run. Schijn bedriegt, het spel is niet speelbaar op mijn computer met deze score aangezien er best veel microstutter is, alleen in de vechtscene zag ik geen microstutter. De auto is niet om aan te zien (wel mooie lak) zonder anti-aliasing, ik ben daar in het algemeen niet zo gevoelig voor maar ik zou dit spel liever niet zonder AA spelen. Ik denk dat het na optimalisatie van de drivers en het tweaken van de instellingen wel speelbaar gaat worden op mijn systeem maar ik zou het niet aanraden.

@Sp3ci3s8472
Ik zie waar jij het over hebt, je zag die struisvogelachtige dieren en karakters willekeurig lopen vanaf dat de dieren kwamen tot aan de vechtscene. Duidelijk AI dumb as Trump gedrag wat je daar zag.

[ Voor 65% gewijzigd door Verwijderd op 04-02-2018 18:46 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Het is het meest duidelijk zichtbaar tijdens het gevecht met die grote robot. Score kan daarom ook 40-80 schelen op mijn kaart. De standaard run had de laatste paar seconden de robot niet in beeld en maar 2 characters, dat maakt best uit.

Jouw HD 7850 zou vergelijkbaar met een Xbone/PS4 moeten scoren, alleen denk ik dat je cpu een beste bottleneck vormt. Gezien de scores die cpu's halen in de benchmark, het spel is erg cpu intensief.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb het nog een keer gedraaid met Fraps aan - aangezien SE de FPS blijkbaar niet zo relevant vindt :? - , de minima zaten laag in de 20 (zichtbaar als stutter), de hoogste FPS in de 40 en gemiddeld rond de 30, net eronder. Net iets minder dan wat het bij de PS4 is? Ik weet niet of dat ze 30 vast halen. Wat betreft de gevechtscene, het viel mij op dat ik nu inderdaad iets anders zag dan de keren daarvoor.
Ja, mijn CPU vormt tegenwoordig een bottleneck, zelfs bij Assassin's Creed 4 merk je het al, op het Assassin's-eiland heb je veel NPC's die scripted bewegingen uitvoeren, dat blijkt te zwaar te zijn voor die ene arme kern die onder DX11 aan het werk wordt gezet. In de rest van het spel haal je rond de 50 FPS met dezelfde instellingen, op dat eiland net onder de 30 terwijl het grafisch gezien zeker niet meer eist, daarom weet ik dat de bottleneck daar bij de CPU ligt. Er zijn nog veel spellen die je prima kan spelen maar de AAA-spellen van de laatste jaren laat ik links sliggen totdat ik nieuwe hardware heb. In ieder geval kosten de spellen op dat moment minder en heb ik dan veel in te halen wanneer de RAM-crisis en mining-crisis voorbij zijn. ;)

Hier een overzichtje van verschillende grafische kaarten bij 1080p en de lichtste instellingen. Met de hele grote kanttekening dat je een diverse variatie aan CPU's etc. hebt met al die grafische kaarten.
Afbeeldingslocatie: https://s10.postimg.org/f5f1psmzt/FF1.png
Afbeeldingslocatie: https://s10.postimg.org/w77vrcjp5/FF2.png
Afbeeldingslocatie: https://s10.postimg.org/ho0qpxya1/FF3.png


edit
Nog 2 pogingen gedaan, 1 met 1920*1080 en graphics op hoog. Problematisch, 8 GB RAM is niet genoeg (Windows gaf aan dat de RAM vol zat en dat ik programma's moest sluiten, niets anders stond open dan de benchmark, FRAPS en Foobar2000 (verwaarloosbaar, 12 MB aan RAM)), je hebt dus blijkbaar minstens 16 GB RAM nodig om dit spel met hoge instellingen te draaien met die resolutie als je grafische kaart slechts 2 GB aan RAM heeft. Dat lijkt me redelijk logisch.
Vervolgens probeerde ik het met standaard settings, waar die jongen zou moeten gaan vissen crashte de benchmark. Nog een tweede poging gedaan, nu crashte het programma net na het vissen, de score zat op dat moment net boven de 1500.

[ Voor 23% gewijzigd door Verwijderd op 04-02-2018 20:05 ]


Acties:
  • +4 Henk 'm!
Help!!!! schreef op zondag 4 februari 2018 @ 10:49:
In dat antwoord heb ik niets. Ik wil dus graag weten in hoeverre gimpworks nu idd open source is en of daarmee alle negatieve effecten uit het verleden niet meer meer hoeven op te treden. Of dat er dus nog addertjes onder het gras zitten.

En wat nvidia en developers doen met gimpworks heeft effect op de AMD ingame resultaten dus is dat m.i. prima relevant voor dit topic. Mocht een moderator daar anders over denken dan hoor ik dat vanzelf wel vd moderators :)
Het is deels open source. Er zijn nog steeds delen van GameWorks die alleen als gesloten blob worden gegeven. HairWorks is bij mijn weten inmiddels wel volledig open source (zal morgenavond even in de repo's neuzen als ik niet aan het lauwe bier zit :+).
Gekke Jantje schreef op zondag 4 februari 2018 @ 10:53:

Oke want ik mocht laatst niet in gaan op een reactie wat over Nvidia en AMD ging als het ging over DX12. Dus ik dacht dat het hier dus niet thuis hoorde. Maar goed. Hairworks is een voorbeeld van opensource omdat het volledig aanpasbaar is in de game Als er een ader onder het zit zal dat nog moeten worden gevonden. Opensource betekent verder ook niet dat een bepaald effect op alle architecturen even goed draait, zie ook tress FX (amd's gimpworks tegenhanger genaamt gimp-open) wat een hit geeft op Nvidia hardware met de hoogste settings in Tomb Raider. Dat het van 150 naar 130 fps is doet er niet toe.
Zolang je een vergelijking met AMD's techniek trekt zie ik niet in waarom dat niet zou mogen.

Jouw opvatting van open source is echter incorrect. Open Source betekent dat je de volledige broncode van een stuk programmatuur hebt. Dat was met HairWorks toen W3 uit kwam niet het geval.

Het verschil is dat je voorheen alleen dit kreeg van Nvidia:
code:
1
enable_hairworks(tessellation_factor)

Wat er dan binnen die functie gebeurde had je geen weet van; en de standaard waarde voor de tessellation factor was 64 samples, wat gewoon overkill is (zie hieronder). Als je de broncode hebt kun je echter precies zien wat de functie doet én dat eventueel aanpassen.

Nvidia's standaard tessellation factor is ook onzin, omdat je nooit 64 vlakken krijgt gerenderd op zoiets kleins als haren. Factor 16 is daar zelfs nog overkill voor. Ik zal eens kijken of ik een vergelijking kan vinden die ooit gemaakt werd, volgens mij met één van de Alien games. Zelfs op een schouder van een personage was het verschil tussen 16 en 64 samples nauwelijks zichtbaar; laat staan op een haar.
Gekke Jantje schreef op zondag 4 februari 2018 @ 15:08:
Toch apart dan dat CDPROJECT RED hairworks heeft aangepast als het niet eens mag van Nvidia. Blijkbaar is het dus wel open source en valt niet te ontkennen. Men wil liever niet dat het open source is want men vertrouwd Nvidia niet.
Nogmaals, dat is pas ná de W3 release gebeurd. Zie ook de link die je post: GDC 2016.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op zondag 4 februari 2018 @ 21:42:
[...]

Het is deels open source. Er zijn nog steeds delen van GameWorks die alleen als gesloten blob worden gegeven. HairWorks is bij mijn weten inmiddels wel volledig open source (zal morgenavond even in de repo's neuzen als ik niet aan het lauwe bier zit :+).
Kijk dan ook even voor Turf en Flow als je wil. Deze twee geven best een zware hit voor de AMD-kaarten. Ik zou graag eens een analyse van die Gimpworks-code zien van iemand die een ervaren programmeur is en veel met graphics heeft gewerkt.
Nvidia's standaard tessellation factor is ook onzin, omdat je nooit 64 vlakken krijgt gerenderd op zoiets kleins als haren. Factor 16 is daar zelfs nog overkill voor. Ik zal eens kijken of ik een vergelijking kan vinden die ooit gemaakt werd, volgens mij met één van de Alien games. Zelfs op een schouder van een personage was het verschil tussen 16 en 64 samples nauwelijks zichtbaar; laat staan op een haar.
En daarom, Gekke Jantje, wordt Nvidia ervan verdacht dat ze dit doen om de performance te beperken, dan kan je er nog over speculeren of dat het hen enkel om AMD te doen is of ook om hun eigen oudere generaties (highend-kaarten).

[ Voor 46% gewijzigd door Verwijderd op 04-02-2018 21:55 ]


Acties:
  • +3 Henk 'm!
Werelds schreef op zondag 4 februari 2018 @ 21:42:
[...]

Het is deels open source. Er zijn nog steeds delen van GameWorks die alleen als gesloten blob worden gegeven. HairWorks is bij mijn weten inmiddels wel volledig open source (zal morgenavond even in de repo's neuzen als ik niet aan het lauwe bier zit :+).
Niet nodig. :)

https://developer.nvidia.com/gameworks-source-sdk-eula
1.1 License.
(b) modify those portions of the NVIDIA GameWorks Licensed Software that are provided in Source Code form solely (i) for purposes of compiling or integrating the same or portions thereof as Object Code into Games, Expansion Packs, Demos and other applications related to same, or (ii) to correct any bugs or errors that You may identify in the NVIDIA GameWorks Licensed Software, each as subject to the further source code modification requirements as set forth below;
1.3 Restrictions.
1.3 Restrictions. You will reproduce faithfully, and will require Your Distributors to reproduce faithfully, all of NVIDIA's and its licensors' copyright and proprietary notices on any copies You and its Distributors make of the NVIDIA GameWorks Licensed Software, whether in Demos, Games or other applications. At minimum, You will acknowledge the copyrights of NVIDIA as follows in the manual (if any) and in-game credits of any Game or Demo that uses NVIDIA GameWorks Licensed Software or portions thereof (e.g. VisualFX SDK, ...). "NVIDIA GameWorks™ Technology provided under license from NVIDIA Corporation. Copyright © 2002-2015 NVIDIA Corporation. All rights reserved." or such other similar statement as NVIDIA may reasonably require from time to time. You agree that it will not: (a) copy, modify, translate or otherwise create any Derivative Works of any of the NVIDIA GameWorks Licensed Software, except as expressly permitted in this Agreement; (b) remove, alter, cover or obscure any proprietary notice that appears on or with the NVIDIA GameWorks Licensed Software or any copies thereof; (c) use the NVIDIA GameWorks Licensed Software or any Derivative Works thereof, or allow its use, transfer, transmission or export in violation of any export control laws or regulations administered by the United States government; (d) distribute, permit access to, or sublicense the NVIDIA GameWorks Licensed Software or any Derivative Works thereof as a stand-alone product or without substantial value-added content or (e) use the NVIDIA GameWorks Licensed Software in any manner that would cause the NVIDIA GameWorks Licensed Software to become subject to an Open Source License. "Open Source License" includes, without limitation, a software license that requires as a condition of use, modification, and/or distribution of such software that the NVIDIA GameWorks Licensed Software be (i) disclosed or distributed in source code form; (ii) be licensed for the purpose of making derivative works; or (iii) be redistributable at no charge.
Niks open source. Dit is een licentie voor gebruik, niet aanpassing van code. AMD kan hier dus niks mee onder deze voorwaarden. Verder is volgens mij het idee van open source dat je de code kan pakken en integreren in iets nieuws. Dat mag dus ook niet. O-)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Open source houdt inderdaad meer in dan enkel de code kunnen lezen.
Hier kan je er meer over lezen.
https://books.google.nl/b...esc=y#v=onepage&q&f=false
Ik weet niet of dat er een officiële definitie van open source bestaat maar praktisch gezien zijn er tal van verschillende open source licenties, een verschil kan bijvoorbeeld zijn of dat alle wijzigingen die je aanbrengt aan code eveneens open source zijn wat bij Linux wel het geval is maar bij FreeBSD (ook GNU, door Apple gebruikt voor hun besturinssysteem) niet het geval is.

De vraag is of dat AMD nog iets op driver-niveau kan doen voor die Gimpworks. Een verantwoord developer gebruikt niets uit die Gimpworks-library tenzij ze de code zelf in het spel mogen opnemen en mogen aanpassen naar believen.

Ik ben nu deze uit de oude doos (2015) aan het lezen.
https://wccftech.com/fallout-4-nvidia-gameworks/
Ik weet dat veel mensen geen fan zijn vvan WCCFTech maar dit is best lezenswaardig, mensen van Nvidia en AMD die aan het woord komen over Gimpworks. Dit bijvoorbeeld:
A 13% performance advantage ...
So unlike TressFX where the feature performs the same on NVIDIA and AMD hardware, HairWorks penalizes AMD hardware with double and up to triple the performance cost.
for NVIDIA hardware in tessellation was turned to a 2X and 3X performance advantage running HairWorks.
...
A 13% delta between the R9 285 and GTX 960 turns into a whopping 206% delta, in both instances running tessellation x32. The main difference is that in the first instance both cards were running a standard piece of code that both companies can optimize while in the second instance the R9 285 is running code developed by NVIDIA that AMD cannot even see.
Dit in het licht bezien dat Nvidia-kaarten zwakker zijn in compute terwijl ze geen penalty of zelfs maar een mindere performance krijgen met TressFX. Het verschil tussen echt open source en proprietary.

[ Voor 74% gewijzigd door Verwijderd op 04-02-2018 22:30 ]


Acties:
  • 0 Henk 'm!

  • Derby
  • Registratie: Januari 2010
  • Niet online
Ik kan me straks weer een youtuber voorstellen die hier weer een video over maakt (adoredtv) om aan te tonen dat het nVidia verhaal niet helemaal fair play is.

If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Werelds schreef op zondag 4 februari 2018 @ 21:42:
[...]

Het is deels open source. Er zijn nog steeds delen van GameWorks die alleen als gesloten blob worden gegeven. HairWorks is bij mijn weten inmiddels wel volledig open source (zal morgenavond even in de repo's neuzen als ik niet aan het lauwe bier zit :+).
Analyse van de code zou leuk zijn, graag!
Eerlijk gezegd had ik zelf geen zin om lid te worden van de Nvidia site als developer, daarnaast kost het mij erg veel tijd om het te analyseren omdat de laatste keer dat ik met graphics heb gewerkt heel wat jaren terug was (sowieso was het niet mijn forte).

Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op zondag 4 februari 2018 @ 22:48:
[...]


Analyse van de code zou leuk zijn, graag!
Eerlijk gezegd had ik zelf geen zin om lid te worden van de Nvidia site als developer, daarnaast kost het mij erg veel tijd om het te analyseren omdat de laatste keer dat ik met graphics heb gewerkt heel wat jaren terug was (sowieso was het niet mijn forte).
Is voor mij niet veel anders hoor. Ik heb al jaren niets met graphics gedaan, hoewel het me wel goed lag. Zoals gezegd, zal eens kijken hoe ik deze week zit in de avonden.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Bedankt allemaal. :)

Er lijken dus helaas weer genoeg adders onder het gras te zitten en welke naam het beestje heeft is op zich niet zo belangrijk want uiteindelijk gaat het er natuurlijk om of AMD / de Developer de code eenvoudig kan inzien en waar nodig zaken kan aanpassen.

Echter als het gimpworks nu her en der als “open source” bestempeld wordt dan geeft dat al snel een verkeerd beeld omdat veel mensen dan lijken te denken dat het helemaal open, aanpasbaar etc is. Dus doet de naam er toch wel weer toe :P

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!
Help!!!! schreef op maandag 5 februari 2018 @ 09:05:
Bedankt allemaal. :)

Er lijken dus helaas weer genoeg adders onder het gras te zitten en welke naam het beestje heeft is op zich niet zo belangrijk want uiteindelijk gaat het er natuurlijk om of AMD / de Developer de code eenvoudig kan inzien en waar nodig zaken kan aanpassen.

Echter als het gimpworks nu her en der als “open source” bestempeld wordt dan wordt geeft dat al snel een verkeerd beeld omdat veel mensen dan lijken te denken dat het helemaal open, aanpasbaar etc is. Dus doet de naam er toch wel weer toe :P
Waarom denk je dat Nvidia opeens met prachtige verhalen over open source maken van Gameworks nadat AMD met GPUOpen kwam. ;)
Natuurlijk slikte de meeste "media" het prachtige verhaal gewoon zonder een paar minuten eigen onderzoek. Dat is ook echt zo moeilijk om te doen. |:(
Werelds schreef op maandag 5 februari 2018 @ 04:56:
[...]

Is voor mij niet veel anders hoor. Ik heb al jaren niets met graphics gedaan, hoewel het me wel goed lag. Zoals gezegd, zal eens kijken hoe ik deze week zit in de avonden.
Oh mijn brein gaat ook eindelijk aan. Je wilt dus in de code duiken, niet gewoon EULA voorwaarden zien. Laat maar weten als je het hebt gedaan, ben ook wel geïnteresseerd. :)

[ Voor 20% gewijzigd door DaniëlWW2 op 05-02-2018 10:08 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Situatie kan zelfs extra gevaarlijk voor AMD worden mbt optimalisatie als ze code schrijven die lijkt op een aanpassing op Gameworks.

Op deze manier moet AMD bewijsbaar met een blinddoek gaan werken terwijl ze dat daarvoor niet bewijsbaar hoefden te doen.

Deze vorm van OpenSource heeft dus eigenlijk een nog een groter closed source effect.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!
enchion schreef op maandag 5 februari 2018 @ 10:22:
Situatie kan zelfs extra gevaarlijk voor AMD worden mbt optimalisatie als ze code schrijven die lijkt op een aanpassing op Gameworks.

Op deze manier moet AMD bewijsbaar met een blinddoek gaan werken terwijl ze dat daarvoor niet bewijsbaar hoefden te doen.

Deze vorm van OpenSource heeft dus eigenlijk een nog een groter closed source effect.
Daarom doen ze dat dus niet. Nee, ze gaan gewoon door de code van Gameworks en de game heen en forceren zoveel mogelijk "fixes" via hun drivers. 64x Tesselation? Nope, wij forceren lekker max 16x. Dat soort zaken kan AMD zo aanpakken.

Kan je natuurlijk ook zelf doen in je driverscherm. Ja, dit bestaat, echt. Ik weet dat vrijwel niemand er ooit van heeft gehoord, maar het is best handig om bepaalde zaken mee te forceren. Verder is dat driverscherm best wel mooi voor AMD. :P :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

enchion schreef op maandag 5 februari 2018 @ 10:22:
Situatie kan zelfs extra gevaarlijk voor AMD worden mbt optimalisatie als ze code schrijven die lijkt op een aanpassing op Gameworks.

Op deze manier moet AMD bewijsbaar met een blinddoek gaan werken terwijl ze dat daarvoor niet bewijsbaar hoefden te doen.

Deze vorm van OpenSource heeft dus eigenlijk een nog een groter closed source effect.
De kans dat je per ongeluk code schrijft die hetzelfde is, is minimaal. Als je tien programmeurs vraagt hetzelfde programma te schrijven krijg je tien verschillende implementaties. Bovendien zou de bewijslast nog altijd bij Nvidia liggen. Nogal ver gezocht imho.

Acties:
  • +1 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Verwijderd schreef op maandag 5 februari 2018 @ 16:40:
[...]

De kans dat je per ongeluk code schrijft die hetzelfde is, is minimaal. Als je tien programmeurs vraagt hetzelfde programma te schrijven krijg je tien verschillende implementaties. Bovendien zou de bewijslast nog altijd bij Nvidia liggen. Nogal ver gezocht imho.
We hebben het wel over een bedrijf dat vindt dat het per EULA mag afdwingen of jij jouw aankopen in een "datacentrum" gebruikt, hè? ;)

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
foppe-jan schreef op maandag 5 februari 2018 @ 16:45:
[...]

We hebben het wel over een bedrijf dat vindt dat het per EULA mag afdwingen of jij jouw aankopen in een "datacentrum" gebruikt, hè? ;)
Zelfs dan nog. Er zijn meer dan genoeg wegen naar Rome. Verder zijn die AMD software engineers dus niet achterlijk en zijn ze perfect in staat hun eigen programma's te schrijven die ook helemaal niks te maken hebben met Nvidia code. Al is het maar omdat het waarschijnlijk beter is om de Nvidia code niet te gebruiken. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op maandag 5 februari 2018 @ 09:05:
Bedankt allemaal. :)

Er lijken dus helaas weer genoeg adders onder het gras te zitten en welke naam het beestje heeft is op zich niet zo belangrijk want uiteindelijk gaat het er natuurlijk om of AMD / de Developer de code eenvoudig kan inzien en waar nodig zaken kan aanpassen.
Vooral aanpassingen van de developer werpen vruchten af, zelfs met open code kan je niet zomaar even met een driver alles oplossen. Nvidia kon niet via de drivers optimaliseren voor TressFX, dat dit uiteindelijk goed werkte voor Nvidia-kaarten ondanks hun veel zwakkere compute was te danken aan de developer (een tak van Square Enix dus) die de code zodanig aanpaste dat het wel goed draait op Nvidia-kaarten). Zie het artikel op WCCFTech waar ik gisteren naar verwees, van daaruit wordt verwezen naar een video op Twitch waarin er een 20 minuten durend gesprek wordt gevoerd met een AMD-medewerker.

De vraag is in welke mate de developer de code kan aanpassen om die beter te laten draaien op AMD-hardware. In de voorwaarden staat duidelijk vermeld dat er geen nadelig effect mag zijn voor Nvidia. Ik concludeer hieruit dat de developer niet een optimalisatie mag doorvoeren die voor AMD het verlies beperkt tot 2% maar Nvidia 1% verlies geeft. Of dat de optimalisatie voor Tomb Raider nadelig uitpakte voor AMD weet ik niet. Mijns inziens is de meest voor de hand liggende manier dat je twee paden in je code opneemt en in functie van 1 variabele (bijvoorbeeld een string met de waarde "amd" of "nvidia" of een boolean) het ene pad of het andere pad volgt.
DaniëlWW2 schreef op maandag 5 februari 2018 @ 10:28:
[...]


Daarom doen ze dat dus niet. Nee, ze gaan gewoon door de code van Gameworks en de game heen en forceren zoveel mogelijk "fixes" via hun drivers. 64x Tesselation? Nope, wij forceren lekker max 16x. Dat soort zaken kan AMD zo aanpakken.
Het probleem is alleen dat je dan voor alles max16x hebt, waar je op pixel-niveau het verschil niet ziet bij meer dan 16x (Hairworks) kan je bij andere toepassingen wel het verschil zien. Het is verre van ideaal. Verder speelt natuurlijk ook mee dat AMD een beperkt budget heeft, alles wat AMD kan doen is zelf genoeg code hier tegenover stellen die de developers kunnen gebruiken.
Ik heb zelf overigens alles op AMD-optimized staan, ik laat het in beginsel aan AMD over, als ik niet tevreden ben dan ga ik wel experimenteren.

[ Voor 21% gewijzigd door Verwijderd op 05-02-2018 18:01 ]


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Verwijderd schreef op maandag 5 februari 2018 @ 16:40:
[...]

De kans dat je per ongeluk code schrijft die hetzelfde is, is minimaal. Als je tien programmeurs vraagt hetzelfde programma te schrijven krijg je tien verschillende implementaties. Bovendien zou de bewijslast nog altijd bij Nvidia liggen. Nogal ver gezocht imho.
Met normale programmatuur wel, hoewel dingen nog steeds op elkaar kunnen lijken. Voor dingen waar shading bij nodig is zal je vaak vergelijkbare dingen gaan zien. Daar is een optimale implementatie belangrijker, hierdoor zal iets eerder op elkaar lijken.
Een voorbeeld is bijvoorbeeld gausian blur, bij veel code zie je dezelfde bewerkingen terugkomen ook in dezelfde volgorde. Logisch wat dit bestaat al een tijd en er is ondertussen een "optimale" manier om dat te doen.
Shader code is ook vaak compacter dan normale code en qua lengte ook korter.

Maar dan nog steeds is de kans dat iets identiek is best klein.

Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 21-09 19:33
Zoooo dan, de cryptocrash die op dit moment gaande is begint zich al te vertalen in wat V&A van RX580's.. 3 binnen een half uur nu, kan hard gaan de komende dagen als het zo doorgaat met de koersen! Denk dat we een flinke prijsdaling tegemoet mogen zien :)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Lord_Dain schreef op maandag 5 februari 2018 @ 21:19:
Zoooo dan, de cryptocrash die op dit moment gaande is begint zich al te vertalen in wat V&A van RX580's.. 3 binnen een half uur nu, kan hard gaan de komende dagen als het zo doorgaat met de koersen! Denk dat we een flinke prijsdaling tegemoet mogen zien :)
Ongelovelijk, 450 euro voor een tweedehands minekaart. Gelukkig ook een aantal goedkopere voor 200 euro per stuk (4GB).

Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 21-09 19:33
Sp3ci3s8472 schreef op maandag 5 februari 2018 @ 21:26:
[...]


Ongelovelijk, 450 euro voor een tweedehands minekaart. Gelukkig ook een aantal goedkopere voor 200 euro per stuk (4GB).
Alles zal van de cryptocrash afhangen, als deze nog ff doorgaat (1-2 weken neergaande lijn) dan wordt V&A straks overspoeld met kaarten van gedesillusioneerde miners!

Acties:
  • 0 Henk 'm!
En die kaarten moet je dan ook pakken. €200 voor een tweedehands RX580 4GB is niet slecht maar dat zal nog wel beter worden denk ik. Sloopt in ieder geval de GTX1050Ti, en de GTX1060 3GB ook wel. Zeker als je dan een beter model kan krijgen dan een Gigabyte. In het bijzonder XFX of Sapphire zou echt een mooi koopje zijn. Mensen doen veel te panisch over slijtage van die kaarten alsof ze na een maand uit elkaar zullen vallen. In principe gaan de ventilatoren als eerste kapot. De chips zelf zijn underclocked geweest en de ventilatoren hebben echt niet constant 100% gedraaid, totaal niet nodig. Zeker voor Sapphire is ventilatorslijtage geen probleem omdat je gewoon nieuwe kan kopen en makkelijk kan vervangen zonder je garantie te verspillen.

Wel natuurlijk weer vlak nadat AMD aankondigde de GPU productie omhoog te gooien. Hopelijk zijn die wafers niet al besteld, hoewel ik vrees van wel. Gaat zo weer een afschrijfpost worden als de crash doorzet. :/
Aan de andere kant, marktaandeel AMD kaarten zal zo wel omhoog schieten en komend jaar is een nieuwe GPU lijn uitbrengen vrij zinloos. Laat AMD dat waarschijnlijk niet gaan doen, Nvidia waarschijnlijk wel. :P

[ Voor 25% gewijzigd door DaniëlWW2 op 05-02-2018 21:47 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op maandag 5 februari 2018 @ 21:39:
En die kaarten moet je dan ook pakken. €200 voor een tweedehands RX580 4GB is niet slecht maar dat zal nog wel beter worden denk ik. Sloopt in ieder geval de GTX1050Ti, en de GTX1060 3GB ook wel. Zeker als je dan een beter model kan krijgen dan een Gigabyte. In het bijzonder XFX of Sapphire zou echt een mooi koopje zijn. Mensen doen veel te panisch over slijtage van die kaarten alsof ze na een maand uit elkaar zullen vallen. In principe gaan de ventilatoren als eerste kapot. De chips zelf zijn underclocked geweest en de ventilatoren hebben echt niet constant 100% gedraaid, totaal niet nodig.
Het is nogal offtopic, ik zou me eerder zorgen maken om de fans dan om de GPU. Inderdaad, voor Sapphire is het minder een probleem (het kost wel altijd nog geld om ze te vervangen maar het kan tenminste, kudos). Wat voor mij misschien meer speelt is dat ik die hebberige *** niet wil belonen met nog eens een leuk tweedehands verkoopbedrag nadat ze het milieu hebben *** om voor niets extra geld te krijgen. Ik heb het dan uiteraard niet over de mensen die toevallig nog een kaart hadden liggen maar over mensen die het bewust voor 'mining' hebben gekocht, al dan niet met het doel die duurder te verkopen.

[ Voor 8% gewijzigd door Verwijderd op 05-02-2018 23:21 ]


Acties:
  • 0 Henk 'm!

  • Richardus27
  • Registratie: Augustus 2015
  • Laatst online: 23-09 02:59

Richardus27

PC beunhaas extraordinaire!

Verwijderd schreef op maandag 5 februari 2018 @ 23:21:
[...]

Het is nogal offtopic, ik zou me eerder zorgen maken om de fans dan om de GPU. Inderdaad, voor Sapphire is het minder een probleem (het kost wel altijd nog geld om ze te vervangen maar het kan tenminste, kudos).
Heb een tijdje terug nog ex-mining kaarten (~4 jaar gebruikt) binnen gekregen waarvan de fans nogal een schrapend geluid maakten. Stickertje d'r af en beetje olie op de lagers, werkten weer als nieuw. Kwartiertje TLC en je hebt een zo goed als nieuwe kaart.
Of de GPU zelf en de RAM chips schade oplopen door minen weet ik alleen niet. De een zegt 100% belasting => snellere slijtage terwijl de ander zegt dat het gebrek aan uitzetten/inkrimpen door tempverschillen juist een langere levensduur geeft.

Weet nog dat bij de laatste crash de R9 290's voor 100 euro over de toonbank vlogen, gezien de schaal van het hedendaags minen zou ik misschien eindelijk een crossfire opstelling kunnen realiseren :9~

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Richardus27 schreef op dinsdag 6 februari 2018 @ 16:20:
[...]
Weet nog dat bij de laatste crash de R9 290's voor 100 euro over de toonbank vlogen, gezien de schaal van het hedendaags minen zou ik misschien eindelijk een crossfire opstelling kunnen realiseren :9~
Alleen is Crossfire en SLI tegenwoordig veel minder interessant door het gebrek aan support van enerzijds de game developers en anderzijds Nvidia en AMD.

Zelf geloof ik het ook niet meteen dat de chips er zwaar genoeg onder lijden dat de ze het geen 5 jaren met gamen meer uithouden. Maar inderdaad mechanisch mag je wel verwachten dat er wat problemen zijn, wat op te lossen valt.

Acties:
  • 0 Henk 'm!

  • Richardus27
  • Registratie: Augustus 2015
  • Laatst online: 23-09 02:59

Richardus27

PC beunhaas extraordinaire!

Phuncz schreef op dinsdag 6 februari 2018 @ 17:36:
[...]

Alleen is Crossfire en SLI tegenwoordig veel minder interessant door het gebrek aan support van enerzijds de game developers en anderzijds Nvidia en AMD.

Zelf geloof ik het ook niet meteen dat de chips er zwaar genoeg onder lijden dat de ze het geen 5 jaren met gamen meer uithouden. Maar inderdaad mechanisch mag je wel verwachten dat er wat problemen zijn, wat op te lossen valt.
Dan is daar inderdaad weer het probleem met de ondersteuning... *zucht*
Had gehoopt dat DX12 met z'n mooie beloften weer nieuw leven in SLI/CF zou blazen, maar nu ik inderdaad de tests van recente titels zie is dat ook al vervlogen hoop :/

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
De Linux opensource Mesa drivers voor AMD zijn echt een stuk beter geworden dit jaar, op een graphics test na is haast overal een grote verbetering te zien!
Zie ook:
https://www.phoronix.com/...e&item=mesa-120-180&num=1

Kan niet wachten tot ik een 2400G in een HTPC kan zetten met een controller erbij :D.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Richardus27 schreef op dinsdag 6 februari 2018 @ 19:19:
[...]


Dan is daar inderdaad weer het probleem met de ondersteuning... *zucht*
Had gehoopt dat DX12 met z'n mooie beloften weer nieuw leven in SLI/CF zou blazen, maar nu ik inderdaad de tests van recente titels zie is dat ook al vervlogen hoop :/
Dat vind ik ook spijtig want ik had speciaal daarvoor een tweede R9 290X gekocht samen met aftermarket cooler. Maar dan zie je al die recente games er niets mee doen, dus maar beide verkocht en een GTX 1080 gekocht. Wachtende op de kans dat AMD me weer kan overtuigen om te upgraden.

Acties:
  • 0 Henk 'm!

Verwijderd

Richardus27 schreef op dinsdag 6 februari 2018 @ 16:20:
[...]


Heb een tijdje terug nog ex-mining kaarten (~4 jaar gebruikt) binnen gekregen waarvan de fans nogal een schrapend geluid maakten. Stickertje d'r af en beetje olie op de lagers, werkten weer als nieuw. Kwartiertje TLC en je hebt een zo goed als nieuwe kaart.
Of de GPU zelf en de RAM chips schade oplopen door minen weet ik alleen niet.
Wat ik ervan begrijp.
Hoe meer hitte hoe slechter voor de GPU (en soortgelijke hardware zoals CPU's, RAM, SSD's...) en hoe langer die hitte aanhoudt hoe slechter het is. Beter minder hitte voor een meer dan evenredig lange tijd dan meer hitte voor een meer dan evenredig minder lange tijd. Het gebeurt niet snel dat de GPU zelf ermee uitscheidt, componenten voortijdig slopen (bijvoorbeeld een condensator die het relatief vroeg begeeft...) kan misschien als je als een idioot overklokt (spanning flink omhoog, wattage-grens flink omhoog, 24/7...).
Voor zo ver ik het begrijp is het meest realistische scenario dat je mogelijk een mindere performance krijgt, de boost die wat minder hoog uitkomt bij dezelfde spanning en hetzelfde vermogen of zo. Naast de versleten fans (ja, een beetje olie kan het vaak oplossen). In de praktijk gaan GPU's en CPU's veel langer mee dan dat mensen ze gebruiken maar de performance daalt wel op een gegeven moment. Als je nooit overklokt dan zal je dat niet snel merken, als je wel overklokt dan zal je wellicht merken dat je op een gegeven moment wat meer spanning nodig hebt om dezelfde klokfrequentie te halen.

offtopic:
Voor mij is het niet zo relevant, buiten dat ik het technisch interessant vind, aangezien ik toch niet tweedehands grafische kaarten koop. Het loont zelden naar mijn mening. Van iemand die ik ken zou ik een tweedehands grafische kaart kunnen kopen, van sommige mensen hier op het forum ook als zij een nieuwe grafische kaart kopen en hun kaart verkopen voor een redelijke prijs. Niet zo snel van iemand die ik niet ken en zeker niet als ermee 'gemined' is maar dat is dus meer omwille van het principe (ik heb een hekel aan 'mining' en ik steun dat dan ook niet).

[ Voor 11% gewijzigd door Verwijderd op 06-02-2018 21:32 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Richardus27 schreef op dinsdag 6 februari 2018 @ 19:19:
[...]


Dan is daar inderdaad weer het probleem met de ondersteuning... *zucht*
Had gehoopt dat DX12 met z'n mooie beloften weer nieuw leven in SLI/CF zou blazen, maar nu ik inderdaad de tests van recente titels zie is dat ook al vervlogen hoop :/
Vergeet DX12, Vulkan is waar we het van moeten hebben. Iedereen heeft het over DX12 maar tot nu toe valt DX12 vies tegen, mogelijk omdat het vooral DX12-patches zijn (niet vanaf het begin ontworpen voor DX12), MS had lang aangekondigd dat DX11 de laatste versie was en lijkt enkel met DX12 te zijn gekomen omdat de Khronos Group en AMD hen hiertoe dwongen met Vulkan (van oorsprong Mantle, de KG heeft met dit als basis Vulkan gemaakt). De grote troef van Vulkan is dat het crossplatform is, dat houdt in dat de developer slechts 1 keer het goed hoeft uit te werken en dat je geen crappy patches meer krijgt, ook niet van console naar PC of andersom. Het is te hopen dat DX12 niets meer is dan een tussenfase voordat Vulkan de dominante API wordt, dan kunnen we ook eindelijk eens Windows dumpen voor de meeste zaken.

Of het in de toekomst met Vulkan en DX12 gaat lonen om meerdere grafische kaarten te gebruiken hangt van de developers af, als zij het ondersteunen dan kan het goed werken, als zij het niet ondersteunen dan kunnen AMD en Nvidia weinig doen. Voor DX11 is Nvidia helemaal gestopt met SLI nog te ondersteunen (voor nieuwe spellen), AMD heeft aangekondigd dat het geen hoge prioriteit meer heeft of iets in die geest. Ik vind het prima, het is momenteel niet praktisch om meerdere grafische kaarten te gebruiken (veel hitte, veel stroomverspilling, duur, meestal meer microstutter) en slechts een klein deel van de gamers heeft meerdere grafische kaarten. Het is niet handig om zoveel middelen te besteden voor zo'n klein deel van je klanten.
Om dezelfde reden ben ik niet gecharmeerd van lokalisatie met spellen, al helemaal niet als het ook voor audio gebeurt. Het klinkt vaak ook nog eens slechter. Mensen leren maar Engels. Sorry.
Sp3ci3s8472 schreef op dinsdag 6 februari 2018 @ 19:21:
De Linux opensource Mesa drivers voor AMD zijn echt een stuk beter geworden dit jaar, op een graphics test na is haast overal een grote verbetering te zien!
Zie ook:
https://www.phoronix.com/...e&item=mesa-120-180&num=1

Kan niet wachten tot ik een 2400G in een HTPC kan zetten met een controller erbij :D.
Geen verrassing, AMD neemt Linux tegenwoordig zeer serieus, je ziet dat ze ook hard werken aan de support voor Ryzen en TR op Linux, op Linux draaien de Vega-kaarten ook prima (PCIe-passthrough). Het werkt tegenwoordig prima om Windows in een virtuele machine te draaien en 100% performance te halen (of misschien 99,9% ;)) met PCIe-passthrough. Er waren wat problemen, ook bij de moederbordbedrijven (IOMMU) maar die zijn inmiddels voor een groot deel opgelost, met de juiste hardware werkt het nu vlekkeloos, geen crashes of performanceverlies. Ik zie graag dat AMD Linux serieus neemt en ik denk dat het verstandig is maar het is wel enigszins verrassend gezien het feit dat AMD beperkte middelen heeft in vergelijking met Nvidia en Intel.

[ Voor 23% gewijzigd door Verwijderd op 06-02-2018 22:12 ]


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Verwijderd schreef op dinsdag 6 februari 2018 @ 21:46:
[...]
Geen verrassing, AMD neemt Linux tegenwoordig zeer serieus, je ziet dat ze ook hard werken aan de support voor Ryzen en TR op Linux, op Linux draaien de Vega-kaarten ook prima (PCIe-passthrough). Het werkt tegenwoordig prima om Windows in een virtuele machine te draaien en 100% performance te halen (of misschien 99,9% ;)) met PCIe-passthrough. Er waren wat problemen, ook bij de moederbordbedrijven (IOMMU) maar die zijn inmiddels voor een groot deel opgelost, met de juiste hardware werkt het nu vlekkeloos, geen crashes of performanceverlies. Ik zie graag dat AMD Linux serieus neemt en ik denk dat het verstandig is maar het is wel enigszins verrassend gezien het feit dat AMD beperkte middelen heeft in vergelijking met Nvidia en Intel.
Beetje offtopic, veel mensen denken waarom een VM. Dat is eigenlijk heel simpel, in het bedrijfsleven kan het goed voorkomen dat je voor meerdere klanten moet werken. Deze hebben allemaal hun eigen software of smaakjes van vergelijkbare software. Indien je een werk laptop hebt en je daarop alles moet doen dan wordt het een hel om dit allemaal daarop te draaien. Het is veel beter werkbaar om voor elke klant een apparte VM te hebben.
Zelfs voor hobbies is dit geweldig. Ik heb geen zin om de hele Visual Studio/Java/Xamarin/etc Stack op mijn game pc te zetten (zelfs Windows 10 loopt gewoon na een tijd nog steeds vol). Ik heb dit gewoon in een VM draaien en dat is qua performance prima, bijkomend voordeel is dat ik de VM ook op mijn laptop heb staan en dus gewoon in de trein verder kan werken na een git pull :D.

Acties:
  • 0 Henk 'm!
Maar terug naar de toekomst. Dit geeft mijn theorie over een vroege Navi launch wel wat meer krediet. :)
https://www.tweaktown.com...navi-2020-2021/index.html

Natuurlijk staat niks vast, maar ik ben niet de enige die vermoedens heeft, en hier zullen ze wat bronnen hebben. Dat het een ramp kan worden geloof ik ook wel. Het gaat denk ik echt afhangen van DX12/Vulkan adoptie door de "AAA" games het komende jaar. Blijft dat gering, dan zie ik Navi nauwelijks sneller zijn dan Vega, en dat is niet goed...

Aan de andere kant lijkt er nu wel een einde te komen aan GCN rond 2020/2021. Dan zou je best wel weer eens een dedicated gaming architectuur gaan zien. Lisa Su hinte daar laatst ook op als mogelijkheid. Als dat eraan zit te komen, dan is die beslissing natuurlijk allang gemaakt.

[ Voor 20% gewijzigd door DaniëlWW2 op 08-02-2018 11:56 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Pagina: 1 ... 20 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.