CJ's Radeon Info & Nieuwsdiscussie - Deel 127 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 6 Laatste
Acties:
  • 24.678 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Weer nieuws op het Mantle-front. Fireaxis gaat het ook gebruiken in Civilization: Beyond Earth.

http://www.tweaktown.com/...s-amd-s-mantle/index.html

Benieuwd of het een voorbode is voor Take2's andere spellen, of dat het bij Firaxis blijft voor het moment.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 16-06 13:14
Verbaast me niets, dit zijn het soort games waar Mantle erg nuttig is. Civ V maakte ook al als een van de weinige games veel gebruik van DirectCompute, Firaxis houdt van nieuwe dingen :)

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 21:08

superwashandje

grofheid alom

oeh, bij een game als civilization kan het volgens mij ook wel goed helpen om de turns te verkorten. hier zal het zelfs bij een high end systeem (dus niet alleen met een relatief trage cpu) helpen lijkt me?
nice!

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Werelds schreef op zaterdag 12 april 2014 @ 16:28:
[...]

Ik heb mijn kaart al lang overgeklokt, had ik een 780 Ti gehad, was die ook overgeklokt. Dus dan blijft die winst uit.

Dus nee, clocks verhogen telt niet mee. Dat kon al, heb je geen driver voor nodig.

Feit is dat deze driver simpelweg niets bijzonders doet, tenzij je een 780 Ti hebt - liefst zelfs twee, want dan helpen de nieuwe SLI profielen ook nog een beetje. Voor de rest van ons is het niet meer of minder dan de standaard driver updates van Nvidia (of AMD).
Ik heb zelf winsten in meerdere games en daar bij zijn de clocks van de gpu helemaal niet verhoogt.
Ik denk dat bij die test een fout is gemaakt, dat men heeft gekeken bij de boost clock wat gpuz laat zien en dat is meestal anders (hoger). Ik heb 2 Titans in sli en ook daar heb ik zo'n 5-40 fps winst. In Battlefield 4 Sieg of Shanghai van minimaal 40 naar minimaal 70 fps en een veel vloeiendere gameplay.

En hier de rest.

Paar benchmarks van mij zelf. i7 3970x 4500mhz Titan sli Windows 7 64

Batman AC 335 drivers Min 34 fps Max 155 fps Avg 89 fps
Batman AC 337 drivers Min 40 fps Max 146 fps Avg 88 fps

Metro LL 335 drivers Min 15 fps Max 148 fps Avg 46 fps
Metro LL 337 drivers Min 16 fps Max 163 fps Avg 47 fps

Sniper V2 335 drivers Min 19 fps Avg 68 fps
Sniper V2 337 drivers Min 19 fps Avg 72 fps

Tombraider 335 drivers Min 44 fps Max 80 fps Avg 61 fps
Tombraider 337 drivers Min 45 fps Max 85 fps Avg 63 fps

Thief 335 drivers Min 50 fps Max 110 fps Avg 76 fps
Thief 337 drivers Min 56 fps Max 114 fps Avg 86 fps

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 16-06 13:14
Anoniem: 590917 schreef op maandag 14 april 2014 @ 11:02:
Ik heb zelf winsten in meerdere games en daar bij zijn de clocks van de gpu helemaal niet verhoogt.
Ik denk dat bij die test een fout is gemaakt, dat men heeft gekeken bij de boost clock wat gpuz laat zien en dat is meestal anders (hoger). Ik heb 2 Titans in sli en ook daar heb ik zo'n 5-40 fps winst. In Battlefield 4 Sieg of Shanghai van minimaal 40 naar minimaal 70 fps en een veel vloeiendere gameplay.
Die Boost clocks gelden voor een 780 Ti, niet Titan.

En nogmaals, jij verkondigt precies wat ik zeg: het werkt voor SLI. Nvidia heeft er een stel nieuwe SLI profielen in gestopt en blijkbaar een bottleneck die ze in hun driver hadden weggehaald.

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Werelds schreef op maandag 14 april 2014 @ 13:47:
[...]

Die Boost clocks gelden voor een 780 Ti, niet Titan.

En nogmaals, jij verkondigt precies wat ik zeg: het werkt voor SLI. Nvidia heeft er een stel nieuwe SLI profielen in gestopt en blijkbaar een bottleneck die ze in hun driver hadden weggehaald.
Ik kan geen bronnen vinden waar uit blijkt dat de sli profielen zijn veranderd. Ook laat Inspector nog de zelfde sli codes zien als met driver 335 (net gelijk bekeken want ik ken nvidia zijn grappen wel maar dat lijkt hier niet aan de orde. Als ik de HWI artikel er bij pak is er wel meer aan de hand dan enkel alleen een ander sli profiel of een gpu boost die hoger ligt.

Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 23:57

MazeWing

The plot thickens...

Werelds schreef op maandag 14 april 2014 @ 13:47:
[...]

Die Boost clocks gelden voor een 780 Ti, niet Titan.

En nogmaals, jij verkondigt precies wat ik zeg: het werkt voor SLI. Nvidia heeft er een stel nieuwe SLI profielen in gestopt en blijkbaar een bottleneck die ze in hun driver hadden weggehaald.
Bij SLI loop je veel sneller tegen cpu limitaties aan. nVidia heeft deze in bepaalde gevallen weg kunnen halen. Hetzelfde als Mantle doet.

Daarbij heb ik het idee dat de meeste mensen in dit topic zo ongelovelijk wantrouwig richting nVidia zijn, dat ze elke verbetering die nVidia weet door te voeren, wegwuiven onder het mom van "onmogelijk! ze zullen vast wel stiekem iets anders gedaan hebben dan optimlisatie!"

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | XBX | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z6II | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

MazeWing schreef op maandag 14 april 2014 @ 15:15:
[...]

Bij SLI loop je veel sneller tegen cpu limitaties aan. nVidia heeft deze in bepaalde gevallen weg kunnen halen. Hetzelfde als Mantle doet.
Het doet niet hetzelfde als Mantle, ze zijn nog steeds gelimiteerd door de DX11 api. Natuurlijk zullen ze in een paar gevallen wat dingen kunnen optimaliseren om zo een bottleneck weg te halen maar het is niet hetzelfde. Dit is vaak hele specifieke code om bijvoorbeeld een bepaald iets sneller uit te voeren, meestal is dit ook alleen binnen een architectuur waar die optimalisatie geld.
Daarbij heb ik het idee dat de meeste mensen in dit topic zo ongelovelijk wantrouwig richting nVidia zijn, dat ze elke verbetering die nVidia weet door te voeren, wegwuiven onder het mom van "onmogelijk! ze zullen vast wel stiekem iets anders gedaan hebben dan optimlisatie!"
Dat komt waarschijnlijk omdat Nvidia altijd zo "eerlijk" is. Geen zin om allerlei voorbeelden naar voren te halen die kun je zelf makkelijk terugvinden in beide topics.
Ik vraag me trouwens af wat deze hele discussie hier doet, je kan hem beter houden in het Nvidia topic. Daar geloven mensen het wel automatisch O-) .

Dat is namelijk het punt het kan geen kwaad om iets verder te kijken dan wat een bedrijf zegt. Bedrijven daarentegen zullen hardstikke blij zijn met mensen die alles direct geloven.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 16-06 13:14
Anoniem: 590917 schreef op maandag 14 april 2014 @ 14:58:
Ik kan geen bronnen vinden waar uit blijkt dat de sli profielen zijn veranderd. Ook laat Inspector nog de zelfde sli codes zien als met driver 335 (net gelijk bekeken want ik ken nvidia zijn grappen wel maar dat lijkt hier niet aan de orde. Als ik de HWI artikel er bij pak is er wel meer aan de hand dan enkel alleen een ander sli profiel of een gpu boost die hoger ligt.
Ach kom op zeg, hoe naïef kun je zijn?

Alle sites laten winsten zien met SLI. Met enkele kaarten is er in 99% van de gevallen niets te zien buiten Hitman, waar Nvidia duidelijk ook gewoon een probleem had. Een beetje nadenken maakt het dan wel meteen duidelijk dat het helemaal niet om een magische truuk met DX11 gaat, maar gewoon om een driver verbetering met betrekking tot SLI en Hitman. En ja, er is ten minste één profiel toegevoegd, voor Rome 2.
MazeWing schreef op maandag 14 april 2014 @ 15:15:
Bij SLI loop je veel sneller tegen cpu limitaties aan. nVidia heeft deze in bepaalde gevallen weg kunnen halen. Hetzelfde als Mantle doet.
Species zegt het al, ik heb het ook al eerder gezegd. Mantle geeft ook winst bij enkele GPU's in situaties waar je niet eens CPU bound bent. Een 7970/280X op 1080p is in BF4 echt niet CPU bound en toch krijg je er makkelijk 15% FPS bij.

Edit met plaatje:
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1393620031nTfVKdLjSj_4_2.png
Daarbij heb ik het idee dat de meeste mensen in dit topic zo ongelovelijk wantrouwig richting nVidia zijn, dat ze elke verbetering die nVidia weet door te voeren, wegwuiven onder het mom van "onmogelijk! ze zullen vast wel stiekem iets anders gedaan hebben dan optimlisatie!"
Dit heeft niets met wantrouwigheid richting Nvidia te maken. Dit is gewoon gezond verstand gebruiken. Nvidia kan niets aan DX11 veranderen, hoe hard ze dat ook claimen - DX11 is eigendom van Microsoft, niemand heeft die broncode en niemand mag daar dingen in wijzigen behalve zij. Die bottlenecks zitten in DX11 en vinden plaats vóór dat een API call überhaupt in de driver terecht komt. Het enige dat ze kunnen doen en dus ook doen, zijn wat bottlenecks in hun EIGEN drivers weghalen. En ja, als ze daarbij hun implementatie van een DX11 feature veranderen, dan verbeteren ze hun eigen DX11 prestaties ja. Maar ze persen niet meer uit DX11, ze persen meer uit hun eigen software.

Dat veel mensen in het marketing verhaal trappen is gewoon ontzettend zonde.

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Werelds schreef op maandag 14 april 2014 @ 17:16:
[...]

Ach kom op zeg, hoe naïef kun je zijn?

Alle sites laten winsten zien met SLI. Met enkele kaarten is er in 99% van de gevallen niets te zien buiten Hitman, waar Nvidia duidelijk ook gewoon een probleem had. Een beetje nadenken maakt het dan wel meteen duidelijk dat het helemaal niet om een magische truuk met DX11 gaat, maar gewoon om een driver verbetering met betrekking tot SLI en Hitman. En ja, er is ten minste één profiel toegevoegd, voor Rome 2.
Ik ben niet zo naïef om te denken dat de boost clocks zijn verhoogd of dat het allemaal sli profiel updates zijn. Je probeert wel dingen te brengen die helemaal niet aan de orde zijn zonder enig onderzoek er naar te doen en schreeuwt het van de daken af alsof nvidia de foute is. Ik merk zelf heel veel prestatie winsten op in Battlefield MP en in skyrim waar geen andere sli profielen voor worden gebruikt en dan de rest van de games nog om niet te vergeten zoals Thief en Crysis 3.

Acties:
  • 0 Henk 'm!

  • Bolletje
  • Registratie: Juni 2008
  • Laatst online: 16-06 13:13

Bolletje

Moderator Harde Waren
Modbreak:Dit topic is voor discussies over nieuws en informatie over AMD videokaarten, niet de zoveelste NVIDIA vs. AMD discussie. NVIDIA heeft een eigen topic.

Zie ook de openingspost:
Wat is absoluut NOT DONE in dit topic?
  • Flamen & Trollen
  • Basic questions. In dit topic gaan we er van uit dat je een beetje self-research hebt gepleegd dmv de search-functie.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
MazeWing schreef op maandag 14 april 2014 @ 15:15:
[...]

Bij SLI loop je veel sneller tegen cpu limitaties aan. nVidia heeft deze in bepaalde gevallen weg kunnen halen. Hetzelfde als Mantle doet.

Daarbij heb ik het idee dat de meeste mensen in dit topic zo ongelovelijk wantrouwig richting nVidia zijn, dat ze elke verbetering die nVidia weet door te voeren, wegwuiven onder het mom van "onmogelijk! ze zullen vast wel stiekem iets anders gedaan hebben dan optimlisatie!"
Ach die mensen heb je in het nVidia topic net zo goed.
nVidia zal vast dingen verbeterd hebben. Maar het viel mij wel op dat de verschillen op 1080P en hoger maar 1-3% waren voor de 780 TI. En dat de clockspeeds voor boost modes hoger waren (bron HardOCP). Tja dat verklaart de snelheid winst in dat geval wel. Ik heb er niets op tegen hoor. Betere prestaties voor de eindgebruiker is altijd goed. Maar clockspeeds verhogen zou AMD eventueel ook nog kunnen doen. Doe 290X kaarten kunnen ook makkelijk 1050 MHz draaien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
AMD's Never Settle Forever bundel is bekend.

http://semiaccurate.com/2...er-settle-forever-bundle/

Het maakt niet uit welke kaart je nu koopt, vanaf de R5-240 krijg je tenminste 1 game of een indie-bundel bij je videokaart, uit een voorgeselecteerd aantal.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 19:40
Nieuwe Beta driver is uit. 14.4RC
Volledige ondersteuning voor OpenGL 4.4

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
LongBowNL schreef op dinsdag 22 april 2014 @ 09:31:
Nieuwe Beta driver is uit. 14.4RC
Volledige ondersteuning voor OpenGL 4.4
Ze hebben ook voor de nieuwe beta driver voor Linux volledige ondersteuning voor OpenGL 4.4 ingebouwd. Dat was 1 van de pijnpunten waar ik mensen wel eens over hoorde, dat OpenGL ondersteuning in Linux belabberd was en achter bleef.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Werelds schreef op maandag 14 april 2014 @ 17:16:
[...]

...]

Species zegt het al, ik heb het ook al eerder gezegd. Mantle geeft ook winst bij enkele GPU's in situaties waar je niet eens CPU bound bent. Een 7970/280X op 1080p is in BF4 echt niet CPU bound en toch krijg je er makkelijk 15% FPS bij.

Edit met plaatje:
[afbeelding]
Huh, je rept over 1080p maar laat een 1600p plaatje zien....

Acties:
  • 0 Henk 'm!

  • prutser001
  • Registratie: Oktober 2004
  • Laatst online: 17:04

prutser001

Vaak zit het tegen en soms zi

dahakon schreef op maandag 21 april 2014 @ 07:03:
AMD's Never Settle Forever bundel is bekend.

http://semiaccurate.com/2...er-settle-forever-bundle/

Het maakt niet uit welke kaart je nu koopt, vanaf de R5-240 krijg je tenminste 1 game of een indie-bundel bij je videokaart, uit een voorgeselecteerd aantal.
Dus diegene die al een kaart gekocht hebben krijgen niets?

Ik heb 2 290x kaarten, 1 x BF4 edition (volgens sapphire website) maar BF4 krijg ik niet, de andere is 'standaard' zonder BF4. Waar ik de kaart gekocht heb krijg ik niets te horen, en Sapphire zegt dat ik daar terecht moet.

Asus Z390 Maximus IX Hero, Intel 9900K, RTX3080, 64GB DDR4 3000, 2TB NVME, Samsung 850Evo 1TB, 4 x 14TB Toshiba, Be Quiet SB 801, Samsung 34"


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

eL_Jay schreef op dinsdag 22 april 2014 @ 10:03:
[...]

Huh, je rept over 1080p maar laat een 1600p plaatje zien....
Ook al is het een 1600p plaatje dan illustreerd Werelds toch perfect wat hij bedoelt?

Je ziet toch dat er performance winst is op een 1600p resolutie waar je niet cpu bound bent, dat is precies het punt wat hij probeert te maken.

Kan dus aan mij liggen maar ik vind het maar vreemd commentaar :p.

[ Voor 2% gewijzigd door Sp3ci3s8472 op 22-04-2014 11:26 . Reden: koffie nodig ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 16-06 13:14
Ik had het er wellicht bij moeten zetten, maar dat is precies wat ik daar mee wilde illustreren ja. Op 1600p is een 280x van z'n leven niet CPU bound en toch komt er nog net geen 21% performance bovenop :)

Er zijn helaas niet zo veel tests met 280x, de meeste tests zijn met 260x+APU en/of met 290x+i7-monster. Op 1080p ben je in BF4 in elk geval niet snel CPU bound met een GPU als een 280x of 770. Ik ben afgelopen december van een oude i5-760 naar een i7-4770K gegaan en m'n FPS is niet veranderd ;)

[ Voor 56% gewijzigd door Werelds op 22-04-2014 11:15 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

http://www.techpowerup.co...s-from-amd-this-year.html
It's not just NVIDIA, which will lack 20 nm GPUs in its portfolio this year. AMD senior vice-president Lisa Su, responding to a question by Wells Fargo, in its Q1 investors call, confirmed that her company will stay on 28 nm throughout 2014, and it's only later that it will move on to 20 nm, and FinFET after that. "I think what I said earlier sort of what we're doing in terms of technology strategy, we are 28 this year, we have 20-nanometer in design, and then FinFET thereafter. So that's the overall product portfolio," she said.

AMD and NVIDIA manufacture their GPUs on a common foundry, TSMC, which has faced delays in implementing its 20 nanometer silicon fab node transition, forcing both companies to come up with new GPUs on existing 28 nm nodes. A huge leap in performance could be a tough ask for those new GPUs. NVIDIA is expected to tape out its performance-segment GM204 and mid-range GM206 chips, both of which are 28 nm, later this month, and the first GeForce GTX products based on the two are expected to roll out by late-Q4 2014 and early-Q1 2015, respectively.
Jammer maar niet onverwacht.

[ Voor 89% gewijzigd door Help!!!! op 22-04-2014 12:09 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
LongBowNL schreef op dinsdag 22 april 2014 @ 09:31:
Nieuwe Beta driver is uit. 14.4RC
Volledige ondersteuning voor OpenGL 4.4
Misschien was dit de rede? nu in een keer een grote stap?
Ik hoop wel dat ze het nu bij gaan houden. Linux drivers worden steeds belangrijker.
prutser001 schreef op dinsdag 22 april 2014 @ 10:03:
[...]


Dus diegene die al een kaart gekocht hebben krijgen niets?

Ik heb 2 290x kaarten, 1 x BF4 edition (volgens sapphire website) maar BF4 krijg ik niet, de andere is 'standaard' zonder BF4. Waar ik de kaart gekocht heb krijg ik niets te horen, en Sapphire zegt dat ik daar terecht moet.
Dit is een nieuwe actie. Voor mensen die nu een kaart gaan kopen.
BF4 editions zijn te herkennen aan een andere doos waar het spel in hoort te zitten. Misschien heb je de BF4 edition besteld maar heeft de winkel toch een normale geleverd. Sapphire heeft gelijk dat je daarvoor bij de winkel moet zijn.

Never settle waren ook vouchers die door de winkels er bij gestopt werden. Kunnen ze imo beter in de doos mee verpakken om er voor te zorgen dat die vouchers niet achter gehouden worden en doorverkocht worden. Niet alle winkels leverde die never settle versies uit. Wellicht om die rede.
Sp3ci3s8472 schreef op dinsdag 22 april 2014 @ 10:57:
[...]


Ook al is het een 1600p plaatje dan illustreerd Werelds toch perfect wat hij bedoelt?

Je ziet toch dat er performance winst is op een 1600p resolutie waar je niet cpu bound bent, dat is precies het punt wat hij probeert te maken.

Kan dus aan mij liggen maar ik vind het maar vreemd commentaar :p.
Inderdaad als het voor 1600p werkt werkt het zeker voor 1080p.
Ja TSMC faalt weer hard.
Al is 20nm wel bruikbaar voor mobiele SOC's die in telefoons zitten. Wellicht een andere versie van die productie process? Bij 28nm had je LP en HP ik weet niet of dit nu weer is kan anders zijn aangezien dit een andere process is. 28nm en 20nm zijn beide half nodes. Maar afgeleid van de 32 en 22nm full node. Techniek tussen de verschillende full nodes kan aardig anders zijn. 1:1 overzetten van een design gaat niet. Van een full node naar een half node binnen hetzelfde proces gaat relatief makkelijk.

Geruchten zeggen dat nVidia Maxwell helemaal naar 28nm port inc de grotere versies.
Ik vraag me af of AMD dat ook doet. Het zou mij niets verbazen als ze een soort van 290X (GHz) versie uit brengen met hogere clocks net als bij de 7970 om het een beetje op te vullen. Al denk ik niet dat dat genoeg gaat zijn vs Maxwell chips. Nu concurreren ze op prijs en prestatie. Maar qua verbruik niet. Maxwell is sneller en nog zuiniger. Dus dan houd je alleen nog prijs over. Of dat dan genoeg zal zijn..... ik vrees het niet. Of het opschalen van Maxwell moet tegenvallen. Dat kan ook nog.

[ Voor 8% gewijzigd door Astennu op 22-04-2014 13:49 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
http://semiaccurate.com/2...-private-mantle-sdk-beta/

Nieuws van eergisteren ondertussen. AMD heeft de private beta voor Mantle opgestart. Er waren ondertussen al 40 bestaande ontwikkelaars die zich bij voorbaat al hadden ingeschreven voor deze stap in Mantle's ontwikkeling. Dat zijn dus 40 (of meer) mogenlijke spellen die Mantle gaan ondersteunen in de komende tijd

Acties:
  • 0 Henk 'm!

Anoniem: 590917

dahakon top leesvoer. Ik zie dat Mantle dus veel gebruikt gaat worden in de toekomst, dat maakt de keuze voor een grafische kaart alleen maar makkelijker want je wil natuurlijk zo veel mogelijk de gpu goed benutten, 100% als het even kan. Als ik ooit weer een keuze moet maken dan ga ik zeker voor AMD vanwege Mantle.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Sapphire verkoopt 250 exemplaren van gecancelde 8GB-versie R9 290X

Update: Radeon R9 295X2 8 GB In CrossFire: Gaming At 4K

Ik denk dat 8GB per GPU alleen in extreme gevallen performance verbetering met zich meebrengt.

Sowieso alleen in Crossfire en dan waarschijnlijk alleen significant bij drie of vier kaarten.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
madmaxnl schreef op woensdag 07 mei 2014 @ 11:02:

Sapphire verkoopt 250 exemplaren van gecancelde 8GB-versie R9 290X

Update: Radeon R9 295X2 8 GB In CrossFire: Gaming At 4K

Ik denk dat 8GB per GPU alleen in extreme gevallen performance verbetering met zich meebrengt.

Sowieso alleen in Crossfire en dan waarschijnlijk alleen significant bij drie of vier kaarten.
Ik denk dat je 3 tot 6xUHD wel 8GB lust (maar dat kan de GPU natuurlijk niet aan)

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

De Sapphire kaart is IMHO nuttig voor iedereen die EyeFinity draait met 1080p of 1200p schermen laat staan met 1440p of 1600p schermen.

Erg jammer dat die kaart straks niet tekoop is :/

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Eyefinity met drie 1080p schermen is nog altijd maar 3/4 van een 4K scherm. Kijkende naar de performance van twee R9 295X2 in Crossfire op 4K dan denk ik dat de performance verbeteringen wel mee zullen vallen.

Voor eyefinity setups met drie 1440p of 1600p schermen daarentegen...

Ik zou graag 290X kaarten met 8GB willen zien, of een 295X2 met 16GB (moeilijk moeilijk). We zijn er immers allemaal van doordrongen dat netto de hoeveelheid geheugen halveerd in Crossfire of SLi dit terwijl de rekenkracht juist is verdubbeld.

Acties:
  • 0 Henk 'm!
madmaxnl schreef op woensdag 07 mei 2014 @ 23:10:
We zijn er immers allemaal van doordrongen dat netto de hoeveelheid geheugen halveerd in Crossfire of SLi dit terwijl de rekenkracht juist is verdubbeld.
Gelukkig niet. :>

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

madmaxnl schreef op woensdag 07 mei 2014 @ 23:10:
Eyefinity met drie 1080p schermen is nog altijd maar 3/4 van een 4K scherm. Kijkende naar de performance van twee R9 295X2 in Crossfire op 4K dan denk ik dat de performance verbeteringen wel mee zullen vallen.

Voor eyefinity setups met drie 1440p of 1600p schermen daarentegen...
Vergeet niet dat het ook afhankelijk is van welk spel je opstart en als dat dan een game is die op Low settings al 3,4 GB opvreet dan tikt dat best wel aan als je uiteindelijk alles op Very High + AA en andere zooi wil draaien :X
Ik zou graag 290X kaarten met 8GB willen zien, of een 295X2 met 16GB (moeilijk moeilijk). We zijn er immers allemaal van doordrongen dat netto de hoeveelheid geheugen halveerd in Crossfire of SLi dit terwijl de rekenkracht juist is verdubbeld.
Soo true! :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
madmaxnl schreef op woensdag 07 mei 2014 @ 11:02:

Sapphire verkoopt 250 exemplaren van gecancelde 8GB-versie R9 290X

Update: Radeon R9 295X2 8 GB In CrossFire: Gaming At 4K

Ik denk dat 8GB per GPU alleen in extreme gevallen performance verbetering met zich meebrengt.

Sowieso alleen in Crossfire en dan waarschijnlijk alleen significant bij drie of vier kaarten.
Is ook zo. Ik vraag me zelfs af of het nut heeft bij 4K wellicht moet je daar voor zelfs hoger.
De R9 295X2 is eigenlijk effectief maar een 4GB kaart aangezien je hier met Crossfire te maken hebt.
nero355 schreef op woensdag 07 mei 2014 @ 20:34:
De Sapphire kaart is IMHO nuttig voor iedereen die EyeFinity draait met 1080p of 1200p schermen laat staan met 1440p of 1600p schermen.

Erg jammer dat die kaart straks niet tekoop is :/
1600p eyefinity pushed misschien wel genoeg pixel aangezien je dan 50% meer pixels hebt dan 4K. 4K eyefinity zou ook een goede zijn. Maar dan heb je minimaal 3x een R9 290X met 8GB nodig wil dat een beetje draaien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Goede ontwikkeling: :)


Adaptive-Sync added to DisplayPort spec

[ Voor 23% gewijzigd door Help!!!! op 12-05-2014 23:05 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:29
Vreemd dat het alleen met de gcn 1.1 kaarten werkt.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • VAULT-TEC
  • Registratie: April 2013
  • Laatst online: 14-06 00:01

VAULT-TEC

VAULT-TEC is calling!

ik kan niet switchen van mijn Intel HD 4400 kaart naar mijn AMD Radeon HD 8670M? ik zie nergens een optie en in mijn games heb ik alleen maar lage fps omdat de Intel HD altijd is geactiveerd?

Je hebt al een topic lopen (Intel HD 4400 & AMD Radeon HD 8670M probleem); hoort hier niet thuis ;)

[ Voor 26% gewijzigd door Bolletje op 13-05-2014 18:33 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
Inderdaad! ben er heel blij mee. Ik ga dus wachten tot er leuke 4K schermen zijn die Adaptive-Sync support hebben. We moeten helaas nog wel even geduld hebben. Hopelijk heeft de 3015 van Dell volgend jaar support voor die standaard. Ben tot nu toe erg tevreden over mijn Dell schermen.
haarbal schreef op maandag 12 mei 2014 @ 23:24:
Vreemd dat het alleen met de gcn 1.1 kaarten werkt.
Waarom is dat raar? Kan toch makkelijk dat er hardware support nodig is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Astennu schreef op dinsdag 13 mei 2014 @ 08:48:
[...]


Inderdaad! ben er heel blij mee. Ik ga dus wachten tot er leuke 4K schermen zijn die Adaptive-Sync support hebben. We moeten helaas nog wel even geduld hebben. Hopelijk heeft de 3015 van Dell volgend jaar support voor die standaard. Ben tot nu toe erg tevreden over mijn Dell schermen.
Zeker. Mijn ideale volgende scherm is een (IPS) 4k 120hz scherm :) :P

Ben wel bang dat het helaas inderdaad nog wel even (al snel een jaar) zal duren voordat de benodigde asics ontwikkeld en in produktie zijn. :')

Aan de andere kant, wat ik lees is dat er nog een hoop moet gebeuren aan Windows en windows applicaties voordat de scaling (op high res monitors zoals 4k) fatsoenlijk werkt. Met een beetje geluk maakt Win 9 hierin een grote stap. Die release valt dan redelijk mooi samen met de komst van adaptive sync monitors.

[ Voor 20% gewijzigd door Help!!!! op 13-05-2014 10:34 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
Help!!!! schreef op dinsdag 13 mei 2014 @ 10:25:
[...]

Zeker. Mijn ideale volgende scherm is een (IPS) 4k 120hz scherm :) :P

Ben wel bang dat het helaas inderdaad nog wel even (al snel een jaar) zal duren voordat de benodigde asics ontwikkeld en in produktie zijn. :')

Aan de andere kant, wat ik lees is dat er nog een hoop moet gebeuren aan Windows en windows applicaties voordat de scaling (op high res monitors zoals 4k) fatsoenlijk werkt. Met een beetje geluk maakt Win 9 hierin een grote stap. Die release valt dan redelijk mooi samen met de komst van adaptive sync monitors.
Inderdaad. IPS, 4K, 120Hz en Free Sync. Should be perfect!
Win 8.1 doet het niet onaardig. Maar het kan nog wel beter. Maar het is simpel weg niet zo makelijk als voor mobiele devices. Apps moeten er ook rekening mee houden. De meeste zijn nog voor de oude DPI's gemaakt en daar gaat het mis. Dus niet alleen Windows moet verbeteren. Applicatie ontwikkelaars moeten hun apps ook schaalbaar maken voor verschillende DPI's.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Volgensmij beginnen ook app makers er wel doordrongen van te raken. Voor microsoft is het belangrijk om die scaling goed te krijgen, het is bij mijn weten een belangrijk speerpunt voor Win 9 dus zij zullen het ook wel pushen bij de ontwikkelaars. Voor de ontwikkelaars zelf is het toch ook belangrijk dat hun apps straks goed werken op 4k. Als ik nu namelijk zie voor welke prijzen 4k al verkrijgbaar is denk ik dat de adaptatie namelijk best heel snel kan gaan.

Voor mij is zo’n 4k monitor ook echt weer iets op hardwaregebied waar ik naar uitkijk obv de reviews die ik gelezen heb. :) Dit wordt, zeker icm freesync en 120hz, volgensmij echt weer eens een enorme stap vooruit. :)
Ben alleen wel bang dat zo’n 120hz asic nog wel even kan duren. (En uiteraard heb je natuurlijk wel behoorlijk wat GPU power nodig voor 4k / 120hz. )

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:29
Astennu schreef op dinsdag 13 mei 2014 @ 08:48:
Waarom is dat raar? Kan toch makkelijk dat er hardware support nodig is.
met die freesync demonstratie suggereerde amd dat het op bestaande hardware kon en dat ze niet snapten dat nvidia dedicated hardware had.

ook had je een uitspraak van een nvidia kerel die beweerde dat displayport alle benodige dingen al had om variabele refresh via extended vblank te regelen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Officieus heeft het wellicht al de mogelijkheid om een vorm van Adaptive -Sync te doen. Echter op het moment dat het een officiele standaard wordt kan het natuurlijk best dat deze er (om hopelijk goede redenen) iets anders uit komt te zien. Waardoor het dus niet goed/volledig met oudere hardware werkt.

Overigens heeft Anand nu ook een goed stuk gepost over Adaptive Sync, G-Sync etc:
http://anandtech.com/show...esh-monitors-move-forward

[ Voor 29% gewijzigd door Help!!!! op 13-05-2014 12:26 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
Help!!!! schreef op dinsdag 13 mei 2014 @ 11:18:
Volgensmij beginnen ook app makers er wel doordrongen van te raken. Voor microsoft is het belangrijk om die scaling goed te krijgen, het is bij mijn weten een belangrijk speerpunt voor Win 9 dus zij zullen het ook wel pushen bij de ontwikkelaars. Voor de ontwikkelaars zelf is het toch ook belangrijk dat hun apps straks goed werken op 4k. Als ik nu namelijk zie voor welke prijzen 4k al verkrijgbaar is denk ik dat de adaptatie namelijk best heel snel kan gaan.

Voor mij is zo’n 4k monitor ook echt weer iets op hardwaregebied waar ik naar uitkijk obv de reviews die ik gelezen heb. :) Dit wordt, zeker icm freesync en 120hz, volgensmij echt weer eens een enorme stap vooruit. :)
Ben alleen wel bang dat zo’n 120hz asic nog wel even kan duren. (En uiteraard heb je natuurlijk wel behoorlijk wat GPU power nodig voor 4k / 120hz. )
Ja 120 FPS op 4K daar heb je 2x R9 295X2 voor nodig. Anders gaat dat gewoon niet lukken. Dus dat is nu nog ver weg voordat dat betaalbaar is. Al kun je op low/medium detail wel een eind komen. Echter kun je dan beter 1440p nemen of 1080p.
haarbal schreef op dinsdag 13 mei 2014 @ 11:23:
[...]

met die freesync demonstratie suggereerde amd dat het op bestaande hardware kon en dat ze niet snapten dat nvidia dedicated hardware had.

ook had je een uitspraak van een nvidia kerel die beweerde dat displayport alle benodige dingen al had om variabele refresh via extended vblank te regelen.
Hardware van bestaande schermen gok ik. Kan me voorstellen dat er op de GPU's wel wat moet veranderen voor die aansturing er van. En misschien komt die support er voor de 7970 nog wel. Misschien ook niet. Wordt even afwachten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Wat ik uit heel het AMD FreeSync en VESA Adaptive Sync verhaal kan halen, correct me if I'm wrong:

- AMD FreeSync gebruik VESA's Adaptive Sync voorziening van de DP 1.2a standaard
- DisplayPort 1.2a is gebasseerd op eDP 1.0 wat al Adaptive Sync had
- Radeon R9 290-series en R7 260-series ondersteunen DP 1.2 (zonder "a")
- Radeon R9 290-series en R7 260-series ondersteunen AMD FreeSync
- AMD claimt dat enkel een driver nodig is voor AMD FreeSync voor deze GPU's...
- ...evenals een Adaptive Sync compatible scherm dus tenminste DP 1.2a

Als je even bedenkt dat Nvidia's oplossing de specifieke ondersteuning van hunzelf nodig heeft voor de GPU, driver én scherm, terwijl de AMD variant steunt op een in een standaard gegoten specificatie die iedereen kan gebruiken, lijkt het me duidelijk welke potentieel de meeste toekomst heeft, aangezien Nvidia zijn oplossing enkel door Nvidia te gebruiken is en de Adaptive Sync voorziening niet lijkt te ondersteunen. Terwijl Nvidia probleemloos de Adaptive Sync voorziening kan opnemen in hun drivers en zo ook hetzelfde doel bereikt als met hun specifieke hardware-addon.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Daar gaan hun investeringen. Wanneer leren ze nu eens bij nVidia dat "vendor lock-in", of dat nu om hardware of software gaat, of wel faalt of wel succesvol is. Iets er tussen in is er niet echt. Daarnaast is het bijzonder vervelend voor consumenten. Wij zijn bij dit soort standaard "oorlogen" en licentiegelden niet gebaat. Enfin, niet dat het nVidia iets uitmaakt.

[ Voor 30% gewijzigd door madmaxnl op 13-05-2014 19:56 ]


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Praat voor jezelf. Er is helemaal niets mis met vendor lock, er moet ook geld worden verdiend aan ontwikkeling, die geef je niet zo maar even gratis weg, dat doet AMD zelf ook niet.
F

[ Voor 82% gewijzigd door Anoniem: 590917 op 13-05-2014 20:25 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat je Nvidia met hand en tand verdedigd, weten we onderhande wel. Dat je Vendor Lockin helemaal OK vind, spreekt boekdelen over het gebrek aan neutrale argumentatie.

Het lijkt me van wel dat AMD het "gratis weggeeft", aangezien AMD niet van je verwacht om naast je GPU ook nog eens Nvidia-specifieke componenten te kopen om er gebruik van te maken. Adaptive Sync is een standaard die door elke scherm- en GPU-fabrikant gebruikt kan worden. Met G-Sync moet je ofwel een gemodde monitor kopen (duurder!) die enkel voordeel hebben zolang Nvidia het ondersteunt, of een ondersteund scherm zelf modden met een kit die nog flink geld kost.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

Lijkt mij dat er wel snel monitoren op de markt komen die het ondersteunen, alleen al het feit dat een fabrikant kan pronken met het zuinigste beeldscherm.
Zullen ze vast in kleine lettertjes erbij zetten "needs displayport 1.2a capable videocard".

Het zou mij niks verbazen dat de oplossing van Nvidia een langzame dood sterft of alleen voor de fanatics blijft, die diep in de buidel willen tasten voor dat kleine beetje extra spectakel van Nvidia's oplossing (want ik begrijp dat ze niet helemaal hetzelfde zijn).

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Eerlijk gezegd zou het mij weinig verbazen als AMD gokt dat Nvidia weer zo arrogant gaat zijn om hun eigen niet-open idee door te zetten en daarbij A-sync niet/matig te gaan ondersteunen.

Voor monitormakers is A-sync natuurlijk aantrekkelijker want ze hoeven geen licentie te kopen, waardoor er wss meer A-sync monitors komen dan G-sync monitors, en stel dat Nvidia idd A-sync niet/slecht gaat ondersteunen, moet je wel een AMD kaart kopen om van A-sync te kunnen genieten, wat voor hogere AMD verkopen zorgt.

Wellicht een beetje riskante strategie, maar ach. Sowieso wel erg lief dat AMD ook niet met hun eigen niet-open-standaard komt.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Phuncz schreef op dinsdag 13 mei 2014 @ 21:05:
Dat je Nvidia met hand en tand verdedigd, weten we onderhande wel. Dat je Vendor Lockin helemaal OK vind, spreekt boekdelen over het gebrek aan neutrale argumentatie.

Het lijkt me van wel dat AMD het "gratis weggeeft", aangezien AMD niet van je verwacht om naast je GPU ook nog eens Nvidia-specifieke componenten te kopen om er gebruik van te maken. Adaptive Sync is een standaard die door elke scherm- en GPU-fabrikant gebruikt kan worden. Met G-Sync moet je ofwel een gemodde monitor kopen (duurder!) die enkel voordeel hebben zolang Nvidia het ondersteunt, of een ondersteund scherm zelf modden met een kit die nog flink geld kost.
Ik verdedig helemaal niets, vind het alleen schandalig hoe Nvidia hier afgezeikt word omdat ze een stukje hardware verkopen wat ze zelf ontwikkeld hebben, iets wat geld heft gekost, en jij bent verder ook schandalig bezig om mij persoonlijk zo te kleineren met hoe ik ben waar je compleet naast zit. Maar ben het er mee eens dat het voor iedereen bruikbaar moet zijn, maar dan dingen zoals physx wat ook gezegd is, maar hardware, nee dat kun je niet allemaal gratis weg geven. AMD hoeft verder geen hardware te verkopen want het is er al er word alleen door een andere fabrikant een kabeltje gemaakt en de drivers worden aangepast en klaar is AMD. Als AMD een stukje hardware er voor moet ontwikkelen dan mag iedereen er ook voor betalen.

[ Voor 8% gewijzigd door Anoniem: 590917 op 13-05-2014 23:13 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

Anoniem: 590917 schreef op dinsdag 13 mei 2014 @ 23:07:
[...]

Ik verdedig helemaal niets, vind het alleen schandalig hoe Nvidia hier afgezeikt word omdat ze een stukje hardware verkopen wat ze zelf ontwikkeld hebben, iets wat geld heft gekost, en jij bent verder ook schandalig bezig om mij persoonlijk zo te kleineren met hoe ik ben waar je compleet naast zit.
Het is hier het ATI/AMD topic logisch, trouwens zie ik nergens dat Nvidia wordt afgezeken. Er wordt alleen kritisch naar gekeken, als je daar niet tegenkan kom dan met goede argumenten die het tegendeel bewijzen of ga anders ergens anders je heil zoeken.

Het is gewoon een feit dat Nvidia vaak producten maakt die niet open zijn en een vendor lock hebben. Het is ook een feit dat Nvidia zich vroeger vaak vervelend gedroeg (ga zelf het topic maar doorspitten want om elke keer die al die bronnen te plaatsen daar wordt ik ook gek van), AMD is niet heilig maar doet het in ieder geval een stuk minder.
De reden dat er zo fel op jou post wordt gereageerd is omdat wij deze dingen ondertussen weten en jij de zoveelste poster bent die als enig doel heeft Nvidia verdedigen (of AMD zwartmaken) in het AMD topic. Dit zie je mij ook niet doen in het Nvidia topic, ik probeer daar express objectief te blijven en ga al helemaal niet heil AMD roepen.

Nu graag weer ontopic.

[ Voor 0% gewijzigd door Sp3ci3s8472 op 14-05-2014 00:05 . Reden: grammatica ]


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Wel grappig dat men zo hard op de persoon in blijft gaan met vooroordelen over hoe iemand wel en niet is en wat zijn bedoelingen zijn want natuurlijk de grootste onzin is omdat het jullie eigen verzonnen leugen zijn die hier nu al door 2 personen worden verkondigd, dit mag ook niet staat in de regels want dat is op de persoon in gaan, ik heb er al wat van gezegd dat dat niet welkom is en toch doe je het weer vandaar dat ik nog wel ff oftopic ga want dat is je eigen schuld vanwege op de persoon in gaan.

Ik ben hier verder ook niet begonnen over nvidia maar de kritiek er op is ongewenst voor de meeste lezers want het komt over dat nvida de bad guy is en AMD the good guy te wel ze allebei even goed en slecht zijn.met bepaalde marketing truuks, en dat moet dan over nvidia gezegd worden in het AMD topic, om weer mensen op stang te jagen? Ga aub met dat soort fratsen ergens anders je heil zoeken op fok ofzo. ;)

Nu graag weer ontopic

[ Voor 50% gewijzigd door Anoniem: 590917 op 14-05-2014 02:17 ]


Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 15-06 12:57
@hierboven lief doen kinders. Ik hoop dat species the bigger man kan zijn en nu niet meedoet aan "ik mag als laatste wat zeggen" zoals magherb schijnbaar wel nodig lijkt te hebben :').

Anyhow, ik ben sinds gisteren naast mijn XFX 7970 DD in het bezit van een tweede exemplaar voor Crossfire. Onder Windows schakelt deze zichzelf uit, maar onder games gaat deze zelf weer aan. Nu heb ik de grafische kracht eigenlijk alleen in Skyrim (want 100 grafische mods) nodig, dus wil graag een profiel maken dat alleen in bepaalde games men 2e kaart aangaat. Alles voor het milieu en de centjes. Bestaat zo iets? Het enige dat ik kon vinden was Catalyst AI uitzetten onder bepaalde spellen

[ Voor 17% gewijzigd door _eXistenZ_ op 14-05-2014 08:31 ]

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 590917 schreef op dinsdag 13 mei 2014 @ 23:07:
[...]


Ik verdedig helemaal niets, vind het alleen schandalig hoe Nvidia hier afgezeikt word omdat ze een stukje hardware verkopen wat ze zelf ontwikkeld hebben, iets wat geld heft gekost,
Het idee zat allang in de VESA eDp standaard uit 2009 en werd al gebruikt in laptops etc. Alhoewel nVidia deel uitmaakt van VESA hebben ze het vermoedelijk allemaal niet zelf bedacht. En anders hebben ze er ook rijkelijk lang over gedaan om er iets mee te doen.
Ik heb me altijd al afgevraagd waarom we zo vast zaten aan die vaste sync. Evenmin snap ik waarom AMD hier niks mee deed.

nVidia krijgt van mij vooralsnog credits omdat ze variable sync goed op de agenda gezet hebben. Blijkbaar vonden de ASIC / Monitor fabrikanten het (nog) niet interessant genoeg om de hardware zelf te ontwikkelne en had het de push van nVidia nodig.

Maar het is verder zelfs niet duidelijk of VESA allang van plan was om variable sync voor desktop in de DP 1.2a of 1.3 op te nemen en nVidia geprobeerd heeft even snel het idee als proprietary uit te brengen in de hoop zo een eigen standaard groot genoeg te kunnen maken.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
_eXistenZ_ schreef op woensdag 14 mei 2014 @ 08:22:
@hierboven lief doen kinders. Ik hoop dat species the bigger man kan zijn en nu niet meedoet aan "ik mag als laatste wat zeggen" zoals magherb schijnbaar wel nodig lijkt te hebben :').

Anyhow, ik ben sinds gisteren naast mijn XFX 7970 DD in het bezit van een tweede exemplaar voor Crossfire. Onder Windows schakelt deze zichzelf uit, maar onder games gaat deze zelf weer aan. Nu heb ik de grafische kracht eigenlijk alleen in Skyrim (want 100 grafische mods) nodig, dus wil graag een profiel maken dat alleen in bepaalde games men 2e kaart aangaat. Alles voor het milieu en de centjes. Bestaat zo iets? Het enige dat ik kon vinden was Catalyst AI uitzetten onder bepaalde spellen
In de driver kun je profielen maken. Geen idee of je dan CF aan of uit kan zetten. Dan heb je volgens mij ook nog RadeonPro waar je naar kan kijken.
En als dat niet werkt zelf een script maken die eerst CF uit zet vervolgens het spel start?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 16-06 13:14
Nou, dan zal ik Nvidia wel maar eens even afzeiken. Want dit onderwerp is iets waar ze weldegelijk voor afgezeikt verdienen te worden.
Phuncz schreef op dinsdag 13 mei 2014 @ 18:28:
Wat ik uit heel het AMD FreeSync en VESA Adaptive Sync verhaal kan halen, correct me if I'm wrong:

- AMD FreeSync gebruik VESA's Adaptive Sync voorziening van de DP 1.2a standaard
- DisplayPort 1.2a is gebasseerd op eDP 1.0 wat al Adaptive Sync had
- Radeon R9 290-series en R7 260-series ondersteunen DP 1.2 (zonder "a")
- Radeon R9 290-series en R7 260-series ondersteunen AMD FreeSync
- AMD claimt dat enkel een driver nodig is voor AMD FreeSync voor deze GPU's...
- ...evenals een Adaptive Sync compatible scherm dus tenminste DP 1.2a
Niet geheel correct :)

- Adaptive Sync is geen verplicht onderdeel van DP 1.2a; het is een toevoeging (dit is alleen een verduidelijking voor de rest, want dit zeg jij ook al :))
- Adaptive Sync "kopiëert" delen van eDP 1.0, maar ook niet meer dan dat: delen
- eDP 1.0 was gericht op stroom besparing en miste nog enkele dingen die Adaptive Sync wel heeft, vooral relevant voor gaming
Als je even bedenkt dat Nvidia's oplossing de specifieke ondersteuning van hunzelf nodig heeft voor de GPU, driver én scherm, terwijl de AMD variant steunt op een in een standaard gegoten specificatie die iedereen kan gebruiken, lijkt het me duidelijk welke potentieel de meeste toekomst heeft, aangezien Nvidia zijn oplossing enkel door Nvidia te gebruiken is en de Adaptive Sync voorziening niet lijkt te ondersteunen. Terwijl Nvidia probleemloos de Adaptive Sync voorziening kan opnemen in hun drivers en zo ook hetzelfde doel bereikt als met hun specifieke hardware-addon.
Ik kan het je nog veel leuker maken. De fabrikanten van degelijke monitors (dus niet ASUS, ACER en andere off-the-shelf assemblers) willen Nvidia's zooi niet eens.

Met G-Sync moeten ze Nvidia's ASIC gebruiken en hun eigen "scaler" (de term scaler klopt niet meer voor wat deze PCBs doen tegenwoordig, maar dat terzijde) weg gooien. Dat vinden Dell, Eizo, Samsung, LG, Sharp uiteraard niet leuk, aangezien daar aardig wat R&D in is gaan zitten. En niet alleen zouden ze dan dat inferieure stukje hardware moeten gebruiken (want inferieur is het, aangezien alle IQ control weg is), ze moeten er ook de hoofdprijs voor betalen, $100 per unit; dat geval van ASUS is dus helemaal niet winstgevend voor ASUS zelf. Ze behandelen monitor fabrikanten als consumenten, wat gewoon uitzonderlijk dom is.

Sommigen onder jullie weten hoe ik er zo zeker van kan zijn wat Nvidia aan monitor fabrikanten vraagt, voor de rest laat ik het er even bij dat ik daar de nodige bronnen voor heb. Wellicht binnenkort vervolgd ;)


En nee, vendor lock-in voor een techniek als deze is zowel slecht, als onrechtvaardig. Zoals hierboven al wordt aangegeven heeft Nvidia gewoon bestaande technieken gebruikt. Dit viel AMD ook op en ze hebben vervolgens dus maar "even" een proof of concept gemaakt van hoe het ook kan. Vervolgens hebben ze de specificatie voor DP uitgewerkt en binnen de VESA organisatie is die aangepast waar nodig en goedgekeurd. Dit hele traject hebben ze ook op een moord tempo doorlopen (normaal gesproken duurt dit een stuk langer, dus ja, AMD heeft zich hier heel hard voor gemaakt samen met enkele monitor fabrikanten). Sterker nog, Adaptive Sync is niet alleen beter dan G-Sync op gebied van openheid, dat is het ook qua implementatie. De minima liggen veel lager, waardoor een belangrijk doel nu ineens ook mogelijk is zonder interpolatie: 1080p24.

Dit soort technieken willen wij wijd verspreid zien en met Nvidia's lock-in is dat onmogelijk. De monitor fabrikanten die er daadwerkelijk toe doen gaan daar gewoon nooit aan beginnen.

En voor wie nog twijfelt over hoe slecht een vendor lock-in voor zoiets als dit is: gaat lekker hè, dat 3D? Zowel Nvidia als AMD hebben daar hun eigen rotzooi voor gemaakt, met als gevolg dat het nog steeds niet standaard in games zit, je nog steeds verdomd goed op moet letten welke monitor je met welke technologie gebruikt en dat je er eigenlijk nog steeds vrij weinig aan hebt. Breek me de bek niet open over bijvoorbeeld PhysX, om nog maar een leuk voorbeeld te nemen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
Helemaal mee eens. Ik ben heel erg blij dat het nu een optionele extra is. Nu hopen dat die grote bedrijven het gaan gebruiken. Maar die kans is wel groot. Het is alleen maar een toevoeging. Alle bestaande features zoals bv scalers kunnen behouden worden. IQ wordt er ook niet minder op.

Ik kan niet wachten tot Dell een mooie 30" IPS met DP1.2a uit brengt :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:29
Werelds schreef op woensdag 14 mei 2014 @ 09:32:
En nee, vendor lock-in voor een techniek als deze is zowel slecht, als onrechtvaardig. Zoals hierboven al wordt aangegeven heeft Nvidia gewoon bestaande technieken gebruikt. Dit viel AMD ook op en ze hebben vervolgens dus maar "even" een proof of concept gemaakt van hoe het ook kan. Vervolgens hebben ze de specificatie voor DP uitgewerkt en binnen de VESA organisatie is die aangepast waar nodig en goedgekeurd. Dit hele traject hebben ze ook op een moord tempo doorlopen (normaal gesproken duurt dit een stuk langer, dus ja, AMD heeft zich hier heel hard voor gemaakt samen met enkele monitor fabrikanten). Sterker nog, Adaptive Sync is niet alleen beter dan G-Sync op gebied van openheid, dat is het ook qua implementatie. De minima liggen veel lager, waardoor een belangrijk doel nu ineens ook mogelijk is zonder interpolatie: 1080p24.
Mwah, 120Hz is al een niche, en behalve eizo lijkt geen enkele fabrikant iets om 120 Hz schermen te geven, en is adaptive sync goed te combineren met hun strobing? Als je als monitorfabrikant via gsync makkelijk een 120hz scherm op de markt zet waar je leuk aan kan verdienen waarom zou je het dan niet doen?

En was de 30 Hz niet meer een ondergrens voor de refresh van een panel? Ik zie het probleem ook niet, dan draai je toch 1080p op 48 fps en heb je hetzelfde resultaat.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Help!!!! schreef op woensdag 14 mei 2014 @ 09:19:
[...]


Het idee zat allang in de VESA eDp standaard uit 2009 en werd al gebruikt in laptops etc. Alhoewel nVidia deel uitmaakt van VESA hebben ze het vermoedelijk allemaal niet zelf bedacht. En anders hebben ze er ook rijkelijk lang over gedaan om er iets mee te doen.
Ik heb me altijd al afgevraagd waarom we zo vast zaten aan die vaste sync. Evenmin snap ik waarom AMD hier niks mee deed.

nVidia krijgt van mij vooralsnog credits omdat ze variable sync goed op de agenda gezet hebben. Blijkbaar vonden de ASIC / Monitor fabrikanten het (nog) niet interessant genoeg om de hardware zelf te ontwikkelne en had het de push van nVidia nodig.

Maar het is verder zelfs niet duidelijk of VESA allang van plan was om variable sync voor desktop in de DP 1.2a of 1.3 op te nemen en nVidia geprobeerd heeft even snel het idee als proprietary uit te brengen in de hoop zo een eigen standaard groot genoeg te kunnen maken.
Dit klinkt al een stuk beter zo, kunnen hier nog wel meer wat van leren in plaats van happen en afzeiken want zo blijft het leuk voor iedereen die graag mee leest.

Nu vraag ik mij wel af of Free Sync ook boven de 60hz werkt, dat zal namelijk heel erg welkom zijn want dan ga ik ook liever voor Free Sync in plaat van G-sync, ik wil namelijk zo min mogelijk geld uit geven aan extra hardware als er een goedkopere oplossing voor is.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 16-06 13:14
haarbal schreef op woensdag 14 mei 2014 @ 10:32:
[...]

Mwah, 120Hz is al een niche, en behalve eizo lijkt geen enkele fabrikant iets om 120 Hz schermen te geven
Er zijn op zich wel genoeg fabrikanten die iets om 60+ Hz geven, maar dat is dan ook even veel een zaak van het control board ("scaler") alsmede het panel zelf. Panels die hogere refresh rates aan kunnen kosten nu eenmaal meer, vooral met VA, IPS en al hun afgeleiden. Daarom zie ook zo veel meer TN panelen met hoge refresh rates, die zijn goedkoop en makkelijk aan te sturen. Met IPS en VA kost het iets meer moeite, vooral vanwege de timing (wil er niet te diep op in gaan, is nogal hardcore materie, TFT Central heeft er ooit wel iets over geschreven als je interesse hebt :P). Die twee zaken samen zorgen er voor dat de fabrikanten die vooral assembleren er minder mee doen en voor het goedkope en eenvoudige TN gaan.
is adaptive sync goed te combineren met hun strobing?
Voor zover ik begrijp zit daar dus wel wat werk in. Met AS is er immers geen vast interval waarop je de backlight aan of uit kunt zetten. Ik heb inmiddels wat van m'n contacten links en rechts aangeschreven, dus hopelijk kan ik hier binnenkort wat meer over vertellen. En welke fabrikanten het al aan het implementeren zijn natuurlijk :P
Als je als monitorfabrikant via gsync makkelijk een 120hz scherm op de markt zet waar je leuk aan kan verdienen waarom zou je het dan niet doen?
Zoals gezegd, het kosten plaatje. Zeg nu zelf, denk je dat het boeiend voor ASUS is om voor $100 een andere controller te gebruiken die op slechts 20-25% van de markt werkt voor enige andere reden dan pure marketing? :)

Voor 120 Hz hebben ze geen G-Sync nodig, daar zijn andere (goedkopere) controllers voor. En die controllers zullen nieuwe revisies krijgen met Adaptive Sync ondersteuning ;)
En was de 30 Hz niet meer een ondergrens voor de refresh van een panel? Ik zie het probleem ook niet, dan draai je toch 1080p op 48 fps en heb je hetzelfde resultaat.
Soort van. 30 Hz is geen harde grens waarop een LCD paneel ververst dient te worden (verschilt zowel per technologie als per panel), maar een LCD paneel mag inderdaad net als CRT of Plasma geen permanent beeld laten staan. Maar het kan wel lager dan 30 Hz, bij goedkopere panelen ligt dit tussen de 15 en 18 Hz, de beste kunnen al met 6 Hz overweg. AMD's proof of concept op die laptops met eDP gingen tot 9 Hz :)

En wat betreft 1080p24 op 48 Hz weergeven: tuurlijk. Maar dan moet de software er tussenin dat ook weer uitvogelen en is het niet bepaald "Adaptive" meer ;)

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Het verschil is natuurlijk wel dat G-Sync "nu" (enkele weken misschien) al verkrijgbaar is dus zeker voor degenen met een nVidia kaart kan het een interessante upgrade zijn, zelfs al zou je er 100 euro extra voor moeten betalen. AOC heeft aangekondigd dat hun G-Sync monitor over een paar weken in de verkoop gaat, en dat is geen belachelijk dure fabrikant, dus als je met een TN-paneel kan leven is dat een mooie oplossing.
Neemt niet weg dat ik het er wel mee eens ben dat als AMD het werkend gaat krijgen zoals ze nu beloven dat dat natuurlijk veruit de beste optie is. Kom ik weer terug op het punt: Adaptive-Sync is tot nu toe slechts een belofte, G-Sync is over enkele weken (hoop ik) in monitors verkrijgbaar.

Ik vermoed dat de reden waarom monitorfabrikanten hier zelf niet achteraan zijn gegaan is gewoon omdat het teveel geld kost voor een te groot risico. Bovendien, eigenlijk alleen Asus en BenQ zijn echt met monitoren speciaal aangepast voor gamen bezig, en die maken zelf vrij weinig. De grotere monitorfabrikanten halen de grotere omzetten uit thuis- en bedrijfsmonitoren. Van alle gamers gebruikt het merendeel een TV icm een console, en is maar een klein deel van de PC gamers geïnteresseerd in dit soort nieuwe technieken. Dan blijft de markt die over is vrij klein.
nVidia haalt zijn omzet uit nieuwe videokaarten, en gebruikt G-Sync gewoon om de verkoop van videokaarten van de nieuwste generatie te pushen, net als met Shadowplay/GameStream (en itt die twee technieken zit de techniek van G-Sync in de monitor en zou het ook kunnen werken op oudere nVidia GPU's of AMD (als ik hier fout zit corrigeer me dan maar)). Dus vanuit hun standpunt is het heel logisch dat ze dit doen, en ze proberen er nog winst op te maken ook, door een simpele chip voor 100 dollar te verkopen... :+ Je kunt al een hele 1080p (TN) monitor kopen voor 100 dollar. De techniek achter G-Sync is natuurlijk iets ingewikkelder, maar goed.
En als nVidia zoiets doet kan AMD natuurlijk niet achterblijven. Het heeft weinig zin om als nummer twee een gelsoten standaard proberen op te dringen (bovendien is nVidia qua graphics groter) dus moet het maar een open standaard worden. Is de online community ook weer tevreden.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

Anoniem: 59888

deraco96 schreef op donderdag 15 mei 2014 @ 20:27:
Het verschil is natuurlijk wel dat G-Sync "nu" (enkele weken misschien) al verkrijgbaar is dus zeker voor degenen met een nVidia kaart kan het een interessante upgrade zijn, zelfs al zou je er 100 euro extra voor moeten betalen. AOC heeft aangekondigd dat hun G-Sync monitor over een paar weken in de verkoop gaat, en dat is geen belachelijk dure fabrikant, dus als je met een TN-paneel kan leven is dat een mooie oplossing.
Neemt niet weg dat ik het er wel mee eens ben dat als AMD het werkend gaat krijgen zoals ze nu beloven dat dat natuurlijk veruit de beste optie is. Kom ik weer terug op het punt: Adaptive-Sync is tot nu toe slechts een belofte, G-Sync is over enkele weken (hoop ik) in monitors verkrijgbaar.
Lekker tendentieus weer. AMD heeft de technologie werkend getoond en daarna is de techniek in een standaard opgenomen. Dat gebeurt natuurlijk niet als er nog vraagtekens zijn over de haalbaarheid. Adaptive Sync is inderdaad nog niet in de winkel te krijgen, maar het is wel even wat meer dan een belofte.

Voor wat betreft G-Sync, volgens Nvidia zouden monitoren in Q2 2014 te krijgen zijn. We zitten halverwege dat kwartaal, er is op dit moment geen enkele G-Sync monitor te krijgen, het enige wat we hebben is een aankondiging van één fabrikant. Dat gaat om een 24 inch monitor met TN paneel voor 359 Britse Ponden, omgerekend 439 Euro. Voor een monitor van die grootte met een TN paneel is dat erg duur. Adaptive Sync is onderdeel van een nieuwe standaard, alle nieuwe monitoren zullen die standaard gaan ondersteunen. In hoeverre er een meerprijs zal komen is nog even afwachten, maar het is zeer onwaarschijnlijk dat het zo duur zal worden als G-Sync. Ik zou in elk geval niemand aanraden nu veel geld te investeren in een G-Sync monitor terwijl Adapative Sync in aantocht is.
deraco96 schreef op donderdag 15 mei 2014 @ 20:27:
De grotere monitorfabrikanten halen de grotere omzetten uit thuis- en bedrijfsmonitoren. Van alle gamers gebruikt het merendeel een TV icm een console, en is maar een klein deel van de PC gamers geïnteresseerd in dit soort nieuwe technieken. Dan blijft de markt die over is vrij klein.
Het zijn allebei PC-only technieken, de markt voor beide is dus even groot. De consoles zijn daarbij niet relevant.
deraco96 schreef op donderdag 15 mei 2014 @ 20:27:
nVidia haalt zijn omzet uit nieuwe videokaarten, en gebruikt G-Sync gewoon om de verkoop van videokaarten van de nieuwste generatie te pushen, net als met Shadowplay/GameStream (en itt die twee technieken zit de techniek van G-Sync in de monitor en zou het ook kunnen werken op oudere nVidia GPU's of AMD (als ik hier fout zit corrigeer me dan maar)). Dus vanuit hun standpunt is het heel logisch dat ze dit doen, en ze proberen er nog winst op te maken ook, door een simpele chip voor 100 dollar te verkopen... :+ Je kunt al een hele 1080p (TN) monitor kopen voor 100 dollar. De techniek achter G-Sync is natuurlijk iets ingewikkelder, maar goed.
Het is een propriëtaire Nvidia techniek, net zoals PhysX. Dat zal nooit op AMD kaarten gaan werken. Nvidia kan Adaptive Sync uiteraard wel implementeren, maar het is de grote vraag of ze dat gaan doen, en zo ja hoe goed dat zal werken. Bij OpenCL zien we dat de performance enorm achterblijft, vermoedelijk om PhysX te pushen.
deraco96 schreef op donderdag 15 mei 2014 @ 20:27:
En als nVidia zoiets doet kan AMD natuurlijk niet achterblijven. Het heeft weinig zin om als nummer twee een gelsoten standaard proberen op te dringen (bovendien is nVidia qua graphics groter) dus moet het maar een open standaard worden. Is de online community ook weer tevreden.
Nvidia is met een goed idee gekomen en heeft dat op de van hun bekende manier aangepakt: exclusief voor Nvidia en duur voor consument en producent (monitorfabrikanten). AMD kiest voor een technisch betere aanpak (gebruik bestaande techniek ipv aparte, dure chip) die beter is voor de consument (goedkoper, breder verkrijgbaar) en monitorfabrikanten (inzet eigen scaler ipv dure chip van Nvidia). Daar maak jij nu even van dat het de "nummer 2" is die dat alleen maar doet om de online community "tevreden te houden". Wat een volstrekt belachelijke onzin.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 15-11-2024
deraco96 schreef op donderdag 15 mei 2014 @ 20:27:
Het verschil is natuurlijk wel dat G-Sync "nu" (enkele weken misschien) al verkrijgbaar is dus zeker voor degenen met een nVidia kaart kan het een interessante upgrade zijn, zelfs al zou je er 100 euro extra voor moeten betalen.
Ja, al die monitoren die het gaan ondersteunen. Ik heb er eentje in de winkel staan die ik kan verkopen als zijnde een Gsync ready monitor waar je zelf de hele boel nog uit elkaar moet halen. Nope, het is niet nu beschikbaar en zal ook niet komen. Want verder staat er afaik niets in de planning.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Anoniem: 59888 schreef op donderdag 15 mei 2014 @ 23:08:
[...]

Lekker tendentieus weer. AMD heeft de technologie werkend getoond en daarna is de techniek in een standaard opgenomen. Dat gebeurt natuurlijk niet als er nog vraagtekens zijn over de haalbaarheid. Adaptive Sync is inderdaad nog niet in de winkel te krijgen, maar het is wel even wat meer dan een belofte.

Voor wat betreft G-Sync, volgens Nvidia zouden monitoren in Q2 2014 te krijgen zijn. We zitten halverwege dat kwartaal, er is op dit moment geen enkele G-Sync monitor te krijgen, het enige wat we hebben is een aankondiging van één fabrikant. Dat gaat om een 24 inch monitor met TN paneel voor 359 Britse Ponden, omgerekend 439 Euro. Voor een monitor van die grootte met een TN paneel is dat erg duur. Adaptive Sync is onderdeel van een nieuwe standaard, alle nieuwe monitoren zullen die standaard gaan ondersteunen. In hoeverre er een meerprijs zal komen is nog even afwachten, maar het is zeer onwaarschijnlijk dat het zo duur zal worden als G-Sync. Ik zou in elk geval niemand aanraden nu veel geld te investeren in een G-Sync monitor terwijl Adapative Sync in aantocht is.


[...]

Het zijn allebei PC-only technieken, de markt voor beide is dus even groot. De consoles zijn daarbij niet relevant.


[...]

Het is een propriëtaire Nvidia techniek, net zoals PhysX. Dat zal nooit op AMD kaarten gaan werken. Nvidia kan Adaptive Sync uiteraard wel implementeren, maar het is de grote vraag of ze dat gaan doen, en zo ja hoe goed dat zal werken. Bij OpenCL zien we dat de performance enorm achterblijft, vermoedelijk om PhysX te pushen.


[...]

Als die AOC het hem niet wordt ben ik toch wel zeker benieuwd naar de Asus ROG Swift (1440p 'volgens-Asus-goed'-TN-paneel, 144Hz). Dat duurt inmiddels ook al erg lang maar die zou toch als het goed is wel dit jaar nog moeten uitkomen :+ .

Nvidia is met een goed idee gekomen en heeft dat op de van hun bekende manier aangepakt: exclusief voor Nvidia en duur voor consument en producent (monitorfabrikanten). AMD kiest voor een technisch betere aanpak (gebruik bestaande techniek ipv aparte, dure chip) die beter is voor de consument (goedkoper, breder verkrijgbaar) en monitorfabrikanten (inzet eigen scaler ipv dure chip van Nvidia). Daar maak jij nu even van dat het de "nummer 2" is die dat alleen maar doet om de online community "tevreden te houden". Wat een volstrekt belachelijke onzin.
Ik snap je punten wel (vind mezelf beslist niet ongenuanceerd en ik probeer een beetje objectief te blijven), ik dacht dat het wel leuk zou zijn om ook weer een tegengeluid te laten horen. Ik vind het feit dat G-Sync laat komt wel een argument om me af te vragen of AMD's implementatie dan wel opschiet? Ik ben het wel met je eens dat G-Sync duur is, maar er zitten ook een hoop voordelen aan die je nu nog niet ergens anders kan krijgen. Als je nou een high-end kaart wil kopen zoals een 780 Ti/290 zou je misschien ook overweg kunnen met een GTX 770 icm G-Sync, zo goed schijnt het te werken. En de ervaringen van mensen die al wel een G-Sync board in hun crappy Asus hebben zijn heel erg positief - die willen nooit meer anders. De versie van G-Sync die nu dus al werkt bij mensen thuis werkt dus fantastisch.

Ik zie het als: het is duur* maar je krijgt ook heel wat: vergeet niet dat elke G-Sync monitor ook ULMB (de geüpdate versie van 2D Lightboost) aan boord heeft, hoewel je ze niet tegelijkertijd kunt gebruiken (dat vergt weer nieuwe creatieve oplossingen).
Niemand weet precies wanneer Adaptive-Sync op de markt komt en voor hoeveel.
Als je nu een high-end videokaart koopt is die over drie jaar ook zo 300 euro aan waarde verloren. Een monitor gaat langer mee.
G-Sync wordt ook nog wel even ondersteund vermoed ik, ook in het geval van een betere gestandaardiseerde varaint van variabele refresh rates. Het kost namelijk weinig werk om de huidige implementatie te laten blijven werken: het is niet afhankelijk van ondersteuning van een game, maar het wordt door de videokaart en monitor geregeld ipv softwarematig.

Ik snap dat we hier in het AMD topic zitten en dat een lichte voorkeur dus niet mag worden ontkend (geeft niks) maar ik vind het ook wel een beetje naïef om te denken dat AMD dit alleen maar doet uit liefde voor gamers. AMD gaat er juist achteraan omdat ze moeten en de open variant is de enige manier - de beste manier ook wel. Ik vind het inderdaad ook jammer dat nVidia dit zo doet. Maar zij waren de eerste, het is waarschijnlijker winstgevender voor ze om het wel gesloten te houden, net als met hun andere nVidia-only foefjes...

Kijk bijvoorbeeld nog eens terug naar het microstuttering-debacle. nVidia kwam met FCAT op de proppen om te bewijzen dat ze al jaren doorhadden dat dit een probleem kon vormen met multi-GPU. AMD ging toen pas de problemen die er al veel langer waren oplossen, omdat dit een publiciteitsprobleem ging vormen. Snap je al waar ik heen wil? Ik vind het alleen maar gaaf dat nVidia als eerste (openlijk) iets aan dit probleem gaat doen. Dat de eerste implementatie in die brakke Asus dan wat tegenvalt en niet meteen commercieel verkrijgbaar is is dan jammer, maar ze zijn wel weer degenen die het in gang hebben gezet.
Nu komt AMD met een eigen variant (een betere volgens jullie, en dat geloof ik ook wel) maar als nVidia niet achter een betere manier van schermen verversen aan was gegaan -uit eigen winstmotief en daarom gesloten- waren we nu nog nergens... Daarom is het zo mooi dat beide partijen nog bestaan en competitief zijn, dan houden ze mekaar een beetje scherp. AMD heeft Mantle weer bijvoorbeeld (wat nu nog niks opener is dan G-Sync, alleen moderne GPU's van één fabrikant)

Dan is het ook niet zo erg dat die G-Sync module zo duur is, dan hebben AMD en de monitorfabrikanten een goeie financiele reden (de beste) om hun eigen variant te pushen. MOAR COMPETITION :D

*Ik ben maar een arme scholier, ik wacht wel af net als jullie. Ik ben gewoon geïnteresseerd, en mocht er inderdaad een betaalbare monitor met één van beide technieken (desnoods wissel ik van kamp, momenteel nVidia na twee AMD (één was een ATI :P ) kaarten.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 16-06 13:14
deraco96 schreef op donderdag 15 mei 2014 @ 20:27:
Neemt niet weg dat ik het er wel mee eens ben dat als AMD het werkend gaat krijgen zoals ze nu beloven dat dat natuurlijk veruit de beste optie is.
Even voor de duidelijkheid, Adaptive Sync is technisch gezien geen AMD product. Het *is* al werkend gemaakt door op z'n minst 1 monitor fabrikant, anders had VESA (waar Nvidia ook gewoon deel van uit maakt) het addendum nooit goed gekeurd :)
Ik vermoed dat de reden waarom monitorfabrikanten hier zelf niet achteraan zijn gegaan is gewoon omdat het teveel geld kost voor een te groot risico. Bovendien, eigenlijk alleen Asus en BenQ zijn echt met monitoren speciaal aangepast voor gamen bezig, en die maken zelf vrij weinig.
Je vergeet nu even Viewsonic en Samsung, die het allebei al lang voor Asus en BenQ deden. Momenteel mag je echter stellen dat Eizo (yep, ik ben een fanboy :P) de enige is die daadwerkelijk actief ontwikkelt met het oog op gaming; in tegenstelling tot de rest, hebben ze geen echte consumenten lijn. Ze hebben hun professionele producten en hun gaming producten. Asus en BenQ hebben verder zelf niet veel ontwikkeld op dat gebied, zij gebruiken voor 99% "off the shelf" onderdelen.

Ik weet ook dat Eizo al vanaf het moment dat G-Sync aan werd gekondigd interesse in het idee had, het was iets waar ze zelf simpelweg nog niet aan gedacht hadden. Na AMD's demo zijn ze daar ook achter aan gegaan, dus ik zou er niet van staan te kijken als Eizo de eerste wordt met een Adaptive Sync monitor :)

En daar zit het probleem ook meteen: het idee achter Adaptive Sync/G-Sync is simpelweg "raar" voor TV en monitor fabrikanten.
(en itt die twee technieken zit de techniek van G-Sync in de monitor en zou het ook kunnen werken op oudere nVidia GPU's of AMD (als ik hier fout zit corrigeer me dan maar)).
Dat zou enige openheid van Nvidia vereisen naar AMD toe, dus in *theorie* kan het. In de praktijk alleen als Pasen en Pinksteren op één dag vallen ;)
Anoniem: 59888 schreef op donderdag 15 mei 2014 @ 23:08:
Nvidia kan Adaptive Sync uiteraard wel implementeren, maar het is de grote vraag of ze dat gaan doen, en zo ja hoe goed dat zal werken.
Bij zo'n standaard als deze is er geen mate van hoe goed het werkt. Ze hebben zich aan de standaard te houden, punt. Die standaard is heel specifiek, dus daar kan Nvidia niet van afwijken. En als monitor fabrikanten dit veel implementeren, zal Nvidia gewoon mee moeten. Het is een te groot marketing als ze dat niet doen; het is geen Nvidia of AMD specifiek logo'tje, het is een heel wijd verspreid logo.

Ik ga er verder ook gewoon van uit dat ze hun G-Sync module zullen updaten om Adaptive Sync te ondersteunen. Het is onwaarschijnlijk dat ze G-Sync nu laten vallen, het zal een marketing puntje voor ze blijven. Nvidia laat zelden ook maar iets van hun marketing termen weg vallen :)
deraco96 schreef op vrijdag 16 mei 2014 @ 00:01:
Kijk bijvoorbeeld nog eens terug naar het microstuttering-debacle. nVidia kwam met FCAT op de proppen om te bewijzen dat ze al jaren doorhadden dat dit een probleem kon vormen met multi-GPU. AMD ging toen pas de problemen die er al veel langer waren oplossen, omdat dit een publiciteitsprobleem ging vormen. Snap je al waar ik heen wil? Ik vind het alleen maar gaaf dat nVidia als eerste (openlijk) iets aan dit probleem gaat doen. Dat de eerste implementatie in die brakke Asus dan wat tegenvalt en niet meteen commercieel verkrijgbaar is is dan jammer, maar ze zijn wel weer degenen die het in gang hebben gezet.
Nu komt AMD met een eigen variant (een betere volgens jullie, en dat geloof ik ook wel) maar als nVidia niet achter een betere manier van schermen verversen aan was gegaan -uit eigen winstmotief en daarom gesloten- waren we nu nog nergens... Daarom is het zo mooi dat beide partijen nog bestaan en competitief zijn, dan houden ze mekaar een beetje scherp. AMD heeft Mantle weer bijvoorbeeld (wat nu nog niks opener is dan G-Sync, alleen moderne GPU's van één fabrikant)
Je zegt het zelf ook al, het gaat altijd zo tussen deze twee fabrikanten. Het verschil is echter dat als het even kan, AMD op zoek gaat naar een oplossing die ze in de hele industrie kunnen gebruiken. AMD/ATI draait al zo veel langer dan Nvidia mee dat ze al veel technieken keihard op hun bek hebben zien gaan. Nvidia doet 3D, AMD reageert door in elk geval iets opener te werken met standaard HDMI 3D, 3rd party drivers, niet afhankelijk van specifieke monitors. Helaas is 3D an sich nu nog steeds nergens echt gestandaardiseerd, dus dat was sowieso gedoemd te falen.

Daarnaast wijst AMD zelden nieuwe technologie af; meestal zeggen ze "leuk" en ontwikkelen vervolgens een tegenhanger. Nvidia heeft altijd een grote bek over hun concurrenten; het is nooit goed tot zij het doen. Uiteraard begrijpelijk, maar het geeft ook weer wat voor bedrijf het is. Ik hoef hier maar een jaar of 5,5 voor terug te gaan, toen AMD met Eyefinity kwam. Nvidia had een grote bek, zei dat het nooit aan zou slaan en dat het gewoon bagger was. Blijkbaar vonden ze het echter wel belangrijk genoeg om in de 6-8 maanden daarna (ze hadden immers de tijd, met hun Fermi problemen) in alle stilte een ontzettend slechte software hack te ontwikkelen om maar iets soortgelijks te hebben. En vervolgens kostte het nog eens twee jaar voordat ze eindelijk een hardware implementatie hadden en het op een enkele kaart kregen uitgevoerd.

Mantle is een apart geval, daar zijn ze vreemd genoeg vrij stil over. Ik moet hier echter weer naar naar de datums van Pasen en Pinksteren verwijzen, want het was vanaf het begin wel duidelijk dat Nvidia er niet veel zin in had. Gelukkig heeft AMD zo wel MS wakker kunnen schudden (nee, DX12 met de lagere overhead is echt nog geen 4 jaar in ontwikkeling samen met Nvidia - ook dat is naïef om te geloven :P), dus uiteindelijk komt het ons als consument toch ten goede.


Het lijkt wel alsof ik een hekel aan Nvidia heb, maar niets is minder waar. Ik heb nu een Nvidia kaart en ik heb ook meer Nvidia dan AMD in m'n PC's gehad over de afgelopen 20 jaar. Dat betekent echter niet dat ik geen vraagtekens bij enkele van hun praktijken stel, net zomin als dat voor bijvoorbeeld, AMD, Google, Apple of Microsoft geldt. Veel van die praktijken komen de consument simpelweg niet ten goede en dat is waar het mij uiteindelijk om draait.

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Duidelijk verhaal. Het ging mij meer om de negatieve tendens over G-Sync, en hoewel een VESA standaard een miljoen keer beter is zou ik het wel gaaf vinden als er alvast monitors op de markt zouden komen, voor de early adopters. Hoe eerder hoe beter.
Dat gezegd hebbende erger ik me ook wel aan sommige praktijken van nVidia. De meeste dingen kunnen wel door de bocht maar die driverupdate 337.50 (ook al wel de 1337-update gedoopt) faalde toch wel zo hard in vergelijking met nVidia reclame. En alle fanboys er maar opduiken omdat het hét antwoord zou zijn op Mantle. Tot wel meer dan 70% boost!!1! 8)7

Snap dat je van Eizo houdt maar die laatste met VA 120Hz was me toch wel zo'n ramp... Ik heb wat topics gevolgd en het waren alleen een paar reviewers en überenthousiast Vega met zijn triple setup die fatsoenlijke monitors lijken te hebben gekregen, of de rest is akelig stil. De rest van de monitors had allemaal kwaliteitsproblemen, zo leek wel. Kan niet meer precies herinneren, en ik moet zo weg, maar het was iets met de backlightsterkte aan de randen dacht ik. Er werd ook gespeculeerd dat het om afgekeurde panelen uit geografische apparatuur ging oid en vandaar de defecten.
Dus dat heeft bij mij de hoop op de ultieme gaming monitor van Eizo weer wat getemd, naast de hoge prijzen.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 16-06 13:14
deraco96 schreef op vrijdag 16 mei 2014 @ 12:01:
Duidelijk verhaal. Het ging mij meer om de negatieve tendens over G-Sync, en hoewel een VESA standaard een miljoen keer beter is zou ik het wel gaaf vinden als er alvast monitors op de markt zouden komen, voor de early adopters. Hoe eerder hoe beter.
Tuurlijk :)

Als ik nog iets meer te weten kom en het mag delen zal ik dat hier wel delen, maar ik kan je verzekeren dat in er elk geval al twee fabrikanten wel al mee bezig zijn (beide produceren geen TN zooi meer ;)). Hoe snel ze iets op de markt hebben is maar de vraag, maar of de producten met G-Sync ook daadwerkelijk op de markt blijven (ASUS heeft hun kant-en-klare monitor twee weken verkocht en vervolgens EOL) moeten we ook nog maar afwachten ;)
Dat gezegd hebbende erger ik me ook wel aan sommige praktijken van nVidia. De meeste dingen kunnen wel door de bocht maar die driverupdate 337.50 (ook al wel de 1337-update gedoopt) faalde toch wel zo hard in vergelijking met nVidia reclame. En alle fanboys er maar opduiken omdat het hét antwoord zou zijn op Mantle. Tot wel meer dan 70% boost!!1! 8)7
Pas op, slechte dingen over die driver zeggen kun je je een hoop gezeur mee op de hals halen. Je haalt die 76% ook wel...als je twee kaarten ten waarde van 1500 euro hebt en/of een spel waar voorheen geen SLI profiel voor was :P
Snap dat je van Eizo houdt maar die laatste met VA 120Hz was me toch wel zo'n ramp... Ik heb wat topics gevolgd en het waren alleen een paar reviewers en überenthousiast Vega met zijn triple setup die fatsoenlijke monitors lijken te hebben gekregen, of de rest is akelig stil. De rest van de monitors had allemaal kwaliteitsproblemen, zo leek wel. Kan niet meer precies herinneren, en ik moet zo weg, maar het was iets met de backlightsterkte aan de randen dacht ik. Er werd ook gespeculeerd dat het om afgekeurde panelen uit geografische apparatuur ging oid en vandaar de defecten.
Dus dat heeft bij mij de hoop op de ultieme gaming monitor van Eizo weer wat getemd, naast de hoge prijzen.
Het is natuurlijk wel weer een standaard verhaal; de goede reacties lees je een stuk minder op het forum. Wat ik van Eizo heb gehoord is dat het ding behoorlijk verkoopt en dat de defect rate lang zo hoog niet ligt als het lijkt als je op [H] af gaat. Ze zijn zich er echter wel van bewust en uiteraard niet tevreden, maar het is helaas niet alsof ze veel keus hebben qua panelen (of het afdankertjes van hun pro lijnen zijn weet ik overigens niet). Ik ken 3 anderen met dat ding en zowel zij als ikzelf hebben 0 problemen. Het moet dus wel een beetje gerelativeerd worden.

Het ligt in de US wel iets anders dan hier; mocht je er hier een probleem mee hebben, wordt hij zonder pardon gewoon vervangen. Je hoeft ze maar even aan te schrijven. En vooral hier in West Europa zitten we goed; kantoren in NL, BE en DE (alle drie binnen +- 120km van mij vandaan 8)7) en het "hoofd" kantoor in Scandinavië.


Edit: excuses voor het lichtelijk off-topic geneuzel, dit is allemaal eigenlijk voedsel voor een monitor topic :P

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Werelds schreef op vrijdag 16 mei 2014 @ 11:20:
Het lijkt wel alsof ik een hekel aan Nvidia heb, maar niets is minder waar. Ik heb nu een Nvidia kaart en ik heb ook meer Nvidia dan AMD in m'n PC's gehad over de afgelopen 20 jaar. Dat betekent echter niet dat ik geen vraagtekens bij enkele van hun praktijken stel, net zomin als dat voor bijvoorbeeld, AMD, Google, Apple of Microsoft geldt. Veel van die praktijken komen de consument simpelweg niet ten goede en dat is waar het mij uiteindelijk om draait.
De consument moet ook kritisch blijven, ook ten opzichte van zijn favoriete merken. Ik denk dat 5 jaar geleden bijna al mijn hardware van andere merken kwam en ik ben blij dat ik merk-onafhankelijk ben om zo de juiste keuze te maken naargelang de kwaliteit, prestatie en technologie die mij het meeste aanspreekt.

Mij spreekt Adaptive Sync (de VESA standaard) het meeste aan omdat het fabrikant-onafhankelijk is en ik hierdoor later niet sterk beperkt kan worden in mijn opties. Fabrikant-onafhankelijke standaarden hebben in mijn ogen ook de grootste levensduur doordat een fabrikant niet ineens de stekker eruit kan trekken vanwege het financieel aspect.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:29
Ik heb toch grote twijfels over adaptive sync, lijkt me ook wat voorbarig om gsync gelijk doa te verklaren.

Die demo met de 2 laptops is leuk en aardig, maar er was geen variabele framerate, en er was ook geen interactie, als het de latency van vsync heeft baal ik hard. Amd legt ook nergens in enig detail uit hoe de techniek werkt, dus je kan het ook niet beredeneren.
zie deze post: http://forums.anandtech.c...p?p=36355074&postcount=95
Amd heeft het alleen over "low latency", terwijl nvidia loopt op te scheppen dat de latency net zo laag is als zonder vsync.

Het is nu onderdeel van een spec, maar het blijft optioneel, amd zegt dat ze samenwerken met monitorfabrikanten om het te realiseren, maar welke, en worden het schermen met een beetje leuke refreshrates?

Er is nauwelijks iets met gsync te krijgen, maar het lijkt me waarschijnlijker dat er problemen zijn met de productie van de non fpga variant dan dat het ligt aan een nog niet bestaand alternatief. Het is uberhaupt raar dat ze die fpga variant op de markt gebracht hebben, ik denk dat ze iets nodig hadden om tegen mantle in te brengen.

De evil nvidia en good guy amd sfeer hier slaat ook nergens op, amd is met mantle en true audio misschien wel erger bezig de laatste tijd. En die tenenkrommende fixer filmpjes, verschrikkelijk.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

haarbal schreef op vrijdag 16 mei 2014 @ 16:29:
Ik heb toch grote twijfels over adaptive sync, lijkt me ook wat voorbarig om gsync gelijk doa te verklaren.

Die demo met de 2 laptops is leuk en aardig, maar er was geen variabele framerate, en er was ook geen interactie, als het de latency van vsync heeft baal ik hard. Amd legt ook nergens in enig detail uit hoe de techniek werkt, dus je kan het ook niet beredeneren.
Op zich zou de techniek ook niet zo moeilijk moeten zijn, maar het is nog nooit zo gebruikt geweest behalve bij een paar laptops. Uiteindelijk is de techniek van G-Sync en Adaptive Sync zeer vergelijkbaar, namelijk een refreshrate variabel aan de framerate, terwijl deze nu vast is aan de refresh clock.
Het is nu onderdeel van een spec, maar het blijft optioneel, amd zegt dat ze samenwerken met monitorfabrikanten om het te realiseren, maar welke, en worden het schermen met een beetje leuke refreshrates?
AMD moet niets doen, zoals Werelds hierboven al zei is het een VESA specificatie die fabrikanten hebben te volgen als ze willen voldoen aan de standaard. Als ze willen opscheppen met DisplayPort 1.2a of beter, hebben ze zich hieraan te houden. We praten hier ook niet over gigantische R&D kosten die een firma moet gaan besteden om het te kunnen gebruiken, uiteindelijk gaan die scalers van de plank kunnen komen die Adaptive Sync ondersteunen namelijk die met een DisplayPort 1.2a of betere spec.
De evil nvidia en good guy amd sfeer hier slaat ook nergens op, amd is met mantle en true audio misschien wel erger bezig de laatste tijd. En die tenenkrommende fixer filmpjes, verschrikkelijk.
Ik denk niet dat AMD ooit genoemd heeft als "good guy" (een bedrijf zie je best niet als een persoon), maar Nvidia heeft zijn reputatie wel als een extreem trotse firma die neigt naar het arrogante, met betrekking tot hun gedrag tegenover de concurrentie. Wat ook opvalt is dat er veel Nvidia fanboys zijn die zich persoonlijk aangevallen voelen als men kritisch is tov. Nvidia. Er wordt hier vaak genoeg kritiek gegeven over AMD door verschillende mensen, maar er schiet zelden iemand "uit zijn vel". Terwijl kritiek bij Nvidia zeer emotioneel verdedigd wordt.

Nvidia vermijd alle mogelijke samenwerking met concurrentie (PhysX, G-Sync, 3D Vision en daar verschilt het met AMD die vaak genoeg open standaarden opzoekt (OpenCL, Adaptive Sync, Mantle). Maar dat is dezelfde discussie als Windows vs Linux: de één is niet exclusief "beter" als de andere.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:29
opencl draait toch ook op nvidia? en sinds wanneer is mantle open?

en variabele refresh is misschien niet per se lastiger dan statische maar heeft die eDP implementatie geen extra latency? Daar lijkt het namelijk op, en zo ja, is de adaptive sync hetzelfde of hebben ze dit probleem (als het er uberhaupt is) opgelost?

[ Voor 65% gewijzigd door haarbal op 16-05-2014 17:09 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 16-06 15:14
haarbal schreef op vrijdag 16 mei 2014 @ 17:00:
en sinds wanneer is mantle open?
Volgens mij sinds de aankondiging. Alleen verkeerd het product op dit moment (volgens mij) nog steeds in beta en is het daarom nog niet open. Maar dat zou moeten komen, zodra het daadwerkelijk af is.

Maar dan komt de vraag of Nvidia het gaat oppikken.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
AMD heeft eerder aangekondigd dat ze voor het einde van dit kalenderjaar een 'Mantle-like' API zullen lanceren, zodat een ieder die dat wil drivers kan schrijven voor zijn hardware, als deze hardware de minimum eisen (DX10.1 capabel iirc) ondersteunt. Bedenk dat pas onlangs de gesloten beta voor ontwikkelaars is begonnen.

Aangaande het sync-verhaal, G-Sync heeft gewoon weinig kans tegen Freesync, alleen al door de BoM, laat staan de geslotenheid/beperking van potentiele markt.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Lijken we het net een beetje eens te zijn, krijgen we dit weer: :D :P

Hardware.info: AOC & Philips: G-Sync is superieur aan Adaptive-Sync

[ Voor 24% gewijzigd door Help!!!! op 16-05-2014 19:40 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Ideaal ja, aangezien ik geen last heb van inputlag maar wel van tearing/stutter is A-sync voldoende voor mij volgens Nvidia. Scheelt me mooi >100 euro aangezien de prijs van een 1440p/UHD G-sync monitor niet mals zal zijn:)

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:29
Daar hebben ze het over "adaptive Vsync", nvidia's vsync on the fly dingetje die ze een paar jaar terug in de driver geimplementeerd hebben.

hardware.info heeft het niet door geloof ik.

edit: nu wel, ze hebben de adaptive vsync doesn't solve latency weer weggehaald.

[ Voor 18% gewijzigd door haarbal op 16-05-2014 20:21 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Werelds schreef op vrijdag 16 mei 2014 @ 11:20:
[...]

Bij zo'n standaard als deze is er geen mate van hoe goed het werkt. Ze hebben zich aan de standaard te houden, punt. Die standaard is heel specifiek, dus daar kan Nvidia niet van afwijken. En als monitor fabrikanten dit veel implementeren, zal Nvidia gewoon mee moeten. Het is een te groot marketing als ze dat niet doen; het is geen Nvidia of AMD specifiek logo'tje, het is een heel wijd verspreid logo.

Ik ga er verder ook gewoon van uit dat ze hun G-Sync module zullen updaten om Adaptive Sync te ondersteunen. Het is onwaarschijnlijk dat ze G-Sync nu laten vallen, het zal een marketing puntje voor ze blijven. Nvidia laat zelden ook maar iets van hun marketing termen weg vallen :)
Juist, heel verhelderend, waarvoor dank.

Ik vraag me wel af hoe dat zal gaan met de implementatie van DP1.2a. Aan de ene kant is Adaptive Sync het enige verschil met DP1.2 en kun je die dus ook nog prima verkopen. Aan de andere kant zijn er meer voordelen dan alleen gaming (video playback, energiebesparing bij static 2D) wat natuurlijk heel leuk staat op de doos (marketing). Ik ben benieuwd hoe dat zal lopen.

Voor de toekomst is DP1.3 eigenlijk interessanter. DP1.2(a) heeft niet voldoende bandbreedte voor 4k, dus voor 4k is een nieuwe standaard nodig: DP1.3. Die standaard schijnt voldoende bandbreedte te gaan krijgen voor 8k en zou dan wel even meekunnen. Volgens geruchten zou een variable refreshrate daar voor het hele G-Sync/Adaptive Sync verhaal al in gezeten hebben (energie besparing). Aangezien Adaptive Sync nu ook al in DP1.2a zit ligt het voor de hand dat dat ook in DP1.3 zal zitten (die standaard zou dit kwartaal final moeten worden). Het is even afwachten maar dat ziet er op zich goed uit.
Werelds schreef op vrijdag 16 mei 2014 @ 14:31:
Edit: excuses voor het lichtelijk off-topic geneuzel, dit is allemaal eigenlijk voedsel voor een monitor topic :P
AMD werkt ten behoeve van games (ontopic) aan een nieuwe standaard voor monitoren (offtopic). Dat is op het randje zullen we maar zeggen. ;) Overigens zou ik met 4k in aantocht een monitor topic geen slecht idee vinden. :) Best interessanten materie om eens in te duiken (gebruik makend van m'n el cheapo BenQ schermpje :+).

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

haarbal schreef op vrijdag 16 mei 2014 @ 19:24:
Daar hebben ze het over "adaptive Vsync", nvidia's vsync on the fly dingetje die ze een paar jaar terug in de driver geimplementeerd hebben.

hardware.info heeft het niet door geloof ik.

edit: nu wel, ze hebben de adaptive vsync doesn't solve latency weer weggehaald.
Volgens mij niet hoor, de bronnen verwijzen ook allemaal door naar nieuws als "VESA doet dit/dat" "AMD Adaptive-Sync". Was wel erg grappig geweest en eerlijk gezegd zie ik Hardware.info er ook wel een beetje voor aan, maar volgens mij gaat dit toch echt over Adaptive-Sync van VESA (en in mindere mate AMD).

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:29
ze hebben het alweer weggehaald, ze hadden een quote uit een nvidia faq staan waar duidelijk adaptive vsync stond.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Ah oké. Om nog één keer op die monitoren terug te komen: ik vind het lastig wat ik nou moet doen. Ik heb een tijdje in mn hoofd gehad om een nieuwe monitor te halen, maar nu heb ik de kleuren van mn huidige monitor wat kunstmatig opgepompt en nu ben ik eigenlijk best tevreden...
Ik heb het gevoel dat ik als ik het nog zo'n maximaal 2 jaar uithou er dan wel wat leuks te koop is met nieuwe technieken. Misschien eerder al.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 16-06 13:14
haarbal schreef op vrijdag 16 mei 2014 @ 16:29:
Ik heb toch grote twijfels over adaptive sync, lijkt me ook wat voorbarig om gsync gelijk doa te verklaren.
DOA zeker niet, maar het zal waarschijnlijk meer een marketing term worden. Een extra stickertje voor fabrikanten, die vervolgens ook "gewoon" AS gaan ondersteunen ;)
haarbal schreef op vrijdag 16 mei 2014 @ 17:00:
opencl draait toch ook op nvidia?
Heb je wel eens gekeken hóe het draait? :+

Nvidia's OpenCL driver is helaas ronduit bagger; sowieso zijn ze erg traag, OpenCL 1.2 (2011) ondersteunen ze pas sinds vorig jaar, AMD al sinds eind 2011 (zelfde jaar nog dus) in beta vorm, volledig sinds ergens Q2'12. Helaas is dat ook 100% te verklaren: ze willen mensen op CUDA houden. In 2008, toen OpenCL net kwam kijken en CUDA nog niet helemaal van de grond was gekomen, zeiden ze nog OpenCL te gaan ondersteunen. AMD had op dat moment ook hun eigen compute API, Close To Metal (frappante naam, niet? ;)) - zij hebben die toen volledig laten vallen. Nvidia niet, die zijn juist hard met CUDA gaan pushen (ook vanwege hun PhysX overname natuurlijk). Wederom begrijpelijk, maar voor ons als consument kan ik daar geen voordeel in bespeuren.

Daarnaast is Nvidia's OpenCL performance ontzettend slecht. Dat heeft niets te maken met OpenCL als API, immers is de implementatie Nvidia's pakkie-an. Er zijn ook meer dan eens vergelijkingen op dat gebied geweest, en met 1.0 was OpenCL gewoon trager aan beide kanten omdat bepaalde operaties nog niet in de API zaten. Vanaf 1.1 zijn CUDA en OpenCL echter grotendeels gelijk op gegaan wat de API betreft, er zit heel weinig verschil in op dat gebied. Er zijn natuurlijk wel bepaalde optimalisaties die je per API moet uitvoeren, net zoals dat met D3D en OpenGL het geval is (overigens is D3D wel nog steeds superieur aan OpenGL, dat is niet te vergelijken maar dat is dan vooral qua feature set). Veel van de "benchmarks" met 1.1 en 1.2 zijn echter bijna 1:1 ports van CUDA naar OpenCL, zonder daarbij voor OpenCL te optimaliseren. Dat kan omdat zoals gezegd, de API's dicht bij elkaar liggen; dat heeft echter ook als gevolg dat het dus in het nadeel van OpenCL werkte en elk van die benchmarks is dus ook weerlegd door derde partijen die hetzelfde programma fatsoenlijk in OpenCL herschreven hebben :)
Anoniem: 59888 schreef op vrijdag 16 mei 2014 @ 19:49:
Voor de toekomst is DP1.3 eigenlijk interessanter. DP1.2(a) heeft niet voldoende bandbreedte voor 4k, dus voor 4k is een nieuwe standaard nodig: DP1.3. Die standaard schijnt voldoende bandbreedte te gaan krijgen voor 8k en zou dan wel even meekunnen. Volgens geruchten zou een variable refreshrate daar voor het hele G-Sync/Adaptive Sync verhaal al in gezeten hebben (energie besparing). Aangezien Adaptive Sync nu ook al in DP1.2a zit ligt het voor de hand dat dat ook in DP1.3 zal zitten (die standaard zou dit kwartaal final moeten worden). Het is even afwachten maar dat ziet er op zich goed uit.
Je slaat de spijker op z'n kop. Nu dit gestandaardiseerd is in DisplayPort, wat toch wel de video verbinding van de toekomst is voor PC's, en het 99% zeker ook in 1.3 zit kunnen we er zeker van zijn dat het in de toekomst ondersteund wordt. Aangezien de grootste namen (Dell, Eizo, Samsung) zich achter DP hebben geschaard, gaan we dat dus 100% zeker weten terug zien. Dat een AOC en Philips niet zo onvervalst enthousiast zijn zegt mij helemaal niets; geen van beide produceert tegenwoordig hun eigen controllers. Philips doet nog wel iets van panelen, hoewel ik niet geloof dat dat voor hun monitors geldt. Durf ik eigenlijk geen harde uitspraak over te doen.

Het grootste risico zit niet in Nvidia, AMD of Intel. Dat zit in HDMI. HDMI is inmiddels een bekende term zelfs onder leken en dat zal sowieso z'n marketing waarde behouden; met andere woorden, of we DP op goedkopere modellen zullen zien is nog maar de vraag; DP 1.2 is ook niet razend populair in die klasse. Daarom zullen we sowieso wel iets meer moeten betalen als we AS willen. Zelf zit ik daar niet mee, aangezien die goedkopere modellen toch TN panelen hebben en voor mij niet boeiend zijn :P
AMD werkt ten behoeve van games (ontopic) aan een nieuwe standaard voor monitoren (offtopic). Dat is op het randje zullen we maar zeggen. ;) Overigens zou ik met 4k in aantocht een monitor topic geen slecht idee vinden. :) Best interessanten materie om eens in te duiken (gebruik makend van m'n el cheapo BenQ schermpje :+).
Monitors (nou ja, LCD panelen in hun algemeen) gaan de laatste paar jaren eindelijk weer eens vooruit qua technologie, dus wellicht is dat een idee ja. Moeten we misschien eerst eens kijken of er animo voor is. Al is het maar om een vast overzicht van de vaak misbruikte termen te hebben. Ik wil niet weten hoevelen nog steeds de termen "LCD", "TFT", "LED" en "TN/IPS/*VA" fout gebruiken.
deraco96 schreef op vrijdag 16 mei 2014 @ 22:44:
Ah oké. Om nog één keer op die monitoren terug te komen: ik vind het lastig wat ik nou moet doen. Ik heb een tijdje in mn hoofd gehad om een nieuwe monitor te halen, maar nu heb ik de kleuren van mn huidige monitor wat kunstmatig opgepompt en nu ben ik eigenlijk best tevreden...
Ik heb het gevoel dat ik als ik het nog zo'n maximaal 2 jaar uithou er dan wel wat leuks te koop is met nieuwe technieken. Misschien eerder al.
De komende twee jaar zouden inderdaad wel eens heel leuk kunnen worden. Sowieso vanwege de bovenstaande verhalen over DP, maar ook omdat er steeds betere panelen komen. IGZO gaat best hard en wat ik hoor steekt Sharp er dusdanig veel geld in dat ze warempel ook nog erg betaalbaar kunnen worden.

Dat gezegd hebbende zal IGZO de komende twee jaar waarschijnlijk wel nog voor 4K voorbehouden blijven ;)

[ Voor 3% gewijzigd door Werelds op 16-05-2014 22:57 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Vooral grappig dat AOC en Philips denken dat ze wat te zeggen hebben over een gaming-gerelateerde techniek. AOC die voornamelijk budget monitoren maakt en Philips dat ook niet precies weet wat gaming is.

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Eerst maar eens zien wat er precies beter is of juist niet ga erna maar beschuldigingen maken ipv nu als een dolle hond afgeven. Ik ga niet zeggen of Nvidia hier nu acher zit of dat het wel zo is op bepaalde punten want daar zijn ook nog de nodige vragen over zoals latency, hoogte van de hz enzovoort.
En ja Nvida heeft het vaker gedaan maar moet je dat bij iedere post vertellen, zo zie je in ieder geval maar weer waar de voorkeur ligt ;)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Voor iemand die klaagt dat hij persoonlijk aangevallen wordt, lijk je wel met mij persoonlijk een probleem te hebben. Ik probeer inhoudelijk te reageren.
Modbreak:Pot-ketel.

Don't feed the trolls, deze post van jou voegt inhoudelijk ook niets toe. Post vriendelijk, behulpzaam en on-topic of post niet.

[ Voor 33% gewijzigd door dion_b op 20-05-2014 11:19 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 16-06 13:14
Daar bestaat geen enkele vraag over. De volgende ranges worden in elk artikel genoemd:
  • 9 - 60 Hz
  • 17 - 120 Hz
  • 21 - 144 Hz
  • 36 - 240 Hz
Met uitzondering van de laatste groep kunnen ze stuk voor stuk 1080p24 weergeven. De exacte reden achter deze ranges hebben ze niet verklaard, maar ik gok dat dat iets is dat vanuit de monitor fabrikanten komt in verband met de backlights. Sterker nog, de ranges hierboven zijn slechts voorbeelden; volgens de spec mag de monitor fabrikant zelf bepalen wat ze ondersteunen. Het is vervolgens aan de GPU om te bepalen wat hij wil, zolang hij maar binnen de grenzen van de monitor blijft.

Ter vergelijking, G-Sync doet alleen 30 - 144 Hz.

[ Voor 18% gewijzigd door Werelds op 17-05-2014 17:27 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:29
Volgens mij zijn het allemaal fictieve ranges, gewoon om aan te geven dat de monitorfabrikanten dat maar lekker uit moeten zoeken.

Gsync heeft denk ook geen limiet inherent aan de technologie, maar hebben ze 30-144 gekozen vanwege de panels in de paar schermen waar het nu in zit/kan.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Misschien zit er ook wel een stukje marketing in minimaal 30 Hz, alle framerates kunnen met G-Sync als min of meer vloeiend worden bekeken, maar onder de 30 FPS ga je het sowieso wel merken dat de framerate laag is, geavanceerde techniek of niet. Daar is dan een simpele verklaring voor: G-Sync werkt dan niet. Investeer in betere (nVidia) hardware! ;)
Juist om die reden zie ik het ook niet als zo'n probleem, je wilt sowieso wel boven de 30FPS zitten. 24 FPS films kunnnen gewoon op 48FPS, desnoods geregeld door de driver...

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Ik zat onlangs dit artikel te lezen, nadat iemand @ HWI erover begon : http://www.anandtech.com/show/2937/

Op een bepaald moment wordt SidePort genoemd : http://www.anandtech.com/show/2937/5
Is dit de techniek die het NU PAS mogelijk maakt dat we geen Crossfire Bridge meer nodig hebben :?

Verder erg leuk om te lezen dat Eyefinity als tijdelijke naam SunSpot had : http://www.anandtech.com/show/2937/10
Stiekem is het ook wel een beetje een zonnig plekje als je 3 schermen voor je hebt : Vooral als een game het nodig vindt om één groot wit scherm te weergeven tijdens het inladen :+

En nog als W-T-F : Ik heb mijn 5870 kaarten alweer 4,5 jaar :$ :X Zo lang ging mijn 1900XTX niet eens mee :D

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!
SidePort had alleen de HD4870X2, maar die is nooit gebruikt. SidePort is ook alleen te gebruiken in een dual GPU videokaart. Tot voor de R9 290(X) ging de communicatie bij CrossFire vooral door de CrossFire Bridge, bandbreedte werd alleen te krap hiervan, daarom gaat het nu via het PCI-e slot.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

-The_Mask- schreef op dinsdag 20 mei 2014 @ 09:21:
SidePort had alleen de HD4870X2, maar die is nooit gebruikt. SidePort is ook alleen te gebruiken in een dual GPU videokaart. Tot voor de R9 290(X) ging de communicatie bij CrossFire vooral door de CrossFire Bridge, bandbreedte werd alleen te krap hiervan, daarom gaat het nu via het PCI-e slot.
Wat ik me dan afvraag, konden ze bepaalde dingen niet via de CrossFire Bridge doen. Zou de latency via PCI-E niet groter zijn of verschilt dat nauwelijks?
Framemetering info zou juist via de CF bridge kunnen gaan.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 16-06 13:14
Sp3ci3s8472 schreef op dinsdag 20 mei 2014 @ 10:37:
Wat ik me dan afvraag, konden ze bepaalde dingen niet via de CrossFire Bridge doen. Zou de latency via PCI-E niet groter zijn of verschilt dat nauwelijks?
Framemetering info zou juist via de CF bridge kunnen gaan.
SLI en CF bridges zijn al oude materie. De bandbreedte is relatief beperkt. Als ze dat hadden willen verbeteren hadden ze daar een hoop werk in moeten steken, terwijl er al een bus beschikbaar is (PCI-e dus) met meer dan voldoende bandbreedte; PCI 3.0 is nog steeds niet verzadigd, dus ze hebben nog steeds ruimte over. Er zal een klein verschil in latency in zitten vanwege PCI signaling, maar via de SLI/CF bridges hebben ze dat ook nodig, dus ik denk niet dat dat een gigantisch verschil is. Bijkomend voordeel van XDMA is dus ook dat wanneer PCI-e 4.0 beschikbaar is, AMD geen reet hoeft te doen om ineens de dubbele bandbreedte beschikbaar te hebben aangezien PCI-e altijd backwards compatible is (we mogen er van uit gaan dat 4.0 dat ook gewoon zal zijn).

[ Voor 3% gewijzigd door Werelds op 20-05-2014 13:05 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
haarbal schreef op vrijdag 16 mei 2014 @ 20:58:
ze hebben het alweer weggehaald, ze hadden een quote uit een nvidia faq staan waar duidelijk adaptive vsync stond.
nVidia heeft ook een feature gehad die adaptive fsync heet ik denk dat het daar door kwam :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 15-06 12:57
Zojuist heb ik mijn 2e XFX 7970 DD in gebruik kunnen nemen dankzij mijn nieuwe SeaSonic SS-860XP2-voeding. Echter schrok ik al direct van de klere-herrie die mijn PC nu voortbracht. Bij onderzoek (MSI Afterburner aanzetten) bleek al snel dat mijn 2e videokaart lekker hard op 99% aan het rammen was, en na wat Google-werk blijkt dit de welbekende ULPS-bug te zijn in de drivers van AMD.

Is er enig uitzicht op wanneer dit gefixt wordt? En zal ik ooit van een 2e compleet uitgeschakelde kaart gebruik kunnen maken, zolang ik twee monitoren aangesloten heb? Zolang ik in Windows zit wil ik niet 200watt extra verstoken, nergens nodig voor :)

Vooralsnog heb ik UPLS uitgeschakeld met de http://www.ulpsconfigurationutility.com/, en gaan de stekkertjes los als ik in een browse- of seriekijk-bui ben, en gaan de stekkertjes er in als ik keihard wil gamen. Zo heb ik men stroomverbruik onder controle, maar kan ik ook hard gaan.

[ Voor 25% gewijzigd door _eXistenZ_ op 20-05-2014 21:54 ]

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
_eXistenZ_ schreef op dinsdag 20 mei 2014 @ 21:50:
Zojuist heb ik mijn 2e XFX 7970 DD in gebruik kunnen nemen dankzij mijn nieuwe SeaSonic SS-860XP2-voeding. Echter schrok ik al direct van de klere-herrie die mijn PC nu voortbracht. Bij onderzoek (MSI Afterburner aanzetten) bleek al snel dat mijn 2e videokaart lekker hard op 99% aan het rammen was, en na wat Google-werk blijkt dit de welbekende ULPS-bug te zijn in de drivers van AMD.

Is er enig uitzicht op wanneer dit gefixt wordt? En zal ik ooit van een 2e compleet uitgeschakelde kaart gebruik kunnen maken, zolang ik twee monitoren aangesloten heb? Zolang ik in Windows zit wil ik niet 200watt extra verstoken, nergens nodig voor :)

Vooralsnog heb ik UPLS uitgeschakeld met de http://www.ulpsconfigurationutility.com/, en gaan de stekkertjes los als ik in een browse- of seriekijk-bui ben, en gaan de stekkertjes er in als ik keihard wil gamen. Zo heb ik men stroomverbruik onder controle, maar kan ik ook hard gaan.
Welke drivers gebruik je? Misschien de oude 13.12 eens proberen nadat je de huidige er af gehaald hebt met DDU.

Ik heb er zelf nooit issues mee gehad.
Die XFX 7970 DD coolers zijn echt een ramp. De heatsink is helemaal verkeerd ontworpen. De finnen lopen over de lengte van de kaart. Dus de fans blazen er op maar de lucht kan nergens heen aangezien de kaart aan de voor en achterkant dicht is. Van alle coolers voor de 7970 is dit toch wel de slechtste die ik gezien heb. Ik heb nog liever een refferenced cooler.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Hardware.info: Hoe werkt 3D-geluid en wat kan AMD TrueAudio daaraan bijdragen?

Op papier klinkt het allemaal wel erg cool. Ben benieuwd wanneer we de eerste titel zien die dit echt goed en ruimhartig implementeert.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

TrueAudio was één van de grote argumenten om voor een R9 290X te gaan voor mij, tot nu toe nog niets gezien of "gehoord", buiten Thief, welke ik nog niet geprobeerd heb. Het mag er ondertussen na een half jaar wel eens gebruikt worden.

offtopic:
Ik kom al lang niet meer op HWI, maar het design... Wat een ongelofelijke rip-off van de Tweakers website ! Schaamteloos.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het blijft jammer dat het regelmatig gebeurt dat features niet echt doorzetten. Vaak ook omdat het in meer of mindere mate propietary is en niet open. Of wel open maar vanwege kinnesinne niet ondersteund door de concurrent.

Denk dat echt goede audio/3D veel kan toevoegen aan games.

Tja, HWI staat bij mij niet hoog qua kwaliteit maar ze hebben soms best leuke artikelen / invalshoeken

[ Voor 55% gewijzigd door Help!!!! op 21-05-2014 16:58 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
De ontwikkeling van spellen gaat natuurlijk niet in een paar maanden. TrueAudio is nog zeer nieuw, dus nog niet zo lang beschikbaar voor ontwikkelaars om te gebruiken, net zoals Mantle. Maar, TrueAudio zit ook in de PS4, welke momenteel geldt als basis ontwikkelplatform. Dus alle toekomstige crossplatform games zullen waarschijnlijk ook TrueAudio gaan ondersteunen.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:29
http://www.sweclockers.co...oject-freesync/2#pagehead

"We are told you are using triple buffering. There are some obvious drawbacks to this.

– I think this is a misunderstanding derived previous comments that AMD Catalyst can force-enable triple buffering in the driver’s control panel. Let me set the record straight: Project FreeSync does not require extensive buffering, because the need for such techniques is virtually eliminated when you can match the display timings to the framerate of the GPU on the fly. Within the range of refresh rates supported by a compatible display, Project FreeSync will allow the absolute minimum input lag with single- or double-buffered rendering."

hoera, geen extra latency blijkbaar.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Phuncz schreef op woensdag 21 mei 2014 @ 16:36:
offtopic:
Ik kom al lang niet meer op HWI, maar het design... Wat een ongelofelijke rip-off van de Tweakers website ! Schaamteloos.
Ik heb geen idee wat je bedoelt, maar zij reviewen tenminste nog hardware en posten ook nieuws over hardware, terwijl T.net bijna een economie gerelateerde website lijkt de laatste jaren :/ en dat is de reden dat ik steeds meer hun website bezoek de laatste 2 a 3 jaar :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
nero355 schreef op woensdag 21 mei 2014 @ 21:43:
[...]

Ik heb geen idee wat je bedoelt, maar zij reviewen tenminste nog hardware en posten ook nieuws over hardware, terwijl T.net bijna een economie gerelateerde website lijkt de laatste jaren :/ en dat is de reden dat ik steeds meer hun website bezoek de laatste 2 a 3 jaar :)
Mee eens. Als het gaat om Computer hadware reviews doet HWI het beter dan tweakers. Ik ga nog steeds liever naar Anandtech,Computerbase, Xbitlabs en HardOCP maar ik pak HWI steeds vaker even mee.

De Hardware reviews van tweakers hebben helaas altijd achter gelopen op wat andere sites deden. Ook kwa nieuws lees ik HWI steeds vaker. En hun PW laat ook meer producten zien (heeft te maken met de bedragen die betaalt moeten worden door winkels om in de PW te mogen staan. Die zijn bij tweakers vele malen hoger)

Alleen het Forum van HWI gebruik ik totaal niet. Dat ik bij tweakers 100x beter.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Help!!!! schreef op woensdag 21 mei 2014 @ 16:54:
Het blijft jammer dat het regelmatig gebeurt dat features niet echt doorzetten. Vaak ook omdat het in meer of mindere mate propietary is en niet open. Of wel open maar vanwege kinnesinne niet ondersteund door de concurrent.

Denk dat echt goede audio/3D veel kan toevoegen aan games.

Tja, HWI staat bij mij niet hoog qua kwaliteit maar ze hebben soms best leuke artikelen / invalshoeken
Scheelt weer dat True audio, de effecten er van, ook via de CPU gedaan kunnen worden dus het is gewoon open alleen maak je geen gebruik van True audio effecten via de GPU maar CPU.
In Thief voegt het verder weinig toe helaas, net zoals op een goede 5.1 speakerset of een losse componenten set.

Ik weet het wel zeker dat betere audio veel toe voegt aan een game, de game ervaring word intenser en alleen al hier om zal het in iedere game moeten zitten.

EAX was de fout in gegaan door het niet door de CPU te laten ondersteunen waar True audio van AMD niet ze zelfde fout maakt. Ik zie hier dus wel wat meer toekomst in dan EAX.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

Anoniem: 590917 schreef op donderdag 22 mei 2014 @ 09:49:
[...]
Scheelt weer dat True audio, de effecten er van, ook via de CPU gedaan kunnen worden dus het is gewoon open alleen maak je geen gebruik van True audio effecten via de GPU maar CPU.
In Thief voegt het verder weinig toe helaas, net zoals op een goede 5.1 speakerset of een losse componenten set.

Ik weet het wel zeker dat betere audio veel toe voegt aan een game, de game ervaring word intenser en alleen al hier om zal het in iedere game moeten zitten.

EAX was de fout in gegaan door het niet door de CPU te laten ondersteunen waar True audio van AMD niet ze zelfde fout maakt. Ik zie hier dus wel wat meer toekomst in dan EAX.
Volgens mij was het toch iets anders?

True Audio effecten kunnen inderdaad via je cpu worden gedaan. Alleen is er vaak geen cpu "budget" voor, dit zal misschien in de toekomst veranderen als cpus nog krachtiger worden of ze het op andere cores gooien :p.

EAX was volgens mij te benaderen via OpenAL, al weet ik niet of dat via de cpu ging of op de audio processor op de geluidskaart. EAX is trouwens van Creative, dus die zijn de fout in gegaan. Nu kan ik trouwens niet echt zeggen dat ik het jammer vind dat er geen EAX meer in games zit omdat dit haast altijd hand in hand ging met de walgelijke drivers van Creative. Ik heb zelf nog steeds een ongebruikte x-fi kaart liggen, de drivers waren echt een bak ellende :X ... en ze hielden zich niet aan de pci standaard met het sharen van IRQ.
Pagina: 1 ... 4 ... 6 Laatste

Dit topic is gesloten.