CJ's Radeon Info & Nieuwsdiscussie - Deel 126 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 25 26 Laatste
Acties:
  • 108.981 views

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Maar met de versnippering moeten AMD/NV/Intel wel meer drivers schrijven. En als je nu al ziet dat dat met horten en stoten gaat.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 19-05 22:26
Is dat nu niet het geval omdat het dus drivers voor DX zijn en drivers voor OpenGL?
Met Mantle zouden beide niet meer nodig hoeven zijn.

Acties:
  • 0 Henk 'm!

  • batumulia
  • Registratie: Mei 2007
  • Laatst online: 23-05 13:06
spNk schreef op dinsdag 04 februari 2014 @ 09:58:
Is dat nu niet het geval omdat het dus drivers voor DX zijn en drivers voor OpenGL?
Met Mantle zouden beide niet meer nodig hoeven zijn.
Mits de engine dat natuurlijk ondersteund. Mantle is een heel mooi alternatief voor Directx en OpenGL, probleem is alleen dat die al zo lang gebruikt worden dat Mantle wel een hoop omver moet blazen wil het populair worden om gebruikt te worden. Wat natuurlijk zou kunnen helpen is wanneer Nvidia ook gebruik gaat maken van deze techniek waardoor het voor developers interessanter gaat worden om Mantle te gebruiken.

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


Acties:
  • 0 Henk 'm!

  • Tijgert
  • Registratie: December 2001
  • Laatst online: 19:52

Tijgert

Let the Zen flow. Shit a leak!

Alhoewel ik ook geen echte MS fan ben hoop ik toch wel dat PC gaming op windows blijft plaats vinden.
Zoalng alles maar op dezelfde doos blijft draaien vind ik het al best.
Vroeger had ik ook XP voor spelletjes omdat W7 support nog niet lekker liep.

Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Tijgert schreef op maandag 03 februari 2014 @ 19:43:
Wel grappig dat sommige mensen denken dat Mantle niet groot gaat worden en dan beamen dat grote ontwikkelaars zich er achter scharen...
Welke grote ontwikkelaars zijn actief met mantle bezig en worden NIET gesponsord door AMD?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23-05 00:01
eL_Jay schreef op dinsdag 04 februari 2014 @ 10:31:
[...]

Welke grote ontwikkelaars zijn actief met mantle bezig en worden NIET gesponsord door AMD?
Geen idee. Maar maar bij nVidia zal dat niet anders zijn. Die bv Epic die blind alles promoot wat nVidia nieuw op de markt brengt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Belgar
  • Registratie: Januari 2002
  • Laatst online: 23-05 10:23

Belgar

Archmaster ranzige code..

spNk schreef op dinsdag 04 februari 2014 @ 09:58:
Is dat nu niet het geval omdat het dus drivers voor DX zijn en drivers voor OpenGL?
Met Mantle zouden beide niet meer nodig hoeven zijn.
Dat gaat ook weer te ver. Er is echt wel iets te zeggen voor het gebruik van algemene API's. Het probleem is vooral dat je geen keus hebt. Voor veel toepassingen zijn bestaande API's toereikend. Bovendien is de "addressable market" enorm klein (zie ook offtopic beneden)

offtopic:
Mantle werkt alleen op DX 10.1 capable hardware (of hoger). AMD heeft dit zelf intern vastgelegd op GCN+ kaarten. 80% van de huidige installed base van AMD werkt dus niet met mantle. Bijna alle mobiele devices draaien geen mantle (wel OpenGL).

Op dit moment zijn 20% van de AMD installed base, die een marketshare van 40% hebben op de totale PC gaming markt (intel even daargelaten), die 20% is van de totale gaming markt, mantle compatible. -> 1,5 % van de totale game markt kan mantle gebruiken. De rest moet het doen met (aangepaste versies van) DX en OGL

Dat soort opgebouwde kennis moet je niet wegdoen alleen omdat mantle problemen op kan lossen die eigenlijk alleen "AA" en grotere titels op het PC platform parten spelen. Dat wil niet zeggen dat ze niet opgelost moeten worden. Ik denk juist dat het een grote boost kan geven aan PC gaming.

OpenGL heeft in principe de mogelijkheid om zich te ontwikkelen tot een diepere API en heeft een enorme base in het mobiele segment. DirectX is echter nu het echte blok aan het been van PC gaming als ze niet willen veranderen.

...Als het maar werkt


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 23-05 08:53
eL_Jay schreef op dinsdag 04 februari 2014 @ 10:31:
Welke grote ontwikkelaars zijn actief met mantle bezig en worden NIET gesponsord door AMD?
DICE, Cloud Imperium Games en ze gaan er binnenkort meer aankondigen.

Voordat er een reactie komt van "DICE wordt wel gesponsord door AMD" - nee. AMD steekt geen geld in DICE en geen geld in Frostbite. De enige overdracht van diensten en producten lopen tussen EA en AMD en dat is puur marketing - het had betrekking op het bundelen van het spel bij hun kaarten en het demonstreren van het spel op hun hardware. Sterker nog, het bedrag dat hier bij gemoeid ging (ik meen $6m) is amper de moeite waard. Het feit dat BF4 beter loopt op Nvidia kaarten laat dat ook wel zien. Sterker nog, deze deal kwam pas heel laat in de ontwikkeling van het spel, aangezien de eerste demos gewoon fijn op een stel 780's liepen.

Wel is het zo dat AMD via deze marketing zooi contact op heeft kunnen nemen met DICE en hen dus als eerste in het Mantle programma heeft gekregen; ik betwijfel echter of DICE de enige of zelfs de eerste was. Epic zal er echter pas aan willen beginnen als ze zien dat er veel te halen valt, zij zitten namelijk wel diep in Nvidia's zak. Crytek zal het ook geen reet boeien totdat ze zien dat CIG er iets uit kan halen.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Anoniem: 59888 schreef op maandag 03 februari 2014 @ 22:34:

De SteamBox is op dit moment Intel/Nvidia only, maar Valve heeft al aangegeven dat dat alleen voor hun prototypes het geval is, en andere fabrikanten hebben al AMD SteamBoxes aangekondigd. SteamOS zal dus fatsoenlijke AMD drivers moeten gaan krijgen, het zou mijn niets verbazen als AMD op Linux (SteamOS is een Linux distributie) groots in gaat zetten op Mantle. Op die manier wordt er dus behoorlijk aan de poten van Microsoft gezaagd. De grote vraag is wat gamedevs gaan doen, maar als die SteamOS en Mantle omarmen is het niet onwaarschijnlijk dat de toekomst van PC gaming op SteamOS zal plaatsvinden. Na 20 jaar Microsoft dominantie klinkt dat misschien erg onwaarschijnlijk, maar vergeet niet dat Apple ooit op het randje van failliesement stond en haar aandelen gedumpt werden... totdat ene Steve Jobs met de ipod en itunes kwam. Nu is Apple meer waard dan Microsoft, Google en IBM bij elkaar opgeteld.
De MS-XBOX is ongeveer AMD`s grootste opdrachtgever op dit moment samen met de Sony-Playstation.
Aangezien het al bekend is dat MS al wat geld gestort heeft op de Sony account om Windows telefoons te gaan maken, is het idee dat ze hetzelfde gedaan hebben om de twee consoles soortgelijke hardware te geven zeker niet ver gezocht. (met mutual-benefit dat allebei partijen veel meer games in hun shop kunnen krijgen.
Maw de game-developers krijgen wat ze willen maar dan wel op een manier dat MS er zoveel mogelijk voordeel bij heeft.
(gamen op MS-OS wordt beter, je moet MS-OS hebben om het maximale er uit te halen)

Daarom vind ik de klakkeloos aangenomen aanname dat AMD nu zomaar op eigen houtje tegen de schenen van z`n grootste opdrachtgevers zit te schoppen dus ook erg onwaarschijnlijk.

Zeker aangezien wanneer AMD die twee opdrachten niet gehad had ze in zeer moeilijk vaarwater hadden gezeten wat marktpositie en financieel betreft. (AMD had zonder de twee console-deals gewoon bijna geen onderhandelings positie)

Nogmaals zou het mij dus ook zeer ernstig verbazen als Mantle voor linux uitkomt.
Zeker ook omdat AMD zowiezo niet erg gericht is op linux.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Belgar
  • Registratie: Januari 2002
  • Laatst online: 23-05 10:23

Belgar

Archmaster ranzige code..

enchion schreef op dinsdag 04 februari 2014 @ 12:18:
[...]
Nogmaals zou het mij dus ook zeer ernstig verbazen als Mantle voor linux uitkomt.
Zeker ook omdat AMD zowiezo niet erg gericht is op linux.
Ik kan je bijna garanderen dat dat gebeurt. De kwaliteit van de drivers is zoals altijd weer de vraag, maar ik weet haast zeker dat mantle naar linux komt (en OSX).

Er is namelijk geen enkele reden om het niet te doen. Je aangebrachte conspiracy theories terzijde heeft Microsoft namelijk geen markt met directx in dit segment.

Alle games die nu uitkomen voor OSX en linux zijn OpenGL, mantle kan hoogstens deze markt verder fragmenteren. Aan de andere kant zou geen mantle voor steamOS eigenlijk direct betekenen dat ze deze eventuele groeimarkt volledig aan nvidia moeten laten.

...Als het maar werkt


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Werelds schreef op dinsdag 04 februari 2014 @ 11:46:
[...]

DICE, Cloud Imperium Games en ze gaan er binnenkort meer aankondigen.
MM, als dat het is vrees ik dat mantle nog minder wordt toepast dan Physx of TressFX, hell dan is Linux-gaming nog groter

Acties:
  • 0 Henk 'm!

  • vleesjus
  • Registratie: Januari 2005
  • Laatst online: 08-05 10:36

vleesjus

echte vleesjus!

Eidos Montreal stond toch ook op het lijstje? Ze passen ook tressfx toe op dit moment namelijk.

i7 4790k; 12GB ram; Asrock Z97 Extreme4; 1080ti;


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

Werelds schreef op dinsdag 04 februari 2014 @ 11:46:
[...]
Crytek zal het ook geen reet boeien totdat ze zien dat CIG er iets uit kan halen.
Cloud Imperium gebruikt de CryEngine3 (wel hevig gemodificeerd), ze hebben ook aangekondigd dat ze Mantle gaan gebruiken. Dan lijkt mij dat de weg voor Crytek openligt om Mantle in te bouwen of dat zij dit misschien al hebben gedaan.

https://robertsspaceindus...To-Include-Mantle-Support
http://en.wikipedia.org/wiki/Star_Citizen#Development

Acties:
  • 0 Henk 'm!

Anoniem: 304087

vleesjus schreef op dinsdag 04 februari 2014 @ 14:58:
Eidos Montreal stond toch ook op het lijstje? Ze passen ook tressfx toe op dit moment namelijk.
Oftopic

In welk spel want ik vind Tress-FX wel mooi in Tombraider? Het is wel wat zwaarder maar dat vind ik niet zo erg en ik denk dat Mantle Tress FX ook makkelijker kan laten draaien?

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
eL_Jay schreef op dinsdag 04 februari 2014 @ 14:31:
[...]

MM, als dat het is vrees ik dat mantle nog minder wordt toepast dan Physx of TressFX, hell dan is Linux-gaming nog groter
Volgens mij zijn er op dit moment al 15 Frosbite games (EA/DICE) bekend die gebruik zullen gaan maken van Mantle. Daarnaast zullen Eidos (Thief) en Robert Space Industries (Star Citizen) games gaan ontwikkelen met Mantle support.

Hmmm....een vraag: Hoeveel games ondersteunde PhysX in het eerste jaar?

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Physx was eerst van iemand anders (Agia) toen waren het maar een paar games. De games waar ik het van weet zijn ghost reacon advanced warfighter rond 2006 en 2008 en erna zijn er wat games die werken met nvidia physx maar dat zijn er ondertussen ook behoorlijk wat games maar die worden vast allemaal niet meer gespeeld. Nu komen er mondjesmaat een game met nvidia physx uit.

Hier de hele lijst van games maar er missen wel wat games van er na.
Wikipedia: List of games with hardware-accelerated PhysX support

[ Voor 64% gewijzigd door Anoniem: 304087 op 04-02-2014 15:29 ]


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Anoniem: 304087 schreef op dinsdag 04 februari 2014 @ 15:24:
Physx was eerst van iemand anders (Agia) toen waren het maar een paar games. De games waar ik het van weet zijn ghost reacon advanced warfighter rond 2006 en 2008 en erna zijn er wat games die werken met nvidia physx maar dat zijn er ondertussen ook behoorlijk wat games maar die worden vast allemaal niet meer gespeeld. Nu komen er mondjesmaat een game met nvidia physx uit.

Hier de hele lijst van games maar er missen wel wat games van er na.
Wikipedia: List of games with hardware-accelerated PhysX support
De PhysX supported games lijst is me wel bekend.

De stelling was dat:
MM, als dat het is vrees ik dat mantle nog minder wordt toepast dan Physx of TressFX, hell dan is Linux-gaming nog groter
Wat ik persoonlijk wel knap vind, om nu al te voorspellen dat Mantle minder wordt toegepast dan PhysX.

Ik kan me namelijk niet meer herinneren dat PhysX, tientallen games ondersteunde in het 1e jaar na introductie. ;)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Maar physx is dan ook niet te vergelijken met Mantle in geen enkel opzicht. Het is eerder te vergelijken met andere vormen van physics.

Je kunt het op zich na gaan met de games die dan per jaar verschijnen, staat achter de games in die link.

En zo wel van physx als Mantle kunnen we niet duidelijk zeggen hoeveel het er per jaar worden.
10 games van dice maar die verschijnen ook niet in 1 jaar tijd (gelukkig maar) maar eerder over een jaar of 5-10 en Mantle games gaan we ook niet gelijk dit jaar met 10 tallen zien maar eerder richting de 5 games binnen 2014. Ik verwacht over de jaren heen wel meer nieuwe Mantle games dan Physx games, maar misschien ook wel Mantle games met Physx ;)

[ Voor 105% gewijzigd door Anoniem: 304087 op 04-02-2014 16:33 ]


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Anoniem: 304087 schreef op dinsdag 04 februari 2014 @ 16:17:
Maar physx is dan ook niet te vergelijken met Mantle in geen enkel opzicht. Het is eerder te vergelijken met andere vormen van physics.
Dat snap ik. Mantle zal mijn inziens een veel grotere impact hebben op de gaming markt dan PhysX.

Echter daar ging het niet om. eL_Jay "vreest" dat Mantle minder wordt toegepast dan PhysX.
En zo wel van physx als Mantle kunnen we niet duidelijk zeggen hoeveel het er per jaar worden.
10 games van dice maar die verschijnen ook niet in 1 jaar tijd (gelukkig maar) maar eerder over een jaar of 5-10 en Mantle games gaan we ook niet gelijk dit jaar met 10 tallen zien maar eerder richting de 5 games binnen 2014. Ik verwacht over de jaren heen wel meer nieuwe Mantle games dan Physx games, maar misschien ook wel Mantle games met Physx ;)
Volgens mij komen er minimaal 15 Frostbite games uit. Daarnaast is de ontwikkeltijd van een game gemiddeld rond de 2 tot 4 jaar maximaal, vermoed ik.

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 23-05 08:53
vleesjus schreef op dinsdag 04 februari 2014 @ 14:58:
Eidos Montreal stond toch ook op het lijstje? Ze passen ook tressfx toe op dit moment namelijk.
Klopt, was ze even vergeten :D
eL_Jay schreef op dinsdag 04 februari 2014 @ 14:31:
MM, als dat het is vrees ik dat mantle nog minder wordt toepast dan Physx of TressFX, hell dan is Linux-gaming nog groter
Zoals anderen al aangeven vergat ik inderdaad Eidos Montréal. Maar minder dan PhysX? Zoals wederom anderen aangeven hebben ze nu al even veel games als PhysX had voordat Nvidia ze overnam. En in de twee jaar nadat Nvidia het overnam hebben ze dat aantal amper weten te verdubbelen. Aangezien het hier om Frostbite in z'n geheel gaat, mag je wel stellen dat er op z'n minst even veel ondersteuning gaat zijn als voor PhysX, aangezien Mantle gebruiken een kwestie van een instelling is. Hoewel PhysX goed in UE3 geïntegreerd is, is het geen kwestie van aanzetten en klaar. Je zult als ontwikkelaar alsnog in moeten bouwen waar precies wat toegepast wordt, omdat PhysX map afhankelijk is. Dat is bij Mantle een stuk simpeler.
Sp3ci3s8472 schreef op dinsdag 04 februari 2014 @ 15:07:
Cloud Imperium gebruikt de CryEngine3 (wel hevig gemodificeerd), ze hebben ook aangekondigd dat ze Mantle gaan gebruiken. Dan lijkt mij dat de weg voor Crytek openligt om Mantle in te bouwen of dat zij dit misschien al hebben gedaan.
Dat is toch precies wat ik zeg? CIG gaat Mantle gebruiken, maar pas op het moment dat Crytek ziet dat daar iets te halen valt zullen zij geld gaan steken in een standaard integratie in CryEngine.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Indy91 schreef op dinsdag 04 februari 2014 @ 16:51:
[...]

Dat snap ik. Mantle zal mijn inziens een veel grotere impact hebben op de gaming markt dan PhysX.

Echter daar ging het niet om. eL_Jay "vreest" dat Mantle minder wordt toegepast dan PhysX.


[...]

Volgens mij komen er minimaal 15 Frostbite games uit. Daarnaast is de ontwikkeltijd van een game gemiddeld rond de 2 tot 4 jaar maximaal, vermoed ik.
Dat "vreest" lijkt me eigenlijk onlogisch omdat het niet exclusieve is maar juist een verbetering wat overal op kan werken en het ijkt mij dat het daarom wel veel toe word gepast in de toekomst. De vraag is alleen of nvidia en intel er aan mee wil werken en dat is wel nodig om Mantle op de been te houden want anders blijft het net als physx maar mondjes maat toegepast worden.

Of alle game devs en engine makers moeten in eens alleen maar met AMD te willen samen werken en dat is iets wat nooit zal gebeuren want dan snijden de game devs en engine makers zich zelf in de vingers omdat meer dan de helft op ander hardware werkt.

[ Voor 12% gewijzigd door Anoniem: 304087 op 04-02-2014 17:45 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Met v-sync. heb ik krakende audio en een (veel) lagere perf.,(en dan niet doordat de framerate door de refreshrate wordt beperkt, maar echt laag, bv. waar ik met vsync uit. 50 haal, met v-sync bv. 20-30)
Ook ligt het niet aan triple buffering want dat heb je niet nodig met Multi GPU).

Ook wordt eyefintiy niet goed weergegeven in sommige games (ik heb een 4K scherm wat eigenlijk als 2x1 functioneert)

De 14.1 driver is echt vol met bugs hier, bijna elke dx10- en dx11-game crasht en heeft misschien 20-30%
van de normale perf. in de paar seconden dat die nog niet crasht of vast loopt.

Ik had nou wel eens een problemfree dx driver verwacht :'(

Waarschijnlijk is d3d code in de driver ook op de schop gegaan met de Mantle driver, anders kan ik het niet verklaren, mede omdat CF in dx9 met deze driver nog niet wordt ondersteunt.

We wachten maar weer af, de hardware en potentie met CF is top, BF3 is bv. nog nooit zo smooth geweest met bv. cat 13.12, echt geweldige perf. en IQ op 4K :9~

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Hadespuiter
  • Registratie: Januari 2011
  • Laatst online: 22-11-2024
Voor mijn uiterst modale X4 955 CPU komt Mantle als een geschenk uit de hemel.
Icm een 7970GE was BF4 voorheen wel speelbaar @1080p ultra met 4xmsaa maar er zaten vervelende plaatsen in sommige grote mappen waar de fps rond de 30 zakte (terwijl er grafisch niet veel bijzonders gebeurde).
Op zo'n plek is nu met Mantle de fps gewoon verdubbeld, dus geen 30 maar 60.

Up to 45%? Up to 100%!!! :)

AMD schiet zichzelf overigens wel een beetje in de voet nu. Ik stond op het punt om een snellere CPU aan te schaffen maar wilde eerst even afwachten wat Mantle zou gaan doen. Nou, die nieuwe CPU hoeft nu niet meer. :)

[ Voor 21% gewijzigd door Hadespuiter op 05-02-2014 05:13 ]


Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Hadespuiter schreef op woensdag 05 februari 2014 @ 05:05:
Voor mijn uiterst modale X4 955 CPU komt Mantle als een geschenk uit de hemel.
Icm een 7970GE was BF4 voorheen wel speelbaar @1080p ultra met 4xmsaa maar er zaten vervelende plaatsen in sommige grote mappen waar de fps rond de 30 zakte (terwijl er grafisch niet veel bijzonders gebeurde).
Op zo'n plek is nu met Mantle de fps gewoon verdubbeld, dus geen 30 maar 60.

Up to 45%? Up to 100%!!! :)

AMD schiet zichzelf overigens wel een beetje in de voet nu. Ik stond op het punt om een snellere CPU aan te schaffen maar wilde eerst even afwachten wat Mantle zou gaan doen. Nou, die nieuwe CPU hoeft nu niet meer. :)
Nouja, als je alleen battlefield 4 speelt dan he! :)

Wel erg goede performence gain, ultra op een 955 in bf4 is eigenlijk gekken werk

http://www.twitch.tv/jannustitannus


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 00:31
Bij techreport hebben ze ook een mantle preview staan.

http://techreport.com/rev...rmance-in-battlefield-4/2

Ze hebben ook een 780 Ti icm met de A10-7850K gedraaid om nvidia dx11 te vergelijken met amd dx11.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 304087

haarbal schreef op woensdag 05 februari 2014 @ 11:08:
Bij techreport hebben ze ook een mantle preview staan.

http://techreport.com/rev...rmance-in-battlefield-4/2

Ze hebben ook een 780 Ti icm met de A10-7850K gedraaid om nvidia dx11 te vergelijken met amd dx11.
Dus eigenlijk heb je dus nog wel wat aan D3D in combinatie met een high end cpu en een sterkere gpu want dat scoort net wat beter dan Mantle maar dat is ook meer om dat de gtx 780 ti sneller is dan de 290x in bf4. Niet vergeten dat Mantle veel beter schoort dan D3D in combinatie met een 290x en een i7 want natuurlijk een veel goedkoper systeem is.

Acties:
  • 0 Henk 'm!

  • tobitronics
  • Registratie: Juni 2011
  • Laatst online: 22-05 18:51
Ik las ergens dat trueaudio vanaf nu gesupport wordt. Maar voor welke audio devices werkt het dan? Moet je echt je koptelefoon/stereo op de gpu aansluiten met hdmi ofzo? Is hier al iets over bekend?

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 00:31
Anoniem: 304087 schreef op woensdag 05 februari 2014 @ 11:23:
[...]


Dus eigenlijk heb je dus nog wel wat aan D3D in combinatie met een high end cpu en een sterkere gpu want dat scoort net wat beter dan Mantle maar dat is ook meer om dat de gtx 780 ti sneller is dan de 290x in bf4. Niet vergeten dat Mantle veel beter schoort dan D3D in combinatie met een 290x en een i7 want natuurlijk een veel goedkoper systeem is.
mwah, 70 euro goedkoper ofzo?

Mantle zou alsnog moeten winnen in een echt drawcall limited scenario, de 7850 presteert tenslotte beter met mantle dan met nvidia d3d. Maar het is raar dat de 780Ti met de 4770K uberhaupt wint terwijl het volgens techreport nog steeds voornamelijk cpu limited is, misschien zijn de draw calls niet de bottleneck daar, maar andere game cpu berekeningen, en neemt de 780Ti een kleine voorsprong op de paar stukjes die gpu limited zijn.
tobitronics schreef op woensdag 05 februari 2014 @ 11:27:
Ik las ergens dat trueaudio vanaf nu gesupport wordt. Maar voor welke audio devices werkt het dan? Moet je echt je koptelefoon/stereo op de gpu aansluiten met hdmi ofzo? Is hier al iets over bekend?
Volgens mij kon je hem gewoon op de standaardaansluiting houden.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Hadespuiter schreef op woensdag 05 februari 2014 @ 05:05:
Voor mijn uiterst modale X4 955 CPU komt Mantle als een geschenk uit de hemel.
Icm een 7970GE was BF4 voorheen wel speelbaar @1080p ultra met 4xmsaa maar er zaten vervelende plaatsen in sommige grote mappen waar de fps rond de 30 zakte (terwijl er grafisch niet veel bijzonders gebeurde).
Op zo'n plek is nu met Mantle de fps gewoon verdubbeld, dus geen 30 maar 60.

Up to 45%? Up to 100%!!! :)

AMD schiet zichzelf overigens wel een beetje in de voet nu. Ik stond op het punt om een snellere CPU aan te schaffen maar wilde eerst even afwachten wat Mantle zou gaan doen. Nou, die nieuwe CPU hoeft nu niet meer. :)
Moet in principe niet zo heel veel uitmaken, het zou mooi zijn bv als je CPU het nog volhoudt tot de volgende gen games en dan Kaveri voor de desktop goed beschikbaar is. Kan je alsnog upgraden en is AMD ook weer blij :)

Acties:
  • 0 Henk 'm!

Anoniem: 304087

TRUE AUDIO moet geloof ik in de game verwerkt zitten in de vorm van meer sound effecten/
more acoustic bandwidth?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23-05 00:01
edward2 schreef op dinsdag 04 februari 2014 @ 20:07:
[...]


Met v-sync. heb ik krakende audio en een (veel) lagere perf.,(en dan niet doordat de framerate door de refreshrate wordt beperkt, maar echt laag, bv. waar ik met vsync uit. 50 haal, met v-sync bv. 20-30)
Ook ligt het niet aan triple buffering want dat heb je niet nodig met Multi GPU).

Ook wordt eyefintiy niet goed weergegeven in sommige games (ik heb een 4K scherm wat eigenlijk als 2x1 functioneert)

De 14.1 driver is echt vol met bugs hier, bijna elke dx10- en dx11-game crasht en heeft misschien 20-30%
van de normale perf. in de paar seconden dat die nog niet crasht of vast loopt.

Ik had nou wel eens een problemfree dx driver verwacht :'(

Waarschijnlijk is d3d code in de driver ook op de schop gegaan met de Mantle driver, anders kan ik het niet verklaren, mede omdat CF in dx9 met deze driver nog niet wordt ondersteunt.

We wachten maar weer af, de hardware en potentie met CF is top, BF3 is bv. nog nooit zo smooth geweest met bv. cat 13.12, echt geweldige perf. en IQ op 4K :9~
Aah oke. Heb ik geen last van maar ik draai ook geen 4K en geen CF.
Enige waar ik last van heb zijn die stomme clock speeds die niet op max blijven staan. Daar krijg je echt lagg van elke keer dat hij loopt te switchen. Super iritant.

In dat opzicht is een oude 7970 prettiger gewoon niets geen turbo gewoon vaste clocks en klaar.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Astennu schreef op woensdag 05 februari 2014 @ 15:12:
[...]


Aah oke. Heb ik geen last van maar ik draai ook geen 4K en geen CF.
Enige waar ik last van heb zijn die stomme clock speeds die niet op max blijven staan. Daar krijg je echt lagg van elke keer dat hij loopt te switchen. Super iritant.

In dat opzicht is een oude 7970 prettiger gewoon niets geen turbo gewoon vaste clocks en klaar.
MSI afterburner / disable power play :D En hij loopt altijd max clock

Wel even terug zetten na gebruik, anders trekt die onnodig stroom

http://www.twitch.tv/jannustitannus


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Anoniem: 304087 schreef op dinsdag 04 februari 2014 @ 17:41:
[...]


Dat "vreest" lijkt me eigenlijk onlogisch omdat het niet exclusieve is maar juist een verbetering wat overal op kan werken en het ijkt mij dat het daarom wel veel toe word gepast in de toekomst.
Volgens mij is het namelijk wel exclusief, de laatste berichten die ik gehoord heb is dat AMD niets met Nvidia wil delen wat betreft mantle (Nvidia krijgt 0 op rekest bij informatieaanvraag). Dus meer van wie zit er te wachten op weer een nichediversificatie a la physx en tressfx (ipv van meer open systemen als DirectX of de consoles die naar x64 gaan). Eerst zien dan geloven en zolang AMD geen openheid geeft zie ik dit als gedoemd(in daden en niet in woorden) te mislukken (en dat AMD dan al mijn goodwill kwijt is)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23-05 00:01
evilpin0 schreef op woensdag 05 februari 2014 @ 15:19:
[...]


MSI afterburner / disable power play :D En hij loopt altijd max clock

Wel even terug zetten na gebruik, anders trekt die onnodig stroom
Ja weet ik maar ik wil niet na het gamen elke keer mijn PC moeten rebooten om powerplay weer aan te zetten :( ik vind dat echt bullshit

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • tobitronics
  • Registratie: Juni 2011
  • Laatst online: 22-05 18:51
haarbal schreef op woensdag 05 februari 2014 @ 11:44:
[...]


Volgens mij kon je hem gewoon op de standaardaansluiting houden.
Zou het ook werken met een usb headset?

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 00:31
tobitronics schreef op woensdag 05 februari 2014 @ 16:05:
[...]


Zou het ook werken met een usb headset?
waarschijnlijk wel, volgens mij berekent het spel de audio met behulp van die chip op de gpu, de output is gewoon een stereosignaal dat je op elk audio apparaat af kan spelen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 23-05 08:53
eL_Jay schreef op woensdag 05 februari 2014 @ 15:30:
Volgens mij is het namelijk wel exclusief, de laatste berichten die ik gehoord heb is dat AMD niets met Nvidia wil delen wat betreft mantle (Nvidia krijgt 0 op rekest bij informatieaanvraag).
Waar heb jij die berichten gehoord/gelezen? Want AMD heeft tijdens de allereerste presentatie al heel duidelijk aangegeven dat Mantle niet aan GCN vast hangt en ook niet aan AMD drivers vast hangt. Sterker nog, ze hadden een slide waar expliciet op stond (zal hem er straks even bij zoeken) dat Mantle ook voor andere vendors goed is en dat ze er een standaard binnen de industrie van willen maken waar men met zowel andere IHV (hardware vendors, Nvidia/Intel dus) en ISV (software vendors, denk aan Tri-Def, Havok) aan werkt.
haarbal schreef op woensdag 05 februari 2014 @ 16:20:
waarschijnlijk wel, volgens mij berekent het spel de audio met behulp van die chip op de gpu, de output is gewoon een stereosignaal dat je op elk audio apparaat af kan spelen.
Bijna goed; berekening vindt plaats op een aparte DSP (audio chip) die wel op de videokaart zit. Gebeurt echter niet op de GPU (shaders) ;)

[ Voor 20% gewijzigd door Werelds op 05-02-2014 17:15 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Astennu schreef op woensdag 05 februari 2014 @ 15:56:
[...]


Ja weet ik maar ik wil niet na het gamen elke keer mijn PC moeten rebooten om powerplay weer aan te zetten :( ik vind dat echt bullshit
Powerplay wordt dus maar één keer geladen in het geheugen en daarom is een reboot noodzakelijk?

Ik heb in sommige games ook dat de perf. voor een seconde of 2 (met de helft) omlaag gaat en dat herhaalt zich dan om de 5-7 seconden. Vermoed dat het ook daar mee te maken heeft.

Ik snap er echt geen reet van dat sommige wel met CF290(X) de 14.1 driver kunnen draaien met goede performance en stabiliteit incl. mantle. Ik hou mijn systeem altijd schoon en up to date en heb geen uncommon onderdelen. Ik heb zoiets eigenlijk nog nooit meegemaakt. Mijn Win. 8.1 installatie is ook vers van de pers, heeft hiervoor slechts met 2 andere catalyst versies gedraaid. :?

Ik kom ook geen steek verder op andere flora en AMD is ook erg wazig over de issue's.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

edward2 schreef op woensdag 05 februari 2014 @ 19:40:
[...]
Ik snap er echt geen reet van dat sommige wel met CF290(X) de 14.1 driver kunnen draaien met goede performance en stabiliteit incl. mantle. Ik hou mijn systeem altijd schoon en up to date en heb geen uncommon onderdelen. Ik heb zoiets eigenlijk nog nooit meegemaakt. Mijn Win. 8.1 installatie is ook vers van de pers, heeft hiervoor slechts met 2 andere catalyst versies gedraaid. :?
Er stond bij de beta drivers dat het nodig was om de oude drivers eerst volledig te deinstaleren. Heb je dat misschien over het hoofd gezien? (ik heb zelfs driversweeper nog eens gedraait in veilige modus, call me paranoid :P)
Ik heb nog geen problemen gehad met de nieuwe drivers, komt misschien ook omdat ik weinig game ;).

Enige dat met opvalt met mijn kaart is dat hij soms in 3d clockspeeds vast blijft zitten, het profield in MSI Afterburner opnieuw toepassen lost dit op. Maar het zou fijn zijn als dit niet meer voorkomt, wellicht dat de unofficial overclocking van MSI Afterburner icm powerplay niet helemaal goed werkt.

edit:
Dat van de performance die soms omlaag schiet heb ik ook, alleen komt dat bij mij door mijn trage cpu want ik heb het met beide drivers, de 13.12 en 14.1 beta.

[ Voor 6% gewijzigd door Sp3ci3s8472 op 06-02-2014 00:38 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23-05 00:01
edward2 schreef op woensdag 05 februari 2014 @ 19:40:
[...]


Powerplay wordt dus maar één keer geladen in het geheugen en daarom is een reboot noodzakelijk?
Nee Afterburner past iets aan. Daar na moet je rebooten dan is powerplay uit. Om het aan te zetten moet je in afterburner de boel weer uit zetten en rebooten. Misschien kan het ook wel zonder. Maar hoe het in afterburner werkt moet je rebooten. Maar eerst had ik er volgens mij geen last van en liep hij wel op vaste clocks. Ik zal eens een keer een clean windows install proberen met de 13.12 drivers en daar na de 14.1 kijken wat er dan gebeurd.
Ik heb in sommige games ook dat de perf. voor een seconde of 2 (met de helft) omlaag gaat en dat herhaalt zich dan om de 5-7 seconden. Vermoed dat het ook daar mee te maken heeft.

Ik snap er echt geen reet van dat sommige wel met CF290(X) de 14.1 driver kunnen draaien met goede performance en stabiliteit incl. mantle. Ik hou mijn systeem altijd schoon en up to date en heb geen uncommon onderdelen. Ik heb zoiets eigenlijk nog nooit meegemaakt. Mijn Win. 8.1 installatie is ook vers van de pers, heeft hiervoor slechts met 2 andere catalyst versies gedraaid. :?

Ik kom ook geen steek verder op andere flora en AMD is ook erg wazig over de issue's.
Zou kunnen. Je zou in afterburner even die vinkjes aan kunnen zetten en het uitproberen of dat werkt.

14.1 is ook beta en meer buggy door mantle. En 13.12 werkt wel goed? Je zou die DDU remove tool er overheen kunnen gooien die werkt zo ver ik kan zien wel aardig.

In welke games heb je het nog meer?
Ik speel tegenwoordig niet veel. Wat Starcraft II en BF4 op dit moment. Maar in het verleden met andere games geen problemen gehad. Al was dat nog met de 7970.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

AMD Readies Radeon R7 250X to Seal the Gap Between R7 250 and R7 260X

AMD is working on a new SKU to seal the price-performance gap between the Radeon R7 250 and the R7 260. Called the Radeon R7 250X, the chip is said to be based on the 28 nm "Oland" silicon, and could feature a stream processor count of 640, with 40 TMUs, 16 ROPs, and a 128-bit wide GDDR5 memory interface, holding 1 GB or 2 GB of memory. The GPU is said to be clocked around 1.00 GHz, and memory around 4.50 GHz (72 GB/s). VideoCardz scored pictures of two of the first R7 250X graphics cards, branded by Sapphire and ASUS. AMD will slip the R7 250X into the channel rather quietly. It's already showing up on European retailers for around €90 (incl. VAT).
Afbeeldingslocatie: http://tweakers.net/ext/f/Llo4uLRkc6p1cExZfCGxypSK/medium.jpg
Oland met 640 streamprocessors lijkt mij een prestatie, zoveel heeft die namelijk niet. Cape Verde (HD7770) lijkt mij dan logischer.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ik vind zelf True audio wel wat maar is het niet zo dat de game ook iets moet hebben wat audio betreft?
Ik kan er niet echt iets over vinden....
http://www.anandtech.com/...0x-review-feat-asus-xfx/4

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 00:31
Ja, het moet in het spel ingebakken zitten, zoals eax, aureal 3d en andere meuk die je vroeger had.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Het klopt dat de game ondersteuning ingebakken moet hebben. Het positieve punt is dan weer dat de PS4 ook diezelfde TrueAudio technologie gebruikt, waarmee het zeer waarschijnlijk is dat veel games standaard met ondersteuning voor TrueAudio de markt op zullen gaan.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Vooral de positional computations boeien mij bij True Audio, het zou precieze plaatsing van geluid mogelijk maken zelfs bij gebruik van twee speakers (best een hoofdtelefoon). Doordat het op een GPU zit, is het mogelijk de informatie van de plaatsing correct te berekenen én de CPU te ontlasten. Ik ben er in ieder geval benieuwd naar.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Astennu schreef op donderdag 06 februari 2014 @ 09:06:
[...]


Nee Afterburner past iets aan. Daar na moet je rebooten dan is powerplay uit. Om het aan te zetten moet je in afterburner de boel weer uit zetten en rebooten. Misschien kan het ook wel zonder. Maar hoe het in afterburner werkt moet je rebooten. Maar eerst had ik er volgens mij geen last van en liep hij wel op vaste clocks. Ik zal eens een keer een clean windows install proberen met de 13.12 drivers en daar na de 14.1 kijken wat er dan gebeurd.


[...]


Zou kunnen. Je zou in afterburner even die vinkjes aan kunnen zetten en het uitproberen of dat werkt.

14.1 is ook beta en meer buggy door mantle. En 13.12 werkt wel goed? Je zou die DDU remove tool er overheen kunnen gooien die werkt zo ver ik kan zien wel aardig.

In welke games heb je het nog meer?
Ik speel tegenwoordig niet veel. Wat Starcraft II en BF4 op dit moment. Maar in het verleden met andere games geen problemen gehad. Al was dat nog met de 7970.
Radeon Pro, wat ik ook gebruik voor de integratie van sweetfx onder win 8.1+dx10 en dx11, heef een optie "alway's use highest clock ingame". Zou dit hetzelfde zijn?

Cat 13.12 werkt goed, op 2 dingen na, vsync+CF geeft audio verstoring en af en toe dus die wisseling van perf. in een game. Ook heb ik nog steeds last van blackscreens.
Ik heb DDU gebruikt, (in safe mode) maar ik zag dat er toch nog bepaalde instellingen in CCC nog bewaard bleven :?

Teveel om op te noemen :*) , maar iig gaven BF4, Hitman en bv. Crysys3 gelijk al problemen met 14.1.

Ik ga nog één keer proberen om 14.1 erop te zetten met admin reechten en anders wachten we maar weer.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 00:31
Phuncz schreef op donderdag 06 februari 2014 @ 17:27:
Vooral de positional computations boeien mij bij True Audio, het zou precieze plaatsing van geluid mogelijk maken zelfs bij gebruik van twee speakers (best een hoofdtelefoon). Doordat het op een GPU zit, is het mogelijk de informatie van de plaatsing correct te berekenen én de CPU te ontlasten. Ik ben er in ieder geval benieuwd naar.
Je hebt die koptelefoon wel echt nodig voor de positionele audio, met 2 speakers werkt de illusie niet omdat beide oren beide speakers horen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik denk dat dat met fatsoenlijke near-field monitors wel reuze meevalt, maar voor de meeste mensen zal het inderdaad best een hoofdtelefoon zijn. Maar mogelijkheden biedt het wel.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23-05 00:01
edward2 schreef op donderdag 06 februari 2014 @ 18:50:
[...]


Radeon Pro, wat ik ook gebruik voor de integratie van sweetfx onder win 8.1+dx10 en dx11, heef een optie "alway's use highest clock ingame". Zou dit hetzelfde zijn?

Cat 13.12 werkt goed, op 2 dingen na, vsync+CF geeft audio verstoring en af en toe dus die wisseling van perf. in een game. Ook heb ik nog steeds last van blackscreens.
Ik heb DDU gebruikt, (in safe mode) maar ik zag dat er toch nog bepaalde instellingen in CCC nog bewaard bleven :?

Teveel om op te noemen :*) , maar iig gaven BF4, Hitman en bv. Crysys3 gelijk al problemen met 14.1.

Ik ga nog één keer proberen om 14.1 erop te zetten met admin reechten en anders wachten we maar weer.
Nee want die heb ik ook geprobeerd. Single player BF4 werkte het en bij multiplayer ging hij toch clocks wisselen.

Ik denk dat 14.1 dan nog wat te buggy is. Moet je denk ik vooral gebruiken als je alleen BF4 wilt spelen. Ik ben benieuwd naar 14.1 Beta 2.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Check anders eens of de gpu load naar beneden gaat waneer de kaart terug clockt. De frostbite engine is zo gebouwd dat vooral mgu erg slecht schaalt in gpu gebruik. Vaak zie ik in mappen de gpu gebruik tussen de 50-70% en dan i het ook vrij normaal dat de kaart terug gaat clocken omdat die extra power zo genaamd niet nodig is. Dit zit al jaren in die engine want dit heb ik al vanaf de hd5870 cf gehad toen die kaart net uit kwam en dit is nooit verbeterd in die engine juist alleen maar minder geworden vanaf bf3.

GPU oad is wel om hoog te werken maar dan moet je de resolution scale aanpassen naar 130+% dan werken mijn gpu's wel in eens op 90-100% en heb ik ook een stabiele fps.\

Kijk anders een met resolution scale om hoog zetten wat er dan gebeurd met de clocks en gpu gebruik.
Dit is heel mooi on screen in de gaten te houden met msi afterburner.

Best gek dat het zo kan werken, de game nog zwaarder maken om een stabiele fps te krijgen.

[ Voor 29% gewijzigd door Anoniem: 304087 op 07-02-2014 12:46 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23-05 00:01
Anoniem: 304087 schreef op vrijdag 07 februari 2014 @ 12:42:
Check anders eens of de gpu load naar beneden gaat waneer de kaart terug clockt. De frostbite engine is zo gebouwd dat vooral mgu erg slecht schaalt in gpu gebruik. Vaak zie ik in mappen de gpu gebruik tussen de 50-70% en dan i het ook vrij normaal dat de kaart terug gaat clocken omdat die extra power zo genaamd niet nodig is. Dit zit al jaren in die engine want dit heb ik al vanaf de hd5870 cf gehad toen die kaart net uit kwam en dit is nooit verbeterd in die engine juist alleen maar minder geworden vanaf bf3.

GPU oad is wel om hoog te werken maar dan moet je de resolution scale aanpassen naar 130+% dan werken mijn gpu's wel in eens op 90-100% en heb ik ook een stabiele fps.\

Kijk anders een met resolution scale om hoog zetten wat er dan gebeurd met de clocks en gpu gebruik.
Dit is heel mooi on screen in de gaten te houden met msi afterburner.

Best gek dat het zo kan werken, de game nog zwaarder maken om een stabiele fps te krijgen.
Ik draai een single card. Maar het is inderdaad niet als je de vsync uit zet. Als ik dat doe blijft de clock wel goed. Maar dan heb je dus screen tearing en krijg je daar weer een soort van stutter van.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Je gpu heeft met vsync monder te doen dus clockt de kaart terug en dat is normaal. Doen alle vieokaarten als er te veel power over is met vcync aan. Alleen wat niet zo hoort te zijn is dat de game in eens niet bij clockt als de fps onder de 60 fps dropt. AMD heeft nog al wat vsync problemen zoals dat de game die niet 60 fps kan halen in eens dipt naar de 30 fps om daar op vast te locken omdat de drivers denkt dat de kaart dan zijn max zit te wel dat dan niet zo is en dan hoort de kaart juist wat meer power te leveren ipv nog minder power leveren en op 30fps de boel af gaat spelen.

Bij nvidia werk dat heel anders als de kaart niet voldoende fps kan leveren met vsync aan dan dropt de fps niet naar 30 maar gebruikt de max fps wat de kaart dan kan gebruiken met vsync aan dus bvb 57fps of 54fps of als er power genoeg is gpu gebruik om hoog of de clocks gaan terug om hoog.

[ Voor 31% gewijzigd door Anoniem: 304087 op 07-02-2014 12:58 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23-05 00:01
Anoniem: 304087 schreef op vrijdag 07 februari 2014 @ 12:53:
Je gpu heeft met vsync monder te doen dus clockt de kaart terug en dat is normaal. Doen alle vieokaarten als er te veel power over is met vcync aan. Alleen wat niet zo hoort te zijn is dat de game in eens niet bij clockt als de fps onder de 60 fps dropt. AMD heeft nog al wat vsync problemen zoals dat de game die niet 60 fps kan halen in eens dipt naar de 30 fps om daar op vast te locken omdat de drivers denkt dat de kaart dan zijn max zit te wel dat dan niet zo is en dan hoort de kaart juist wat meer power te leveren ipv nog minder power leveren en op 30fps de boel af gaat spelen.

Bij nvidia werk dat heel anders als de kaart niet voldoende fps kan leveren met vsync aan dan dropt de fps niet naar 30 maar gebruikt de max fps wat de kaart dan kan gebruiken met vsync aan dus bvb 57fps of 54fps of als er power genoeg is gpu gebruik om hoog of de clocks gaan terug om hoog.
Dat is het dus niet. Hij blijft netjes 60 fps maar je merkt dan stutters omdat hij clocks schakelt. En een 7970 non boost doet dit niet die loopt netjes max. Waarschijnlijk omdat die powertune geen kleine stapjes kent.

Powertune prima. Maar bij games moet hij gewoon flat clocks draaien tenzij de temps te hoog worden of TDP gehaald wordt. Baar dat is beide niet het geval.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 23-05 08:53
Anoniem: 304087 schreef op vrijdag 07 februari 2014 @ 12:53:
Bij nvidia werk dat heel anders als de kaart niet voldoende fps kan leveren met vsync aan dan dropt de fps niet naar 30 maar gebruikt de max fps wat de kaart dan kan gebruiken met vsync aan dus bvb 57fps of 54fps of als er power genoeg is gpu gebruik om hoog of de clocks gaan terug om hoog.
Dat 30/60 FPS heeft niets te maken met Nvidia vs AMD, dat hangt af van de VSync implementatie in het spel. Als een spel een technisch correcte VSync implementatie heeft (wat inderdaad 30 of 60 FPS en niets er tussen in betekent), maakt het geen donder uit wat voor videokaart je hebt. Wel kun je bij Nvidia natuurlijk Adaptive VSync aan zetten, maar dan schakelt hij VSync gewoon constant in/uit. Het is niet zo dat VSync bij AMD altijd 30 FPS betekent en bij Nvidia juist niet; hangt allereerst af van de engine en vervolgens eventueel van Adaptive VSync.

En die stutters heb je bij Nvidia ook met VSync, omdat ook Nvidia kaarten dan gewoon minder boosten omdat er niks te doen is. En dan gebeurt er iets op het scherm, had hij net wat meer power nodig en is hij te laat met omhoog clocken. Ik speel BF4 ook gewoon zonder VSync, ik gebruik de frame limiter CVAR (Gametime.MaxVariableFPS). Zodra ik VSync aan zet krijg ik ook gewoon microstuttering (GTX 770) :)

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ik merk niets van het stutteren met in game vcync aan dus dat zal dan denk ik ook weer met de game te maken hebben die gespeeld word, zo heb ik met vsync aan in bf4 dan weer lage clocks dan weer hoge clocks maar geen stutters, of zal dat te maken hebben dat mijn vsync op 75hz/fps loopt?

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 00:31
Als je altijd overcapaciteit hebt heb je nooit stutters met vsync aan.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23-05 00:01
Anoniem: 304087 schreef op vrijdag 07 februari 2014 @ 14:26:
Ik merk niets van het stutteren met in game vcync aan dus dat zal dan denk ik ook weer met de game te maken hebben die gespeeld word, zo heb ik met vsync aan in bf4 dan weer lage clocks dan weer hoge clocks maar geen stutters, of zal dat te maken hebben dat mijn vsync op 75hz/fps loopt?
Ik had geen stutters met Vsync maar af en toe een soort vage lagg. En daar door ging ik nog al eens dood omdat de boel dan niet zo reageerde als ik dacht.

Ik heb nu gewoon vsync uit staan en dan loopt het als een speer zolang de clocks constant blijven. Als hij gaat trottelen vanwege temp wordt het weer irritant. Eerder heb ik dat nooit gemerkt.

Ik zal eens een bug report insturen. Wellicht is er iets aan de hand en kunnen ze het fixen. En misschien heeft het ook met BF4 te maken. Maar relax is in ieder geval anders :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 22:29

OMD

vsync = input lag.

Bedoel je dat niet? Alles reageert gewoon trager.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 23-05 08:53
Anoniem: 304087 schreef op vrijdag 07 februari 2014 @ 14:26:
Ik merk niets van het stutteren met in game vcync aan dus dat zal dan denk ik ook weer met de game te maken hebben die gespeeld word, zo heb ik met vsync aan in bf4 dan weer lage clocks dan weer hoge clocks maar geen stutters, of zal dat te maken hebben dat mijn vsync op 75hz/fps loopt?
haarbal schreef op vrijdag 07 februari 2014 @ 16:00:
Als je altijd overcapaciteit hebt heb je nooit stutters met vsync aan.
Reactie op jullie beide: ik speel nu op 120 Hz (en met backlight strobing, dus 240 Hz op de backlight, veel mensen kennen het als Lightboost), tot een maand of 4 geleden op 60 Hz en ik merk(te) het bij allebei. Niet iedereen merkt iets van microstuttering, maar het is er weldegelijk.

Wat overcapaciteit betreft: dan heb je het over wel erg veel overcapaciteit (zie hieronder). Dan heb je dusdanig veel GPU power dat je zonder VSync ook nooit onder je refresh rate zakt.

Als ik alles voluit gooi draai ik 90% van de tijd op 70 FPS. Met VSync is dat dan dus netjes 60. Maar daar heeft hij ook niet de volle kracht voor nodig, dus gaat hij wat lager zitten met z'n clocks. Maar vervolgens loop ik een hoek om, staat daar de mobile artillery te schieten terwijl een helicopter zich pal voor m'n neus in de grond boort. Op dat moment trekt de videokaart het niet meer en zou ik zonder VSync naar +-60 FPS zakken (frametime van +-14ms naar +- 16.5ms ofzo). Met VSync komt hij echter ineens ook nog eens 20% kloksnelheid tekort, omdat hij immers niet op de volle snelheid zat. Dan komt dat frame ineens tegen de 20 ms te hangen - dat is nog maar 50 FPS. Zelfs met een incorrecte (of adaptive) VSync implementatie merk je die paar extra milliseconden weldegelijk - met een correcte VSync implementatie krijg je hierdoor dit frame dus een frame te laat te zien (input lag) en verschuift de timing naar 30 FPS. Op 120 Hz (ik draai met lagere instellingen tegenwoordig) is het effect minder, maar het is er wel nog. Na dat trage frame wordt de software wakker en klokt hij omhoog, maar dan is het al te laat :)

En dan is er nog dat andere geval, waar je een tijd lang heel regelmatig onder je refresh rate zit te gamen door de map of het feit dat er veel gebeurt op het scherm. Ook hier heb je de keuze uit halve refresh rate met een correcte VSync implementatie, of een hoop gestotter met een adaptieve implementatie. Sommige maps haal ik m'n 120 FPS gewoon niet (Siege of Shanghai, I'm looking at you :() en dan is VSync gewoon afgrijselijk.

Ik speel dus zonder VSync, maar wel met de in-game frame limiter die op 120 ingesteld staat. Dat doe ik in elke game waar het kan. Ik heb VSync alleen aan staan als ik zeker weet dat een spel van z'n leven niet onder de 120 zakt; vrijwel nooit dus helaas. Ik zet het dan eerder op 60 Hz en speel dan met VSync, als ik weet dat ik ook nooit onder de 60 zakt - en anders zet ik zelfs de instellingen lager. Frostbite 3 heeft gelukkig wat frame timing aan boord, waardoor tearing eigenlijk heel minimaal is; vergelijk het maar eens met Assassin's Creed 4 Astennu. AC4 is echt niet te spelen zonder VSync. BF4 laat zich best goed doen, als ik 5% tearing krijg is het veel.

Ik hoop dus ook echt dat FreeSync (of wat voor naam het ook krijgt) in DP 1.3 gebruikt gaat worden door beide fabrikanten. Ik heb geen interesse in een monitor met Nvidia sticker en al helemaal geen van die schijt TN modellen. Overigens moet ik wel zeggen dat Nvidia's Boost 2.0 een stuk beter reageert op schommelingen; met m'n 680 ergerde ik me echt dood aan Boost 1.0 en zat er echt gewoon 400 MHz verschil in, met m'n 770 nu is dat een stuk minder.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Inputlag met v-sync kan je idd voor een deel vaak oplossen door een frameratelimiter in te stellen, bv met RadeonPro of in BF4 gametimexxetc. zet de limiter op maximaal het aantal hz'en van je monitor, dus 60 hz is 60 of 59 fps max. Met een single GPU ook altijd proberen triple buffering in te stellen om framerateverval tegen te gaan bij een te lage framerate icm v-sync. In Mantle kan je echter (nog) geen triplebuffering gebruiken geloof ik.

[ Voor 12% gewijzigd door edward2 op 08-02-2014 14:13 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Dus omdat ik overcapaciteit merk ik geen stutter op, klinkt eigenlijk ook wel logisch dan want ik kom nooit onder de 75fps/hz uit. Wat ik wel op merk is dat de input lag op 60hz groter is dan op 75hz in bf4 maar zelfs dat hele kleine beetje lag kan vervelend zijn dus ik heb vsync ook gewoon uit staan in online shooters. Adaptive vsync heeft het nog iets minder maar het is er wel die lag + nog af en toe tearing dus dat is ook geen goede oplossing.

Verder ben ik ook meer voor free sync wat al lang bestaat trouwens maar nooit echt over gesproken is, zo iets heb ik er over gelezen want het is al best oud. Wanneer kunnen we free sync verwachten en van wie?

Edit

Nu ik er zo over na zit te denken geloof ik niet dat nvidia voor free sync is omdat in de drivers te verwerken vanwege G-sync maar of het een probleem dan word denk ik niet want G-sync werk geloof ik nog weer wat beter en je zit niet vast aan 60hz voor zo ver ik weet, te wel g-snyc werkt vanaf 30 fps of zo?

[ Voor 19% gewijzigd door Anoniem: 304087 op 08-02-2014 14:59 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 23-05 08:53
Anoniem: 304087 schreef op zaterdag 08 februari 2014 @ 14:50:
Verder ben ik ook meer voor free sync wat al lang bestaat trouwens maar nooit echt over gesproken is, zo iets heb ik er over gelezen want het is al best oud. Wanneer kunnen we free sync verwachten en van wie?
FreeSync is slechts de codenaam voor AMD's proof-of-concept dat bestaande technologie gebruikte om exact hetzelfde klaar te spelen als Nvidia doet met G-Sync. Die technologie zit echter alleen in eDP (embedded DisplayPort, oftewel intern in laptops), maar wordt nu standaard onderdeel van DP 1.3.
Nu ik er zo over na zit te denken geloof ik niet dat nvidia voor free sync is omdat in de drivers te verwerken vanwege G-sync maar of het een probleem dan word denk ik niet want G-sync werk geloof ik nog weer wat beter en je zit niet vast aan 60hz voor zo ver ik weet, te wel g-snyc werkt vanaf 30 fps of zo?
FreeSync is ook niet gelimiteerd aan 60 Hz. G-Sync werkt niet beter of slechter. Ze doen namelijk allebei hetzelfde, verschil is alleen dat G-Sync (te) dure hardware van Nvidia vereist.

Het is nog afwachten hoe het allemaal gaat lopen met DP 1.3, maar als de monitor fabrikanten die daadwerkelijk monitors maken (Dell, LG, Eizo, Samsung en al hun partners: Sharp, AUO, etc.) en niet slechts wat onderdelen in een behuizing stoppen (zoals ASUS, Acer en elke run-of-the-mill fabrikant) het standaard gaan ondersteunen zullen ze wel mee moeten. Ze zijn uiteindelijk ook met DisplayPort mee gegaan :)


Ja, ik overdrijf hierboven over de fabrikanten, maar feit blijft dat die fabrikanten geen eigen display controllers maken. Dell en dergelijke wel en de G-Sync controller werkt niet samen met hun hardware, dus G-Sync gaat bij hen nooit gebeuren.

[ Voor 7% gewijzigd door Werelds op 08-02-2014 17:28 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik ben benieuwd wanneer er weer écht nieuwe GPU's komen, want buiten de R9 290-series is er niet veel nieuws gekomen. Ik wacht vooral op een nieuwe mainstream kaart die geen Crossfire bridge meer nodig heeft voor een casemod...

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 25-05 04:24

Tomas Hochstenbach

Redacteur componenten
Phuncz schreef op maandag 10 februari 2014 @ 16:58:
Ik ben benieuwd wanneer er weer écht nieuwe GPU's komen, want buiten de R9 290-series is er niet veel nieuws gekomen. Ik wacht vooral op een nieuwe mainstream kaart die geen Crossfire bridge meer nodig heeft voor een casemod...
Dan kun je nog wel een tijdje wachten :p. De nieuwe line-up begint net een beetje compleet te worden, een nieuwe generatie zal pas komen als 20 nm klaar is.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Phuncz schreef op maandag 10 februari 2014 @ 16:58:
Ik ben benieuwd wanneer er weer écht nieuwe GPU's komen, want buiten de R9 290-series is er niet veel nieuws gekomen. Ik wacht vooral op een nieuwe mainstream kaart die geen Crossfire bridge meer nodig heeft voor een casemod...
Wacht zelf ook een tijdje maar ik denk dat je voor iets fatsoenlijks nieuws (lees met een leuke FPS/watt verhouding) naar Nvidia moet kijken dit jaar. De 270(x) is nog wel een interessante kaart wat betreft FPS/watt maar voor de rest is het huilen bij AMD wat betreft deze (voor mij zo belangrijke) performance graadmeter. En ik zou er niet op rekenen dat AMD nog met iets interessants komt dit jaar. Een rebrand hier en daar misschien, maar ik verwacht geen echt nieuwe chips, i.t.t. tot Nvidia waar ik voor het eind van het jaar een volledige maxwell line-up vanaf gtx750 verwacht die elke AMD uit het water gaat blazen wat betreft performance per watt (doen ze namelijk nu al, maar daar betaal je helaas wel voor)

[ Voor 23% gewijzigd door eL_Jay op 10-02-2014 17:36 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Op zich heb ik geen problemen om voor Nvidia te kiezen, voordat de R9 290X er was, was ik ook overtuigd om een GTX 780 te halen. Maar voor mijn mod-project heb ik bridgeless SLI/Crossfire nodig wat enkel gaat met low-end Nvidia (alhoewel weinig concreet te vinden) en AMD R9 290-series, maar die zijn te duur en te zwaar voor mijn project.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
eL_Jay schreef op maandag 10 februari 2014 @ 17:32:
[...]

Wacht zelf ook een tijdje maar ik denk dat je voor iets fatsoenlijks nieuws (lees met een leuke FPS/watt verhouding) naar Nvidia moet kijken dit jaar. De 270(x) is nog wel een interessante kaart wat betreft FPS/watt maar voor de rest is het huilen bij AMD wat betreft deze (voor mij zo belangrijke) performance graadmeter.
Afbeeldingslocatie: http://tpucdn.com/reviews/MSI/GTX_760_Mini_ITX_Gaming/images/perfwatt_1920.gif
Dat huilen valt wel mee.... Maar is wel duidelijk dat AMD zoveel mogelijk performance uit een zo klein mogelijk die wil halen en dus een zo hoog mogelijk kloksnelheid. In mijn ogen is dat ook de meest logische keuze voor een fabrikant zoals AMD, want zo kunnen ze de meeste winst maken. Een hele grote die met lage kloksnelheid zorgt dan wel voor een betere prijs/watt verhouding, maar prijstechnisch totaal niet handig. Zie Hawaii vs GK110, oftewel R9 290X vs GTX 780 Ti. Als je een betere performance/watt wil hebben kun je ook altijd nog ondervolten en onderklokken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

eL_Jay schreef op maandag 10 februari 2014 @ 17:32:
[...]

Wacht zelf ook een tijdje maar ik denk dat je voor iets fatsoenlijks nieuws (lees met een leuke FPS/watt verhouding) naar Nvidia moet kijken dit jaar. De 270(x) is nog wel een interessante kaart wat betreft FPS/watt maar voor de rest is het huilen bij AMD wat betreft deze (voor mij zo belangrijke) performance graadmeter. En ik zou er niet op rekenen dat AMD nog met iets interessants komt dit jaar. Een rebrand hier en daar misschien, maar ik verwacht geen echt nieuwe chips, i.t.t. tot Nvidia waar ik voor het eind van het jaar een volledige maxwell line-up vanaf gtx750 verwacht die elke AMD uit het water gaat blazen wat betreft performance per watt (doen ze namelijk nu al, maar daar betaal je helaas wel voor)
Ik denk dat Maxwell op 20nm wordt gemaakt, er valt weinig te winnen op 28nm. Performance/Watt is bij AMD alleen minder bij de kaarten die erg goed zijn in compute dingen, dus HD7950 en sneller.
Dit was ook het geval bij Nvidia met hun GTX470/GTX480, dus zo raar is het niet.

Het lijkt mij dus ook appart dat Nvidia dit jaar AMD gaat wegblazen met nieuwe kaarten, want Nvidia is vaak de laatste die een nieuw productieprocess neemt. AMD heeft de laatste paar jaar daar altijd in voorop gelopen (wat betreft videokaarten want met CPU's is Intel de voorloper :P).

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Weg blazen komt niet door vernieuwingen maar eerder door de snelheid wat de kaart kan leveren op dat moment. Nvidia en AMD gaan de laatste jaren redelijk gelijk op wat betreft videokaarten.

[ Voor 27% gewijzigd door Anoniem: 304087 op 11-02-2014 07:12 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 23-05 08:53
Sp3ci3s8472 schreef op maandag 10 februari 2014 @ 23:47:
AMD heeft de laatste paar jaar daar altijd in voorop gelopen (wat betreft videokaarten want met CPU's is Intel de voorloper :P).
Dat is wel al langer dan een paar jaar. Sterker nog, 8 jaar geleden zat AMD al op 80nm en bracht Nvidia nog doodleuk een nieuwe variant van een kaart op 90nm uit (7900 GTO, AMD had toen al de X1950 Pro/XT/XTX - ze moesten ook wel, maar dat is een ander verhaal) ;)

Dus het idee dat Nvidia AMD gaat "weg blazen" is ver gezocht. Nvidia's laatste paar node transities zijn verre van soepel geweest en het is gewoon AMD die altijd als eerste op een nieuwe node zit. En qua stroom verbruik liggen ze momenteel gewoon heel kort bij elkaar (zie hieronder). Het verschil is bij lange na niet zo groot als het in 2010 was, toen Nvidia doodleuk bijna 75% meer stroom verbruikte. Of inderdaad 8 jaar geleden, toen AMD Nvidia niet kon bij benen.

Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_780_Ti/images/power_peak.gif

28nm is gewoon al op. We moeten wachten op 20nm en dat duurt nog wel een half jaartje :)

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Dat wegblazen is ook overdreven en als argument word dan die's gebruikt of als eerste met DX zijn, dat is allemaal niet nodig om weg te blazen want een paar week later heeft de concurrent het ook al en altijd is gebleken dat met vernieuwing komen helemaal weinig uit maakt als het gaat om aankoop aanbevelingen en reviews. Leuk is het wel maar het voegt niets toe voor de consument op korte en lange duur. En waar kaarten het van moeten hebben is vooral de snelheid om aan de top te staan wat concurrentie betreft. Ook moeten de kaarten een goede prijs hebben dat is ook erg belangrijk of juist de snelste zijn dat is ook erg belangrijk vor de bedrijven en veel consumenten en reviewers.

Win/wegblaas situaties zitten hem meer in de snelste zijn of meest bang voor bug de rest word niet zo veel naar gekeken.

[ Voor 11% gewijzigd door Anoniem: 304087 op 11-02-2014 09:39 ]


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Anoniem: 304087 schreef op dinsdag 11 februari 2014 @ 07:11:
Weg blazen komt niet door vernieuwingen maar eerder door de snelheid wat de kaart kan leveren op dat moment. Nvidia en AMD gaan de laatste jaren redelijk gelijk op wat betreft videokaarten.
Is natuurlijk afhankelijk vanaf wanneer je het videokaart nieuws een beetje volgt.

In mijn perceptie is AMD/ATi vanaf 2001 (bij de introductie van de Radeon 8500/R200) gelijkwaardig aan nVidia (GeForce 4 Ti4200). Het ene jaar presteert AMD iets beter en het andere jaar presteert nVidia iets beter. ;)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Indy91 schreef op dinsdag 11 februari 2014 @ 09:50:
Is natuurlijk afhankelijk vanaf wanneer je het videokaart nieuws een beetje volgt.
VooDoo tijd vroeg genoeg ? :Y) :+
In mijn perceptie is AMD/ATi vanaf 2001 (bij de introductie van de Radeon 8500/R200) gelijkwaardig aan nVidia (GeForce 4 Ti4200). Het ene jaar presteert AMD iets beter en het andere jaar presteert nVidia iets beter. ;)
Ik zou zeggen net ietsje later : Het ATI 9500 + 9700 tijdperk :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
offtopic:
Ik volg het zo'n beetje ook vanaf VooDoo 3dfx. Ik vond het pas echt interessant worden vanaf de Riva TNT (eerste 2D + 3D kaart)

Maar je hebt inderdaad gelijk.

nVidia had toendertijd de Ti4600 en de Ti4400 en was King of The Hill. ATi had op dat moment de 8500LE, maar was een stuk trager dan de Ti4400, maar had een gunstiger prijs/performance.
Toen ATI de 8500 uitbracht die beter presteerde dan de 8500LE, moest nVidia reageren met een goedkoper te produceren GeForce 4 Ti kaartje: De geboorte van de GF Ti4200 was een feit.

De 9700Pro was inderdaad de echte GF4 Ti4600 killer.

[ Voor 19% gewijzigd door Indy91 op 11-02-2014 15:19 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:14
Radeon 8500 en GeForce3 presteerden anders aardig gelijk voor zover ik me herinner. De GeForce4 kwam ongeveer een jaartje later.

En de enige keren dat de competitie werd weggeblazen was met 3dfx' Voodoo Graphics vanwege compatibiliteit (MiniGL/Glide) en toen nVidia de GeForce2 introduceerde vanwege de prestaties. Je zag bij die laatste gewoon dat vrijwel niemand een antwoord had. Alleen ATi kon het bijhouden met hun eerste generatie Radeons.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Jammer dat 3d voodoo weg is. Ik heb zelf trouwens niet zo heel veel ervaring met videokaarten van heel wat jaar terug maar heb ze wel gehad door ze zomaar aan te kopen en in een kant en klare pc te steken. Zo had ik een standaard pc met een MX400 kaart en later een 6600 in gestoken (15 jaar was ik toen) . Jaar of 4 later later nog een een standaard pc met een AMD athlon en een 6100 onbord gpu maar die 6100 kon niet goed games van toen afspelen en dus vervangen door de de 7900 GTO, 8800ultra en GT. En nog weer later zelf mijn eerste pc samengesteld omdat ik voor het eerst met het internet te maken kreeg dus ook met dit soort sites via een vriend geloof ik toen was ik zo'n 18 of 19 jaar. Voor het eerst dat ik wist dat ATI bestond was rond de 8800GT tijdperk.

Edit

Kan het kloppen dat AMD in de Athlon 64 tijd wel met nvidia samen werke vanwege de onbord 6100 gpu?

[ Voor 17% gewijzigd door Anoniem: 304087 op 11-02-2014 15:58 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Voor de S939 Athlon's maakte nVidia heerlijke chips/moederborden met SLI ondersteuning ja, hoewel in het Athlon XP tijdperk ook een heleboel leuks tekoop was met de SoundStorm chip :)

Wat dat betreft hoop ik dat AMD ooit weer op dat niveau komt : Waren leuke tijden d:)b :Y

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

Radeon R7 265 en R9 280

Afbeeldingslocatie: http://tweakers.net/ext/f/V8LqMAiOjc9yr54erKa3SKts/medium.jpg
http://chinese.vr-zone.co...deon-280-stanby-02112014/

Edit: staat wel een foutje in de 270 en 270X worden beide Curacao genoemt i.p.v. Pitcairn XT.

[ Voor 17% gewijzigd door -The_Mask- op 12-02-2014 10:43 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 550923

Ergens snap ik een kaart als de 280 (zonder -X) wel aangezien de vervanger van de HD7950 er dus nooit is gekomen, maar anderzijds is het wel mosterd na de maaltijd zeg...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23-05 00:01
NitroX infinity schreef op dinsdag 11 februari 2014 @ 15:19:
Radeon 8500 en GeForce3 presteerden anders aardig gelijk voor zover ik me herinner. De GeForce4 kwam ongeveer een jaartje later.

En de enige keren dat de competitie werd weggeblazen was met 3dfx' Voodoo Graphics vanwege compatibiliteit (MiniGL/Glide) en toen nVidia de GeForce2 introduceerde vanwege de prestaties. Je zag bij die laatste gewoon dat vrijwel niemand een antwoord had. Alleen ATi kon het bijhouden met hun eerste generatie Radeons.
In het begin wel. Maar later kon de 8500 met nieuwe driver ook nog aardig mee komen met de GF4 Ti 4200. Hij was toen ruim sneller dan de Geforce 3.

Dat was nog in de tijd dat de AMD drivers echt buggy waren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Anoniem: 550923 schreef op woensdag 12 februari 2014 @ 11:54:
Ergens snap ik een kaart als de 280 (zonder -X) wel aangezien de vervanger van de HD7950 er dus nooit is gekomen, maar anderzijds is het wel mosterd na de maaltijd zeg...
Maar na de maaltijd kan mosterd ook nog lekker smaken. ;)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 550923 schreef op woensdag 12 februari 2014 @ 11:54:
Ergens snap ik een kaart als de 280 (zonder -X) wel aangezien de vervanger van de HD7950 er dus nooit is gekomen, maar anderzijds is het wel mosterd na de maaltijd zeg...
Op zich wel logisch in mijn ogen. Voorraad HD7950 was nog lang niet weggewerkt, nu is die nog amper te krijgen. Ook zullen ze wel een hoge yield hebben en nu hebben ze wat 'defecte' chips kunnen verzamelen voor Tahiti Pro kaarten en hoeven ze minder GPU's die ook als Tahiti XT hadden kunnen dienen als Tahiti Pro te kopen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 00:00
Als ie met wat hogere kloksnelheden dan de 7950 en een prijskaartje van 200-225 euro komt is hij meer dan welkom :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Denk een prijs vanaf 210 euro dan valt die ook precies tussen de R9 270X en R9 280X in en als de kloksnelheid van de GPU op zo'n 925/950MHz wordt gezet dan zit de performance er ook mooi tussen in.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 550923

-The_Mask- schreef op woensdag 12 februari 2014 @ 12:50:
[...]

Op zich wel logisch in mijn ogen. Voorraad HD7950 was nog lang niet weggewerkt, nu is die nog amper te krijgen. Ook zullen ze wel een hoge yield hebben en nu hebben ze wat 'defecte' chips kunnen verzamelen voor Tahiti Pro kaarten en hoeven ze minder GPU's die ook als Tahiti XT hadden kunnen dienen als Tahiti Pro te kopen.
Ik zei ook; "Ergens snap ik een kaart als de 280 (zonder -X) wel..." ;)

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
Hierbij alvast een linkje naar deel 127. Nog verre van klaar, die schuld neem ik ook volledig op me. :)

Acties:
  • 0 Henk 'm!

  • SinergyX
  • Registratie: November 2001
  • Laatst online: 17:14

SinergyX

____(>^^(>0o)>____

Ik kwam zojuist die Gaming Evolved tegen van Raptr, wat doet dat nu precies?

Even toegepast op 3 games (titanfall, Rift en Firefall beta), die laatste game schiet van 25 naar 42 in FPS omhoog, zonder 'herkenbaar' verlies van grafisch beeld.

Titanfall en Rift moet ik nog testen, maar dat is best bizar te noemen.

Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 00:00
Raptr zet toch alleen de settings op 'speelbaar' ?
Oftewel: je settings zijn flink omlaag geschroefd, vaak zie je sowieso weinig verschil tussen bv ultra en very high.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Is het zelfde als Nvidia experience aleen wat minder mogelijkheden, blijkbaar word het toch wel gebruikt, maar goed dat is ook wel logisch want de niet wetende gamers, die zijn er meer dan tweakers.
http://www.guru3d.com/new...mers_rewards_program.html

  • SinergyX
  • Registratie: November 2001
  • Laatst online: 17:14

SinergyX

____(>^^(>0o)>____

mitsumark schreef op dinsdag 18 februari 2014 @ 22:09:
Raptr zet toch alleen de settings op 'speelbaar' ?
Oftewel: je settings zijn flink omlaag geschroefd, vaak zie je sowieso weinig verschil tussen bv ultra en very high.
Bij Rift is dit aardig zichtbaar, maar ik verlies daar enorme framerate. Hij zou de settings op 'optimized' zetten, maar ik duik van ~35 naar ~21fps in buiten gebieden, in de grote steden zelfs richting de 10fps.

Zie nu op die comment section dat dit gewoon de 'gemiddelde' settings zijn van mensen met dezelfde kaart, maar wordt de CPU blijkbaar niet meegenomen. Mijn geval heb ik dus flinke performance verlies omdat meeste games de CPU mijn limiterende factor is (of gewoon een brakke engine).

Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

SinergyX schreef op donderdag 20 februari 2014 @ 11:32:
[...]

Bij Rift is dit aardig zichtbaar, maar ik verlies daar enorme framerate. Hij zou de settings op 'optimized' zetten, maar ik duik van ~35 naar ~21fps in buiten gebieden, in de grote steden zelfs richting de 10fps.

Zie nu op die comment section dat dit gewoon de 'gemiddelde' settings zijn van mensen met dezelfde kaart, maar wordt de CPU blijkbaar niet meegenomen. Mijn geval heb ik dus flinke performance verlies omdat meeste games de CPU mijn limiterende factor is (of gewoon een brakke engine).
Reactie in ->:
CJ's Radeon Info & Nieuwsdiscussie - Deel 127

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Kan een modje dit topic sluiten?

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Niet nodig, gewoon lekker af laten zakken.

Verder hier!

CJ's Radeon Info & Nieuwsdiscussie - Deel 127

[ Voor 18% gewijzigd door Jejking op 21-02-2014 00:51 ]


Acties:
  • 0 Henk 'm!

Anoniem: 471038

Werelds schreef op donderdag 09 januari 2014 @ 20:10:
[...]
Bij enkel-gebufferde V-Sync is de vertraging per frame maximaal 1000 / 60 = 16.67ms. Echter moet de GPU ook wachten met het volgende frame te renderen tot die vertraging om is; dus het volgende frame wordt onnodig vertraagd. Om nu even een situatie zoals hierboven als voorbeeld te blijven gebruiken zal frame 30, dat op 503ms klaar is pas op 516.77ms te zien zijn op je scherm. De GPU mag ook pas op 516.77 het volgende frame (#31) gaan renderen. Wellicht duurt #31 echter maar 8ms om te renderen, wat betekent dat hij eigenlijk ook op tick 31 op je scherm had kunnen verschijnen - omdat hij al klaar HAD kunnen zijn op 503 + 8 = 511ms.

Het omgekeerde kan ook, dat het frame wellicht 20ms nodig had gehad. Dan was het klaar geweest op 503 + 20 = 523ms, wat op tijd geweest zou kunnen zijn voor tick #32 (32 * 16.67 = 533.44ms). Echter mag hij pas beginnen op 516.77, wat betekent dat het frame klaar is op 536.77ms en dus pas op 550.11ms te zien is na wederom bij 14ms vertraging. Dan krijg je over 2 frames maar liefst 30ms vertraging.

Met single-buffered V-Sync mag dat dus niet. Met double buffered wel, want terwijl hij moet wachten op de refresh (VBLANK) mag hij al het volgende frame gaan renderen naar die tweede framebuffer. Dus als hij op 503ms klaar is met frame 30, schrijft hij dat weg naar framebuffer 1 en begint aan het volgende frame en schrijft dat weg naar framebuffer 2.
Van dat single-buffered verhaal klopt weinig.
Volgens mij komt dat omdat je niet begrijpt hoe GPU en monitor samenwerken.
De eerste framebuffer is degene die naar de monitor gestuurd wordt. Dit is van oudsher een doorlopend proces. Vroege systemen hadden een zogenaamde RAMDAC, een chip die een stuk RAM (je framebuffer dus) van digitaal naar analoog (het signaal over je MDA/CGA/EGA/VGA-poort) omzette.
Dit ging van boven naar beneden en van links naar rechts (je stuurde direct de kathodestraal aan).

Dit houdt dus ook in dat je niet zomaar naar deze framebuffer kunt renderen. Zolang je zelf ook van boven naar beneden en van links naar rechts rendert, kun je kathodestraal voor blijven ('racing the beam').
Maar bij dingen als 3d-rendering heb je niet zo'n strikte ordening... Als je dus ergens linksboven een triangle moet renderen terwijl de kathodestraal dat punt al voorbij is, zul je die triangle nooit zien.

Met DVI verandert er eigenlijk weinig aan het verhaal. Het beeld wordt nu wel digitaal verstuurd ipv analoog, maar wel nog steeds van links naar rechts, en van boven naar beneden. Als jij dus geheugen overschrijft dat al naar de monitor verstuurd is voor dat frame, zie je het niet.

Daarom is het dus voor conventioneel 3d-renderen eigenlijk niet mogelijk om met minder dan 2 buffers te renderen.

Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 20:33

Cheezus

Luiaard

Psst, je loopt 2 delen achter: CJ's Radeon Info & Nieuwsdiscussie - Deel 128

[ Voor 10% gewijzigd door Cheezus op 19-11-2014 17:14 ]


Acties:
  • 0 Henk 'm!

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 23:02

br00ky

Moderator Harde Waren
Hmm, stond kennelijk nog niet op slot.

Bij deze.
Pagina: 1 ... 25 26 Laatste

Dit topic is gesloten.

Let op:
~~~[html]Denk eraan: vragen over levertijden, 'ik heb hem al!!1', etc. horen niet in dit topic!~~~[/html]