PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Met Mantle zouden beide niet meer nodig hoeven zijn.
Mits de engine dat natuurlijk ondersteund. Mantle is een heel mooi alternatief voor Directx en OpenGL, probleem is alleen dat die al zo lang gebruikt worden dat Mantle wel een hoop omver moet blazen wil het populair worden om gebruikt te worden. Wat natuurlijk zou kunnen helpen is wanneer Nvidia ook gebruik gaat maken van deze techniek waardoor het voor developers interessanter gaat worden om Mantle te gebruiken.spNk schreef op dinsdag 04 februari 2014 @ 09:58:
Is dat nu niet het geval omdat het dus drivers voor DX zijn en drivers voor OpenGL?
Met Mantle zouden beide niet meer nodig hoeven zijn.
Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig
Zoalng alles maar op dezelfde doos blijft draaien vind ik het al best.Alhoewel ik ook geen echte MS fan ben hoop ik toch wel dat PC gaming op windows blijft plaats vinden.
Vroeger had ik ook XP voor spelletjes omdat W7 support nog niet lekker liep.
Medion X40 watercooled laptop, i9+4090, met Eluktro bios, 32GB DDR5 6400, 2x8TB MP600 Pro XT, 32" UHD monitor en wat kekke Logitech spullen.
Welke grote ontwikkelaars zijn actief met mantle bezig en worden NIET gesponsord door AMD?Tijgert schreef op maandag 03 februari 2014 @ 19:43:
Wel grappig dat sommige mensen denken dat Mantle niet groot gaat worden en dan beamen dat grote ontwikkelaars zich er achter scharen...
Geen idee. Maar maar bij nVidia zal dat niet anders zijn. Die bv Epic die blind alles promoot wat nVidia nieuw op de markt brengt.eL_Jay schreef op dinsdag 04 februari 2014 @ 10:31:
[...]
Welke grote ontwikkelaars zijn actief met mantle bezig en worden NIET gesponsord door AMD?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat gaat ook weer te ver. Er is echt wel iets te zeggen voor het gebruik van algemene API's. Het probleem is vooral dat je geen keus hebt. Voor veel toepassingen zijn bestaande API's toereikend. Bovendien is de "addressable market" enorm klein (zie ook offtopic beneden)spNk schreef op dinsdag 04 februari 2014 @ 09:58:
Is dat nu niet het geval omdat het dus drivers voor DX zijn en drivers voor OpenGL?
Met Mantle zouden beide niet meer nodig hoeven zijn.
Mantle werkt alleen op DX 10.1 capable hardware (of hoger). AMD heeft dit zelf intern vastgelegd op GCN+ kaarten. 80% van de huidige installed base van AMD werkt dus niet met mantle. Bijna alle mobiele devices draaien geen mantle (wel OpenGL).
Op dit moment zijn 20% van de AMD installed base, die een marketshare van 40% hebben op de totale PC gaming markt (intel even daargelaten), die 20% is van de totale gaming markt, mantle compatible. -> 1,5 % van de totale game markt kan mantle gebruiken. De rest moet het doen met (aangepaste versies van) DX en OGL
Dat soort opgebouwde kennis moet je niet wegdoen alleen omdat mantle problemen op kan lossen die eigenlijk alleen "AA" en grotere titels op het PC platform parten spelen. Dat wil niet zeggen dat ze niet opgelost moeten worden. Ik denk juist dat het een grote boost kan geven aan PC gaming.
OpenGL heeft in principe de mogelijkheid om zich te ontwikkelen tot een diepere API en heeft een enorme base in het mobiele segment. DirectX is echter nu het echte blok aan het been van PC gaming als ze niet willen veranderen.
...Als het maar werkt
DICE, Cloud Imperium Games en ze gaan er binnenkort meer aankondigen.eL_Jay schreef op dinsdag 04 februari 2014 @ 10:31:
Welke grote ontwikkelaars zijn actief met mantle bezig en worden NIET gesponsord door AMD?
Voordat er een reactie komt van "DICE wordt wel gesponsord door AMD" - nee. AMD steekt geen geld in DICE en geen geld in Frostbite. De enige overdracht van diensten en producten lopen tussen EA en AMD en dat is puur marketing - het had betrekking op het bundelen van het spel bij hun kaarten en het demonstreren van het spel op hun hardware. Sterker nog, het bedrag dat hier bij gemoeid ging (ik meen $6m) is amper de moeite waard. Het feit dat BF4 beter loopt op Nvidia kaarten laat dat ook wel zien. Sterker nog, deze deal kwam pas heel laat in de ontwikkeling van het spel, aangezien de eerste demos gewoon fijn op een stel 780's liepen.
Wel is het zo dat AMD via deze marketing zooi contact op heeft kunnen nemen met DICE en hen dus als eerste in het Mantle programma heeft gekregen; ik betwijfel echter of DICE de enige of zelfs de eerste was. Epic zal er echter pas aan willen beginnen als ze zien dat er veel te halen valt, zij zitten namelijk wel diep in Nvidia's zak. Crytek zal het ook geen reet boeien totdat ze zien dat CIG er iets uit kan halen.
De MS-XBOX is ongeveer AMD`s grootste opdrachtgever op dit moment samen met de Sony-Playstation.Anoniem: 59888 schreef op maandag 03 februari 2014 @ 22:34:
De SteamBox is op dit moment Intel/Nvidia only, maar Valve heeft al aangegeven dat dat alleen voor hun prototypes het geval is, en andere fabrikanten hebben al AMD SteamBoxes aangekondigd. SteamOS zal dus fatsoenlijke AMD drivers moeten gaan krijgen, het zou mijn niets verbazen als AMD op Linux (SteamOS is een Linux distributie) groots in gaat zetten op Mantle. Op die manier wordt er dus behoorlijk aan de poten van Microsoft gezaagd. De grote vraag is wat gamedevs gaan doen, maar als die SteamOS en Mantle omarmen is het niet onwaarschijnlijk dat de toekomst van PC gaming op SteamOS zal plaatsvinden. Na 20 jaar Microsoft dominantie klinkt dat misschien erg onwaarschijnlijk, maar vergeet niet dat Apple ooit op het randje van failliesement stond en haar aandelen gedumpt werden... totdat ene Steve Jobs met de ipod en itunes kwam. Nu is Apple meer waard dan Microsoft, Google en IBM bij elkaar opgeteld.
Aangezien het al bekend is dat MS al wat geld gestort heeft op de Sony account om Windows telefoons te gaan maken, is het idee dat ze hetzelfde gedaan hebben om de twee consoles soortgelijke hardware te geven zeker niet ver gezocht. (met mutual-benefit dat allebei partijen veel meer games in hun shop kunnen krijgen.
Maw de game-developers krijgen wat ze willen maar dan wel op een manier dat MS er zoveel mogelijk voordeel bij heeft.
(gamen op MS-OS wordt beter, je moet MS-OS hebben om het maximale er uit te halen)
Daarom vind ik de klakkeloos aangenomen aanname dat AMD nu zomaar op eigen houtje tegen de schenen van z`n grootste opdrachtgevers zit te schoppen dus ook erg onwaarschijnlijk.
Zeker aangezien wanneer AMD die twee opdrachten niet gehad had ze in zeer moeilijk vaarwater hadden gezeten wat marktpositie en financieel betreft. (AMD had zonder de twee console-deals gewoon bijna geen onderhandelings positie)
Nogmaals zou het mij dus ook zeer ernstig verbazen als Mantle voor linux uitkomt.
Zeker ook omdat AMD zowiezo niet erg gericht is op linux.
How do you save a random generator ?
Ik kan je bijna garanderen dat dat gebeurt. De kwaliteit van de drivers is zoals altijd weer de vraag, maar ik weet haast zeker dat mantle naar linux komt (en OSX).enchion schreef op dinsdag 04 februari 2014 @ 12:18:
[...]
Nogmaals zou het mij dus ook zeer ernstig verbazen als Mantle voor linux uitkomt.
Zeker ook omdat AMD zowiezo niet erg gericht is op linux.
Er is namelijk geen enkele reden om het niet te doen. Je aangebrachte conspiracy theories terzijde heeft Microsoft namelijk geen markt met directx in dit segment.
Alle games die nu uitkomen voor OSX en linux zijn OpenGL, mantle kan hoogstens deze markt verder fragmenteren. Aan de andere kant zou geen mantle voor steamOS eigenlijk direct betekenen dat ze deze eventuele groeimarkt volledig aan nvidia moeten laten.
...Als het maar werkt
MM, als dat het is vrees ik dat mantle nog minder wordt toepast dan Physx of TressFX, hell dan is Linux-gaming nog groterWerelds schreef op dinsdag 04 februari 2014 @ 11:46:
[...]
DICE, Cloud Imperium Games en ze gaan er binnenkort meer aankondigen.
i7 4790k; 12GB ram; Asrock Z97 Extreme4; 1080ti;
Cloud Imperium gebruikt de CryEngine3 (wel hevig gemodificeerd), ze hebben ook aangekondigd dat ze Mantle gaan gebruiken. Dan lijkt mij dat de weg voor Crytek openligt om Mantle in te bouwen of dat zij dit misschien al hebben gedaan.Werelds schreef op dinsdag 04 februari 2014 @ 11:46:
[...]
Crytek zal het ook geen reet boeien totdat ze zien dat CIG er iets uit kan halen.
https://robertsspaceindus...To-Include-Mantle-Support
http://en.wikipedia.org/wiki/Star_Citizen#Development
Anoniem: 304087
Oftopicvleesjus schreef op dinsdag 04 februari 2014 @ 14:58:
Eidos Montreal stond toch ook op het lijstje? Ze passen ook tressfx toe op dit moment namelijk.
In welk spel want ik vind Tress-FX wel mooi in Tombraider? Het is wel wat zwaarder maar dat vind ik niet zo erg en ik denk dat Mantle Tress FX ook makkelijker kan laten draaien?
Volgens mij zijn er op dit moment al 15 Frosbite games (EA/DICE) bekend die gebruik zullen gaan maken van Mantle. Daarnaast zullen Eidos (Thief) en Robert Space Industries (Star Citizen) games gaan ontwikkelen met Mantle support.eL_Jay schreef op dinsdag 04 februari 2014 @ 14:31:
[...]
MM, als dat het is vrees ik dat mantle nog minder wordt toepast dan Physx of TressFX, hell dan is Linux-gaming nog groter
Hmmm....een vraag: Hoeveel games ondersteunde PhysX in het eerste jaar?
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Anoniem: 304087
Hier de hele lijst van games maar er missen wel wat games van er na.
Wikipedia: List of games with hardware-accelerated PhysX support
[ Voor 64% gewijzigd door Anoniem: 304087 op 04-02-2014 15:29 ]
De PhysX supported games lijst is me wel bekend.Anoniem: 304087 schreef op dinsdag 04 februari 2014 @ 15:24:
Physx was eerst van iemand anders (Agia) toen waren het maar een paar games. De games waar ik het van weet zijn ghost reacon advanced warfighter rond 2006 en 2008 en erna zijn er wat games die werken met nvidia physx maar dat zijn er ondertussen ook behoorlijk wat games maar die worden vast allemaal niet meer gespeeld. Nu komen er mondjesmaat een game met nvidia physx uit.
Hier de hele lijst van games maar er missen wel wat games van er na.
Wikipedia: List of games with hardware-accelerated PhysX support
De stelling was dat:
Wat ik persoonlijk wel knap vind, om nu al te voorspellen dat Mantle minder wordt toegepast dan PhysX.MM, als dat het is vrees ik dat mantle nog minder wordt toepast dan Physx of TressFX, hell dan is Linux-gaming nog groter
Ik kan me namelijk niet meer herinneren dat PhysX, tientallen games ondersteunde in het 1e jaar na introductie.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Anoniem: 304087
Je kunt het op zich na gaan met de games die dan per jaar verschijnen, staat achter de games in die link.
En zo wel van physx als Mantle kunnen we niet duidelijk zeggen hoeveel het er per jaar worden.
10 games van dice maar die verschijnen ook niet in 1 jaar tijd (gelukkig maar) maar eerder over een jaar of 5-10 en Mantle games gaan we ook niet gelijk dit jaar met 10 tallen zien maar eerder richting de 5 games binnen 2014. Ik verwacht over de jaren heen wel meer nieuwe Mantle games dan Physx games, maar misschien ook wel Mantle games met Physx
[ Voor 105% gewijzigd door Anoniem: 304087 op 04-02-2014 16:33 ]
Dat snap ik. Mantle zal mijn inziens een veel grotere impact hebben op de gaming markt dan PhysX.Anoniem: 304087 schreef op dinsdag 04 februari 2014 @ 16:17:
Maar physx is dan ook niet te vergelijken met Mantle in geen enkel opzicht. Het is eerder te vergelijken met andere vormen van physics.
Echter daar ging het niet om. eL_Jay "vreest" dat Mantle minder wordt toegepast dan PhysX.
Volgens mij komen er minimaal 15 Frostbite games uit. Daarnaast is de ontwikkeltijd van een game gemiddeld rond de 2 tot 4 jaar maximaal, vermoed ik.En zo wel van physx als Mantle kunnen we niet duidelijk zeggen hoeveel het er per jaar worden.
10 games van dice maar die verschijnen ook niet in 1 jaar tijd (gelukkig maar) maar eerder over een jaar of 5-10 en Mantle games gaan we ook niet gelijk dit jaar met 10 tallen zien maar eerder richting de 5 games binnen 2014. Ik verwacht over de jaren heen wel meer nieuwe Mantle games dan Physx games, maar misschien ook wel Mantle games met Physx
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Klopt, was ze even vergetenvleesjus schreef op dinsdag 04 februari 2014 @ 14:58:
Eidos Montreal stond toch ook op het lijstje? Ze passen ook tressfx toe op dit moment namelijk.
Zoals anderen al aangeven vergat ik inderdaad Eidos Montréal. Maar minder dan PhysX? Zoals wederom anderen aangeven hebben ze nu al even veel games als PhysX had voordat Nvidia ze overnam. En in de twee jaar nadat Nvidia het overnam hebben ze dat aantal amper weten te verdubbelen. Aangezien het hier om Frostbite in z'n geheel gaat, mag je wel stellen dat er op z'n minst even veel ondersteuning gaat zijn als voor PhysX, aangezien Mantle gebruiken een kwestie van een instelling is. Hoewel PhysX goed in UE3 geïntegreerd is, is het geen kwestie van aanzetten en klaar. Je zult als ontwikkelaar alsnog in moeten bouwen waar precies wat toegepast wordt, omdat PhysX map afhankelijk is. Dat is bij Mantle een stuk simpeler.eL_Jay schreef op dinsdag 04 februari 2014 @ 14:31:
MM, als dat het is vrees ik dat mantle nog minder wordt toepast dan Physx of TressFX, hell dan is Linux-gaming nog groter
Dat is toch precies wat ik zeg? CIG gaat Mantle gebruiken, maar pas op het moment dat Crytek ziet dat daar iets te halen valt zullen zij geld gaan steken in een standaard integratie in CryEngine.Sp3ci3s8472 schreef op dinsdag 04 februari 2014 @ 15:07:
Cloud Imperium gebruikt de CryEngine3 (wel hevig gemodificeerd), ze hebben ook aangekondigd dat ze Mantle gaan gebruiken. Dan lijkt mij dat de weg voor Crytek openligt om Mantle in te bouwen of dat zij dit misschien al hebben gedaan.
Anoniem: 304087
Dat "vreest" lijkt me eigenlijk onlogisch omdat het niet exclusieve is maar juist een verbetering wat overal op kan werken en het ijkt mij dat het daarom wel veel toe word gepast in de toekomst. De vraag is alleen of nvidia en intel er aan mee wil werken en dat is wel nodig om Mantle op de been te houden want anders blijft het net als physx maar mondjes maat toegepast worden.Indy91 schreef op dinsdag 04 februari 2014 @ 16:51:
[...]
Dat snap ik. Mantle zal mijn inziens een veel grotere impact hebben op de gaming markt dan PhysX.
Echter daar ging het niet om. eL_Jay "vreest" dat Mantle minder wordt toegepast dan PhysX.
[...]
Volgens mij komen er minimaal 15 Frostbite games uit. Daarnaast is de ontwikkeltijd van een game gemiddeld rond de 2 tot 4 jaar maximaal, vermoed ik.
Of alle game devs en engine makers moeten in eens alleen maar met AMD te willen samen werken en dat is iets wat nooit zal gebeuren want dan snijden de game devs en engine makers zich zelf in de vingers omdat meer dan de helft op ander hardware werkt.
[ Voor 12% gewijzigd door Anoniem: 304087 op 04-02-2014 17:45 ]
Met v-sync. heb ik krakende audio en een (veel) lagere perf.,(en dan niet doordat de framerate door de refreshrate wordt beperkt, maar echt laag, bv. waar ik met vsync uit. 50 haal, met v-sync bv. 20-30)
Ook ligt het niet aan triple buffering want dat heb je niet nodig met Multi GPU).
Ook wordt eyefintiy niet goed weergegeven in sommige games (ik heb een 4K scherm wat eigenlijk als 2x1 functioneert)
De 14.1 driver is echt vol met bugs hier, bijna elke dx10- en dx11-game crasht en heeft misschien 20-30%
van de normale perf. in de paar seconden dat die nog niet crasht of vast loopt.
Ik had nou wel eens een problemfree dx driver verwacht
Waarschijnlijk is d3d code in de driver ook op de schop gegaan met de Mantle driver, anders kan ik het niet verklaren, mede omdat CF in dx9 met deze driver nog niet wordt ondersteunt.
We wachten maar weer af, de hardware en potentie met CF is top, BF3 is bv. nog nooit zo smooth geweest met bv. cat 13.12, echt geweldige perf. en IQ op 4K
Niet op voorraad.
Icm een 7970GE was BF4 voorheen wel speelbaar @1080p ultra met 4xmsaa maar er zaten vervelende plaatsen in sommige grote mappen waar de fps rond de 30 zakte (terwijl er grafisch niet veel bijzonders gebeurde).
Op zo'n plek is nu met Mantle de fps gewoon verdubbeld, dus geen 30 maar 60.
Up to 45%? Up to 100%!!!
AMD schiet zichzelf overigens wel een beetje in de voet nu. Ik stond op het punt om een snellere CPU aan te schaffen maar wilde eerst even afwachten wat Mantle zou gaan doen. Nou, die nieuwe CPU hoeft nu niet meer.
[ Voor 21% gewijzigd door Hadespuiter op 05-02-2014 05:13 ]
Nouja, als je alleen battlefield 4 speelt dan he!Hadespuiter schreef op woensdag 05 februari 2014 @ 05:05:
Voor mijn uiterst modale X4 955 CPU komt Mantle als een geschenk uit de hemel.
Icm een 7970GE was BF4 voorheen wel speelbaar @1080p ultra met 4xmsaa maar er zaten vervelende plaatsen in sommige grote mappen waar de fps rond de 30 zakte (terwijl er grafisch niet veel bijzonders gebeurde).
Op zo'n plek is nu met Mantle de fps gewoon verdubbeld, dus geen 30 maar 60.
Up to 45%? Up to 100%!!!
AMD schiet zichzelf overigens wel een beetje in de voet nu. Ik stond op het punt om een snellere CPU aan te schaffen maar wilde eerst even afwachten wat Mantle zou gaan doen. Nou, die nieuwe CPU hoeft nu niet meer.
Wel erg goede performence gain, ultra op een 955 in bf4 is eigenlijk gekken werk
http://www.twitch.tv/jannustitannus
http://techreport.com/rev...rmance-in-battlefield-4/2
Ze hebben ook een 780 Ti icm met de A10-7850K gedraaid om nvidia dx11 te vergelijken met amd dx11.
Mechwarrior Online: Flapdrol
Anoniem: 304087
Dus eigenlijk heb je dus nog wel wat aan D3D in combinatie met een high end cpu en een sterkere gpu want dat scoort net wat beter dan Mantle maar dat is ook meer om dat de gtx 780 ti sneller is dan de 290x in bf4. Niet vergeten dat Mantle veel beter schoort dan D3D in combinatie met een 290x en een i7 want natuurlijk een veel goedkoper systeem is.haarbal schreef op woensdag 05 februari 2014 @ 11:08:
Bij techreport hebben ze ook een mantle preview staan.
http://techreport.com/rev...rmance-in-battlefield-4/2
Ze hebben ook een 780 Ti icm met de A10-7850K gedraaid om nvidia dx11 te vergelijken met amd dx11.
mwah, 70 euro goedkoper ofzo?Anoniem: 304087 schreef op woensdag 05 februari 2014 @ 11:23:
[...]
Dus eigenlijk heb je dus nog wel wat aan D3D in combinatie met een high end cpu en een sterkere gpu want dat scoort net wat beter dan Mantle maar dat is ook meer om dat de gtx 780 ti sneller is dan de 290x in bf4. Niet vergeten dat Mantle veel beter schoort dan D3D in combinatie met een 290x en een i7 want natuurlijk een veel goedkoper systeem is.
Mantle zou alsnog moeten winnen in een echt drawcall limited scenario, de 7850 presteert tenslotte beter met mantle dan met nvidia d3d. Maar het is raar dat de 780Ti met de 4770K uberhaupt wint terwijl het volgens techreport nog steeds voornamelijk cpu limited is, misschien zijn de draw calls niet de bottleneck daar, maar andere game cpu berekeningen, en neemt de 780Ti een kleine voorsprong op de paar stukjes die gpu limited zijn.
Volgens mij kon je hem gewoon op de standaardaansluiting houden.tobitronics schreef op woensdag 05 februari 2014 @ 11:27:
Ik las ergens dat trueaudio vanaf nu gesupport wordt. Maar voor welke audio devices werkt het dan? Moet je echt je koptelefoon/stereo op de gpu aansluiten met hdmi ofzo? Is hier al iets over bekend?
Mechwarrior Online: Flapdrol
Moet in principe niet zo heel veel uitmaken, het zou mooi zijn bv als je CPU het nog volhoudt tot de volgende gen games en dan Kaveri voor de desktop goed beschikbaar is. Kan je alsnog upgraden en is AMD ook weer blijHadespuiter schreef op woensdag 05 februari 2014 @ 05:05:
Voor mijn uiterst modale X4 955 CPU komt Mantle als een geschenk uit de hemel.
Icm een 7970GE was BF4 voorheen wel speelbaar @1080p ultra met 4xmsaa maar er zaten vervelende plaatsen in sommige grote mappen waar de fps rond de 30 zakte (terwijl er grafisch niet veel bijzonders gebeurde).
Op zo'n plek is nu met Mantle de fps gewoon verdubbeld, dus geen 30 maar 60.
Up to 45%? Up to 100%!!!
AMD schiet zichzelf overigens wel een beetje in de voet nu. Ik stond op het punt om een snellere CPU aan te schaffen maar wilde eerst even afwachten wat Mantle zou gaan doen. Nou, die nieuwe CPU hoeft nu niet meer.
Anoniem: 304087
more acoustic bandwidth?
Aah oke. Heb ik geen last van maar ik draai ook geen 4K en geen CF.edward2 schreef op dinsdag 04 februari 2014 @ 20:07:
[...]
Met v-sync. heb ik krakende audio en een (veel) lagere perf.,(en dan niet doordat de framerate door de refreshrate wordt beperkt, maar echt laag, bv. waar ik met vsync uit. 50 haal, met v-sync bv. 20-30)
Ook ligt het niet aan triple buffering want dat heb je niet nodig met Multi GPU).
Ook wordt eyefintiy niet goed weergegeven in sommige games (ik heb een 4K scherm wat eigenlijk als 2x1 functioneert)
De 14.1 driver is echt vol met bugs hier, bijna elke dx10- en dx11-game crasht en heeft misschien 20-30%
van de normale perf. in de paar seconden dat die nog niet crasht of vast loopt.
Ik had nou wel eens een problemfree dx driver verwacht![]()
Waarschijnlijk is d3d code in de driver ook op de schop gegaan met de Mantle driver, anders kan ik het niet verklaren, mede omdat CF in dx9 met deze driver nog niet wordt ondersteunt.
We wachten maar weer af, de hardware en potentie met CF is top, BF3 is bv. nog nooit zo smooth geweest met bv. cat 13.12, echt geweldige perf. en IQ op 4K
Enige waar ik last van heb zijn die stomme clock speeds die niet op max blijven staan. Daar krijg je echt lagg van elke keer dat hij loopt te switchen. Super iritant.
In dat opzicht is een oude 7970 prettiger gewoon niets geen turbo gewoon vaste clocks en klaar.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
MSI afterburner / disable power playAstennu schreef op woensdag 05 februari 2014 @ 15:12:
[...]
Aah oke. Heb ik geen last van maar ik draai ook geen 4K en geen CF.
Enige waar ik last van heb zijn die stomme clock speeds die niet op max blijven staan. Daar krijg je echt lagg van elke keer dat hij loopt te switchen. Super iritant.
In dat opzicht is een oude 7970 prettiger gewoon niets geen turbo gewoon vaste clocks en klaar.
Wel even terug zetten na gebruik, anders trekt die onnodig stroom
http://www.twitch.tv/jannustitannus
Volgens mij is het namelijk wel exclusief, de laatste berichten die ik gehoord heb is dat AMD niets met Nvidia wil delen wat betreft mantle (Nvidia krijgt 0 op rekest bij informatieaanvraag). Dus meer van wie zit er te wachten op weer een nichediversificatie a la physx en tressfx (ipv van meer open systemen als DirectX of de consoles die naar x64 gaan). Eerst zien dan geloven en zolang AMD geen openheid geeft zie ik dit als gedoemd(in daden en niet in woorden) te mislukken (en dat AMD dan al mijn goodwill kwijt is)Anoniem: 304087 schreef op dinsdag 04 februari 2014 @ 17:41:
[...]
Dat "vreest" lijkt me eigenlijk onlogisch omdat het niet exclusieve is maar juist een verbetering wat overal op kan werken en het ijkt mij dat het daarom wel veel toe word gepast in de toekomst.
Ja weet ik maar ik wil niet na het gamen elke keer mijn PC moeten rebooten om powerplay weer aan te zettenevilpin0 schreef op woensdag 05 februari 2014 @ 15:19:
[...]
MSI afterburner / disable power playEn hij loopt altijd max clock
Wel even terug zetten na gebruik, anders trekt die onnodig stroom
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Zou het ook werken met een usb headset?haarbal schreef op woensdag 05 februari 2014 @ 11:44:
[...]
Volgens mij kon je hem gewoon op de standaardaansluiting houden.
waarschijnlijk wel, volgens mij berekent het spel de audio met behulp van die chip op de gpu, de output is gewoon een stereosignaal dat je op elk audio apparaat af kan spelen.tobitronics schreef op woensdag 05 februari 2014 @ 16:05:
[...]
Zou het ook werken met een usb headset?
Mechwarrior Online: Flapdrol
Waar heb jij die berichten gehoord/gelezen? Want AMD heeft tijdens de allereerste presentatie al heel duidelijk aangegeven dat Mantle niet aan GCN vast hangt en ook niet aan AMD drivers vast hangt. Sterker nog, ze hadden een slide waar expliciet op stond (zal hem er straks even bij zoeken) dat Mantle ook voor andere vendors goed is en dat ze er een standaard binnen de industrie van willen maken waar men met zowel andere IHV (hardware vendors, Nvidia/Intel dus) en ISV (software vendors, denk aan Tri-Def, Havok) aan werkt.eL_Jay schreef op woensdag 05 februari 2014 @ 15:30:
Volgens mij is het namelijk wel exclusief, de laatste berichten die ik gehoord heb is dat AMD niets met Nvidia wil delen wat betreft mantle (Nvidia krijgt 0 op rekest bij informatieaanvraag).
Bijna goed; berekening vindt plaats op een aparte DSP (audio chip) die wel op de videokaart zit. Gebeurt echter niet op de GPU (shaders)haarbal schreef op woensdag 05 februari 2014 @ 16:20:
waarschijnlijk wel, volgens mij berekent het spel de audio met behulp van die chip op de gpu, de output is gewoon een stereosignaal dat je op elk audio apparaat af kan spelen.
[ Voor 20% gewijzigd door Werelds op 05-02-2014 17:15 ]
Powerplay wordt dus maar één keer geladen in het geheugen en daarom is een reboot noodzakelijk?Astennu schreef op woensdag 05 februari 2014 @ 15:56:
[...]
Ja weet ik maar ik wil niet na het gamen elke keer mijn PC moeten rebooten om powerplay weer aan te zettenik vind dat echt bullshit
Ik heb in sommige games ook dat de perf. voor een seconde of 2 (met de helft) omlaag gaat en dat herhaalt zich dan om de 5-7 seconden. Vermoed dat het ook daar mee te maken heeft.
Ik snap er echt geen reet van dat sommige wel met CF290(X) de 14.1 driver kunnen draaien met goede performance en stabiliteit incl. mantle. Ik hou mijn systeem altijd schoon en up to date en heb geen uncommon onderdelen. Ik heb zoiets eigenlijk nog nooit meegemaakt. Mijn Win. 8.1 installatie is ook vers van de pers, heeft hiervoor slechts met 2 andere catalyst versies gedraaid.
Ik kom ook geen steek verder op andere flora en AMD is ook erg wazig over de issue's.
Niet op voorraad.
Er stond bij de beta drivers dat het nodig was om de oude drivers eerst volledig te deinstaleren. Heb je dat misschien over het hoofd gezien? (ik heb zelfs driversweeper nog eens gedraait in veilige modus, call me paranoidedward2 schreef op woensdag 05 februari 2014 @ 19:40:
[...]
Ik snap er echt geen reet van dat sommige wel met CF290(X) de 14.1 driver kunnen draaien met goede performance en stabiliteit incl. mantle. Ik hou mijn systeem altijd schoon en up to date en heb geen uncommon onderdelen. Ik heb zoiets eigenlijk nog nooit meegemaakt. Mijn Win. 8.1 installatie is ook vers van de pers, heeft hiervoor slechts met 2 andere catalyst versies gedraaid.
Ik heb nog geen problemen gehad met de nieuwe drivers, komt misschien ook omdat ik weinig game
Enige dat met opvalt met mijn kaart is dat hij soms in 3d clockspeeds vast blijft zitten, het profield in MSI Afterburner opnieuw toepassen lost dit op. Maar het zou fijn zijn als dit niet meer voorkomt, wellicht dat de unofficial overclocking van MSI Afterburner icm powerplay niet helemaal goed werkt.
edit:
Dat van de performance die soms omlaag schiet heb ik ook, alleen komt dat bij mij door mijn trage cpu want ik heb het met beide drivers, de 13.12 en 14.1 beta.
[ Voor 6% gewijzigd door Sp3ci3s8472 op 06-02-2014 00:38 ]
Nee Afterburner past iets aan. Daar na moet je rebooten dan is powerplay uit. Om het aan te zetten moet je in afterburner de boel weer uit zetten en rebooten. Misschien kan het ook wel zonder. Maar hoe het in afterburner werkt moet je rebooten. Maar eerst had ik er volgens mij geen last van en liep hij wel op vaste clocks. Ik zal eens een keer een clean windows install proberen met de 13.12 drivers en daar na de 14.1 kijken wat er dan gebeurd.edward2 schreef op woensdag 05 februari 2014 @ 19:40:
[...]
Powerplay wordt dus maar één keer geladen in het geheugen en daarom is een reboot noodzakelijk?
Zou kunnen. Je zou in afterburner even die vinkjes aan kunnen zetten en het uitproberen of dat werkt.Ik heb in sommige games ook dat de perf. voor een seconde of 2 (met de helft) omlaag gaat en dat herhaalt zich dan om de 5-7 seconden. Vermoed dat het ook daar mee te maken heeft.
Ik snap er echt geen reet van dat sommige wel met CF290(X) de 14.1 driver kunnen draaien met goede performance en stabiliteit incl. mantle. Ik hou mijn systeem altijd schoon en up to date en heb geen uncommon onderdelen. Ik heb zoiets eigenlijk nog nooit meegemaakt. Mijn Win. 8.1 installatie is ook vers van de pers, heeft hiervoor slechts met 2 andere catalyst versies gedraaid.![]()
Ik kom ook geen steek verder op andere flora en AMD is ook erg wazig over de issue's.
14.1 is ook beta en meer buggy door mantle. En 13.12 werkt wel goed? Je zou die DDU remove tool er overheen kunnen gooien die werkt zo ver ik kan zien wel aardig.
In welke games heb je het nog meer?
Ik speel tegenwoordig niet veel. Wat Starcraft II en BF4 op dit moment. Maar in het verleden met andere games geen problemen gehad. Al was dat nog met de 7970.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
AMD Readies Radeon R7 250X to Seal the Gap Between R7 250 and R7 260X
AMD is working on a new SKU to seal the price-performance gap between the Radeon R7 250 and the R7 260. Called the Radeon R7 250X, the chip is said to be based on the 28 nm "Oland" silicon, and could feature a stream processor count of 640, with 40 TMUs, 16 ROPs, and a 128-bit wide GDDR5 memory interface, holding 1 GB or 2 GB of memory. The GPU is said to be clocked around 1.00 GHz, and memory around 4.50 GHz (72 GB/s). VideoCardz scored pictures of two of the first R7 250X graphics cards, branded by Sapphire and ASUS. AMD will slip the R7 250X into the channel rather quietly. It's already showing up on European retailers for around €90 (incl. VAT).

Oland met 640 streamprocessors lijkt mij een prestatie, zoveel heeft die namelijk niet. Cape Verde (HD7770) lijkt mij dan logischer.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
Ik kan er niet echt iets over vinden....
http://www.anandtech.com/...0x-review-feat-asus-xfx/4
Mechwarrior Online: Flapdrol
Radeon Pro, wat ik ook gebruik voor de integratie van sweetfx onder win 8.1+dx10 en dx11, heef een optie "alway's use highest clock ingame". Zou dit hetzelfde zijn?Astennu schreef op donderdag 06 februari 2014 @ 09:06:
[...]
Nee Afterburner past iets aan. Daar na moet je rebooten dan is powerplay uit. Om het aan te zetten moet je in afterburner de boel weer uit zetten en rebooten. Misschien kan het ook wel zonder. Maar hoe het in afterburner werkt moet je rebooten. Maar eerst had ik er volgens mij geen last van en liep hij wel op vaste clocks. Ik zal eens een keer een clean windows install proberen met de 13.12 drivers en daar na de 14.1 kijken wat er dan gebeurd.
[...]
Zou kunnen. Je zou in afterburner even die vinkjes aan kunnen zetten en het uitproberen of dat werkt.
14.1 is ook beta en meer buggy door mantle. En 13.12 werkt wel goed? Je zou die DDU remove tool er overheen kunnen gooien die werkt zo ver ik kan zien wel aardig.
In welke games heb je het nog meer?
Ik speel tegenwoordig niet veel. Wat Starcraft II en BF4 op dit moment. Maar in het verleden met andere games geen problemen gehad. Al was dat nog met de 7970.
Cat 13.12 werkt goed, op 2 dingen na, vsync+CF geeft audio verstoring en af en toe dus die wisseling van perf. in een game. Ook heb ik nog steeds last van blackscreens.
Ik heb DDU gebruikt, (in safe mode) maar ik zag dat er toch nog bepaalde instellingen in CCC nog bewaard bleven
Teveel om op te noemen
Ik ga nog één keer proberen om 14.1 erop te zetten met admin reechten en anders wachten we maar weer.
Niet op voorraad.
Je hebt die koptelefoon wel echt nodig voor de positionele audio, met 2 speakers werkt de illusie niet omdat beide oren beide speakers horen.Phuncz schreef op donderdag 06 februari 2014 @ 17:27:
Vooral de positional computations boeien mij bij True Audio, het zou precieze plaatsing van geluid mogelijk maken zelfs bij gebruik van twee speakers (best een hoofdtelefoon). Doordat het op een GPU zit, is het mogelijk de informatie van de plaatsing correct te berekenen én de CPU te ontlasten. Ik ben er in ieder geval benieuwd naar.
Mechwarrior Online: Flapdrol
Nee want die heb ik ook geprobeerd. Single player BF4 werkte het en bij multiplayer ging hij toch clocks wisselen.edward2 schreef op donderdag 06 februari 2014 @ 18:50:
[...]
Radeon Pro, wat ik ook gebruik voor de integratie van sweetfx onder win 8.1+dx10 en dx11, heef een optie "alway's use highest clock ingame". Zou dit hetzelfde zijn?
Cat 13.12 werkt goed, op 2 dingen na, vsync+CF geeft audio verstoring en af en toe dus die wisseling van perf. in een game. Ook heb ik nog steeds last van blackscreens.
Ik heb DDU gebruikt, (in safe mode) maar ik zag dat er toch nog bepaalde instellingen in CCC nog bewaard bleven![]()
Teveel om op te noemen, maar iig gaven BF4, Hitman en bv. Crysys3 gelijk al problemen met 14.1.
Ik ga nog één keer proberen om 14.1 erop te zetten met admin reechten en anders wachten we maar weer.
Ik denk dat 14.1 dan nog wat te buggy is. Moet je denk ik vooral gebruiken als je alleen BF4 wilt spelen. Ik ben benieuwd naar 14.1 Beta 2.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 304087
GPU oad is wel om hoog te werken maar dan moet je de resolution scale aanpassen naar 130+% dan werken mijn gpu's wel in eens op 90-100% en heb ik ook een stabiele fps.\
Kijk anders een met resolution scale om hoog zetten wat er dan gebeurd met de clocks en gpu gebruik.
Dit is heel mooi on screen in de gaten te houden met msi afterburner.
Best gek dat het zo kan werken, de game nog zwaarder maken om een stabiele fps te krijgen.
[ Voor 29% gewijzigd door Anoniem: 304087 op 07-02-2014 12:46 ]
Ik draai een single card. Maar het is inderdaad niet als je de vsync uit zet. Als ik dat doe blijft de clock wel goed. Maar dan heb je dus screen tearing en krijg je daar weer een soort van stutter van.Anoniem: 304087 schreef op vrijdag 07 februari 2014 @ 12:42:
Check anders eens of de gpu load naar beneden gaat waneer de kaart terug clockt. De frostbite engine is zo gebouwd dat vooral mgu erg slecht schaalt in gpu gebruik. Vaak zie ik in mappen de gpu gebruik tussen de 50-70% en dan i het ook vrij normaal dat de kaart terug gaat clocken omdat die extra power zo genaamd niet nodig is. Dit zit al jaren in die engine want dit heb ik al vanaf de hd5870 cf gehad toen die kaart net uit kwam en dit is nooit verbeterd in die engine juist alleen maar minder geworden vanaf bf3.
GPU oad is wel om hoog te werken maar dan moet je de resolution scale aanpassen naar 130+% dan werken mijn gpu's wel in eens op 90-100% en heb ik ook een stabiele fps.\
Kijk anders een met resolution scale om hoog zetten wat er dan gebeurd met de clocks en gpu gebruik.
Dit is heel mooi on screen in de gaten te houden met msi afterburner.
Best gek dat het zo kan werken, de game nog zwaarder maken om een stabiele fps te krijgen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 304087
Bij nvidia werk dat heel anders als de kaart niet voldoende fps kan leveren met vsync aan dan dropt de fps niet naar 30 maar gebruikt de max fps wat de kaart dan kan gebruiken met vsync aan dus bvb 57fps of 54fps of als er power genoeg is gpu gebruik om hoog of de clocks gaan terug om hoog.
[ Voor 31% gewijzigd door Anoniem: 304087 op 07-02-2014 12:58 ]
Dat is het dus niet. Hij blijft netjes 60 fps maar je merkt dan stutters omdat hij clocks schakelt. En een 7970 non boost doet dit niet die loopt netjes max. Waarschijnlijk omdat die powertune geen kleine stapjes kent.Anoniem: 304087 schreef op vrijdag 07 februari 2014 @ 12:53:
Je gpu heeft met vsync monder te doen dus clockt de kaart terug en dat is normaal. Doen alle vieokaarten als er te veel power over is met vcync aan. Alleen wat niet zo hoort te zijn is dat de game in eens niet bij clockt als de fps onder de 60 fps dropt. AMD heeft nog al wat vsync problemen zoals dat de game die niet 60 fps kan halen in eens dipt naar de 30 fps om daar op vast te locken omdat de drivers denkt dat de kaart dan zijn max zit te wel dat dan niet zo is en dan hoort de kaart juist wat meer power te leveren ipv nog minder power leveren en op 30fps de boel af gaat spelen.
Bij nvidia werk dat heel anders als de kaart niet voldoende fps kan leveren met vsync aan dan dropt de fps niet naar 30 maar gebruikt de max fps wat de kaart dan kan gebruiken met vsync aan dus bvb 57fps of 54fps of als er power genoeg is gpu gebruik om hoog of de clocks gaan terug om hoog.
Powertune prima. Maar bij games moet hij gewoon flat clocks draaien tenzij de temps te hoog worden of TDP gehaald wordt. Baar dat is beide niet het geval.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat 30/60 FPS heeft niets te maken met Nvidia vs AMD, dat hangt af van de VSync implementatie in het spel. Als een spel een technisch correcte VSync implementatie heeft (wat inderdaad 30 of 60 FPS en niets er tussen in betekent), maakt het geen donder uit wat voor videokaart je hebt. Wel kun je bij Nvidia natuurlijk Adaptive VSync aan zetten, maar dan schakelt hij VSync gewoon constant in/uit. Het is niet zo dat VSync bij AMD altijd 30 FPS betekent en bij Nvidia juist niet; hangt allereerst af van de engine en vervolgens eventueel van Adaptive VSync.Anoniem: 304087 schreef op vrijdag 07 februari 2014 @ 12:53:
Bij nvidia werk dat heel anders als de kaart niet voldoende fps kan leveren met vsync aan dan dropt de fps niet naar 30 maar gebruikt de max fps wat de kaart dan kan gebruiken met vsync aan dus bvb 57fps of 54fps of als er power genoeg is gpu gebruik om hoog of de clocks gaan terug om hoog.
En die stutters heb je bij Nvidia ook met VSync, omdat ook Nvidia kaarten dan gewoon minder boosten omdat er niks te doen is. En dan gebeurt er iets op het scherm, had hij net wat meer power nodig en is hij te laat met omhoog clocken. Ik speel BF4 ook gewoon zonder VSync, ik gebruik de frame limiter CVAR (Gametime.MaxVariableFPS). Zodra ik VSync aan zet krijg ik ook gewoon microstuttering (GTX 770)
Anoniem: 304087
Mechwarrior Online: Flapdrol
Ik had geen stutters met Vsync maar af en toe een soort vage lagg. En daar door ging ik nog al eens dood omdat de boel dan niet zo reageerde als ik dacht.Anoniem: 304087 schreef op vrijdag 07 februari 2014 @ 14:26:
Ik merk niets van het stutteren met in game vcync aan dus dat zal dan denk ik ook weer met de game te maken hebben die gespeeld word, zo heb ik met vsync aan in bf4 dan weer lage clocks dan weer hoge clocks maar geen stutters, of zal dat te maken hebben dat mijn vsync op 75hz/fps loopt?
Ik heb nu gewoon vsync uit staan en dan loopt het als een speer zolang de clocks constant blijven. Als hij gaat trottelen vanwege temp wordt het weer irritant. Eerder heb ik dat nooit gemerkt.
Ik zal eens een bug report insturen. Wellicht is er iets aan de hand en kunnen ze het fixen. En misschien heeft het ook met BF4 te maken. Maar relax is in ieder geval anders
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Bedoel je dat niet? Alles reageert gewoon trager.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Anoniem: 304087 schreef op vrijdag 07 februari 2014 @ 14:26:
Ik merk niets van het stutteren met in game vcync aan dus dat zal dan denk ik ook weer met de game te maken hebben die gespeeld word, zo heb ik met vsync aan in bf4 dan weer lage clocks dan weer hoge clocks maar geen stutters, of zal dat te maken hebben dat mijn vsync op 75hz/fps loopt?
Reactie op jullie beide: ik speel nu op 120 Hz (en met backlight strobing, dus 240 Hz op de backlight, veel mensen kennen het als Lightboost), tot een maand of 4 geleden op 60 Hz en ik merk(te) het bij allebei. Niet iedereen merkt iets van microstuttering, maar het is er weldegelijk.haarbal schreef op vrijdag 07 februari 2014 @ 16:00:
Als je altijd overcapaciteit hebt heb je nooit stutters met vsync aan.
Wat overcapaciteit betreft: dan heb je het over wel erg veel overcapaciteit (zie hieronder). Dan heb je dusdanig veel GPU power dat je zonder VSync ook nooit onder je refresh rate zakt.
Als ik alles voluit gooi draai ik 90% van de tijd op 70 FPS. Met VSync is dat dan dus netjes 60. Maar daar heeft hij ook niet de volle kracht voor nodig, dus gaat hij wat lager zitten met z'n clocks. Maar vervolgens loop ik een hoek om, staat daar de mobile artillery te schieten terwijl een helicopter zich pal voor m'n neus in de grond boort. Op dat moment trekt de videokaart het niet meer en zou ik zonder VSync naar +-60 FPS zakken (frametime van +-14ms naar +- 16.5ms ofzo). Met VSync komt hij echter ineens ook nog eens 20% kloksnelheid tekort, omdat hij immers niet op de volle snelheid zat. Dan komt dat frame ineens tegen de 20 ms te hangen - dat is nog maar 50 FPS. Zelfs met een incorrecte (of adaptive) VSync implementatie merk je die paar extra milliseconden weldegelijk - met een correcte VSync implementatie krijg je hierdoor dit frame dus een frame te laat te zien (input lag) en verschuift de timing naar 30 FPS. Op 120 Hz (ik draai met lagere instellingen tegenwoordig) is het effect minder, maar het is er wel nog. Na dat trage frame wordt de software wakker en klokt hij omhoog, maar dan is het al te laat
En dan is er nog dat andere geval, waar je een tijd lang heel regelmatig onder je refresh rate zit te gamen door de map of het feit dat er veel gebeurt op het scherm. Ook hier heb je de keuze uit halve refresh rate met een correcte VSync implementatie, of een hoop gestotter met een adaptieve implementatie. Sommige maps haal ik m'n 120 FPS gewoon niet (Siege of Shanghai, I'm looking at you
Ik speel dus zonder VSync, maar wel met de in-game frame limiter die op 120 ingesteld staat. Dat doe ik in elke game waar het kan. Ik heb VSync alleen aan staan als ik zeker weet dat een spel van z'n leven niet onder de 120 zakt; vrijwel nooit dus helaas. Ik zet het dan eerder op 60 Hz en speel dan met VSync, als ik weet dat ik ook nooit onder de 60 zakt - en anders zet ik zelfs de instellingen lager. Frostbite 3 heeft gelukkig wat frame timing aan boord, waardoor tearing eigenlijk heel minimaal is; vergelijk het maar eens met Assassin's Creed 4 Astennu. AC4 is echt niet te spelen zonder VSync. BF4 laat zich best goed doen, als ik 5% tearing krijg is het veel.
Ik hoop dus ook echt dat FreeSync (of wat voor naam het ook krijgt) in DP 1.3 gebruikt gaat worden door beide fabrikanten. Ik heb geen interesse in een monitor met Nvidia sticker en al helemaal geen van die schijt TN modellen. Overigens moet ik wel zeggen dat Nvidia's Boost 2.0 een stuk beter reageert op schommelingen; met m'n 680 ergerde ik me echt dood aan Boost 1.0 en zat er echt gewoon 400 MHz verschil in, met m'n 770 nu is dat een stuk minder.
[ Voor 12% gewijzigd door edward2 op 08-02-2014 14:13 ]
Niet op voorraad.
Anoniem: 304087
Verder ben ik ook meer voor free sync wat al lang bestaat trouwens maar nooit echt over gesproken is, zo iets heb ik er over gelezen want het is al best oud. Wanneer kunnen we free sync verwachten en van wie?
Edit
Nu ik er zo over na zit te denken geloof ik niet dat nvidia voor free sync is omdat in de drivers te verwerken vanwege G-sync maar of het een probleem dan word denk ik niet want G-sync werk geloof ik nog weer wat beter en je zit niet vast aan 60hz voor zo ver ik weet, te wel g-snyc werkt vanaf 30 fps of zo?
[ Voor 19% gewijzigd door Anoniem: 304087 op 08-02-2014 14:59 ]
FreeSync is slechts de codenaam voor AMD's proof-of-concept dat bestaande technologie gebruikte om exact hetzelfde klaar te spelen als Nvidia doet met G-Sync. Die technologie zit echter alleen in eDP (embedded DisplayPort, oftewel intern in laptops), maar wordt nu standaard onderdeel van DP 1.3.Anoniem: 304087 schreef op zaterdag 08 februari 2014 @ 14:50:
Verder ben ik ook meer voor free sync wat al lang bestaat trouwens maar nooit echt over gesproken is, zo iets heb ik er over gelezen want het is al best oud. Wanneer kunnen we free sync verwachten en van wie?
FreeSync is ook niet gelimiteerd aan 60 Hz. G-Sync werkt niet beter of slechter. Ze doen namelijk allebei hetzelfde, verschil is alleen dat G-Sync (te) dure hardware van Nvidia vereist.Nu ik er zo over na zit te denken geloof ik niet dat nvidia voor free sync is omdat in de drivers te verwerken vanwege G-sync maar of het een probleem dan word denk ik niet want G-sync werk geloof ik nog weer wat beter en je zit niet vast aan 60hz voor zo ver ik weet, te wel g-snyc werkt vanaf 30 fps of zo?
Het is nog afwachten hoe het allemaal gaat lopen met DP 1.3, maar als de monitor fabrikanten die daadwerkelijk monitors maken (Dell, LG, Eizo, Samsung en al hun partners: Sharp, AUO, etc.) en niet slechts wat onderdelen in een behuizing stoppen (zoals ASUS, Acer en elke run-of-the-mill fabrikant) het standaard gaan ondersteunen zullen ze wel mee moeten. Ze zijn uiteindelijk ook met DisplayPort mee gegaan
Ja, ik overdrijf hierboven over de fabrikanten, maar feit blijft dat die fabrikanten geen eigen display controllers maken. Dell en dergelijke wel en de G-Sync controller werkt niet samen met hun hardware, dus G-Sync gaat bij hen nooit gebeuren.
[ Voor 7% gewijzigd door Werelds op 08-02-2014 17:28 ]
Idd gewoon Cape Verde nieuws: AMD introduceert Radeon R7 250X-The_Mask- schreef op donderdag 06 februari 2014 @ 14:11:AMD Readies Radeon R7 250X to Seal the Gap Between R7 250 and R7 260X
[...]
[afbeelding]
Oland met 640 streamprocessors lijkt mij een prestatie, zoveel heeft die namelijk niet. Cape Verde (HD7770) lijkt mij dan logischer.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dan kun je nog wel een tijdje wachtenPhuncz schreef op maandag 10 februari 2014 @ 16:58:
Ik ben benieuwd wanneer er weer écht nieuwe GPU's komen, want buiten de R9 290-series is er niet veel nieuws gekomen. Ik wacht vooral op een nieuwe mainstream kaart die geen Crossfire bridge meer nodig heeft voor een casemod...
Wacht zelf ook een tijdje maar ik denk dat je voor iets fatsoenlijks nieuws (lees met een leuke FPS/watt verhouding) naar Nvidia moet kijken dit jaar. De 270(x) is nog wel een interessante kaart wat betreft FPS/watt maar voor de rest is het huilen bij AMD wat betreft deze (voor mij zo belangrijke) performance graadmeter. En ik zou er niet op rekenen dat AMD nog met iets interessants komt dit jaar. Een rebrand hier en daar misschien, maar ik verwacht geen echt nieuwe chips, i.t.t. tot Nvidia waar ik voor het eind van het jaar een volledige maxwell line-up vanaf gtx750 verwacht die elke AMD uit het water gaat blazen wat betreft performance per watt (doen ze namelijk nu al, maar daar betaal je helaas wel voor)Phuncz schreef op maandag 10 februari 2014 @ 16:58:
Ik ben benieuwd wanneer er weer écht nieuwe GPU's komen, want buiten de R9 290-series is er niet veel nieuws gekomen. Ik wacht vooral op een nieuwe mainstream kaart die geen Crossfire bridge meer nodig heeft voor een casemod...
[ Voor 23% gewijzigd door eL_Jay op 10-02-2014 17:36 ]
eL_Jay schreef op maandag 10 februari 2014 @ 17:32:
[...]
Wacht zelf ook een tijdje maar ik denk dat je voor iets fatsoenlijks nieuws (lees met een leuke FPS/watt verhouding) naar Nvidia moet kijken dit jaar. De 270(x) is nog wel een interessante kaart wat betreft FPS/watt maar voor de rest is het huilen bij AMD wat betreft deze (voor mij zo belangrijke) performance graadmeter.

Dat huilen valt wel mee.... Maar is wel duidelijk dat AMD zoveel mogelijk performance uit een zo klein mogelijk die wil halen en dus een zo hoog mogelijk kloksnelheid. In mijn ogen is dat ook de meest logische keuze voor een fabrikant zoals AMD, want zo kunnen ze de meeste winst maken. Een hele grote die met lage kloksnelheid zorgt dan wel voor een betere prijs/watt verhouding, maar prijstechnisch totaal niet handig. Zie Hawaii vs GK110, oftewel R9 290X vs GTX 780 Ti. Als je een betere performance/watt wil hebben kun je ook altijd nog ondervolten en onderklokken.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik denk dat Maxwell op 20nm wordt gemaakt, er valt weinig te winnen op 28nm. Performance/Watt is bij AMD alleen minder bij de kaarten die erg goed zijn in compute dingen, dus HD7950 en sneller.eL_Jay schreef op maandag 10 februari 2014 @ 17:32:
[...]
Wacht zelf ook een tijdje maar ik denk dat je voor iets fatsoenlijks nieuws (lees met een leuke FPS/watt verhouding) naar Nvidia moet kijken dit jaar. De 270(x) is nog wel een interessante kaart wat betreft FPS/watt maar voor de rest is het huilen bij AMD wat betreft deze (voor mij zo belangrijke) performance graadmeter. En ik zou er niet op rekenen dat AMD nog met iets interessants komt dit jaar. Een rebrand hier en daar misschien, maar ik verwacht geen echt nieuwe chips, i.t.t. tot Nvidia waar ik voor het eind van het jaar een volledige maxwell line-up vanaf gtx750 verwacht die elke AMD uit het water gaat blazen wat betreft performance per watt (doen ze namelijk nu al, maar daar betaal je helaas wel voor)
Dit was ook het geval bij Nvidia met hun GTX470/GTX480, dus zo raar is het niet.
Het lijkt mij dus ook appart dat Nvidia dit jaar AMD gaat wegblazen met nieuwe kaarten, want Nvidia is vaak de laatste die een nieuw productieprocess neemt. AMD heeft de laatste paar jaar daar altijd in voorop gelopen (wat betreft videokaarten want met CPU's is Intel de voorloper
Anoniem: 304087
[ Voor 27% gewijzigd door Anoniem: 304087 op 11-02-2014 07:12 ]
Dat is wel al langer dan een paar jaar. Sterker nog, 8 jaar geleden zat AMD al op 80nm en bracht Nvidia nog doodleuk een nieuwe variant van een kaart op 90nm uit (7900 GTO, AMD had toen al de X1950 Pro/XT/XTX - ze moesten ook wel, maar dat is een ander verhaal)Sp3ci3s8472 schreef op maandag 10 februari 2014 @ 23:47:
AMD heeft de laatste paar jaar daar altijd in voorop gelopen (wat betreft videokaarten want met CPU's is Intel de voorloper).
Dus het idee dat Nvidia AMD gaat "weg blazen" is ver gezocht. Nvidia's laatste paar node transities zijn verre van soepel geweest en het is gewoon AMD die altijd als eerste op een nieuwe node zit. En qua stroom verbruik liggen ze momenteel gewoon heel kort bij elkaar (zie hieronder). Het verschil is bij lange na niet zo groot als het in 2010 was, toen Nvidia doodleuk bijna 75% meer stroom verbruikte. Of inderdaad 8 jaar geleden, toen AMD Nvidia niet kon bij benen.

28nm is gewoon al op. We moeten wachten op 20nm en dat duurt nog wel een half jaartje
Anoniem: 304087
Win/wegblaas situaties zitten hem meer in de snelste zijn of meest bang voor bug de rest word niet zo veel naar gekeken.
[ Voor 11% gewijzigd door Anoniem: 304087 op 11-02-2014 09:39 ]
Is natuurlijk afhankelijk vanaf wanneer je het videokaart nieuws een beetje volgt.Anoniem: 304087 schreef op dinsdag 11 februari 2014 @ 07:11:
Weg blazen komt niet door vernieuwingen maar eerder door de snelheid wat de kaart kan leveren op dat moment. Nvidia en AMD gaan de laatste jaren redelijk gelijk op wat betreft videokaarten.
In mijn perceptie is AMD/ATi vanaf 2001 (bij de introductie van de Radeon 8500/R200) gelijkwaardig aan nVidia (GeForce 4 Ti4200). Het ene jaar presteert AMD iets beter en het andere jaar presteert nVidia iets beter.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
VooDoo tijd vroeg genoeg ?Indy91 schreef op dinsdag 11 februari 2014 @ 09:50:
Is natuurlijk afhankelijk vanaf wanneer je het videokaart nieuws een beetje volgt.
Ik zou zeggen net ietsje later : Het ATI 9500 + 9700 tijdperkIn mijn perceptie is AMD/ATi vanaf 2001 (bij de introductie van de Radeon 8500/R200) gelijkwaardig aan nVidia (GeForce 4 Ti4200). Het ene jaar presteert AMD iets beter en het andere jaar presteert nVidia iets beter.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ik volg het zo'n beetje ook vanaf VooDoo 3dfx. Ik vond het pas echt interessant worden vanaf de Riva TNT (eerste 2D + 3D kaart)
Maar je hebt inderdaad gelijk.
nVidia had toendertijd de Ti4600 en de Ti4400 en was King of The Hill. ATi had op dat moment de 8500LE, maar was een stuk trager dan de Ti4400, maar had een gunstiger prijs/performance.
Toen ATI de 8500 uitbracht die beter presteerde dan de 8500LE, moest nVidia reageren met een goedkoper te produceren GeForce 4 Ti kaartje: De geboorte van de GF Ti4200 was een feit.
De 9700Pro was inderdaad de echte GF4 Ti4600 killer.
[ Voor 19% gewijzigd door Indy91 op 11-02-2014 15:19 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
En de enige keren dat de competitie werd weggeblazen was met 3dfx' Voodoo Graphics vanwege compatibiliteit (MiniGL/Glide) en toen nVidia de GeForce2 introduceerde vanwege de prestaties. Je zag bij die laatste gewoon dat vrijwel niemand een antwoord had. Alleen ATi kon het bijhouden met hun eerste generatie Radeons.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Anoniem: 304087
Edit
Kan het kloppen dat AMD in de Athlon 64 tijd wel met nvidia samen werke vanwege de onbord 6100 gpu?
[ Voor 17% gewijzigd door Anoniem: 304087 op 11-02-2014 15:58 ]
Wat dat betreft hoop ik dat AMD ooit weer op dat niveau komt : Waren leuke tijden

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Radeon R7 265 en R9 280

http://chinese.vr-zone.co...deon-280-stanby-02112014/
Edit: staat wel een foutje in de 270 en 270X worden beide Curacao genoemt i.p.v. Pitcairn XT.
[ Voor 17% gewijzigd door -The_Mask- op 12-02-2014 10:43 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 550923
In het begin wel. Maar later kon de 8500 met nieuwe driver ook nog aardig mee komen met de GF4 Ti 4200. Hij was toen ruim sneller dan de Geforce 3.NitroX infinity schreef op dinsdag 11 februari 2014 @ 15:19:
Radeon 8500 en GeForce3 presteerden anders aardig gelijk voor zover ik me herinner. De GeForce4 kwam ongeveer een jaartje later.
En de enige keren dat de competitie werd weggeblazen was met 3dfx' Voodoo Graphics vanwege compatibiliteit (MiniGL/Glide) en toen nVidia de GeForce2 introduceerde vanwege de prestaties. Je zag bij die laatste gewoon dat vrijwel niemand een antwoord had. Alleen ATi kon het bijhouden met hun eerste generatie Radeons.
Dat was nog in de tijd dat de AMD drivers echt buggy waren.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 304087
Maar na de maaltijd kan mosterd ook nog lekker smaken.Anoniem: 550923 schreef op woensdag 12 februari 2014 @ 11:54:
Ergens snap ik een kaart als de 280 (zonder -X) wel aangezien de vervanger van de HD7950 er dus nooit is gekomen, maar anderzijds is het wel mosterd na de maaltijd zeg...
Op zich wel logisch in mijn ogen. Voorraad HD7950 was nog lang niet weggewerkt, nu is die nog amper te krijgen. Ook zullen ze wel een hoge yield hebben en nu hebben ze wat 'defecte' chips kunnen verzamelen voor Tahiti Pro kaarten en hoeven ze minder GPU's die ook als Tahiti XT hadden kunnen dienen als Tahiti Pro te kopen.Anoniem: 550923 schreef op woensdag 12 februari 2014 @ 11:54:
Ergens snap ik een kaart als de 280 (zonder -X) wel aangezien de vervanger van de HD7950 er dus nooit is gekomen, maar anderzijds is het wel mosterd na de maaltijd zeg...
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 550923
Ik zei ook; "Ergens snap ik een kaart als de 280 (zonder -X) wel..."-The_Mask- schreef op woensdag 12 februari 2014 @ 12:50:
[...]
Op zich wel logisch in mijn ogen. Voorraad HD7950 was nog lang niet weggewerkt, nu is die nog amper te krijgen. Ook zullen ze wel een hoge yield hebben en nu hebben ze wat 'defecte' chips kunnen verzamelen voor Tahiti Pro kaarten en hoeven ze minder GPU's die ook als Tahiti XT hadden kunnen dienen als Tahiti Pro te kopen.
http://www.techpowerup.co...hire/R7_265_Dual-X/1.html
[ Voor 30% gewijzigd door -The_Mask- op 13-02-2014 19:23 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Even toegepast op 3 games (titanfall, Rift en Firefall beta), die laatste game schiet van 25 naar 42 in FPS omhoog, zonder 'herkenbaar' verlies van grafisch beeld.
Titanfall en Rift moet ik nog testen, maar dat is best bizar te noemen.
Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.
Oftewel: je settings zijn flink omlaag geschroefd, vaak zie je sowieso weinig verschil tussen bv ultra en very high.
Anoniem: 304087
http://www.guru3d.com/new...mers_rewards_program.html
Bij Rift is dit aardig zichtbaar, maar ik verlies daar enorme framerate. Hij zou de settings op 'optimized' zetten, maar ik duik van ~35 naar ~21fps in buiten gebieden, in de grote steden zelfs richting de 10fps.mitsumark schreef op dinsdag 18 februari 2014 @ 22:09:
Raptr zet toch alleen de settings op 'speelbaar' ?
Oftewel: je settings zijn flink omlaag geschroefd, vaak zie je sowieso weinig verschil tussen bv ultra en very high.
Zie nu op die comment section dat dit gewoon de 'gemiddelde' settings zijn van mensen met dezelfde kaart, maar wordt de CPU blijkbaar niet meegenomen. Mijn geval heb ik dus flinke performance verlies omdat meeste games de CPU mijn limiterende factor is (of gewoon een brakke engine).
Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.
Reactie in ->:SinergyX schreef op donderdag 20 februari 2014 @ 11:32:
[...]
Bij Rift is dit aardig zichtbaar, maar ik verlies daar enorme framerate. Hij zou de settings op 'optimized' zetten, maar ik duik van ~35 naar ~21fps in buiten gebieden, in de grote steden zelfs richting de 10fps.
Zie nu op die comment section dat dit gewoon de 'gemiddelde' settings zijn van mensen met dezelfde kaart, maar wordt de CPU blijkbaar niet meegenomen. Mijn geval heb ik dus flinke performance verlies omdat meeste games de CPU mijn limiterende factor is (of gewoon een brakke engine).
CJ's Radeon Info & Nieuwsdiscussie - Deel 127
Verder hier!
CJ's Radeon Info & Nieuwsdiscussie - Deel 127
[ Voor 18% gewijzigd door Jejking op 21-02-2014 00:51 ]
Anoniem: 471038
Van dat single-buffered verhaal klopt weinig.Werelds schreef op donderdag 09 januari 2014 @ 20:10:
[...]
Bij enkel-gebufferde V-Sync is de vertraging per frame maximaal 1000 / 60 = 16.67ms. Echter moet de GPU ook wachten met het volgende frame te renderen tot die vertraging om is; dus het volgende frame wordt onnodig vertraagd. Om nu even een situatie zoals hierboven als voorbeeld te blijven gebruiken zal frame 30, dat op 503ms klaar is pas op 516.77ms te zien zijn op je scherm. De GPU mag ook pas op 516.77 het volgende frame (#31) gaan renderen. Wellicht duurt #31 echter maar 8ms om te renderen, wat betekent dat hij eigenlijk ook op tick 31 op je scherm had kunnen verschijnen - omdat hij al klaar HAD kunnen zijn op 503 + 8 = 511ms.
Het omgekeerde kan ook, dat het frame wellicht 20ms nodig had gehad. Dan was het klaar geweest op 503 + 20 = 523ms, wat op tijd geweest zou kunnen zijn voor tick #32 (32 * 16.67 = 533.44ms). Echter mag hij pas beginnen op 516.77, wat betekent dat het frame klaar is op 536.77ms en dus pas op 550.11ms te zien is na wederom bij 14ms vertraging. Dan krijg je over 2 frames maar liefst 30ms vertraging.
Met single-buffered V-Sync mag dat dus niet. Met double buffered wel, want terwijl hij moet wachten op de refresh (VBLANK) mag hij al het volgende frame gaan renderen naar die tweede framebuffer. Dus als hij op 503ms klaar is met frame 30, schrijft hij dat weg naar framebuffer 1 en begint aan het volgende frame en schrijft dat weg naar framebuffer 2.
Volgens mij komt dat omdat je niet begrijpt hoe GPU en monitor samenwerken.
De eerste framebuffer is degene die naar de monitor gestuurd wordt. Dit is van oudsher een doorlopend proces. Vroege systemen hadden een zogenaamde RAMDAC, een chip die een stuk RAM (je framebuffer dus) van digitaal naar analoog (het signaal over je MDA/CGA/EGA/VGA-poort) omzette.
Dit ging van boven naar beneden en van links naar rechts (je stuurde direct de kathodestraal aan).
Dit houdt dus ook in dat je niet zomaar naar deze framebuffer kunt renderen. Zolang je zelf ook van boven naar beneden en van links naar rechts rendert, kun je kathodestraal voor blijven ('racing the beam').
Maar bij dingen als 3d-rendering heb je niet zo'n strikte ordening... Als je dus ergens linksboven een triangle moet renderen terwijl de kathodestraal dat punt al voorbij is, zul je die triangle nooit zien.
Met DVI verandert er eigenlijk weinig aan het verhaal. Het beeld wordt nu wel digitaal verstuurd ipv analoog, maar wel nog steeds van links naar rechts, en van boven naar beneden. Als jij dus geheugen overschrijft dat al naar de monitor verstuurd is voor dat frame, zie je het niet.
Daarom is het dus voor conventioneel 3d-renderen eigenlijk niet mogelijk om met minder dan 2 buffers te renderen.
[ Voor 10% gewijzigd door Cheezus op 19-11-2014 17:14 ]
Bij deze.
Dit topic is gesloten.
~~~[html]Denk eraan: vragen over levertijden, 'ik heb hem al!!1', etc. horen niet in dit topic!~~~[/html]