CJ's Radeon Info & Nieuwsdiscussie - Deel 125 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 9 10 Laatste
Acties:
  • 45.483 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ze kosten evenveel spNk.
http://tweakers.net/categ...gsS8xRsopWMrUws1SKra2tBQA
http://tweakers.net/categ...gsS8xRsopWMjewMFSKra2tBQA

Enfin, de GTX760 is de betere keuzen op dit moment.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 08-05 22:52
Excuus, had alleen even snel op azerty gekeken.

Maar AMD moet dus gewoon actie ondernemen. :)

Acties:
  • 0 Henk 'm!

  • Don Roberto
  • Registratie: Juni 2011
  • Laatst online: 07-05 09:11
De HD7950 is alleen voor die prijs verkrijgbaar bij pixmania. Heel representatief is dat dus ook niet.

Acties:
  • 0 Henk 'm!

  • Nightquest77
  • Registratie: Februari 2012
  • Laatst online: 05-02 15:43
spNk schreef op dinsdag 25 juni 2013 @ 18:14:
[...]

3 tientjes duurder voor vergelijkbare performance, maar waarschijnlijk meer last van microstuttering.
Microstuttering op een enkele kaart? Dat kan helemaal niet. :w

LR AWD | WIT | WIT | 19" - Order 27 SEPT - RN 10 OKT - VIN 28 NOV - SMS 20 NOV - Delivery - 27 Dec 14:30 Amsterdam


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Tuurlijk wel, microstuttering doet zich altijd voor; het is met multi-GPU alleen duidelijker aanwezig doordat het allemaal via AFR moet. Maar met enkele kaarten is AMD juist consistenter, zie de eerder gelinkte resultaten op TR maar :)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Klopt, maar microstuttering voor zowel AMD als nVidia met een enkele kaart is niet merkbaar. Derhalve kun je dit imho ook niet als pluspunt voor nVidia en/of minpunt voor AMD opgeven. Dit zelfde kan wel weer als je het hebt over een CFx of SLi setup. Alleen daar zijn er mensen die het merken en dan nog niet eens allemaal.

De GTX760 is momenteel een betere koop t.o.v. een HD7950 en echt niet vanwege microstuttering.

Acties:
  • 0 Henk 'm!

  • Nightquest77
  • Registratie: Februari 2012
  • Laatst online: 05-02 15:43
Werelds schreef op dinsdag 25 juni 2013 @ 19:56:
Tuurlijk wel, microstuttering doet zich altijd voor; het is met multi-GPU alleen duidelijker aanwezig doordat het allemaal via AFR moet.
Ja er zal best altijd een beetje frame tijd variatie inzitten, maar op een enkele kaart merkt niemand dat. Pas in crossfireX KAN het MISSCHIEN een probleem vormen, als je er zelf gevoelig voor bent. En voor die mensen zijn er over een paar weekjes de nieuwe drivers.

Dus dat hele microstutteringsverhaal hoef je echt niet meer mee te wegen in het aankoop proces, en ZEKER niet als je een enkele kaart koopt.

LR AWD | WIT | WIT | 19" - Order 27 SEPT - RN 10 OKT - VIN 28 NOV - SMS 20 NOV - Delivery - 27 Dec 14:30 Amsterdam


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Helemaal mee eens. AMD zijn performance op het gebied van microstuttering is t.o.v. nVidia met een enkele kaart relatief slechter. Absoluut gezien is het zeer zeker niet slecht en absoluut gezien is het verschil imho verwaarloosbaar klein.

Zou hetzelfde zijn als je twee chipsets hebt die met alles identiek zijn behalve het verbruik. Chipset X verbruikt 1mW terwijl chipset Y 2mW verbruikt. Relatief gezien is het verbruik van chipset Y bagger. Absoluut gezien is het verbruik van beiden chipsets geweldig (ervan uitgaande dat het hele systeem enkele tientallen watts verbruik waardoor die 1mW of 2mW verwaarloosbaar worden).

M.a.w. iets kan relatief veel verschillen terwijl het absolute verschil verwaarloosbaar/niet merkbaar is.

Ik heb i.i.g. met een enkele GPU nog nooit microstuttering gezien. Microstuttering voor singel GPUs vergelijken is imho spijkers op laag water zoeken.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Heren, ik nodig jullie uit om BF3 eens te komen bekijken op mijn 680. Kijken of je dan nog durft te zeggen dat je microstuttering niet ziet op een enkele kaart ;)

Ik zal dit weekend eens even de frame times opnemen met FRAPS. Is niet optimaal omdat het FRAPS is, maar het resultaat zou duidelijk genoeg moeten zijn. Ik merk het met spelen in elk geval heel erg. Ik móet m'n FPS gewoon limiteren tot 80, anders krijg ik vervelende drops.

De reden dat je het met enkele kaarten meestal minder ziet is vrij simpel; je algehele performance is in de meeste games slecht genoeg om die verschillen klein te houden. BF3 loopt echter zo soepel dat je sprongen tussen 10ms en 25ms krijgt (ik althans) en dat is behoorlijk groot.

[ Voor 24% gewijzigd door Werelds op 26-06-2013 10:51 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
spNk schreef op dinsdag 25 juni 2013 @ 15:30:
Volgens mij heeft AMD wel een probleem nu de GTX760 gelanceerd is. Ik zie in ieder geval geen voordeel om nu een AMD kaart aan te raden, ze moeten echt wel snel met iets nieuws komen..
HD7790, HD7870 en HD7970 en GHz zijn nog steeds interessant ten opzichte van nVidia kaarten. Van de HD7950 moet de prijs wel iets bij gesteld worden. Maar vergeet niet dat je bij AMD ook wat mooie games krijgt. Als je die toch al eens wilde spelen scheelt dat ook aardig wat geld met aanschaffen.
spNk schreef op dinsdag 25 juni 2013 @ 18:14:
[...]

3 tientjes duurder voor vergelijkbare performance, maar waarschijnlijk meer last van microstuttering.
Waarom zou ik dat uit willen geven? 8)7

Tuurlijk kan AMD de prijzen omlaag gooien, maar vergeet niet dat de tahiti die een dikke 50mm² groter is dan die van GK104, dus dat kan niet zomaar zonder financiële gevolgen (iets dat AMD niet kan gebruiken).
Plus, die 3 tientjes gaat over de waarde waarmee ze daadwerkelijk verkocht worden, niet de advies prijs van AMD, wat bij nVIDIA wel het geval is (dus waarschijnlijk worden ze voor minder verkocht).
Microstuttering is al lang geen probleem meer. Alleen voor CF en dat wordt over een maand ook opgelost. Dus in mijn ogen geen min punt meer.
Je krijgt er betere en leukere games bij dan bij nVidia. Dat is ook iets waard. Als je al die games zou kopen heb je meer winst dan 30 euro. De vraag is alleen of dat voor jou ook een argument is. Misschien speel je alleen free to play games. Dan is dat geen goed argument om voor AMD te gaan.
En geef AMD ook even de kans om de prijs weer netjes te maken. Dat gaat niet in 1 dag.

Ik ben het wel met je eens dat het tijd wordt dat er een echte opvolger komt. Meer kaarten zoals de HD7790 die gewoon kleiner zijn maar toch zuiniger en in verhouding betere prestaties per MM2 bieden.

Of nog beter echte refresh van de GNC architectuur. Want het begint nu wel pijn te doen dat ze zo lang aan de HD7xxx serie vast houden. nVidia heeft volgens mij wel een nieuwe stepping van de GK104. Die hoger clockt. En ze zetten die GK110 nu ook in voor het hoge segment. En op dit moment heeft AMD geen single GPU die qua performance in de buurt kan komen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Nightquest77
  • Registratie: Februari 2012
  • Laatst online: 05-02 15:43
Werelds schreef op woensdag 26 juni 2013 @ 10:49:
Heren, ik nodig jullie uit om BF3 eens te komen bekijken op mijn 680. Kijken of je dan nog durft te zeggen dat je microstuttering niet ziet op een enkele kaart ;)

Ik zal dit weekend eens even de frame times opnemen met FRAPS.

BF3 loopt echter zo soepel dat je sprongen tussen 10ms en 25ms krijgt (ik althans) en dat is behoorlijk groot.
Bijzonder dat je het nog niet gemeten hebt, en toch al weet dat je frame tijd variatie tussen die 10 en 25 milliseconden is. ;)

In officiële benchmarks ligt de frame time variance van een enkele GTX680 in BF3 op gemiddeld 0,2 Milliseconde, en in een uitzonderlijk geval 1 milliseconde. Nihil dus. Afbeeldingslocatie: http://media.bestofmicro.com/W/R/386091/original/bf3-variance.png

Met andere woorden: het ligt gewoon aan je drivers, de rest van je systeem, aan je ogen, of aan het spel. Persoonlijk lijken de drivers de meest logische keuze (ik heb zelf met battlefield ook zware stutters gehad door een verkeerde netwerkkaart driver (!!)).

LR AWD | WIT | WIT | 19" - Order 27 SEPT - RN 10 OKT - VIN 28 NOV - SMS 20 NOV - Delivery - 27 Dec 14:30 Amsterdam


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Nightquest77 schreef op donderdag 27 juni 2013 @ 11:39:
[...]
Bijzonder dat je het nog niet gemeten hebt, en toch al weet dat je frame tijd variatie tussen die 10 en 25 milliseconden is. ;)
100 FPS = 10ms, 40 FPS = 25ms. Daar komen die cijfers vandaan.

En ik heb al gezegd dat het aan de drivers ligt. Nvidia heeft iets verneukt in recentere drivers. Ik weet ook niet hoe Tom's test, maar ik gok dat dat niet in MP is; en zij zitten ook op 1440p waardoor ze onder de 60 FPS zitten. Ik heb het over een situatie waar ik op bijna het dubbele uit kom waar zij op uitkomen. Dat is waar ik problemen heb.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Nightquest77 schreef op donderdag 27 juni 2013 @ 11:39:
[...]


Bijzonder dat je het nog niet gemeten hebt, en toch al weet dat je frame tijd variatie tussen die 10 en 25 milliseconden is. ;)

In officiële benchmarks ligt de frame time variance van een enkele GTX680 in BF3 op gemiddeld 0,2 Milliseconde, en in een uitzonderlijk geval 1 milliseconde. Nihil dus. [afbeelding]

Met andere woorden: het ligt gewoon aan je drivers, de rest van je systeem, aan je ogen, of aan het spel. Persoonlijk lijken de drivers de meest logische keuze (ik heb zelf met battlefield ook zware stutters gehad door een verkeerde netwerkkaart driver (!!)).
Waarom doet de HD7990 het hier zo slecht, bij HWI is dat ding koning met BF3 inclusief framemetering toestand.

http://nl.hardware.info/r...---1920x1080-+-frametimes

Drivers?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
madmaxnl schreef op donderdag 27 juni 2013 @ 13:24:
[...]


Waarom doet de HD7990 het hier zo slecht, bij HWI is dat ding koning met BF3 inclusief framemetering toestand.

http://nl.hardware.info/r...---1920x1080-+-frametimes

Drivers?
Ik gok dat HWI de Alpha drivers met frame metering heeft gebruikt? (ik weet alleen niet of die er ook voor de 7990 waren. In ieder geval wel voor de 7970 CF). Maar binnenkort komt er een publieke versie uit.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Nightquest77
  • Registratie: Februari 2012
  • Laatst online: 05-02 15:43
madmaxnl schreef op donderdag 27 juni 2013 @ 13:24:
[...]


Waarom doet de HD7990 het hier zo slecht, bij HWI is dat ding koning met BF3 inclusief framemetering toestand.

http://nl.hardware.info/r...---1920x1080-+-frametimes

Drivers?
Dit zijn nog de oude alpha drivers inderdaad, de HD7990 was toen nét uit geloof ik. Sowieso scoort die kaart nu nog behoorlijk slecht op microstuttergebied, de nieuwe drivers aan het einde van deze maand zouden dat moeten oplossen. Ik heb al ergens een prototype daarvan gezien, en alle microstuttering leek weg te zijn.

@Werelds
"En ik heb al gezegd dat het aan de drivers ligt. Nvidia heeft iets verneukt in recentere drivers."
Ja, dat zou best kunnen, maar het kan ook zelfs nog aan compleet andere drivers liggen, bijvoorbeeld die van je netwerkkaart of andere hardware.

LR AWD | WIT | WIT | 19" - Order 27 SEPT - RN 10 OKT - VIN 28 NOV - SMS 20 NOV - Delivery - 27 Dec 14:30 Amsterdam


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Lijkt me erg sterk aangezien die al ruim een jaar niet veranderd zijn ;)

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 10-05 15:58

SG

SG surft naar info hardewaren

DX11.2 aangekondigd voor Windows 8,1 met dribermodel WDM 1.3.
Heb 5870 1GB.
De nood is niet hoog maar kijk uit naar AMD nextgen Gkaarten.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

Anoniem: 59888

DirectX 11.2 is Windows 8(.1) exclusive. Het marktaandeel van Windows 8 is veel te klein om interessant te zijn voor ontwikkelaars, dus DX11.2 zal op de PC niet tot nauwelijks gebruikt worden de komende jaren.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Komt ook naar de Xbox One dus wie weet zien we er toch al sneller meer van.

Ben benieuwd of de nieuwe generatie kaarten het zal ondersteunen. Neem aan van wel.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Mja, vooralsnog ondersteunt nog lang niet iedere game überhaupt DirectX 11. Er zijn op dit moment geen PC's die het kunnen gebruiken, dat komt pas voor de volgende generatie. Een PC game zal dus altijd zonder moeten kunnen. De groep mensen met Windows 8 en een DX11.2 compatible kaart zal dus heel klein zijn, zo klein dat het niet interessant is om daar voor te ontwikkelen, zelfs als de betreffende features wel in één van je consoleversies zit. Uiteindelijk zal het er wel van komen, maar de komende anderhalf - twee jaar zou ik me er als consument absoluut niet druk om maken. DirectX 11.2 lijkt me dan ook zeker geen reden om je hardware te gaan upgraden.

[ Voor 7% gewijzigd door Anoniem: 59888 op 29-06-2013 18:56 ]


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 06-05 20:00
Anoniem: 59888 schreef op zaterdag 29 juni 2013 @ 18:55:
Mja, vooralsnog ondersteunt nog lang niet iedere game überhaupt DirectX 11. Er zijn op dit moment geen PC's die het kunnen gebruiken, dat komt pas voor de volgende generatie. Een PC game zal dus altijd zonder moeten kunnen. De groep mensen met Windows 8 en een DX11.2 compatible kaart zal dus heel klein zijn, zo klein dat het niet interessant is om daar voor te ontwikkelen, zelfs als de betreffende features wel in één van je consoleversies zit. Uiteindelijk zal het er wel van komen, maar de komende anderhalf - twee jaar zou ik me er als consument absoluut niet druk om maken. DirectX 11.2 lijkt me dan ook zeker geen reden om je hardware te gaan upgraden.
Het zou natuurlijk nog kunnen dat devs met een 11.2 path komen (die hebben ze toch al van de consoles) en een dx11 "legacy" pad, maar dat ligt er allemaal aan hoe dicht bij PC's de daadwerkelijke consoles zijn. Qua specs zit het er heel dicht bij, maar hoe wordt de hardware benaderd? Als dat er flink op lijkt nemen de kansen van een 11.2 codepath toe, al zal het altijd rot zijn voor devs dat ze dan meerdere codepaths moeten ondersteunen.

Acties:
  • 0 Henk 'm!

  • rows
  • Registratie: November 2009
  • Laatst online: 01-05 19:02
Is het al bekend welke series onder die update vallen vwb frame rating? M.a.w. geld dit alleen voor de laatste 7000 serie of vallen daar ook de 6000 serie kaarten onder?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Anoniem: 59888 schreef op zaterdag 29 juni 2013 @ 18:55:
Mja, vooralsnog ondersteunt nog lang niet iedere game überhaupt DirectX 11. Er zijn op dit moment geen PC's die het kunnen gebruiken, dat komt pas voor de volgende generatie. Een PC game zal dus altijd zonder moeten kunnen. De groep mensen met Windows 8 en een DX11.2 compatible kaart zal dus heel klein zijn, zo klein dat het niet interessant is om daar voor te ontwikkelen, zelfs als de betreffende features wel in één van je consoleversies zit. Uiteindelijk zal het er wel van komen, maar de komende anderhalf - twee jaar zou ik me er als consument absoluut niet druk om maken. DirectX 11.2 lijkt me dan ook zeker geen reden om je hardware te gaan upgraden.
Je hebt deels gelijk. Als Consoles wel DX11.2 gaan gebruiken (ik vraag me af of die GCN architectuur in die consoles dat wel kan. Ik dacht dat deze hetzelfde was als die in de HD7xxx serie. en dan zou het 11.1 zijn.) Dan wordt het waarschijnlijk sneller toegankelijk op de PC. Je zult wel backward compatibility met DX11 en wellicht ook DX10 krijgen. Zodat een grote groep de games kan spelen. Maar als de engine de features toch al ondersteund. Waarom zou je ze niet beschikbaar maken?

In het verleden ging dat niet zo snel omdat Consoles nog DX9c waren. Dus de meeste engines hadden die features ook niet nodig. Omdat consoles toch de grootste markt waren werd meestal specifiek daar voor ontwikkeld. En werd er weinig moeite gestoken in DX10 en DX11.
Maar nu is de console hardware weer up to date. Dus ik vermoed dat je nu meer DX11 heavy games zal gaan krijgen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
De 9000 serie wellicht in Oktober?
http://videocardz.com/434...-series-launching-october
Misschien een leuke kaart icm BF4 ?

[ Voor 15% gewijzigd door calsonic op 01-07-2013 11:37 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 09-05 19:26
Astennu schreef op maandag 01 juli 2013 @ 09:43:
[...]
In het verleden ging dat niet zo snel omdat Consoles nog DX9c waren.
Zover ik weet heeft de PS3 nooit DirectX gebruikt? Dus alleen de Xbox was hier dan, op DirectX gebied, het probleem...

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 03-05 19:40

RuddyMysterious

a smorgasbord of waywardness

Paprika schreef op maandag 01 juli 2013 @ 12:49:
[...]

Zover ik weet heeft de PS3 nooit DirectX gebruikt? Dus alleen de Xbox was hier dan, op DirectX gebied, het probleem...
Het gaat waarschijnlijk over DX9c als feature level, niet over het gebruik van DX9c als API.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Paprika schreef op maandag 01 juli 2013 @ 12:49:
[...]

Zover ik weet heeft de PS3 nooit DirectX gebruikt? Dus alleen de Xbox was hier dan, op DirectX gebied, het probleem...
Nee, maar wel PSGL, wat op OpenGL ES 1.1 gebaseerd was. Net zo verouderd dus. Hoewel het wel iets beter was dan DX9c. Iets meer extensies en iets vrijer qua GPU programmatuur.

[ Voor 13% gewijzigd door Werelds op 01-07-2013 13:24 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Paprika schreef op maandag 01 juli 2013 @ 12:49:
[...]

Zover ik weet heeft de PS3 nooit DirectX gebruikt? Dus alleen de Xbox was hier dan, op DirectX gebied, het probleem...
Klopt. maar DX9 is niets meer dan aansturing van bepaalde hardware features. En dat is waar ik eigenlijk op doel. Zoals de Pixel en Vertex shaders. Of HDR en texture compession.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
DevilsProphet schreef op maandag 01 juli 2013 @ 13:16:
[...]

Het gaat waarschijnlijk over DX9c als feature level, niet over het gebruik van DX9c als API.
Dat bedoelde ik inderdaad.
Werelds schreef op maandag 01 juli 2013 @ 13:23:
[...]

Nee, maar wel PSGL, wat op OpenGL ES 1.1 gebaseerd was. Net zo verouderd dus. Hoewel het wel iets beter was dan DX9c. Iets meer extensies en iets vrijer qua GPU programmatuur.
Inderdaad. Maar het ging me meer om het feature level van DX. OpenGL heeft vergelijkbare mogelijkheden.
En ik denk dat er nu meer games komen met DX11.1 feature level vanwegen de consoles.

Ik ben nu ook wel erg benieuwd of die Xbox One en PS4 GPU GCN 1.0 zijn. Of dat die toch meer mogelijkheden hebben.
De Xenos C1 had toen de tijd DX9c + een aantal DX10 extensies. DX10 was toen nog niet uit. Maar de features zaten er al in. Het kan zijn dat die nieuwe consoles ook een nieuwere versie van GCN gebruiken.
calsonic schreef op maandag 01 juli 2013 @ 11:36:
De 9000 serie wellicht in Oktober?
http://videocardz.com/434...-series-launching-october
Misschien een leuke kaart icm BF4 ?
Zou goed kunnen. Sneller dan de Titan hoeft ook niet perse. Zolang ze maar dichtbij komen en goedkoper zijn zie ik geen probleem. Misschien kunnen ze hem qua features af troeven door bv al DX11.2 support te hebben

Ik gok zelf nog steeds op een soort van GCN 1.5 refresh. Met 2560 shaders en wat sneller GDDR 5 geheugen. Ik ben erg benieuwd. Ik ga alvast geld opzij leggen.
Hopelijk is er dan ook meteen een Game bundel met BF4. Zou een goede actie zijn.
Ik wil BF4 wel eens proberen. Heb vooral veel 1942 gedaan de latere niet. Maar de beelden zien er wel mooi uit. Voor 50 euro los kopen zou ik niet snel doen. Dan wacht ik vaak tot het iets van 20-35 euro kost maar dat duurt vaak wel even.

[ Voor 31% gewijzigd door Astennu op 01-07-2013 13:47 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
offtopic:
BF4 gaat waarschijnlijk gewoon voor 35 euro te krijgen zijn bij de release. Tegenwoordig is het niet standaard 50 voor een nieuwe game. Steam is een ander verhaal. Vind het wel raar dat je geen BF3 speelt, is vette game om online te spelen. Als je aan BF3 niks vond dan zul je aan BF4 ook niks vinden.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
madmaxnl schreef op maandag 01 juli 2013 @ 14:09:
offtopic:
BF4 gaat waarschijnlijk gewoon voor 35 euro te krijgen zijn bij de release. Tegenwoordig is het niet standaard 50 voor een nieuwe game. Steam is een ander verhaal. Vind het wel raar dat je geen BF3 speelt, is vette game om online te spelen. Als je aan BF3 niks vond dan zul je aan BF4 ook niks vinden.
Ik heb BF2 ooit een keer gekocht maar uiteindelijk nooit de tijd voor genomen om te spelen :P
Ik speel vooral Starcraft 2, League of Legends, Diablo 3, Forza 4, Startrek Online, Trackmania En Mass Effect 1 en 2. En dat was het wel zo'n beetje. Heb ook een tijdje COD MW2 gedaan maar daar ben ik nu wel klaar mee.

BF3 zag er gaaf uit. maar toen vanwegen Origin nooit gekocht. Wilde geen spyware op mij PC. Anders had ik hem waarschijnlijk wel gekocht. Al lijkt het me meer iets wat voor even leuk is. Of op Lan's net als met 1942. Ik denk dat het niet iets is wat ik "Serieus" wil spelen. Meer beetje fun hebben.

[ Voor 8% gewijzigd door Astennu op 01-07-2013 14:41 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 09-05 19:26
Waarom zou je dan überhaupt geld wegleggen voor een nieuwe videokaart? Bij jou was een 5870 nog altijd genoeg geweest. :p

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Astennu schreef op maandag 01 juli 2013 @ 09:43:
[...]


Je hebt deels gelijk. Als Consoles wel DX11.2 gaan gebruiken (ik vraag me af of die GCN architectuur in die consoles dat wel kan. Ik dacht dat deze hetzelfde was als die in de HD7xxx serie. en dan zou het 11.1 zijn.) Dan wordt het waarschijnlijk sneller toegankelijk op de PC. Je zult wel backward compatibility met DX11 en wellicht ook DX10 krijgen. Zodat een grote groep de games kan spelen. Maar als de engine de features toch al ondersteund. Waarom zou je ze niet beschikbaar maken?
Omdat consoles niet hetzelfde OS en dezelfde API's gebruiken als een PC. Je zult dus toch wat programmeerwerk er tegenaan moeten gooien om dat aan de praat te krijgen. De PC versie is toch al niet de meest verkochte, en dan heb je ook nog eens de combinatie nodig van een impopulair OS en de allernieuwste hardware (die nu nog niet eens beschikbaar is). Als de PC versie 20% van het totaal aantal verkochte exemplaren beslaat en 10% van de PC gebruikers W8 en DX11.2 hebben is het nog altijd maar 2% van het totaal aantal verkochte exemplaren. Voorlopig is het aandeel van W8/DX11.2 0% dus ik maak al een hele ruime schatting.

Zo'n kleine groep is in de basis gewoon de moeite niet waard. Developers hebben niet bepaald tijd over en steken die liever in dingen die veel meer gebruikers bevoordelen. Vergeet niet dat de DX11 ondersteuning in veel games ook maar matig is. Er worden wat DX11 features ingebouwd en dat slurpt een hoop resources, maar erg hard geoptimaliseerd is het allemaal niet. Dat zal hopelijk met de nieuwe generatie consoles veranderen, maar DX11.1/.2 specifieke features zou ik voorlopig niet al te veel van verwachten. Het is een beetje het scenario van DX10.1, die features worden ook pas sinds DX11 hardware breed verkocht is een beetje fatsoenlijk gebruikt.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Paprika schreef op maandag 01 juli 2013 @ 14:57:
Waarom zou je dan überhaupt geld wegleggen voor een nieuwe videokaart? Bij jou was een 5870 nog altijd genoeg geweest. :p
Dat is dus niet het geval :) Mass Effect draait niet lekker op een 5870. Stottert als een gek. Laat staan dat je AA en AF wilt. Ik kan maar net 2x AA op mijn 7970 OC draaien met 2560x1600.

Starcraft 2 loopt inderdaad prima. Wel een merkbaar verschil tussen een 5870 en de 7970. STO is ook best zwaar.

Kortom genoeg games die het nodig hebben. En ik vind nieuwe hardware gewoon leuk. Heb tijden gehad dat ik meer aan het tweaken was dan aan het gamen.
Niet iedereen koopt een video kaart om mee te gamen ;)

Hardware is gewoon leuk speelgoed.
En ik speel ook wel eens zwaardere games. Maar vaak niet zo lang. Ben er tegenwoordig snel op uit gekeken. Zitten niet goed genoeg in elkaar om voor mij herspeelbaar te zijn.
En als ik iets speel wil ik het met max details liefst AA en AF en helemaal soepel. En dan mag het wat kosten :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Anoniem: 59888 schreef op maandag 01 juli 2013 @ 15:13:
[...]
Het is een beetje het scenario van DX10.1, die features worden ook pas sinds DX11 hardware breed verkocht is een beetje fatsoenlijk gebruikt.
Verschil is alleen dat 10.1 niks noemenswaardig bevatte. Als Nvidia klaar was geweest hadden we al tessellation gehad, maar nadat dat op hun verzoek geschrapt werd bleef er nagenoeg niets over. 10.1 was gewoon nutteloos en enige games die 10.1 "vereisen" zijn ook gewoon bullshit.

Daarnaast is er voor 11.2 geen hardware vereist; de tiled resources zijn feature level 11_0, dus elke DX11 kaart kan en mag dat. De enige belemmering momenteel is het OS.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Werelds schreef op maandag 01 juli 2013 @ 15:33:
[...]

Verschil is alleen dat 10.1 niks noemenswaardig bevatte. Als Nvidia klaar was geweest hadden we al tessellation gehad, maar nadat dat op hun verzoek geschrapt werd bleef er nagenoeg niets over. 10.1 was gewoon nutteloos en enige games die 10.1 "vereisen" zijn ook gewoon bullshit.

Daarnaast is er voor 11.2 geen hardware vereist; de tiled resources zijn feature level 11_0, dus elke DX11 kaart kan en mag dat. De enige belemmering momenteel is het OS.
Ah good to know :) Dus dan kan iedereen met een DX11.1 kaart DX11.2 op de doos gaan zetten :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Nee, dat dus niet, want je moet wel aan het eisen programma voldoen voordat je dat mag doen - staat echter wel los van de feature levels :/

Is net zoiets als dat Nvidia kaarten gewoon een aantal 11.1 features ondersteunen maar niet volledig. Eind resultaat is dat ze wel aan 11_0 voldoen, maar slechts deels aan 11_1 (de leuke dingen doen ze dus niet); het mooiste komt echter nu pas: het is gewoon mogelijk om een "11.1 compliant" product te leveren en toch alleen 11_0 te ondersteunen; Intel heeft dat in het verleden eens klaar gespeeld met 9 of 10 :P

Die hele DirectX certificatie slaat als een tang op een varken.

Edit: overigens voldoet Nvidia niet aan de eisen voor 11.1 met Kepler, dus geen 11.1 plakkaat voor hun ;)

[ Voor 12% gewijzigd door Werelds op 01-07-2013 16:13 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Werelds schreef op maandag 01 juli 2013 @ 15:59:
Nee, dat dus niet, want je moet wel aan het eisen programma voldoen voordat je dat mag doen - staat echter wel los van de feature levels :/

Is net zoiets als dat Nvidia kaarten gewoon een aantal 11.1 features ondersteunen maar niet volledig. Eind resultaat is dat ze wel aan 11_0 voldoen, maar slechts deels aan 11_1 (de leuke dingen doen ze dus niet); het mooiste komt echter nu pas: het is gewoon mogelijk om een "11.1 compliant" product te leveren en toch alleen 11_0 te ondersteunen; Intel heeft dat in het verleden eens klaar gespeeld met 9 of 10 :P

Die hele DirectX certificatie slaat als een tang op een varken.

Edit: overigens voldoet Nvidia niet aan de eisen voor 11.1 met Kepler, dus geen 11.1 plakkaat voor hun ;)
Ja dat klopt. Smerig spelletje :(

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
PTRPRT is al mogenlijk via OpenGL 4.2, met specifieke calls. Alle GCN GPU's zijn volledig OpenGL 4.2 compliant, waarmee dus alle HD7730+ kaarten PTRPRT capable zijn. Een Xbone of PS4 zal dan ook geen DX11.2 nodig hebben en een PC-gebruiker zal niet perse op Windows 8.1 moeten draaien. Consoles, zoals hierboven al gemeld, werken toch doorgaans met low level API's, om het meeste uit de hardware te halen. De kans is groot dat de PTRPRT calls in die low level API's verwerkt zitten.

[ Voor 3% gewijzigd door dahakon op 01-07-2013 19:31 . Reden: correct werelds, geen idee waarom ik de R en T heb omgedraaid... ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

Astennu schreef op maandag 01 juli 2013 @ 15:25:
[...]

Dat is dus niet het geval :) Mass Effect draait niet lekker op een 5870. Stottert als een gek. Laat staan dat je AA en AF wilt. Ik kan maar net 2x AA op mijn 7970 OC draaien met 2560x1600.
Wat appart ik heb hier op mijn HD5870 geen problemen mee, gebruik je toevallig texmod? Als je dat gebruikt dan stort de fps inderdaad in.
Ik kan Mass Effect 2 en 3 met supersampling draaien (2x) en kom dan niet onder de 40fps, nu heb ik wel een kleiner beeldscherm dan jij :p, maar ik kan mij niet voorstellen dat het verschil tussen 1200p en 1600p zo groot is.
Mass Effect 1 is een ander verhaal, daar zit een of ander film/grain filter over heen wat de boel zodanig vertraagd dat supersampling niet leuk is ;).

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
dahakon schreef op maandag 01 juli 2013 @ 18:32:
PTR is al mogenlijk via OpenGL 4.2, met specifieke calls. Alle GCN GPU's zijn volledig OpenGL 4.2 compliant, waarmee dus alle HD7730+ kaarten PTR capable zijn. Een Xbone of PS4 zal dan ook geen DX11.2 nodig hebben en een PC-gebruiker zal niet perse op Windows 8.1 moeten draaien. Consoles, zoals hierboven al gemeld, werken toch doorgaans met low level API's, om het meeste uit de hardware te halen. De kans is groot dat de PTR calls in die low level API's verwerkt zitten.
Ik neem aan dat je PRT (Partially Resident Textures) bedoelt? Is beperkt tot AMD en is een extensie op OpenGL, maakt geen deel uit van de spec. Dus voor Nvidia heb je weldegelijk Win8.1 nodig. En voor games die OpenGL niet gebruiken, wat 95% is, ook.

Voor de PS4 zal die extensie gewoon werken, maar op de TVBOX wordt D3D gebruikt.

Ik kan dit niet vaak genoeg zeggen, maar op de consoles hebben ze even goed APIs net als op de desktop. In het geval van de PS3 is dat een afgeleide van OpenGL ES, bij de PS4 waarschijnlijk wederom (wellicht niet de ES variant deze keer). Bij de 360 is het een afgeleide van D3D9a (met wat extensies waardoor het min of meer 9.0c is) en bij de TVBOX wordt dat hoogstwaarschijnlijk gewoon 11.2, aangezien er nu ook écht Windows op gaat draaien. De game kernel zal de 11.2 API ook gewoon implementeren zodat er zo min mogelijk verschil tussen de verschillende toestanden op het ding zelf, maar ook met PC's zit. Want MS gebruikt de TVBOX als middel om Win8 te pushen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dat is precies waarom de "TVBOX", zoals jij de Xbox One noemt, het niet gaat winnen qua populariteit t.o.v. de PS4. Microsoft wil van alles met hun Xbox One, maar de vraag is maar net of de consument, in het bijzonder, de gamer dat ook allemaal wil. Veel keutels hebben ze al ingetrokken, zoals door verkoop van games (die bal ligt nu bij developers) en het om de 24 uur internet moeten hebben om de console functioneel te houden.

Kinect is nog iets dat ze graag willen pushen met hun Xbox One, maar ook hier zit eigenlijk geen hond op te wachten. Zeker de gamers zien helemaal niets in Kinect.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
madmaxnl schreef op maandag 01 juli 2013 @ 19:29:
Dat is precies waarom de "TVBOX", zoals jij de Xbox One noemt, het niet gaat winnen qua populariteit t.o.v. de PS4. Microsoft wil van alles met hun Xbox One, maar de vraag is maar net of de consument, in het bijzonder, de gamer dat ook allemaal wil. Veel keutels hebben ze al ingetrokken, zoals door verkoop van games (die bal ligt nu bij developers) en het om de 24 uur internet moeten hebben om de console functioneel te houden.

Kinect is nog iets dat ze graag willen pushen met hun Xbox One, maar ook hier zit eigenlijk geen hond op te wachten. Zeker de gamers zien helemaal niets in Kinect.
Helemaal met je eens, ik zie het ook niet zitten. Sony heeft het veel beter aangepakt, zij focusen gewoon op de games. Ze hebben ook met afstand de krachtigere hardware en het feit dat de concurrent dan D3D11.2 "net als een PC" kan draaien gaat dat niet goed maken (en de "cloud" evenmin, wat een grap).


offtopic:
Ik kan Microsoft's apparaat gewoon geen console noemen of serieus nemen :P

Hun hele presentatie ging over TV, integratie met handei (NFL), gelul over hoe de cloud zo krachtig is (latency alleen al maakt dat onmogelijk) en andere onzin. Zelfs bij de diverse shows, zoals Kimmel waar beide consoles zijn geweest, was het allemaal marketing praat. Sony heeft het alleen over de games en de hardware gehad, geen andere stierenpoep. Microsoft's ding is een TV settop box, geen console :)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Om het dan toch nog maar enigzins ontopic te houden. Daar was gister nog een nieuwsartikel over op de frontpage: nieuws: 'Esram-geheugenprestaties van Xbox One liggen tot 88 procent hoger'

Dat is geen katten pis, maar in theorie heeft de PS4 nog altijd de betere papieren m.b.t. performance.

10MB en 32MB lijken mij niet veel. Zeker niet als je naar Intel kijkt. Die plakken 128mb eDRAM erbij en daarmee was de HD5200 (Iris Pro) geboren. Dat ding breekt alle APUs van AMD doormidden. AMD zou ook eDRAM voor zijn APUs moeten gaan gaan gebruiken, of i.i.g. één model uitbrengen.

[ Voor 7% gewijzigd door madmaxnl op 01-07-2013 19:56 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Werelds schreef op maandag 01 juli 2013 @ 19:04:
Ik neem aan dat je PRT (Partially Resident Textures) bedoelt? Is beperkt tot AMD en is een extensie op OpenGL, maakt geen deel uit van de spec. Dus voor Nvidia heb je weldegelijk Win8.1 nodig. En voor games die OpenGL niet gebruiken, wat 95% is, ook.
Het is mij bekend dat het een AMD-only OpenGL 4.2 special call is.
Voor de PS4 zal die extensie gewoon werken, maar op de TVBOX wordt D3D gebruikt.

Ik kan dit niet vaak genoeg zeggen, maar op de consoles hebben ze even goed APIs net als op de desktop. In het geval van de PS3 is dat een afgeleide van OpenGL ES, bij de PS4 waarschijnlijk wederom (wellicht niet de ES variant deze keer).
Er is PSGL, de afgeleide van OpenGL ES inderdaad, een high-level API, maar er is ook Libgcm, een low-level API voor de PS3, die veel meer uit de console kan halen. Het zal zeer onwaarschijnlijk zijn dat Sony af stapt van het hebben van de low-level API, aangezien grote studio's deze hard nodig hebben om het meeste uit een console te kunnen krijgen.
Bij de 360 is het een afgeleide van D3D9a (met wat extensies waardoor het min of meer 9.0c is) en bij de TVBOX wordt dat hoogstwaarschijnlijk gewoon 11.2, aangezien er nu ook écht Windows op gaat draaien. De game kernel zal de 11.2 API ook gewoon implementeren zodat er zo min mogelijk verschil tussen de verschillende toestanden op het ding zelf, maar ook met PC's zit. Want MS gebruikt de TVBOX als middel om Win8 te pushen.
Welke low-level API ze bij de 360 hebben weet ik niet, maar ik kan me niet voorstellen dat er gen een is. Hetzelfde zal wederom gelden voor de Xbone. Zonder low-level API is de Xbone gewoon geen partij voor de PS4, maar zal het ook extreem snel bagger zijn vergeleken met de PC. Dat ze Windows 8 willen pushen naar de huiskamer, veranderd daar niets aan.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
dahakon schreef op maandag 01 juli 2013 @ 20:12:
[...]
Welke low-level API ze bij de 360 hebben weet ik niet, maar ik kan me niet voorstellen dat er gen een is. Hetzelfde zal wederom gelden voor de Xbone. Zonder low-level API is de Xbone gewoon geen partij voor de PS4, maar zal het ook extreem snel bagger zijn vergeleken met de PC. Dat ze Windows 8 willen pushen naar de huiskamer, veranderd daar niets aan.
Nope, de 360 heeft geen andere API dan DirectX. Je kunt uiteraard weldegelijk dichter bij het metaal komen, maar dan gaat MS het afkeuren. Hun regels zijn erg strict.

En reken maar dat er geen libgcm terug komt, want libgcm is juist deels waarom de PS3 ports in veel gevallen zo veel slechter zijn dan hun 360 counterparts. Het kost veel meer werk om op die manier RSX aan te sturen, dus de meeste developers doen dat niet en gebruiken gewoon PSGL (wat weer bovenop libgcm gebouwd is). Let wel, Cell zelf stuur je wéér anders aan en met name als je gaat optimaliseren voor de SPE's wordt dat ook erg ingewikkeld. DirectX op de 360 daarentegen is veel efficiënter dan PSGL en is poepgemakkelijk om mee te werken (ooit al eens OpenGL en D3D vergeleken?). Dit hele verhaal is uiteraard ook waarom de PS3 exclusives er ook veel beter uit zien dan multi-platform games of 360 exclusives. Cell is nog steeds een indrukwekkend ding en die paar devs die er mee overweg kunnen persen dan ook veel meer uit Cell en RSX.

Developers hebben ook aangegeven dat ze dat niet meer willen; ze willen niet meer op die manier hoeven werken om gelijkwaardige performance te krijgen. Ik PM je zometeen even een mooi filmpje van Mark Cerny dat hierom draait.


En om dit even een on-topic spin te geven (:P), voor PC gamers betekent dat dat we ten eerste uiteraard betere ports gaan krijgen omdat ze op consoles nu ook fatsoenlijk programmeerbare shaders hebben in dezelfde talen als op desktop. Het merendeel zal nog steeds D3D zijn, maar ik zou er niet van opkijken als er ook meer OGL te zien zal zijn. We zullen dan ook meer DirectCompute en OpenCL gaan zien, omdat die allebei ook ondersteund worden op hun respectievelijke platforms. De PS4 zal wel de vreemde eend in de bijt blijven, juist omdat het een UNIX platform is. Omdat MS ook Win8 meer wilt promoten, gaan we ook meer "MS Exclusive" games krijgen; games op TVBOX en Windows 8, maar niet op PS4. Daar zijn er al een aantal van aangekondigd.

Het enige dat niet zal veranderen is dat PS4 exclusives waarschijnlijk exclusive blijven. Ik zie het niet gebeuren dat Sony studios zoals Naughty Dog ineens PC ports gaat laten maken; hoe graag ik ook games als The Last of Us op PC zou zien :'(


Edit: ah, je hebt DM's uit staan. Dit filmpje is het: YouTube: Mark Cerny "The Road to PS4" - 'No Hum, No Pajama' Edition @ gamelabs 2013

[ Voor 3% gewijzigd door Werelds op 01-07-2013 22:13 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 09-05 19:26
Werelds schreef op maandag 01 juli 2013 @ 22:11:
[...]
Nope, de 360 heeft geen andere API dan DirectX. Je kunt uiteraard weldegelijk dichter bij het metaal komen, maar dan gaat MS het afkeuren. Hun regels zijn erg strict.
Helaas klopt dit ja... ;w Toevallig nog tijdens E3 op gezocht, waarbij ik deze link vond: http://www.eurogamer.net/...60-performance-blog-entry
Suspicions were first aroused by a tweet by EA Vancouver's Jim Hejl who revealed that addressing the Xenos GPU on 360 involves using the DirectX APIs, which in turn incurs a cost on CPU resources. Hejl later wrote in a further message that he'd written his own API for manual control of the GPU ring, incurring little or no hit to the main CPU.

"Cert would hate it tho," he added mysteriously.

According to other dev sources, what that actually means in real terms is that circumventing the use of the standard APIs would result in a submitted game not ever making it past Microsoft's strict certification guidelines which state that all GPU calls need to be routed through DirectX. Compare and contrast with PS3 development, where writing your own command buffers and addressing the RSX chip directly through its LibGCM interface is pretty much the standard way of talking to the hardware.
Best slecht eigenlijk, gezien je een groot deel van het maken van een game voor een console te niet brengt. Je weet weliswaar nog altijd hoe sterk je hardware is, maar kunt er niet optimaal gebruik van maken. :F

[ Voor 9% gewijzigd door Paprika op 01-07-2013 23:17 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Mja, maar dat hebben we met onze GPU's ook. Er moet een balans zijn tussen optimalisatie en robuustheid. Want hoe meer je "to-the-metal" kan programmeren, hoe meer er ook fout kan gaan. En met name op PC's is dat geen goed plan, dus hoe graag Carmack het bijvoorbeeld ook wilt, zoiets als libgcm krijgen we nooit op PC's. Ik denk wel dat AMD en Nvidia mettertijd wel wat meer buiten D3D om mogelijk gaan maken; AMD heeft in elk geval aangegeven dat ze dat wel vaker hebben gehoord en er onderzoek naar gingen doen. Maar dan vrees ik dat dat eerder in OGL terecht komt via extensies dan met D3D.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Interessante verhalen over de api's en consoles, zo is het nog eens een plezier om dit topic door te lezen :)
Omdat MS ook Win8 meer wilt promoten, gaan we ook meer "MS Exclusive" games krijgen; games op TVBOX en Windows 8, maar niet op PS4. Daar zijn er al een aantal van aangekondigd.
Dat betwijfel ik. Windows 8 sowieso niet, er is geen enkele AAA game die dat geprobeert heeft, en de paar indie games die het wel deden verkochten allemaal zo dramatisch slecht dat er alsnog een Windows 7 (en lager) versie is uitgebracht omdat de ontwikkelaar anders zwaar verlies zou draaien. Denk aan Game Dev Tycoon en Skulls of the Shogun.

Voor wat betreft de Xbone: het ontwikkelen van AAA games is enorm duur geworden. Je moet tegenwoordig toch al snel een 5 miljoen exemplaren verkopen om een beetje fatsoenlijke winst te maken. Grote blockbusters als CoD en Battelefield redden dat prima, maar voor minder bekende games is dat een heel ander verhaal. Sleeping Dogs, Hitman: Absolution en zeker Tomb Raider kregen allemaal goede recenties, maar Square Enix leed over dat fiscale jaar een verlies van 134 miljoen dollar. De games waren goed en verkochten tussen de 2 en 3,5 miljoen exemplaren, dat was niet genoeg.

Je moet dus een hoop exemplaren verkopen om winstgevend te zijn. De consolemarkt is waar de grote aantallen verkocht worden. Het maken van games is duur, het porten van games is relatief goedkoop. Je kunt het je als uitgever/developer nauwelijks meer veroorloven om een console exclusive titel te maken. Het verbaast me dat Microsoft en Sony überhaupt nog aan zo veel exclusives bij launch gekomen zijn. Voor een uitgever wordt dat pas vanaf 10 miljoen een beetje interessant, da's een hele hoop geld, zelfs voor Microsoft en Sony. Hoe dan ook, ik verwacht persoonlijk niet dat die trend door zal zetten. Ik ben heel benieuwd hoe veel exclusives we in het najaar van 2015 zullen gaan zien, en in 2016.

Het goede nieuws is dat porten naar de PC makkelijker en goedkoper zal zijn dan bij de huidige generatie consoles. Nog steeds geen kinderspel, maar een PC port zal financieel sneller aantrekkelijk zijn en ik hoop dan ook op een toename van PC ports van (hopelijk) goede kwaliteit. Of dat ook echt zal gebeuren durf ik echter niet te zeggen. ;)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Anoniem: 59888 schreef op dinsdag 02 juli 2013 @ 05:29:
Interessante verhalen over de api's en consoles, zo is het nog eens een plezier om dit topic door te lezen :)
Mag misschien niet direct Radeon nieuws zijn, maar ik vind dat het hier wel thuis hoort, want deze generatie consoles (of 1 er van in elk geval :P) gaat een gigantische impact hebben op wat games gaan doen en wat de beide fabrikanten gaan doen om zichzelf zo goed mogelijk in de markt te zetten.
Dat betwijfel ik. Windows 8 sowieso niet, er is geen enkele AAA game die dat geprobeert heeft, en de paar indie games die het wel deden verkochten allemaal zo dramatisch slecht dat er alsnog een Windows 7 (en lager) versie is uitgebracht omdat de ontwikkelaar anders zwaar verlies zou draaien. Denk aan Game Dev Tycoon en Skulls of the Shogun.
Het sleutelwoord dat je hier mist is "nog". Nog geen AAA game heeft dat geprobeerd. Zoals ik al zei, er zijn al titels aangekondigd waar dat wel het geval is: Titanfall, Project Spark.
Voor wat betreft de Xbone: het ontwikkelen van AAA games is enorm duur geworden. Je moet tegenwoordig toch al snel een 5 miljoen exemplaren verkopen om een beetje fatsoenlijke winst te maken. Grote blockbusters als CoD en Battelefield redden dat prima, maar voor minder bekende games is dat een heel ander verhaal. Sleeping Dogs, Hitman: Absolution en zeker Tomb Raider kregen allemaal goede recenties, maar Square Enix leed over dat fiscale jaar een verlies van 134 miljoen dollar. De games waren goed en verkochten tussen de 2 en 3,5 miljoen exemplaren, dat was niet genoeg.
Was niet genoeg om de idiote marketing budgets waar te maken nee ;)

Games ontwikkelen is niet *zo* veel duurder geworden en die budgets worden vaak overdreven. Neem CoD bijvoorbeeld; daar claimen ze budgets van $200m-$300m, maar dat gaat echt niet in de ontwikkeling zitten. $30m is al te veel voor die games; ik zou in elk geval niet weten waar dat in gaat zitten. Niet in de technologie, het is nog steeds zichtbaar Tech 3. Ook niet het cliché verhaal, ontwikkeling van de MP, kwaliteit van assets (textures etc.). BF3 en HL2 werden allebei ontwikkeld op budgets van $30m-$40m; om dat goed te maken heb je zelfs met 40 miljoen al genoeg aan zo'n 700k-800k verkochte exemplaren.

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Ik heb van Call of Duty wel eens gelezen dat er 100 miljoen dollar naar de 'ontwikkeling' ging, en 200 mln naar de marketing. Verbaast me niks, zelfs hier op Tweakers wordt je doodgegooid met CoD-propaganda.
Op zich hoeft het idee om Microsoft-exclusives te maken nog niet slecht uit te pakken: in plaats van dat games als Titanfall (ik weet nog niet of ik die wil spelen, maar het is tot nu toe in de aandacht) alleen op een Xbox uit zouden komen, komen ze nu ook op de PC uit, waardoor je, als je een PC en PS4 hebt - die tot nu toe op tech- en gamesites niet wordt afgekraakt - de Xbox One lekker kunt laten zitten, en je toch bijna alle games kan spelen.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Sp3ci3s8472 schreef op maandag 01 juli 2013 @ 18:57:
[...]


Wat appart ik heb hier op mijn HD5870 geen problemen mee, gebruik je toevallig texmod? Als je dat gebruikt dan stort de fps inderdaad in.
Ik kan Mass Effect 2 en 3 met supersampling draaien (2x) en kom dan niet onder de 40fps, nu heb ik wel een kleiner beeldscherm dan jij :p, maar ik kan mij niet voorstellen dat het verschil tussen 1200p en 1600p zo groot is.
Mass Effect 1 is een ander verhaal, daar zit een of ander film/grain filter over heen wat de boel zodanig vertraagd dat supersampling niet leuk is ;).
Nee dat was met Mass effect 2 echt een no go voor de FPS. Ik wil gewoon rond de 60 blijven zitten. En niet regelmatig onder de 40 komen.
Dat is het denk ik: 1600x1200 = 1,92 mpixel 256x1600 = 4,096 mpixel
Dus meer dan 2x zo zwaar. Daarnaast wil ik gewoon dat het soepel loopt.

Ik heb die film grain filter gewoon aan staan. maar 2x MSAA ging nog wel met een 7970 OC @ 1150-1600.
Bij 4x vond ik het niet altijd soepel genoeg meer. Ik ben daar heel Kritisch in.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-05 20:15

Sp3ci3s8472

@ 12 graden...

Astennu schreef op dinsdag 02 juli 2013 @ 12:50:
[...]
Nee dat was met Mass effect 2 echt een no go voor de FPS. Ik wil gewoon rond de 60 blijven zitten. En niet regelmatig onder de 40 komen.
Dat is het denk ik: 1920x1200 = 2.304 mpixel 256x1600 = 4,096 mpixel
Dus meer dan 2x zo zwaar. Daarnaast wil ik gewoon dat het soepel loopt.

Ik heb die film grain filter gewoon aan staan. maar 2x MSAA ging nog wel met een 7970 OC @ 1150-1600.
Bij 4x vond ik het niet altijd soepel genoeg meer. Ik ben daar heel Kritisch in.
Het was 1920x1200 = 2.304 mpixel :), maar ik begrijp inderdaad dat het dan haast 2x zo zwaar wordt. Het kan ook wezen dat de 1gb vram van de HD5870 dan ook een probleem wordt en dat dat de limiterende factor was. Mijn kaart loopt op 1050 - 1250. Ik heb trouwens ook geen vsync aan, ik kan daar niet tegen :p.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
deraco96 schreef op dinsdag 02 juli 2013 @ 12:48:
Op zich hoeft het idee om Microsoft-exclusives te maken nog niet slecht uit te pakken: in plaats van dat games als Titanfall (ik weet nog niet of ik die wil spelen, maar het is tot nu toe in de aandacht) alleen op een Xbox uit zouden komen, komen ze nu ook op de PC uit, waardoor je, als je een PC en PS4 hebt - die tot nu toe op tech- en gamesites niet wordt afgekraakt - de Xbox One lekker kunt laten zitten, en je toch bijna alle games kan spelen.
Dit is waar ik persoonlijk op hoop, want de eerste Xbox en de 360 hadden allebei maar bar weinig exclusives die me aanspraken. Eigenlijk zelfs maar 1, Forza.

Ik denk dat ze nu al van deze MS Exclusives aankondigen en regelen voor het geval dat de One inderdaad zo hard gaat floppen als het lijkt. MS weet dondersgoed dat ze niet tegen de PS4 op kunnen qua kracht (vandaar ook de overdreven marketing en "cloud" hype), dus als het mis gaat gooien ze het op MS Exclusives om zo toch mensen te verleiden tot de aanschaf omdat het "goed met je PC werkt" en dergelijke. In dat geval kan AMD daar natuurlijk ook een extra graantje van meepikken qua marketing ("Xbox One games het beste op je PC met AMD!"); zou vies spel zijn, maar de concurrent zou er niet van af zien. AMD doet er tot nu toe niet heel veel mee dat ze de console markt gaan beheersen; grappig is wel dat Nvidia juist het tegenovergestelde doet door te beweren dat het het niet waard is. Ik denk dat AMD toch wel happy is met dominantie in een markt van zo'n 150+ miljoen gebruikers met hun kersverse architectuur en APUs :D

Als de One het wel gewoon goed doet zullen we inderdaad waarschijnlijk niet zo heel veel MS Exclusives meer zien :)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 09-05 19:26
Werelds schreef op dinsdag 02 juli 2013 @ 10:00:
Neem CoD bijvoorbeeld; daar claimen ze budgets van $200m-$300m, maar dat gaat echt niet in de ontwikkeling zitten.
Lijkt me toch ook niet...
Art and Animation - $75,780 (up from $71,354)
Audio - $83,182 (up from $68,088)
Business - $102,160 (down from $106,452)
Game Design - $73,386 (up from $70,223)
Production - $85,687 (down from $88,544)
Programming - $92,962 (up from $85,733)
Quality Assurance - $47,910 (down from $49,009)
Ze zeggen wel iets van 500 man aan een project te hebben werken, dat telt wel natuurlijk al snel aan als je zegt ~70.000 per man (35 mil/jaar). Vraag me alleen af waar dat dan in gaat zitten. Zeker 50 man die werken aan de game, en 450 man die veel moeten testen om te bepalen of het niet teveel opvalt dat de engine niet verandert is :+.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Paprika schreef op dinsdag 02 juli 2013 @ 13:40:
450 man die veel moeten testen om te bepalen of het niet teveel opvalt dat de engine niet verandert is :+.
_O- _O-

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Onderschat de totale kosten van het ontwikkelen, marketen en secundaire kostenposten (zoals masseurs voor de coders, als voorbeeldje) niet. Bovendien zitten grote studio's vaak in zeer dure gebouwen. Chris Roberts bijvoorbeeld is nu bezig met een Indie project. Hij heeft berekend dat als zelfstandige onderneming, je 80% kunt besparen op onkosten (marketing, management, huur, venture capitalists enz) en nog heeft hij 21 miljoen nodig om zijn beoogde game te maken.

Om het interessanter te maken. Hij heeft recent bekend gemaakt wat het kost om 1 ruimteschip te maken. Dat begint bij 35.000 dollar voor een simpel schip, tot 150.000 dollar voor een groot schip. Om een ideetje te geven over hoe snel objecten in een uitgebreide game het kostenplaatje omhoogwerken.

Hoe dan ook, ik denk dat er weinig exclusives zullen zijn van de grote merken, die niet uit studio's komen die tot Microsoft of Sony behoren en dan tel ik 'exclusive dlc' even niet mee. DX11.2 zal de Xbone daarbij ook echt niet helpen.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Werelds schreef op dinsdag 02 juli 2013 @ 10:00:
[...]

Het sleutelwoord dat je hier mist is "nog". Nog geen AAA game heeft dat geprobeerd. Zoals ik al zei, er zijn al titels aangekondigd waar dat wel het geval is: Titanfall, Project Spark.
Titanfall is geen W8 exclusive. Project Spark is dat inderdaad wel, maar dat is dan ook een game van Microsoft Studios. Ik verwacht overigens bepaald geen goede verkoopcijfers op de PC daardoor.
Werelds schreef op dinsdag 02 juli 2013 @ 10:00:
[...]

Was niet genoeg om de idiote marketing budgets waar te maken nee ;)

Games ontwikkelen is niet *zo* veel duurder geworden en die budgets worden vaak overdreven. Neem CoD bijvoorbeeld; daar claimen ze budgets van $200m-$300m, maar dat gaat echt niet in de ontwikkeling zitten. $30m is al te veel voor die games; ik zou in elk geval niet weten waar dat in gaat zitten. Niet in de technologie, het is nog steeds zichtbaar Tech 3. Ook niet het cliché verhaal, ontwikkeling van de MP, kwaliteit van assets (textures etc.). BF3 en HL2 werden allebei ontwikkeld op budgets van $30m-$40m; om dat goed te maken heb je zelfs met 40 miljoen al genoeg aan zo'n 700k-800k verkochte exemplaren.
Zoals dahakon ook al zei zijn de kosten van het maken van een game echt een stuk hoger dan je denkt. Zeker shooters zijn duur om te maken, omdat je bijna geen content kunt hergebruiken. Bij een racegame kun je hetzelfde circuit meerdere keren gebruiken, bij een RPG komt de speler elke keer weer terug in z'n home-town, maar bij een shooter ren in de single-player campaign in vijf minuten door een level en dat was het. Dat level moet ontworpen worden, de textures moeten custom made worden, de gameplay en AI gescript, en vervolgens moet alles getest worden om er zeker van te zijn dat de gameplay werkt, het level niet te moeilijk of te makkelijk is, er geen clipping issues of bugs zijn, etc, etc.

Dat kost allemaal een hoop tijd, gamedevelopers worden net zoals iedereen per maand betaald en dit is dus een heel duur geintje. Jaarlijkse series zijn wat dat betreft nog duurder, aangezien je door de overhead meer dan twee keer zo veel mensen nodig hebt om een game in de helft van de tijd te kunnen maken. Het is niet voor niets dat games waarvan ieder jaar een nieuw deel uit komt niet al te veel veranderen.

Daar komen dan nog vele aanvullende kosten bij, die dahakon al noemde. Verder overschat je de inkomsten. Aan 700k verkochte exemplaren houd je echt geen 40 miljoen aan inkomsten over. De belastingdienst, winkel, distributeurs e.d. houden allemaal hun deel in. En hoewel je gelijk hebt dat de marketingmachines voor CoD en BF uit hun voegen gebarsten zijn, voor de drie Square Enix games die ik noemde is dat niet het geval. Een AAA game moet veel exemplaren verkopen om winstgevend te zijn, dat lukt je niet als niet alles en iedereen van je game gehoord heeft, marketing is domweg noodzakelijk. Dat is voor indies overigens niet anders, al werken die uiteraard met een veel kleiner budget.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 09-05 19:26
dahakon schreef op dinsdag 02 juli 2013 @ 16:14:
Om het interessanter te maken. Hij heeft recent bekend gemaakt wat het kost om 1 ruimteschip te maken. Dat begint bij 35.000 dollar voor een simpel schip, tot 150.000 dollar voor een groot schip. Om een ideetje te geven over hoe snel objecten in een uitgebreide game het kostenplaatje omhoogwerken.
Vraag ik me wel af hoeveel die ontwerpers dan wel niet verdienen. Ik ken via een hobby game project een jongen die student loopt bij Guerrilla, en die doen het toch schijnbaar wel aardig snel. Volgens dat bedrag zou je 3 ontwerpers een jaar lang 5 dagen per week bezig houden, voor 1 spaceship, en als ik de plaatsjes bekijk op google van Star Citizen vind ik dat wel belachelijk veel, gezien wat hij er in z'n eentje in een maand al uitstampt.
Ah, daar zit wel ook alles bij zodat ie ook 100% klaar is voor gebruik. Dat zou best kunnen als het spel je ook binnen in een ruimteschip laat rondlopen en er dus ook echt een crew is, boordcomputers etc.

[ Voor 19% gewijzigd door Paprika op 02-07-2013 17:31 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
En dan nog is een budget van 300 miljoen overdreven voor de ontwikkeling - 75% daarvan is gewoon voor marketing, zeker voor een game als CoD. Reken even mee; 500 man, 100k per jaar, 3 jaar lang. Dan zit je nog pas op 150 miljoen; voor 1 jaar is dat dus "maar" 50 miljoen. Van die 200-300 miljoen die vaak geclaimd worden is 75% gewoon puur voor marketing. Het ONTWIKKELEN van het spel is lang zo duur niet. Geloof me, marketing bureaus zijn een pest op de aardbol, die rekenen echt veel te veel voor wat ze doen. Ik heb er regelmatig mee te maken en ik krijg er steeds meer een hekel aan.

En als we dan eens even serieus naar een game als CoD kijken; textures van MW1 zie je nog steeds terug in MW3 hoor. Of laat ik het dan weer omdraaien; hoe zou een game als BF3 geproduceerd kunnen worden voor pak 'm beet 30-40 miljoen en zou CoD het tienvoudige nodig hebben? Nee, sorry voor CoD is 30 miljoen echt te veel qua ontwikkelings kosten ;)

Ik heb ook nooit beweerd dat je aan 700k exemplaren 40 miljoen winst hebt; wel zijn er 40 miljoen aan inkomsten, waarvan een deel terug naar de retailers vloeit en een groot deel door publishers wordt opgevreten. Nu klinkt dat laatste lame, maar die publishers steken een groot deel van datzelfde geld uiteindelijk ook terug in de studio voor de volgende game.

In het geval van SE komen de verliezen dan ook niet door die "slecht verkopende" games, maar door andere zaken. SE heeft wat schulden af te lossen gehad door eerdere verliezen en ook weer (te) veel in marketing gestoken, dus dan kom je al gauw op een netto verlies uit. Ik denk dat als je per game gaat bekijken elke game gewoon winstgevend was, alleen niet genoeg om SE uit de brand te helpen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Paprika schreef op dinsdag 02 juli 2013 @ 17:25:
Vraag ik me wel af hoeveel die ontwerpers dan wel niet verdienen. Ik ken via een hobby game project een jongen die student loopt bij Guerrilla, en die doen het toch schijnbaar wel aardig snel. Volgens dat bedrag zou je 3 ontwerpers een jaar lang 5 dagen per week bezig houden, voor 1 spaceship, en als ik de plaatsjes bekijk op google van Star Citizen vind ik dat wel belachelijk veel, gezien wat hij er in z'n eentje in een maand al uitstampt.
Ah, daar zit wel ook alles bij zodat ie ook 100% klaar is voor gebruik. Dat zou best kunnen als het spel je ook binnen in een ruimteschip laat rondlopen en er dus ook echt een crew is, boordcomputers etc.
Als je bedenkt dat een CM (community manager) al 4000 euro bruto kan verdienen bij een kleine ontwikkelaar, waar ook nog een deel werkgevers lasten overheen gaan, dan zit je voor een CM al gauw op ~75000 euro per jaar aan loon/lasten. Bedenk daarbij natuurlijk ook dat de werknemer daar hooguit de helft van terug ziet als netto loon.

Verder was het voorbeeld van een schip eentje van een wat hogere kwaliteit object met veel detail. Ook de binnenkant moet geheel gedetaileerd en bruikbaar zijn. Ik weet niet of je de 'commercial' van de 300i hebt gezien, maar het detail is hoog. De 150K zal waarschijnlijk opgaan voor een carrier van over 1km lang, waar je ook helemaal doorheen kunt lopen. Het punt was, dat als je een gedetaileerde omgeving wilt maken, daar best veel bij komt kijken en waarmee de kosten dus aardig snel op kunnen lopen.

(ik zie dat je de boel had geedit, net voor het moment dat ik op quote drukte)

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Werelds schreef op dinsdag 02 juli 2013 @ 17:35:
En dan nog is een budget van 300 miljoen overdreven voor de ontwikkeling
Bron? Al dat geleuter zonder bronnen is niet zo interessant.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Geen flauw benul, laatste CoD is toch al weer lang geleden :P

Is ook vooral voor de laatste 3; met MW2 hadden ze het nog over iets van 40-50 miljoen aan ontwikkelingskosten - en 150 miljoen ernaast als launch (lees: marketing) budget. Maar bij Black Ops claimden ze ineens zo'n belachelijk budget van 300 miljoen, zonder daarbij aan te geven wat er voor marketing bedoeld was.

Ik zal straks eens kijken of ik ze nog kan vinden.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 09-05 19:26
dahakon schreef op dinsdag 02 juli 2013 @ 18:10:
[...]
(ik zie dat je de boel had geedit, net voor het moment dat ik op quote drukte)
Sorry. :$

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Call of Duty is uiterst goedkoop om te maken omdat de engine die ze nu nog gebruiken voor Black Ops II ook voor Call of Duty 2 is gebruikt. Ja de engine heeft wat veranderingen door gegaan, maar dat valt reuzen mee. Het mooie is dat de engine gebruikt in Call of Duty 2 ook niet nieuw was en weer een geupgrade Tech 3 engine was. Met deze engine waren ze al bekend omdat ze deze voor Call of Duty en Call of Duty United Offensive hebben gebruikt.

"The Call of Duty engine uses the framework and level-editing tools of the Return to Castle Wolfenstein engine, which in turn is an enhanced version of the Quake III engine. Several all-new systems were required to make our vision of Call of Duty possible. We have an all-new hardware T&L renderer, capable of 200,000-polygon scenes. It also supports vertex programs and pixel shaders. This allows us to create detailed scenes filled with a huge number of soldiers. We also have a new light compiler, named "Flare," which allows us to create detailed antialiased shadows with variable lightmap density across each of our levels." - Vince Zampella

Bron

Nog wel een leuk gedeelte van deze Q&A m.b.t. de gaande discussie.

"GS: Tell us a little about Infinity Ward's history with first-person action games.

VZ: Infinity Ward has been around since January of 2002. The company includes 21 members of the team--including all the project leads--that developed Medal of Honor: Allied Assault. We have since added some new employees to help round out the team.

GS: Give us the project's vital stats: How long has it been in development? How many people are on the team?

VZ: We have been working on Call of Duty since April of last year. We are currently up to 27 employees. The entire studio is concentrating on making this game an experience that will enthrall players.
"

Ironisch dat ik Call of Duty geweldig vond en alles na Call of Duty 4 dramatisch vond. Na Call of Duty 4 hadden ze moeten stoppen en een nieuwe engine moeten gaan gebruiken.

Ze zullen met de komst van de nieuwe consoles wel een nieuwe engine gaan ontwikkelen die meteen DX11 functionaliteiten kan aanspreken.

[ Voor 4% gewijzigd door madmaxnl op 02-07-2013 22:02 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Dus de laatste CoD game is eigenlijk de Quake III engine van MoH:AA met een heleboel upgrades/updates/tweaks en andere gekkigheid ?!?!

DAMN! :P

Mogen ze trouwens wel weer maken zo'n simpel MoH:AA spelletje zonder gezeik met NAT poorten en Dedicated Servers die je gewoon zelf mag draaien, de game modden zonder beperkingen, enz... enz...

De good old days! :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
nero355 schreef op dinsdag 02 juli 2013 @ 23:23:
Dus de laatste CoD game is eigenlijk de Quake III engine van MoH:AA met een heleboel upgrades/updates/tweaks en andere gekkigheid ?!?!
Nope ouder nog, immers een Quake III engine van Return to Castle Wolfenstein. ;)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 03-05 19:40

RuddyMysterious

a smorgasbord of waywardness

Het laatste onderwerp is zo interessant dat het zelfs een pagina gekregen heeft op wikipedia! ;)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Frame Rating: Catalyst 13.8 Brings Frame Pacing to AMD Radeon

Alhoewel het issue bij multi-monitor setup niet opgelost is, is de eerste framepacing driver voor singlemonitor setups en multi-gpu positief ontvangen.


http://www.pcper.com/revi...D-Radeon/Closing-Thoughts

Als ik hier bij mijn favoriete spel kijk bij FPS by Percentile en Frame Variance:
http://www.pcper.com/revi...-AMD-Radeon/Battlefield-3

dan is op 1080p de 7970CF eigenlijk zelfs beter dan 680SLI.

[ Voor 39% gewijzigd door Help!!!! op 02-08-2013 12:45 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Een erg mooi resultaat! hier hebben veel mensen lang op gewacht. Ik hoop dat ze deze lijn door zetten en dit ook fixen voor eyefinity, 3 way cf en 4k.

daarnaast ben ik benieuwd of de volgende generatie kaarten misschien al iets hardware matig gaan doen. Maar ik gok dat dat nog een generatie of zich zal laten wachten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ik ben ook bang dat dat nog een generatie langer duurt helaas. In de review van Anand las ik volgensmij wel dat het nu echt wel een speerpunt voor ze is om op gelijk niveau met nvidia te komen dus er gaat vast iets komen.

Ook is het verstandig van AMD om framepacing default aan te zetten. In eerste instantie gaven ze namelijk dat ze het aan de gebruiker zouden laten om het aan te zetten. Wat een beetje eigenwijs overkomt omdat vrijwel iedereen met verstand van zaken het erover eens is, dat het er met framepacing beter uitziet.

Hopelijk hebben ze bij de launch van de nieuwe serie een driver die ook DX9, eyefinity, 3way CF, OGL en 4k fixt.

Ben wel blij dat ze zich aan de timing hebben weten te houden EN een vrij goed gelukte driver hebben geleverd. Dit hersteld wat van het toch behoorlijk beschadigde vertrouwen.

Techreport verwoord dat goed in zijn conclusie:
But realize that literally years have passed since the first forums and tech websites, particularly in Europe, started talking about microstuttering. Nvidia claims to have implemented its frame pacing solution back in the G80 generation of cards, a claim we still need to confirm. We know AMD did nothing back then. We first talked to AMD about microstuttering nearly two years ago, for our first Inside the second article. We illustrated the problem with frame-by-frame plots at that time. Evidently, AMD did nothing. Only when we irrefutably pinpointed the problem at the display level with the aid of the FCAT tools supplied by AMD's competition did Team Radeon begin taking microstuttering seriously. Work on a driver fix finally began. With this issue exposed for all to see, the firm went ahead and released the Radeon HD 7990 to consumers when a fix was months away—and marketed the product on the basis of FPS scores, a metric multi-GPU solutions with microstuttering essentially inflate artificially.

There is a lingering question of trust here. If another issue crops up with multi-GPU configs that impacts gameplay but isn't easily quantified, will AMD do the right thing for its customers? I'm afraid I can't make any plots or high-speed videos to answer that one. You'll have to make that call yourself.

[ Voor 88% gewijzigd door Help!!!! op 03-08-2013 09:01 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Anandtech heeft ook een review online staan over de frame times:

http://www.anandtech.com/...-pacing-explorer-cat138/6

nVidia heeft nog steeds betere frame times. Maar! AMD heeft 0 droped frames en 0 runt frames. Waar nVidia nog wel runt frames heeft in sommige games.

Dus zeker niet slecht voor een eerste poging van AMD om dit probleem op te lossen. Ze zijn zeker op de goede weg. Nu door zetten!

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Aangezien het extreem stil blijft post ik bij deze toch maar een gerucht van fudzilla (in het kader iets is beter dan niets :) )
Volcanic Islands are AMD’s codename for next-gen GPUs, but the next-next-gen parts may end up with a more colourful codename – Pirate Islands.

Of course, this is just a rumour at this point, so take it with a grain of salt. According to 3Dcenter.org, the new names are indeed legit and they include three GPUs, Bermuna, Fiji and Treasure Island. All three appear to be 20nm parts, which means they’re not coming anytime soon.

As for Volcanic Islands, the codenames are New Zealand (again), Hawaii, Maui, Iceland and Tonga. They should appear in late 2013, but details are still sketchy. Let's just hope they're more Captain Sparrow than Capitan Morgan.

TSMC’s 20nm node won’t be ready for mass production as soon as GPU makers would like, hence it should take at least six months before we see the first 20nm Radeons and Geforces.
Ik ben wel benieuwd wanneer er wat meer leaks komen en of we dit jaar nog nieuwe kaarten krijgen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Don Roberto
  • Registratie: Juni 2011
  • Laatst online: 07-05 09:11
AMD heeft de prijzen van de HD79xx-series omlaag gedaan.

De HD7990 is in Duitsland nu al bij alternate.de voor €639 te koop. De prijzen zijn verder allemaal gedaald.

De HD7970 zijn ook met €25 in prijs verlaagd zijn en de HD7950 is met €35 in prijs verlaagd. Dit is echter in Nederland nog niet gebeurd.

HD7990 wordt nu interessant, want deze zit bijna op het prijspeil van de GTX780.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 01:09
De sapphire 7950 is inmiddels wel voor een lagere prijs verkrijgbaar.
pricewatch: Sapphire Radeon HD 7950 3GB GDDR5 With Boost

[ Voor 53% gewijzigd door mitsumark op 07-08-2013 20:17 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Don Roberto schreef op woensdag 07 augustus 2013 @ 18:29:
AMD heeft de prijzen van de HD79xx-series omlaag gedaan.

De HD7990 is in Duitsland nu al bij alternate.de voor €639 te koop. De prijzen zijn verder allemaal gedaald.

De HD7970 zijn ook met €25 in prijs verlaagd zijn en de HD7950 is met €35 in prijs verlaagd. Dit is echter in Nederland nog niet gebeurd.

HD7990 wordt nu interessant, want deze zit bijna op het prijspeil van de GTX780.
Met de nieuwe drivers is het nu het overwegen waard. Denk alleen niet dat ik nog zoveel geld zou uitgeven, tenzij ECHT nodig nu de nieuwe kaarten er binnen een half jaar wel zullen zijn. (hoop ik)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
AMD has clarified that it is the Hawaii/Volcanic Islands tech day in September, not the launch. The launch will officially happen in Q4 some time, the dates in this article are our speculation.
Bron: http://semiaccurate.com/2...-launch-hawaii-in-hawaii/

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Ik ben benieuwd. Mijn 4870 is onderhand meer dan bejaard (legacy drivers :r) en ik heb eindelijk wat budget voor iets nieuws. De 7000 serie is inmiddels anderhalf jaar oud dus daar begin ik niet meer aan. Nvidia's 780 is me te duur en de 770/760 maken niet echt indruk. Laat AMD maar met een flinke stap komen. Het zou mooi zijn als ze de 770 uit het water konden blazen voor leuke prijzen, maar we zullen zien hoe dat uitpakt. ;) High-end voor 250 euro zoals bij m'n 4870 is er helaas niet meer bij.

Laat ze er meteen maar de 9000 serie van maken. Al was het alleen maar zodat we "over 9000!" grappen kunnen maken. :+

[ Voor 11% gewijzigd door Anoniem: 59888 op 08-08-2013 02:02 ]


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 08-05 16:57
Ik zit met hetzelfde en zit ook te wachten op de nieuwe serie.

Straks krijgen we speciale DBZ edities van die kaarten

Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 23-04 07:23
Astennu schreef op zondag 04 augustus 2013 @ 16:30:
Anandtech heeft ook een review online staan over de frame times:

http://www.anandtech.com/...-pacing-explorer-cat138/6

nVidia heeft nog steeds betere frame times. Maar! AMD heeft 0 droped frames en 0 runt frames. Waar nVidia nog wel runt frames heeft in sommige games.

Dus zeker niet slecht voor een eerste poging van AMD om dit probleem op te lossen. Ze zijn zeker op de goede weg. Nu door zetten!
Merk je al positieve ervaringen ingame? Zelf laatste tijd vies weinig kunnen gamen. Vanavond de drivers is installeren en games zoals borderlands / BF3 / Crysis 3 is spelen met crossfire. Ben benieuwd of ik verbetering ga merken.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Klinkt aannemelijk. Wellicht kaarten in Nov/Dec

Ik vind het stukje over nVidia en de dubbele GPU architectuur wel erg negatief. Ja er zitten nadelen aan van de ontwikkeling kosten. Maar ook grote voordelen. Zie bv GTX680/770 vs HD7970. Die kaarten zijn zuiniger en presteren goed. Of verbruiken even veel en presteren iets beter. Productie Kosten zijn lager omdat de chips kleiner zijn. Nadeel is dat je geen GPGPU hebt. maar de meeste mensen gebruiken dat helemaal niet.

Op dit moment is die splitsing nog wel logisch en kan het juist je verkopen verbeteren omdat je kaarten voordelen hebben ten opzichte van de concurrentie.

Maar als je alle linkjes leest zijn er voorbeelden waar nVidia (in de Proffesional Market (FireGL/Quadro)) Toch marktaandeel aan het verliezen is. Ik vraag me af wat een GK104 in de gaming markt had gedaan als deze ook GPGPU had gehad zoals de GK110.
Dan was het stroom verbruik voordeel weg geweest en had je om het zelfde geluid niveau te behouden duurdere cooling moeten gebruiken. Dus de kosten waren dan hoger.

Dus ik zet mijn vraagtekens of je het ontwikkelen van "twee" architecturen niet terug verdient. En ik zet die twee tussen haakjes omdat het eigenlijk een architectuur is waar bij de GK104 er gewoon veel uit gesloopt is. Maar een groot deel is ook gewoon opnieuw gebruikt.


AMD doet nu wat nVidia afgelopen generatie deed. Gewoon een architectuur die goed is voor Gaming en GPGPU en die over de hele lijn gebruiken ook in de APU's. Ik denk dat dit voor AMD een goede zet is aangezien zijn de integratie met hun CPU's willen verbeteren. Maar nVidia wilt dit juist niet. Dus daar is die splitsing van Gaming en GPGPU architectuur wel te verantwoorden.

Ik ben in ieder geval benieuwd waar dit heen gaat. En ook heel benieuwd naar de 2e generatie GCN.
Anoniem: 59888 schreef op donderdag 08 augustus 2013 @ 02:00:
Ik ben benieuwd. Mijn 4870 is onderhand meer dan bejaard (legacy drivers :r) en ik heb eindelijk wat budget voor iets nieuws. De 7000 serie is inmiddels anderhalf jaar oud dus daar begin ik niet meer aan. Nvidia's 780 is me te duur en de 770/760 maken niet echt indruk. Laat AMD maar met een flinke stap komen. Het zou mooi zijn als ze de 770 uit het water konden blazen voor leuke prijzen, maar we zullen zien hoe dat uitpakt. ;) High-end voor 250 euro zoals bij m'n 4870 is er helaas niet meer bij.


En dan over het stukje dat nVidia's refresh geschrapt zou zijn en dus niets te bieden heeft tegen AMD is in mijn ogen ook niet waar. nVidia heeft de GK110. AMD heeft op dit moment geen single GPU die zo snel is. De refesh kan dit verschil kleiner maken. Maar Titan Verslaan kan nog lastig worden. Daarnaast kan nVidia nog een Titan Pro of iets op de markt brengen waar alle clusters aan staan en die nog wat hogere clocks heeft. En zo kunnen ze er makkelijk 10% extra uit persen.
Ja echt nieuwe chips zouden beter zijn geweest voor nVidia. Maar AMD heeft qua Single GPU performance nog een inhaal slag te maken.

Laat ze er meteen maar de 9000 serie van maken. Al was het alleen maar zodat we "over 9000!" grappen kunnen maken. :+
Ik zou dan nog even geduld hebben. De nieuwe generatie is nu wel heel dichtbij. En dan kun je daar na weer heel lang vooruit.
ArgantosNL schreef op donderdag 08 augustus 2013 @ 09:24:
Ik zit met hetzelfde en zit ook te wachten op de nieuwe serie.

Straks krijgen we speciale DBZ edities van die kaarten
Tja we hebben al twee keer eerder 9xxx kaarten gehad. Maar in de tijd van de 9700Pro was DBZ niet zo populair. Bij de 9800GTX van nVidia bestond het wel :)
Versteegrob schreef op donderdag 08 augustus 2013 @ 09:32:
[...]


Merk je al positieve ervaringen ingame? Zelf laatste tijd vies weinig kunnen gamen. Vanavond de drivers is installeren en games zoals borderlands / BF3 / Crysis 3 is spelen met crossfire. Ben benieuwd of ik verbetering ga merken.
Ik heb zelf geen CF. Dus ik heb het niet kunnen ervaren. Ik ben er wel benieuwd naar.
Met Single GPU had ik weinig problemen. Ik merk wel dat de nieuwe drivers het veel beter doen dan de drivers die we net bij launch hadden. Mijn 7970 is echt veel sneller geworden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Don Roberto
  • Registratie: Juni 2011
  • Laatst online: 07-05 09:11
Help!!!! schreef op woensdag 07 augustus 2013 @ 21:52:
[...]

Met de nieuwe drivers is het nu het overwegen waard. Denk alleen niet dat ik nog zoveel geld zou uitgeven, tenzij ECHT nodig nu de nieuwe kaarten er binnen een half jaar wel zullen zijn. (hoop ik)
Als voor €700 al deze prestaties gekocht kunnen worden, krijg ik alleen maar hogere verwachtingen van de volgende serie videokaarten van AMD. Normaliter zou je dan voor €500 dezelfde prestaties moeten kopen, maar dat is nog maar even afwachten.

Op 25 september zal de Hawaii videokaart van AMD aangekondigd worden. Bron: BSN

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 09-05 19:26
Er moet wel eerst iets uitkomen waar je ook echt een nieuwe GPU voor nodig hebt...

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
Paprika schreef op donderdag 08 augustus 2013 @ 12:09:
Er moet wel eerst iets uitkomen waar je ook echt een nieuwe GPU voor nodig hebt...
BF4 ;)
Don Roberto schreef op donderdag 08 augustus 2013 @ 11:43:
Op 25 september zal de Hawaii videokaart van AMD aangekondigd worden. Bron: BSN
Dat zij Charlie ook:
So now you know what AMD is launching, a 28nm new-generation GPU called Hawaii in late September.
Het hele BSN artikel leest ook een beetje als een herschreven verzie van Charlie's bericht:
http://semiaccurate.com/2...-launch-hawaii-in-hawaii/

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Paprika schreef op donderdag 08 augustus 2013 @ 12:09:
Er moet wel eerst iets uitkomen waar je ook echt een nieuwe GPU voor nodig hebt...
Dat is er al lang. Anders had Titan ook niet bestaan.
Er zijn genoeg games die met AA en AF op 2560x1600 al zwaar zijn.

Daarnaast was er anders hadden dual GPU kaarten ook niet bestaan.
En je hebt natuurlijk Eyefinity en 3D gaming. Bij 3D wil je eigenlijk 120FPS (60 per oog)

En daarnaast komen de next gen games (waaronder BF4) er ook aan.

[ Voor 6% gewijzigd door Astennu op 08-08-2013 12:44 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 23-04 07:23
Inderdaad, k heb 2 x de snelste 7970 en ik heb nog te weinig FPS met Crysis 3 op ultra op EyeFinity.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 09-05 19:26
Omdat BF3 zo slecht draait met een bestaande setup en BF4 zoveel malen beter uitziet zeker... :+
Astennu schreef op donderdag 08 augustus 2013 @ 12:43:
[...]
Dat is er al lang. Anders had Titan ook niet bestaan.
Er zijn genoeg games die met AA en AF op 2560x1600 al zwaar zijn.
En hoeveel van die spellen hebben aan de huidige generatie (oftewel 7XX/Titans) niet genoeg?
Astennu schreef op donderdag 08 augustus 2013 @ 12:43:
[...]
Daarnaast was er anders hadden dual GPU kaarten ook niet bestaan.
En je hebt natuurlijk Eyefinity en 3D gaming. Bij 3D wil je eigenlijk 120FPS (60 per oog)
Dat lukt met m'n GTX680s ook nog wel...
Astennu schreef op donderdag 08 augustus 2013 @ 12:43:
[...]
En daarnaast komen de next gen games (waaronder BF4) er ook aan.
zie boven.
Versteegrob schreef op donderdag 08 augustus 2013 @ 13:12:
Inderdaad, k heb 2 x de snelste 7970 en ik heb nog te weinig FPS met Crysis 3 op ultra op EyeFinity.
Speelt nu toch niemand meer...

De afgelopen jaren was er altijd wel de nood om te upgraden voor nieuwe games die het echt nodig hadden. Inmiddels krijg ik toch langzaam het idee dat ik voor 't eerst meer dan 12 maanden, en naar het schijnt misschien zelfs 24 maanden, hier geen behoefte aan ga hebben.
En dan ben ik misschien nog wel een van de weinige die kan zeggen al aardig wat jaartjes met een tri-monitor setup the gamen en het echt nodig had, en dat is, naar mijn mening, op dit moment nog niet eens een klein beetje 't geval...

[ Voor 15% gewijzigd door Paprika op 08-08-2013 13:50 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Mijn broer heeft Eyefinity met een 7970 OC maar dan moet je voor 60 FPS bijna altijd de settings lager gaan zetten. Dus daar kun je zeker een Titan Of snellere kaart gebruiken. Hetzelfde geld voor 120FPS. Dat lukt je echt niet met een GTX770 of 7970 GHz in moderne games als je alles aan hebt staan en je AA en AF gebruikt. Ook op 1920x1080 niet.

Mass Effect 2 loopt zonder AA en AF wel helemaal soepel. Maar met 4x AA en 16xAF duikt hij soms toch onder de 60 fps op 2560x1600. Met een HD7970 op 1150-1600 MHz. En Nu is Mass effect niet een van de zwaarte spellen die er is.

Het is nog steeds voldoende maar als je echt minimaal 60 FPS wilt zijn de huidige kaarten nog niet snel genoeg. Ik heb het niet over Average 60 Maar over mininaal 60.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Anoniem: 59888 schreef op donderdag 08 augustus 2013 @ 02:00:
Laat ze er meteen maar de 9000 serie van maken. Al was het alleen maar zodat we "over 9000!" grappen kunnen maken. :+
ik heb gehoord dat de 9000 serie al uit is eigenlijk!

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
tomcatha schreef op donderdag 08 augustus 2013 @ 20:59:
[...]


ik heb gehoord dat de 9000 serie al uit is eigenlijk!
Klopt de Radeon 9xxx serie wel maar niet de HD9xxx serie :)
De 9700 Pro stamt uit eind 2002.

Oem's hebben wel HD8970 chips maar dat zijn HD7970 GHz rebrands.

De echte opvolger voor ons consumenten moet nog komen. En dat wordt hopelijk September dit jaar. Maar of die HD8xxx of HD9xxx gaan heten weten we nog niet.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
that was the joke :P

Acties:
  • 0 Henk 'm!

  • deregtx
  • Registratie: Juli 2002
  • Laatst online: 07-02 00:24
Volgens Jon Peddie Research heeft AMD in het tweede kwartaal veel marktaandeel gewonnen:

AMD overall unit shipments increased 10.9%, quarter-to-quarter, Intel increased 6.2%, and Nvidia decreased by 8%.

http://jonpeddie.com/pres...-q2-intel-up-nvidia-down/

Goed nieuws :)

[ Voor 16% gewijzigd door deregtx op 14-08-2013 17:05 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Zou door die Never Settle bundles kunnen zijn.
Wel apart aangezien nVidia de GTX7xx lineup heeft waar AMD geen nieuwe producten had.

Maar goed het grootste deel van de mensen zal het een worst wezen wat voor een kaart ze hebben. Als ze hun games maar goed kunnen spelen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Volgensmij waren de AMD kaarten altijd goed geprijst tov de GTX6xx lineup en daardoor was prijs prestatie prima toch?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Ja dat is ook zeker zo. En zelfs met de GTX7xx lineup.
Ze hebben alleen niets om recht TOV de GTX780 en Titan te zetten. Maar de rest kunnen ze prima bedienen.

Alleen wij als hardware junkies kopen niets nieuws tot de HD9xxx uit is. (of hoe de opvolger ook gaat heten)

Ik denk dat ze het inderdaad goed doen vanwegen de prijs + dat je er games bij krijgt. Daar hebben gamers natuurlijk meer aan dat een logo van een merk of een hoog type nummer.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • CrimsonRider
  • Registratie: Februari 2001
  • Laatst online: 03-05 19:57
Ik heb momenteel een Club3D Joker ( pricewatch: Club3D Radeon HD 7870 XT JokerCard (Tahiti LE) )

Nu maakt die nogal veel lawaai, teveel lawaai. Nu dacht ik eraan om de MK13 erop te installeren. Die claimen dat door hun design de koeler op toekomstige kaarten ook past in toevoeging op de lijst die erbij staat.

pricewatch: Prolimatech MK-13

Heeft iemand hier ervaring mee? En sowieso een idee of dat past op een HD7870?

Code, justify, code - Pitr Dubovich


  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
Ik heb geen ervaring met die cooler. Maar dit hoort in het ervaringen topic thuis. Ik zou eens naar de cooler van Geilid kijken. Die past ook op veel andere modellen. En die vallen volgens mij ook in die prijs categorie.

[ Voor 8% gewijzigd door Astennu op 15-08-2013 13:59 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • westergas
  • Registratie: December 2001
  • Laatst online: 06-05 17:16

westergas

rikkie_pc

Hebben we eigenlijk een record met de langst lopende architectuur zonder echte update? De 7950 is nu ruim 1.5 jaar op de markt.

Sta op het punt om mijn 7950 te voorzien van waterkoeling maar denk dat ik toch maar wacht tot het einde van het jaar.

rikkie de zwerver TweakersIII (TandjeBij!)


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 23:04
westergas schreef op vrijdag 16 augustus 2013 @ 16:18:
Hebben we eigenlijk een record met de langst lopende architectuur zonder echte update? De 7950 is nu ruim 1.5 jaar op de markt.

Sta op het punt om mijn 7950 te voorzien van waterkoeling maar denk dat ik toch maar wacht tot het einde van het jaar.
Ik weet niet of dit een record is. Meestal had je wel iets van een Refresh tussen door. Maar het lijkt er op dat die nu een beetje overgeslagen wordt. nVidia heeft wel een refresh gedaan door de 7xx serie uit te brengen. Al is dat geen nieuwe chip. Ook geen nieuwere stepping zo ver ik weet. Dus dan is het meer een rebrand dan een refresh (ondanks dat ze de clocks verhoogd hebben).

Anyway ik denk dat die ontwikkeling sowieso steeds langzamer zal gaan. Chips worden steeds complexer. En mogen niet meer gaan verbruiken. Liever zelfs minder. In het verleden was dat wel anders. Dan was de opvolger 2x zo snel. En een refresh makkelijk 25% maar toen hebben we nooit naar stroom verbruik gekeken. En ik denk dat dat ook mee verdubbelde. En nu kan dat niet meer.

Ik zou inderdaad even wachten. Volgens geruchten wordt de opvolger eind september aangekondigd. Wellicht kun je dan beter daar voor gaan ipv een water blok er op zetten.
Ik zit er met smart op te wachten :) niet zo zeer omdat een 7970 OC te traag is. Maar ik vind nieuwe hardware zo leuk :P en kan het bij sommige games wel gebruiken. Dan kan de AA aan blijven staan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-04 21:46
Volgens mij is het huidige economische klimaat vooral verantwoordelijk. De huidige pc's zijn goed genoeg en er worden daardoor vrijwel geen nieuwe pc's verkocht. Zonde om zoveel geld te steken in nieuwe ontwikkelingen (zie je denk ik ook op CPU gebied bij AMD), ze doen het wat rustiger aan tot de PC markt weer aantrekt.

The Flying Dutchman

Pagina: 1 ... 9 10 Laatste

Dit topic is gesloten.

Let op:
Het nieuwe deel is hier: CJ's Radeon Info & Nieuwsdiscussie - Deel 126