CJ's Radeon Info & Nieuwsdiscussie - Deel 127 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 6 Laatste
Acties:
  • 24.742 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • The Fox NL
  • Registratie: Oktober 2004
  • Laatst online: 16:04
MazeWing schreef op maandag 24 maart 2014 @ 19:13:
In de mantle reviews van thief zie ik anders toch weinig tot geen winst als de gpu de bottleneck vormt. Wat dus het geval is bij een snelle CPU en hoge resolutie. Dat het misschien op 1024x768 wel nut heeft, komt waarschijnlijk omdat het weer CPU limited is.

Daarbij is de kans dat nvidia een AMD techniek (api) gaat gebruiken nihil. Zeker als dx12 er komt. Dx12 heeft dan ook als voordeel dat het zowel door nvidia, AMD en Intel ondersteund gaat worden, waardoor de support vanuit de developers stukken groter is.
Klopt, op de plaatsen waar de GPU de bottleneck vormt, is de winst met Mantle m.b.t. max framerates minimaal, maar de minimale framerates verbeteren wel, zie bijvoorbeeld de tweakers.net review. Mantle geeft wat dat betreft een veel consistentere ervaring dan DirectX.

Het grote voordeel van Mantle is dus de veel kleinere CPU load. Nu wordt dat door veel figuren afgedaan als onnodig, omdat de meeste met een dikke kaart ook een vette CPU hebben, of omdat AMD dat nodig heeft omdat hun CPU's zwak zijn. In dat laatste zit natuurlijk een kern van waarheid, maar ook mensen met een dikke CPU hebben nu al voordeel van Mantle. Battlefield 4 multiplayer is namelijk zwaar voor de cpu en daar zijn mooie winsten te krijgen door het gebruik van Mantle, zelfs met een snelle i5 of i7 processor. Dit voordeel heb je nu al, maar denk ook eens verder. De lagere CPU load betekent dat de CPU voor andere zaken gebruikt kan worden. Denk aan de nieuwste SimCity, de AI is daar bedroevend en de maps klein omdat het anders te zwaar wordt voor de CPU. Als ze Mantle hadden kunnen gebruiken, was het misschien wel mogelijk geweest om grotere maps of betere AI te implementeren zonder in te leveren op graphics.

Wat betreft het gebruik van Mantle door Nvidia, ik heb mijn twijfels of ze Mantle gaan implementeren. Zelfs al zouden ze de Mantle drivers mogen maken, ik denk dat hun strategie is om Mantle te marginaliseren en in te zetten op DirectX12.
Nu er een alternatief komt voor mantle, zal mantle echt geen gigantische support krijgen. Hoogstens een paar games die binnen een AMD deal vallen.
Kom kom, Mantle wordt geïmplementeerd in Frostbite, Nitrous en CryEngine. Dit betekent dat je Mantle ondersteuning af fabriek in je engine hebt. Je hoeft dus alleen je game op die betreffende engines te baseren en je hebt Mantle ondersteuning. Daar is geen AMD deal voor nodig. Misschien dat de Unreal Engine ook ondersteuning krijgt voor Mantle, het is in ieder geval mogelijk, zie Thief. UE zal wel een unique selling point missen als ze geen Mantle ondersteuning bieden.

Wat betreft DirectX 12, ik vermoed dat het een DirectX 11.2 (voor de lagacy) + een Mantle-achtige implementatie gaat worden (zie ook tweets van @repi, die hint dat DirectX12 wel verdacht veel op Mantle lijkt). Developers die low-level te moeilijk vinden vallen terug op de DirectX 11.2 functionaliteit en de grote developers met meer technische know-how bouwen op de low-level interface. DirectX 12 gaat geen nieuwe hardwarematige features brengen, aangezien het gaat werken op huidige kaarten, dus ik denk dat bovenstaande klopt.

Verder denk ik dat Mantle wel degelijk de ontwikkeling van DirectX 12 heeft aangezwengeld. AMD's Roy Taylor bracht in april, voor de aankondiging van Mantle, het bericht uit dat DirectX bij zijn weten geen opvolger zou krijgen. Microsoft reageerde in vage bewoordingen: DirectX is evolving and will continue to evolve. We have absolutely no intention of stopping innovation with DirectX. In die uitspraak van Microsoft werd met geen woord gerept over DirectX 12. Natuurlijk is de uitspraak van AMD gechargeerd en gedaan met het oog op de introductie van Mantle, maar ik denk niet dat de uitspraak een leugen bevatte: concrete plannen voor DirectX 12 waren er denk ik nog niet. Uiteraard zegt Nvidia dat de ontwikkeling van DirectX 12 al vier jaar geleden begon met discussies, maar dat was het dan ook... discussies. Nu zeggen sommigen dat de ontwikkeling van DirectX 12 allang bezig was, want ze hebben het aangekondigd, dus moeten ze er al een poos mee bezig zijn, maar dan kan je dat ook van AMD zeggen. AMD was dus gewoon eerst en heeft het DirectX 12 team wakker geschud. Daar moeten we trouwens allemaal blij om zijn.

Na de introductie van DirectX 12 zal Mantle voor Windows op zich niet meer nodig zijn, maar het zou mooi zijn als het toch doorontwikkeld wordt als cross-platform api, en dus voor SteamOS.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ik verwacht dat Mantle niet zo snel in de Unreal engines komt, die zijn vaak erg Nvidia minded. Het zou wel mooi zijn omdat het een van de meeste gebruikte engines is.

Het zou mij niks verbazen als AMD gewoon hun Mantle driver kan gebruiken voor DirectX12.

Wat iedereen lijkt te vergeten is dat developpers naar AMD kwamen voor Mantle en blijkbaar niet andersom, dit doet mij denken dat zonder Mantle er nog lang geen DX12 zou komen aangezien devs misschien uit frustratie naar AMD zijn gestapt omdat zij wel bereid waren om aan een betere implementatie te werken.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Daarnaast zou AMD heus wel van DX12 hebben geweten en wat de bedoeling ervan was. Derhalve zou AMD dan dus waarschijnlijk ook eieren voor zijn geld hebben gekozen m.b.t het ontwikkelen van Mantle en hiermee 4 jaar geleden gestopt zijn of niet eens aan begonnen zijn.

Daarnaast is het ook helemaal niet zo moeilijk of tijdrovend om Mantle werkende te krijgen:
http://youtu.be/yak25TKCCrc?t=2m03s

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Verwijderd schreef op maandag 24 maart 2014 @ 20:34:
Toch opvallend dat iedereen hier die nu al concludeert dat Mantle compleet dood is en DX12 het gaat worden een Nvidia kaart in z'n PC heeft zitten...
Ik heb toch echt een HD r6850 in mijn systeem zitten, en ja dat de volgende een Nvidia wordt komt door de prioriteiten van AMD (of beter gezegd gebrek aan) op het gebied van performance per watt.
(enige interessante kaart is de 270x terwijl Nvidia over bijna heel de lijn pareltjes neerzet op dat gebied en de 750ti is echt _/-\o_ )

Wat betreft de aangehaalde Thief en BF4 'verbeteringen' verwachten jullie dat deze er ook maar enigzins zullen zijn bij niet-gesponsorde-mantle-non-referentie-games? Voor zover ik het debacle van BF4 heb meegekregen is 1 ding zeker en dat is dat het heel veel resources van devs kost om het ook maar enigszins goed te implementeren (of Dice heeft er gewoon lak aan ondanks de sponsoring door AMD).

Bij een praktische vendor-lock (Mantle,TressFX,Physx,G-sync) is de consument imo altijd de verliezende partij. (want Nvidia gaat echt niet over een jaar, wanneer AMD eindelijk wat info over Mantle met Nvidia gaat delen alsnog instappen als zij allang met DX12 bezig zijn + een gigantische achterstand op AMD hebben (omdat AMD dat schijnbaar nodig vind)) Dus naast mijn vermoeden dat Mantle snel zal doodbloeden is het ook de hoop dat het gebeurd die ik daarmee uitspreek.
Sp3ci3s8472 schreef op maandag 24 maart 2014 @ 21:56:
Ik verwacht dat Mantle niet zo snel in de Unreal engines komt, die zijn vaak erg Nvidia minded. Het zou wel mooi zijn omdat het een van de meeste gebruikte engines is.
Ik verwacht dat UE4 het een stuk moeilijker gaat krijgen om de markt te veroveren gezien de concurrentie van met name unity en cryengine.

[ Voor 12% gewijzigd door eL_Jay op 25-03-2014 10:12 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Engines zoals UE en Cryengine veroveren bijna geen markt van elkaar maar worden allemaal in kleine hoeveelheid naast elkaar gebruikt. Zo heeft de UR engine strak ook nieuwe games net zoals de paar nieuwe games die worden gebruikt voor de Cryengine.
Op dit moment word meer de UE engine gebruikt dan de cryengine.

Lijsje UE ENGINE games.
Wikipedia: List of Unreal Engine games

Lijstje Cryengine games
Wikipedia: Category:CryEngine games

UE heeft een vele grotere markt, natuurlijk omdat het meer gebruikt worden en langer bestaan en meer volwassen is. Zoals je ook kunt zien is dar ook in de toekomst veel meer UE word gebruikt met de nieuwe games. Ik verwacht dat UR niets te vrezen heeft ;)

[ Voor 45% gewijzigd door Verwijderd op 25-03-2014 10:22 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Vooral indies gebruiken de Unity Engine, veel grote developpers gebruiken hun eigen engine. Zoals Bethesda, Dice, Crytek, ID Software enzovoort.
Unreal Engine wordt imo vooral gebruikt voor games die snel de markt opmoeten zonder al te veel moeite, je kan meestal direct zien dat het een UE game is helaas. Maar dat laat niet weg dat de engine veel wordt gebruikt, hoewel misschien binnenkort minder dan vroeger.

@eL_Jay
AMD heeft veel vaker betere perf/watt gehad als Nvidia, dat dit nu even niet het geval is wil niet zeggen dat ze er nooit meer naar om kijken. Dit is de eerste generatie dat Nvidia weer een beetje fatsoenlijk is op dat gebied.
Ik vertrouw er ook eerder op dat AMD met een goede perf/watt komt dan Nvidia, want we hebben nog geen idee hoe de 750TI doorschaalt want het mist bijv alle compute dingen. Die vind je in kaarten zoals de GTX780 en Titan wel weer terug.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
eL_Jay schreef op dinsdag 25 maart 2014 @ 10:05:
Ik heb toch echt een HD r6850 in mijn systeem zitten, en ja dat de volgende een Nvidia wordt komt door de prioriteiten van AMD (of beter gezegd gebrek aan) op het gebied van performance per watt.
(enige interessante kaart is de 270x terwijl Nvidia over bijna heel de lijn pareltjes neerzet op dat gebied en de 750ti is echt _/-\o_ )
Daar ga je weer. Je baseert je volgende aankoop uit de nog-niet-eens-aangekondigde volgende generatie op de ietwat mindere resultaten van AMD in één enkele generatie en negeert daarbij doodleuk alle voorgaande resultaten. Even afgezien van het feit dat juist met uitzondering van de 750 Ti, wat gewoon een prachtig staaltje werk van Nvidia is zoals we dat 6-7 jaar geleden van ze zagen, Nvidia en AMD over de gehele lijn min of meer gelijk zitten wat performance per Watt betreft.

Nogmaals: kijk eens naar het verleden. Jij schrijft AMD nu al af, gebaseerd op helemaal niets.
Wat betreft de aangehaalde Thief en BF4 'verbeteringen' verwachten jullie dat deze er ook maar enigzins zullen zijn bij niet-gesponsorde-mantle-non-referentie-games? Voor zover ik het debacle van BF4 heb meegekregen is 1 ding zeker en dat is dat het heel veel resources van devs kost om het ook maar enigszins goed te implementeren (of Dice heeft er gewoon lak aan ondanks de sponsoring door AMD).
Mantle is momenteel nog in beta en ze hebben al veel ondersteuning toegezegd gekregen. Het komt zelfs gewoon standaard in CryEngine; CryTek heeft zoiets nog nooit gedaan dus ja, ik verwacht weldegelijk dat we nog mooie dingen gaan zien. In Star Citizen gaan we het gewoon naast PhysX zien draaien. Mantle in BF4 is inmiddels ook gewoon stabiel. De ondersteuning, prestaties en stabiliteit van Mantle momenteel is vast nog niet zo goed als het zou kunnen zijn, maar vervolgens hoef ik maar naar D3D te verwijzen dat pas bij D3D8 een serieuze concurrent werd voor OGL. Een API ontwikkelen is niet bepaald eenvoudig en Mantle is al verrekt volwassen voor een project dat nog geen half jaar geleden werd aangekondigd.
Bij een praktische vendor-lock (Mantle,TressFX,Physx,G-sync)
Ik had nog verder willen reageren, maar nu kan ik je niet meer serieus nemen. TressFX vendor lock-in? Puur omdat Nvidia met GK104 vrijwel geen compute kracht heeft? 8)7

Van al deze middleware oplossingen en andere eigenaardigheden zoals Mantle, is TressFX niet meer of minder vendor locked dan FXAA/MLAA/SMAA dat zijn. Dat het aardig wat compute kracht vereist is een tweede, maar het boeit dus echt gewoon geen reet wat voor merk videokaart je hebt, zolang die kracht maar aanwezig is. Ik stel voor dat je voor de grap maar eens kijkt hoe TressFX presteert op GK110 (780, Titan), die niet gecastreerd is zoals GK104 (680, 770).


Om verder maar even op het huidige onderwerp in te springen (excuus als ik overigens ergens iets gemist heb, ben de laatste tijd wat druk met werk en veel op reis geweest dus ik heb het niet helemaal bij gehouden): eerst zien, dan geloven, net als met Mantle. Nvidia's claims in D3D11 geloof ik geen snars van; wellicht onder extreem specifieke instellingen of met hele specifieke hardware, zoals de rest van hun performance claims. Ik vermijd tegenwoordig driver updates, omdat ze me in de afgelopen twee jaar slechts een keer daadwerkelijk iets meer performance opleverden, terwijl een groot deel van de nieuwe drivers juist compatibiliteitsproblemen geven met bepaalde games.

D3D12 zal vast wel een fikse verbetering zijn, maar Mantle heeft er tegen die tijd gewoon al bijna twee jaar op zitten. Het is helaas ook wel duidelijk dat Nvidia gewoon niet wil als ze er geen controle over uit kunnen oefenen, dus we zullen moeten zien hoe het hele verhaal zich uit speelt. Een ding heeft AMD in elk geval wel klaargespeeld zoals verwacht, MS gaat aan D3D sleutelen (en dat is echt nog geen 4 jaar :P).

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anand heeft inmiddels nog een artikel over de diverse api's geplaatst:

Anandtech: Return of the DirectX vs. OpenGL Debates

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Werelds schreef op dinsdag 25 maart 2014 @ 11:34:
[...]
Nogmaals: kijk eens naar het verleden. Jij schrijft AMD nu al af, gebaseerd op helemaal niets.

Ik had nog verder willen reageren, maar nu kan ik je niet meer serieus nemen. TressFX vendor lock-in? Puur omdat Nvidia met GK104 vrijwel geen compute kracht heeft? 8)7
Ik kijk liever voorruit want juist bij tech zijn in het verleden behaalde resultaten geen enkele garantie voor de toekomst (Nokia en Tulip anyone?) Op basis van de huidige generatie + roadmaps Nvidia (zoals ik je ook al kon vertellen dat de performance increase van Intel sinds sandy ook maar matig zou zijn omdat de focus op efficiency lag, zo heeft Nvidia op dit moment heel duidelijk dezelfde focus waar AMD zich blijkbaar meer op randzaken (Audio/Compute) en Mantle richt, voor sommigen vast heel interessant, maar niet voor mij ;))

Wat betreft TressFX, ik dacht dat het eerst AMD only was (maar ook niet meer gevolgd sinds release Tomb Raider) maar het lijkt nu dus meer een Physx tegenhanger (die dus met tweaks ook op een concurrenrende systeem werkt maar niet geoptimaliseerd is)

offtopic:
Je kunt het ook niet op de man spelen ;)

[ Voor 3% gewijzigd door eL_Jay op 25-03-2014 14:33 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
eL_Jay schreef op dinsdag 25 maart 2014 @ 14:30:
[...]

Ik kijk liever voorruit want juist bij tech zijn in het verleden behaalde resultaten geen enkele garantie voor de toekomst (Nokia en Tulip anyone?) Op basis van de huidige generatie + roadmaps Nvidia (zoals ik je ook al kon vertellen dat de performance increase van Intel sinds sandy ook maar matig zou zijn omdat de focus op efficiency lag, zo heeft Nvidia op dit moment heel duidelijk dezelfde focus waar AMD zich blijkbaar meer op randzaken (Audio/Compute) en Mantle richt, voor sommigen vast heel interessant, maar niet voor mij ;))

Wat betreft TressFX, ik dacht dat het eerst AMD only was (maar ook niet meer gevolgd sinds release Tomb Raider) maar het lijkt nu dus meer een Physx tegenhanger (die dus met tweaks ook op een concurrenrende systeem werkt maar niet geoptimaliseerd is)

offtopic:
Je kunt het ook niet op de man spelen ;)
Ik speel helemaal niet op de man, je zit daar gewoon grandioos fout en je blijft er aan vast houden. Ook je opmerking dat Nvidia's roadmap gericht zou zijn op efficiëntie en dat AMD daar juist van weg zou gaan is onzin. Ik zal het eens heel erg ondubbelzinnig zeggen: AMD zit al jarenlang op een degelijk niveau van efficiëntie, met Kepler is Nvidia eindelijk op datzelfde niveau komen te zitten. AMD's grote vooruitgang op het gebied van compute komt vooral door GCN, niet doordat AMD render efficiëntie heeft opgeofferd - dat is min of meer gelijk aan vorige generaties in verhouding tot de grootte van de chip en het verbruik. TrueAudio heeft geen enkel effect op de efficiëntie of prestaties, aangezien dat een aparte chip is. Met de mini-Maxwell laat Nvidia zien dat ze met hun volgende generatie in elk geval op de kleine chips van plan is stevig te gaan concurreren; want dat segment ligt al jaren in de handen van AMD. Die kleine Maxwell is slechts iets meer dan een vijfde van GK110 qua oppervlak en gewoonweg geen indicatie van wat er komen gaat bij de grotere en snellere chips waar het ons vooral om gaat - juist jij zou dit in moeten zien, omdat dit verschil bij AMD ook zo groot is. Deze chip is echter ook niets meer dan een voorloper op de echte chips, die waarschijnlijk laat dit jaar komen; AMD heeft nog niets laten zien of zelfs doorschemeren van diezelfde generatie. Jij vergelijkt een architectuur die pas serieus in 2014-Q4 op de markt komt met een architectuur uit 2012-Q1.

Het enige dat je over AMD's efficiëntie kunt zeggen is dat Hawaii het hoogste verbruik en slechtste TDP aan AMD's kant in jaren is. Ga je echter de vergelijking trekken met Nvidia zitten ze echt niet zo ver uit elkaar; het voordeel dat Nvidia heeft is miniem. De twee fabrikanten zijn met de huidige generatie gewoon bijzonder aan elkaar gewaagd, wat voor ons gewoon mooi is en ik twijfel er ook niet aan dat beide dit op alle vlakken vast willen houden.


Verder wat TressFX betreft: dat is nooit en te nimmer beperkt geweest tot AMD videokaarten. En nee, het is niet zoals PhysX, het draait namelijk ook met Nvidia kaarten gewoon 100% op de GPU. Daar is verder ook geen optimalisatie van toepassing die specifiek voor AMD zou zijn, aangezien het via DirectCompute loopt en de enige optimalisatie die daar van toepassing kan zijn in de driver zit. Met andere woorden: het is aan Nvidia om te zorgen dat hun DirectCompute implementatie op orde is; ze mogen blij zijn dat AMD niet voor OpenCL is gegaan, aangezien Nvidia's OpenCL drivers bagger zijn. Nvidia's GPGPU prestaties in kleinere Keplers (alles behalve de 780/Titan) is gewoon ruk. Punt. Die dingen presteren niet beter dan een GTX 480. Dat is Nvidia's fout en probleem, niet AMD's.

Ik zal het nog wat mooier maken, want AMD en Nixxes hebben voor TR zelfs een patch uitgebracht die het gebruik van TressFX terug brengt, zodat het ook op de zwakke Nvidia kaarten kan lopen. Ik wacht nog steeds op die magische patches van PhysX, waar ze de oude 2.6.x implementatie vervangen door de 3.x API die wellicht te gebruiken valt als je geen Nvidia hebt. Sterker nog, ik wacht nog steeds op een serieuze 3.x implementatie buiten PS2.

Voordat er überhaupt een vergelijking met PhysX gemaakt kan worden, zou PhysX eerst eens op AMD GPU's moeten lopen zoals TressFX dat wel op Nvidia GPU's kan. Kan dus nooit.


Edit: excuses als ik wat bot over kom, maar met name jouw beweringen over TressFX geven aan dat je niet helemaal op de hoogte bent. Dat komt waarschijnlijk door desinteresse, maar dat maakt het nog niet goed. Ik meen me te herinneren van enige tijd geleden dat je GPU's nog niet zo lang volgt? Ik weet zeker dat ik het al eens aan heb gegeven, maar ga voor de gein eens de geschiedenis rond Fermi en Cypress lezen. Anand heeft een prachtig artikel over Cypress en daarvoor over R600 geschreven. Nvidia is na G80 sterk berg afwaarts gegaan qua efficiëntie, met als dieptepunt Fermi. Het heeft ze een jaar of 5-6 gekost om weer terug te komen waar ze nu zitten. AMD's efficiëntie curve is afgevlakt over diezelfde periode, maar gezakt zijn ze niet.

[ Voor 13% gewijzigd door Werelds op 25-03-2014 16:49 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Sp3ci3s8472 schreef op dinsdag 25 maart 2014 @ 11:23:
Vooral indies gebruiken de Unity Engine, veel grote developpers gebruiken hun eigen engine. Zoals Bethesda, Dice, Crytek, ID Software enzovoort.
Unreal Engine wordt imo vooral gebruikt voor games die snel de markt opmoeten zonder al te veel moeite, je kan meestal direct zien dat het een UE game is helaas. Maar dat laat niet weg dat de engine veel wordt gebruikt, hoewel misschien binnenkort minder dan vroeger.

@eL_Jay
AMD heeft veel vaker betere perf/watt gehad als Nvidia, dat dit nu even niet het geval is wil niet zeggen dat ze er nooit meer naar om kijken. Dit is de eerste generatie dat Nvidia weer een beetje fatsoenlijk is op dat gebied.
Ik vertrouw er ook eerder op dat AMD met een goede perf/watt komt dan Nvidia, want we hebben nog geen idee hoe de 750TI doorschaalt want het mist bijv alle compute dingen. Die vind je in kaarten zoals de GTX780 en Titan wel weer terug.
Inderdaad. nVidia is sinds Kepler gewoon goed bezig. Maar het zou mij niets verbazen als AMD met 20nm weer een grote slag gaat slaan wat betreft performance/watt. Sowieso door de Die shrink maar wellicht ook door architectuur tweaks.

Ze weten ook wel dat dit belangrijk is. En een lager verbruik zorgt er ook voor dat je minder hoeft te koelen. Dus heb je ook warmte die je moet kwijt raken. Waardoor je koeler stiller kan worden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op dinsdag 25 maart 2014 @ 11:23:
Vooral indies gebruiken de Unity Engine, veel grote developpers gebruiken hun eigen engine. Zoals Bethesda, Dice, Crytek, ID Software enzovoort.
Unreal Engine wordt imo vooral gebruikt voor games die snel de markt opmoeten zonder al te veel moeite, je kan meestal direct zien dat het een UE game is helaas. Maar dat laat niet weg dat de engine veel wordt gebruikt, hoewel misschien binnenkort minder dan vroeger.
Er komen inderdaad ook veel bagger games op uit omdat het een makkelijke engine is en dat zie je dan ook terug in Lost planet 3. Maar er komen ook minstens net zo veel mooie AAA games uit als 2 grote engine's bij elkaar zoals Cryengine en frostbite samen en misschien nog wel een 3e er bij.

Denk dan aan games als BioShock, Batman, Borderlands, zelfs Thief met Mantle en physx samen, leuk om te zien dat AMD en Nvidia samen gewoon lekker dingen in games kunnen stoppen en dit moet meer gebeuren. Volgens mij is UR ver weg de meest gebuikte engine bij alles soorten games?

[ Voor 10% gewijzigd door Verwijderd op 25-03-2014 17:08 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

eL_Jay schreef op dinsdag 25 maart 2014 @ 10:05:
performance per watt.

de 750ti is echt _/-\o_ )
- Is performance per watt echt boeiend bij een 290X of 780 Ti :?
Persoonlijk vind ik het lage IDLE gebruik en de vooruitgang daarin wel grappig om te zien soms, maar eigenlijk kan het me totaal niet boeien bij een high end PC.

- 750 Ti zou ik hooguit in een HTPC zetten om af en toe te gamen. Sterker nog : Mijn HTPC heeft een nVidia GT 630 op dit moment :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
nero355 schreef op woensdag 26 maart 2014 @ 00:45:
[...]

- Is performance per watt echt boeiend bij een 290X of 780 Ti :?
Persoonlijk vind ik het lage IDLE gebruik en de vooruitgang daarin wel grappig om te zien soms, maar eigenlijk kan het me totaal niet boeien bij een high end PC.

- 750 Ti zou ik hooguit in een HTPC zetten om af en toe te gamen. Sterker nog : Mijn HTPC heeft een nVidia GT 630 op dit moment :)
Ja, had graag een 780(ti) in mijn FD node 304 gelegd maar daar ga ik toch maar niet aan beginnen ;) (bij een 290x kan ik al helemaal een eitje bakken op mijn case) En de 770 is door zijn belachelijke geheugenbus helaas geen optie gezien mijn daarop volgende upgrade (WQHD of UHD).
Ik volg het pas 3 jaar inderdaad maar weet voldoende om te stellen dat: In het verleden behaalde resultaten bieden geen enkele garantie voor de toekomst (zoals amd's non APU CPU divisie die sinds de 965beop sterven na dood iseen gamers/htpc-er laatste keus is terwijl de (meen) k8 nog Intels kont schopte).
Ik heb van AMD geen enkele roadmap gezien wat betreft focus op efficientie. (en AMD laat dit in de huidige line-up dan ook blijken, m.u.v. de bejaarde rebrand, de 270x) Nvidia (net als letterlijk elke andere concurrent) laat deze elke conferentie wel zien. (en voegt met maxwell echt, maar ook met Kepler daad bij het woord). Dit betekend natuurlijk niet dat AMD zich daar niet op focust maar geeft wel aan hoe slecht zij dan deze boodschap communiceren (perceived value)

Tel daarbij op dat AMD zelf al geruime tijd.in financieel zwaar weer zit (waar volgens de speculaties zelfs de consoles maar moeilijk het tij kunnen keren)en de leet er wegloopt (iets met ratten en zinkend schip) en dan ga ik geen revoluties of wonderen verwachten voor de toekomst (monopolies Intel en Nvidia?)

Daarnaast wat doet GPGPU ertoe voor de gemiddelde gamer? Leuk dat AMD daar goed op scoort, maar als ik serieus(professioneel) GPGPU nodig heb koop ik wel een tesla (of TitanBlack met krap budget) die daar ook daadwerkelijk voor bedoeld is. (een gamerkaart is gepositioneerd voor gaming een FirePro/Quadro is gepositioneerd voor o.a. GPGPU).
Belangrijker zijn de prestaties voor de 2 meest gebruikte 'talen'/frameworks/api/hoe-het-ook-heet: DiretcX en OpenGL. Versnippering van het landschap van de onderliggende code verliezen we uiteindelijk allemaal aan. Dus totdat er een nieuwe betere standaard komt die ook serieus gedragen wordt door de aanbodkant hou ik het liever bij enkel DX en OpenGL
(en als de populairste engines (UE, Unity, Havok) niet op mantle inzetten is het mijns inziens gedoemd om niet de standaard te halen die DX en OpenGL wel zijn)
offtopic:
Als ik een gamingkaart koop wil ik dat die zoveel mogelijk FPS levert bij de bulk van de oude en recente games (ergo DirectX en OpenGL prestaties) bij zo hoog mogelijke beeldkwaliteit en gewenste reso, tegen een zo laag mogelijke prijs (aanschaf+verbruik) en dat allemaal binnen een acceptabele power enveloppe (want SFF) . Al het andere is voor mij overbodig.


Nogmaals ik hoop oprecht dat AMD jouw gelijk gaat bewijzen en dat mijn volgende GPU weer een AMD word, maar daar heb ik toch een hard hoofd in

[ Voor 63% gewijzigd door eL_Jay op 01-04-2014 11:05 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Eerste foto's Radeon R9 295x2

Afbeeldingslocatie: http://www.guru3d.com/index.php?ct=news&action=file&id=6395

Afbeeldingslocatie: http://www.guru3d.com/index.php?ct=news&action=file&id=6394

Bron.
http://www.guru3d.com/new...d_specs_leak_in_asia.html

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 22:31

Tomas Hochstenbach

Redacteur componenten

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Lekker hoor. Waterkoeling werkt ontzettend goed op GPU's, temperaturen gaan ontzettend omlaag, ook al is het een simpel setje icm met twee giga-GPU's. Hadden ze dit nou ook maar op het referencemodel 290 gedaan, was erg gaaf geweest, en voor bijvoorbeeld de prijzen in Amerika had het toch niet uitgemaakt... :P

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:30
Moet daar niet zo'n ouderwetste support bracket aan het einde van de kaart vanwege het gewicht?

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

Verwijderd

Dat gewicht zal juist wel meevallen aangezien er dankzij de waterkoeling geen groot koelblok op de GPUs meer nodig is. De fan op de kaart zelf lijkt mij voor de koeling van de VRM's e.d., dat zal qua gewicht wel meevallen.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Ik hoop dat die slangen enigzins flexibel, maar vooral lang genoeg zijn voor gebruik in grotere kasten : De Corsair H110 kon ik bijna terugbrengen namelijk :X Totaal niet handig in een kast die groter is dan een gemiddelde midi-tower...

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 07-09 09:08
Is het niet voor AMD mogelijk om ook een versie zonder koeler uit te brengen, voor een iets lagere prijs?
Ik zou bijvoorbeeld zelf waterkoeling erop zetten, en sommige mensen zouden ook andere koeling moeten bevestigen, aangezien de slangen dus te kort kunnen zijn.

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 20:57

superwashandje

grofheid alom

zou misschien wel kunnen maar dan zou AMD ze zonder garantie willen verkopen (anders krijg je minstens de helft terug van amateurs die hun koeling er niet goed of helemaal niet op gezet hebben) en aangezien garantie verplicht is als ik me niet vergis zullen ze dan niet doen.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 30-08 18:22
Net de aankoopprijs van de R9-295 gehoord. Ergens ver in de 4 cijfers. En limited.

Bron: mijn mailbox. :)

[ Voor 13% gewijzigd door Noel op 02-04-2014 18:26 ]

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Opzich meldt Tweakers dat ook al op de frontpage. Niet dat daar een bron bij zit (vziw) maarja die lever jij ook niet. Ontopic vind ik dit soort kaarten gewoon niet interessant. nVidia probeert er nog wat moois van te maken maar deze koeler van AMD is toch niet al te fraai.
Ja ik weet dat ik het even hierboven wel een goed idee vond, die waterkoeling, maar voor de gemiddelde Tweaker is dit te duur en de gemiddelde GPU-enthusiast heeft allang twee 290's al dan niet onder water in huis. Meer een PR-stuntje om nVidia ook een beetje weerwoord te bieden natuurlijk.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
deraco96 schreef op woensdag 02 april 2014 @ 18:06:
Opzich meldt Tweakers dat ook al op de frontpage. Niet dat daar een bron bij zit (vziw) maarja die lever jij ook niet. Ontopic vind ik dit soort kaarten gewoon niet interessant. nVidia probeert er nog wat moois van te maken maar deze koeler van AMD is toch niet al te fraai.
Ja ik weet dat ik het even hierboven wel een goed idee vond, die waterkoeling, maar voor de gemiddelde Tweaker is dit te duur en de gemiddelde GPU-enthusiast heeft allang twee 290's al dan niet onder water in huis. Meer een PR-stuntje om nVidia ook een beetje weerwoord te bieden natuurlijk.
Ja en nee. Zo'n kaart kost wel tijd om te ontwerpen. Dus het is wel iets waar AMD al langer mee bezig is.
Maar dit is inderdaad gericht tegen de Titan Z.

Ik wil er maar al te graag een hebben voor mijn verzameling.

Wel jammer dat het geen single block ontwerp is maar een 2xGPU block ontwerp. Hierdoor krijgt een GPU het opgewarmde water van de eerste GPU. Maar misschien valt het temperatuur verschil in praktijk mee.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Op zich is dat ook geen probleem, water heeft veel "capaciteit" om de hitte op te slaan en te vervoeren. Ook mogen de chips volgens AMD gerust 95°C worden. Sinds ik mijn fullcover block heb die ook mijn CPU meekoelt, heb ik meestal een 50°C bij de GPU wanneer belast. Als ik er de ambient temp van ~20°C van aftrek, zijn beide goed voor een 30°C verhoging, dat is inclusieft VRM's die blijkbaar apart gekoeld worden bij de R9 295X2. Dat is wel met een 240mm radiator en we hebben geen idee hoe goed/slecht die is wat meegeleverd gaat worden. Maar ik denk niet dat we ons zorgen hoeven te maken over de temps.

Acties:
  • 0 Henk 'm!

Verwijderd

Bij luchtkoeling kun je altijd grote temperatuurverschillen waarnemen. Voor het koelblok is de lucht "koud", na het koelblok "warm". Dat grote verschil ontstaat omdat lucht een hele slechte warmtegeleider is en de lucht na de radiator die warmte dus niet doorgeeft (daarnaast is er natuurlijk geen loop zoals bij waterkoeling).

Water is wel een goede warmtegeleider, het gevolg is dat de warmte zich niet alleen verplaatst doordat het water wordt rondgepompt, maar het water geeft de warmte ook zelf door. Het resultaat daarvan is dat je maar hele kleine temperatuurverschillen waar zult nemen. Het is dus niet zo dat het water bij het koelblok flink warmer wordt en bij de radiator weer flink afkoelt. Om die reden maakt het dus ook weinig uit of je nu één koelblok van 600 watt of twee van 300 watt in je loop hebt zitten. Zolang de radiator maar in staat is om die 600 watt af te voeren en er voldoende water in de loop zit om die warmte op te nemen zonder dat de watertemperatuur al te veel stijgt, werkt je koeling prima.

Ik ben vooral benieuwd hoe veel herrie die koeling gaat maken. De 290 koeler aanpassen om twee keer zo veel warmte af te voeren levert veel te veel herrie op, maar 600 watt afvoeren met een 120 mm radiator zal toch vragen om behoorlijk wat luchtdruk en dat zal vermoedelijk ook niet echt geruisloos zijn. We zullen het moeten zien horen. ;)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ja inderdaad, één radiator zou kunnen lukken als het een goede radiator is met een goede fan en je geen temperaturen onder de 60°C verwacht. Het is al spijtig genoeg een dunne radiator, op het zicht lijkt het een 35mm te zijn, tenzij het een goede is met veel massa en fins, vrees ik ervoor dat we zelfs niet onder de 70°C mogen verwachten in-games.

Maar gezien hun matige reference coolers op de R9 290-series denk ik dat iedereen sowieso die fan zal wegflikkeren als makkelijke upgrade en een groot deel zullen zelfs de hele koeling eraf halen voor een fullblock gezien de aankoopprijs en het doelpubliek.

Even leentje-buur:

Afbeeldingslocatie: http://www.guru3d.com/index.php?ct=news&action=file&id=6443

Afbeeldingslocatie: http://www.guru3d.com/index.php?ct=news&action=file&id=6444

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 21:17
60-70 graden is toch geen probleem? mijn kaarten worden standaard 80-85 graden...

Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 23:49
De Ares II (2x 7970 op 1100Mhz), wordt toch ook maar 50C ofzo, ziet niet echt in waarom de 295x2 niet onder de 60 kan blijven dan :P

Hoe kan die 295x2 trouwens een TDP van 500w hebben terwijl er kennelijk maar 2x 8pin op zit trouwens?

Acties:
  • 0 Henk 'm!
Kan heel gemakkelijk, gewoon doen. Maar lijkt mij niet heel slim, want er zullen ongetwijfeld mensen zijn die één kabel met twee 8 pins connectors gaan aansluiten, waardoor er dus max zo'n 42A zonder overklok door één connector aan de voeding zijde gaat lopen en zo'n 14A door elke 12V draad, gaat gegarandeerd mis.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Laatst online: 20:44

Thomg

Aww yiss

Ik zie liever ook hetzelfde als ze op de 290X lightning gedaan hebben, dubbel 8 en enkel 6.
Zeker aangezien het een dubbele 290X is :+

Acties:
  • 0 Henk 'm!

  • fynrd1
  • Registratie: November 2009
  • Laatst online: 21:22

fynrd1

Fooled by Randomness

Het design is al een stuk beter dan de reference 290(x).

||| F1-aeroblog || Battlelog |||


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

mitsumark schreef op zaterdag 05 april 2014 @ 22:17:
60-70 graden is toch geen probleem? mijn kaarten worden standaard 80-85 graden...
Daarom dat ik ook een paar posts hoger zei:
Phuncz schreef op vrijdag 04 april 2014 @ 14:58:
Ook mogen de chips volgens AMD gerust 95°C worden.
...
Maar ik denk niet dat we ons zorgen hoeven te maken over de temps.
Dus inderdaad, 60-70°C is geen probleem :)
!mark schreef op zaterdag 05 april 2014 @ 22:23:
De Ares II (2x 7970 op 1100Mhz), wordt toch ook maar 50C ofzo, ziet niet echt in waarom de 295x2 niet onder de 60 kan blijven dan :P
Misschien de eerste 5-10 minuten maar ik zie een enkel 120mm radiatortje geen dubbele R9 290X op 50°C houden als mijn 240mm radiator dat nog maar nipt kan met één R9 290X. Nu is dat bij mij wel inclusief VRM's dus zo kunnen ze wel "vals spelen" met hun "hybrid" solution.
Hoe kan die 295x2 trouwens een TDP van 500w hebben terwijl er kennelijk maar 2x 8pin op zit trouwens?
Ja dat vind ik ook raar: normaal is 2x 8-pin goed voor 300W + 75W PCIe. Je gaat me toch niet vertellen dat de R9 290X minder dan 190W kan trekken ?

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph7457/59320.png

Rekeninghoudend dat dit uit de muur en volledig systeem is, maar dit lijkt er toch op te duiden dat, kijkend naar de CF en non-CF 290X waardes, dat één kaart rond de 300W trekt.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Niks voor mij die kaart : 1x DVI en teveel miniDP :|

Doe mij maar 2x 290X met 2x DVI + 1 DP met een leuke custom koeler erop : PCIe sloten zat hier :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Phuncz schreef op zaterdag 05 april 2014 @ 23:04:

Ja dat vind ik ook raar: normaal is 2x 8-pin goed voor 300W + 75W PCIe. Je gaat me toch niet vertellen dat de R9 290X minder dan 190W kan trekken ?

[afbeelding]

Rekeninghoudend dat dit uit de muur en volledig systeem is, maar dit lijkt er toch op te duiden dat, kijkend naar de CF en non-CF 290X waardes, dat één kaart rond de 300W trekt.
Als je het werkelijke verbruik van een videokaart wilt weten, dan ben je beter af met hardware.fr. Daarin kun je zien dat een R9-290X op normale stand maximaal 219 Watt trekt. Alleen in Uber-mode verbruikt een R9-290X aanzienlijk meer. Met een verdubbeling van de normale setting zou je dus op 440 Watt uitkomen. Wellicht dat er nog wat kleine aanpassingen zijn gedaan aan het een of het ander, met als gevolg dat een normale maximale belasting niet boven de 375 Watt uit zal komen.

[ Voor 1% gewijzigd door dahakon op 06-04-2014 09:45 . Reden: link was niet correct ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Maar Uber-mode is zover ik weet niets meer dan het minder beperken van de fan:
Quiet = 40% max fan duty cycle
Uber = 55% max fan duty cycle

Het verschil is dat bij Quiet veel vaker, bijna constant, throttling hebt tijdens hoge load, waardoor je logischerwijze minder verbruikt, van 1000MHz naar 830MHz. Uitgezonderd de slechte reference cooler, lopen alle andere R9 290X'en op "Uber" mode, ook al is dat eigenlijk Normal mode :)

Maar 278W (van hardware.fr) tijdens een game (nog niet eens tijdens minen of benchmarking) duidt er toch op aan dat één R9 290X een 300W kan trekken, waardoor de vraag terecht is waarom de kaart slechts twee 8-pin connectors heeft die slechts goed zijn voor 300W.

Zoals The Mask al aangeeft, zou het kunnen dat ze dan buiten spec lopen en ongeveer het dubbele uit de stekkers willen trekken straks. We weten pas wat het geeft als ze er zijn maar het is vrij duidelijk dat twee R9 290X'en makkelijk 600W onder full load gaan halen, waar je in theorie 4x 8-pin voor nodig hebt.

[ Voor 5% gewijzigd door Phuncz op 06-04-2014 09:34 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

In other news:
Phuncz schreef op maandag 24 maart 2014 @ 08:01:
Misschien is het mijn verbeelding, maar ik zie de laatste paar dagen erg veel GPU's te koop op Tweakers V&A, ook regelmatig per 3-4 of meer: http://tweakers.net/categ...dKglFL-g9FsGyF-vNnvoVP_AQ

Is het scryptminen minder interessant geworden ?
http://tweakers.net/categ...JkVJsba2OUkllQWoxyKhEIB8A (iets uitgebreidere search)
Het valt toch op dat er meer en meer kaarten tweedehands verkocht worden, met 3 of meer in de aanbieding is dat altijd verdacht. Zeker omdat ze als "in nieuwstaat" verkocht worden, maar meerdere maanden 24/7 op 100% belasting hebben gedraaid. Nu begrijp ik dat dat hoort bij verkopen maar het is toch iets waar eigenlijk niet over gezwegen mag worden vind ik.

Acties:
  • 0 Henk 'm!

  • TheK1ng
  • Registratie: Juni 2013
  • Laatst online: 10-01-2022
Ik weet niet of iemand het al gepost had misschien maar er zijn benchmarks van deze kaart "gelekt".

Afbeeldingslocatie: http://cdn3.wccftech.com/wp-content/uploads/2014/04/Radeon-R9-295X2-Performance.png
Hoe betrouwbaar ze zijn weten we natuurlijk niet....

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Phuncz schreef op zondag 06 april 2014 @ 11:43:
In other news:


[...]

http://tweakers.net/categ...JkVJsba2OUkllQWoxyKhEIB8A (iets uitgebreidere search)
Het valt toch op dat er meer en meer kaarten tweedehands verkocht worden, met 3 of meer in de aanbieding is dat altijd verdacht. Zeker omdat ze als "in nieuwstaat" verkocht worden, maar meerdere maanden 24/7 op 100% belasting hebben gedraaid. Nu begrijp ik dat dat hoort bij verkopen maar het is toch iets waar eigenlijk niet over gezwegen mag worden vind ik.
Ik heb eens gezocht hoe de ervaringen met kapotte GPU's door minen zijn. Natuurlijk niet wetenschappelijk maar veel miners hadden veel GPU's en je kunt er dus wel degelijk wat mee vind ik (één had 83 7950's :o )
https://bitcointalk.org/index.php?topic=248203.0
De concensus lijkt dat zolang minen rond de 70 graden gebeurt, er weinig aan de hand is. Minen op hogere temperaturen daarentegen kan schadelijk zijn. Met die kennis zou ik beslist geen R9 290 aanraden waar een maand of drie op 95 graden mee is gemined, maar de meestal beter gekoelde 7970 modellen wel.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • superrock
  • Registratie: Oktober 2012
  • Laatst online: 23:37
Meer amd marketing YouTube: AMD's Top Secret Mission . Dat mensen hiervoor worden betaald 8)7

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat zou geweldig zijn, geen zin in het proprietary G-Sync verhaal, ongeacht dat het goede techniek is. Dan heb ik liever iets dat in elke DisplayPort monitor kan zitten.

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Het voordeel van G-sync is natuurlijk dat het nu al werkt, met alle recente (en relevante) nVidia videokaarten. Overigens heb ik niet zo'n zin in (weer) een TN-paneel of extra betalen dus waarschijnlijk zal ik eerder Free-Sync (of hoe het ook gaat heten) gebruiken. Tegen die tijd is die nVidia kaart ook wel weer weg.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Op zich werkt G-Sync nu maar enkel met recente Nvidia kaarten en enkel met één monitor (of zijn er al andere ?). Dat is het probleem juist: als Nvidia er geen zin meer in heeft (PhysX en 3DVision anyone ?) dan gebeurt er niets meer mee en zal het een stille dood sterven. Open standaarden moeten we om deze reden bij GPU's aanmoedigen want Nvidia heeft al te vaak mooie techniek verknoeit door snel te willen cashen.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

superrock schreef op zondag 06 april 2014 @ 14:46:
Meer amd marketing YouTube: AMD's Top Secret Mission . Dat mensen hiervoor worden betaald 8)7
Kreeg de link gisteren van iemand... VERSCHRIKKELIJKE video die AMD gauw moet verwijderen wat mij betreft :| :F

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
nero355 schreef op zondag 06 april 2014 @ 21:15:
[...]

Kreeg de link gisteren van iemand... VERSCHRIKKELIJKE video die AMD gauw moet verwijderen wat mij betreft :| :F
Het voegt niet veel toe maar verschrikkelijk vind ik het niet. Ze hebben ergere dingen gehad zoals met die PC Fixer.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 23:49
Of dat spot filmpje van de GTX480 :P

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Achja, marketing, wat dat betreft kunnen we niet echt bitchen op AMD als je bedenkt wat nVidia allemaal al heeft geflikt. Beetje loze discussie in mijn ogen. Ongeacht wat je niet aan staat aan het marketing beleid van AMD, nVidia doet er nog een schepje boven op.

[ Voor 36% gewijzigd door madmaxnl op 07-04-2014 16:52 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Astennu schreef op maandag 07 april 2014 @ 13:44:
Het voegt niet veel toe maar verschrikkelijk vind ik het niet. Ze hebben ergere dingen gehad zoals met die PC Fixer.
Ik vind beiden eigenlijk net zo erg...

En ik weet niet meer wat nVidia heeft gedaan, maar die doen al genoeg rare dingen met allerlei eigen besloten standaarden dat het me niet eens zou verbazen als ze er nog wat rare video's bovenop gooien :X :F

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
nero355 schreef op maandag 07 april 2014 @ 21:18:
[...]

Ik vind beiden eigenlijk net zo erg...

En ik weet niet meer wat nVidia heeft gedaan, maar die doen al genoeg rare dingen met allerlei eigen besloten standaarden dat het me niet eens zou verbazen als ze er nog wat rare video's bovenop gooien :X :F
nVidia speelt het op een andere manier. Die hadden in het verleden de focus group die de concurrentie opzettelijk zwart maakte op forum's. Die mensen deden zich dan voor als "gewone" objectieve gebruikers. Maar dit waren mensen die geld kregen van nVidia.

Ik weet niet of het nog gebeurd.

Dit soort filmpjes van AMD zien er gewoon niet zo heel professioneel uit. Maar misschien willen ze juist de doelgroep 14 jaar of zo aanspreken. Ik weet niet wat het idee er achter was.
Wat mij betreft halen ze ruby weer van stal om het ea te promoten :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 11-09 06:16

hidde212

Free your mind...

Jaagt ie toch wel een goede 45-50 Ampere door die twee 8-pins PCI-e kabels heen...

...and your ass will follow


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 23:49
Als er mensen zijn die de twee 8pins van dezelfde kabel pakken hebben ze wel een probleem denk ik :P.

Dit is de rede aldus Anandtech:
"So why does the 500W R9 295X2 only have 2 PCIe power sockets? As it turns out this is an intentional decision by AMD to improve the card’s compatibility. Dual dual-GPU (Quadfire) setups are especially popular with boutique builders and their customers, and very few PSUs offer more than 4 8pin PCIe power plugs. As a result, by using just 2 power sockets the R9 295X2 is compatible with a wider range of PSUs when being used in Quadfire setups. Meanwhile on the power delivery side of the equation, most (if not all) of the PSUs that can reliably push the necessary wattage to support one or two R9 295X2s have no problem delivering the roughly 220W per socket that the card requires. Which is why at the end of the day AMD can even do this, because the PSUs in the market today can handle it."

[ Voor 81% gewijzigd door !mark op 08-04-2014 14:49 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
hidde212 schreef op dinsdag 08 april 2014 @ 14:30:
Jaagt ie toch wel een goede 45-50 Ampere door die twee 8-pins PCI-e kabels heen...
Ach kan prima. Die kabels worden nog steeds amper warm. Als je kijkt naar seasonic die levert bv 2x 8P met 4 draadjes naar de PSU. Is voor deze kaart niet aan te raden. Maar op een R9 290X en 7990 werkt dat prima. En dan jaag je er ook meer dan 150 watt doorheen. Dus als je twee losse 8P stekkers vanaf de voeding pakt zie ik geen enkel probleem. Ik denk dat het met een stekker ook nog wel zou werken als je een goede PSU hebt en dat je kabels dan nog niet eens te heet worden onder volle belasting.

Goede PSU's zijn toch allemaal single rail. Dus zolang de kabels en connectors niet te warm worden is het imo niets aan de hand.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

De reviews zijn uit en dit zegt Anandtech over het bovengenoemde issue:
Speaking of power delivery, let’s talk about the 2 8pin PCIe power sockets that are found at the top right side of the card. For those of our readers who can quote PCIe specifications by heart, the standard limit for an 8pin PCIe socket is 150W, which in this configuration would mean that the R9 295X2 has a 375W (150+150+75) power delivery system. By PCIe standards this has the board coming up short, but as we found out back in 2011 with the launch of the 6990, when it comes to these high end specialty cards PCIe compliance no longer matters. In the case of the 6990 and now the R9 295X2, AMD is essentially designing to the capabilities of the hardware rather than the PCIe specification, and the PCI-SIG for their part is not an enforcement body. Other than likely not being able to get their card validated as PCI-Express compliant and therefore included on the Systems Integrator List, AMD isn’t penalized for exceeding the PCIe power delivery standard.

So why does the 500W R9 295X2 only have 2 PCIe power sockets? As it turns out this is an intentional decision by AMD to improve the card’s compatibility. Dual dual-GPU (Quadfire) setups are especially popular with boutique builders and their customers, and very few PSUs offer more than 4 8pin PCIe power plugs. As a result, by using just 2 power sockets the R9 295X2 is compatible with a wider range of PSUs when being used in Quadfire setups. Meanwhile on the power delivery side of the equation, most (if not all) of the PSUs that can reliably push the necessary wattage to support one or two R9 295X2s have no problem delivering the roughly 220W per socket that the card requires. Which is why at the end of the day AMD can even do this, because the PSUs in the market today can handle it.

Acties:
  • 0 Henk 'm!
Maximaal bijna 54A zonder overklok volgens TechPowerUp. Iemand die het in zijn hoofd krijgt om één modulaire kabel te gebruiken voor die videokaart vraagt om een direct smeltende kabel en connector.
Afbeeldingslocatie: http://tweakers.net/ext/f/iYfXSbqll7J8VQxc1LJpl5G1/full.png
Zo'n dus met één 8 pins aan de voedingszijde en twee 8 pins aan de videokaart zijde.

[ Voor 11% gewijzigd door -The_Mask- op 08-04-2014 14:56 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat lijkt verdacht op "goedkope, Chinese kabel", dat lettertype geeft het nogal weg :)
Phuncz schreef op zaterdag 05 april 2014 @ 08:08:
Ja inderdaad, één radiator zou kunnen lukken als het een goede radiator is met een goede fan en je geen temperaturen onder de 60°C verwacht. Het is al spijtig genoeg een dunne radiator, op het zicht lijkt het een 35mm te zijn, tenzij het een goede is met veel massa en fins, vrees ik ervoor dat we zelfs niet onder de 70°C mogen verwachten in-games.
Called it:
Based on our testing the CLLC is big enough to handle the load at stock, but only just. Under our most strenuous gaming workloads we’re hitting temperatures in the low 70s coupled all the while the 120mm fan is reaching its maximum fan speed.

This level of cooling performance is enough to keep the card from throttling, but it’s clear that the CLLC can’t handle any more heat. Which ties in to what we said earlier about AMD not designing this card for overclocking. Even without voltage adjustments, just significantly increasing the power limit would cause it to throttle based on GPU temperatures. To that end the 120mm CLLC gets the job done, but this is clearly a card that’s best suited for running at stock.
http://www.anandtech.com/...-radeon-r9-295x2-review/3

Ook opvallend dat de max target temperature bij deze kaart 75°C is, terwijl dat op de R9 290X standaard 95°C is.

[ Voor 24% gewijzigd door Phuncz op 08-04-2014 15:03 ]


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Denk dat dat vooral komt vanwege reviewers/consumenten die het maar eng vinden als hun GPU's 85-90 graden worden. Koeler = beter wordt zelfs nog wel eens op Tweakers gezegd.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!
Phuncz schreef op dinsdag 08 april 2014 @ 15:01:
Dat lijkt verdacht op "goedkope, Chinese kabel", dat lettertype geeft het nogal weg :)
Dat is Corsair's type 3 generation 2 kabel, de standaard kabel voor hun voedingen op dit moment. Duidelijk ook niet goedkoop of Chinees, is een flexribbon cable. Overigens doen wel meer fabrikanten het zo, maar dat betekend wel maar drie 12V draden, wat ook veel te weinig is voor deze videokaart.

[ Voor 7% gewijzigd door -The_Mask- op 08-04-2014 15:07 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Hmm ik dacht dat zoiets juist niet standaard was, nu opent AMD wel een potentieel probleem waar zij de voorschriften niet volgen. Want ondanks dat de voedingsfabrikanten de specificaties volgen (150W+150W over één kabel lukt nog), negeert AMD dit en bekijkt het vanuit de kant dat bij gebruik van twee van deze kaarten. Dan zou er eigenlijk 3x 8-pin per kaart voorzien moeten worden, wat bij 2 kaarten al een probleem geeft (6x 8-pin op één voeding ?).

Acties:
  • 0 Henk 'm!
Het probleem is dat zowel de voedingsfabrikanten zich er niet aan houden en nu ook AMD totaal niet en nu is het dus mogelijk om één kabel met maar drie 12V draden te gebruiken voor een videokaart welke 650W trekt.

AMD had gewoon vier PEG stekkers op de videokaart moeten plaatsen, als het nu 6 of 8 pins waren, maakt niks uit, beide hebben toch drie 12V draden. De videokaart kan maximaal 650W trekken, dus een voeding van minimaal 750W is sowieso noodzakelijk en elke fatsoenlijke 750W heeft wel vier PEG connectors dus dan was er nooit een probleem geweest.

[ Voor 45% gewijzigd door -The_Mask- op 08-04-2014 15:30 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 23:49


De VRM wordt wel lekker warm trouwens, net als de PCIe connectors

[ Voor 30% gewijzigd door !mark op 08-04-2014 18:16 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

De VRM's worden doodleuk meer dan 100°C, zoals bij de luchtgekoelde R9 290X. Dit is natuurlijk niet meteen een probleem maar het laat wel zien dat de VRM koeling ook maar juist genoeg is.

Op zich is dit nog steeds een indrukwekkende kaart, maar het is opvallend dat AMD veel zaken riskant heeft aangepakt.

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 07-09 09:08
-The_Mask- schreef op dinsdag 08 april 2014 @ 14:53:
Maximaal bijna 54A zonder overklok volgens TechPowerUp. Iemand die het in zijn hoofd krijgt om één modulaire kabel te gebruiken voor die videokaart vraagt om een direct smeltende kabel en connector.
[afbeelding]
Zo'n dus met één 8 pins aan de voedingszijde en twee 8 pins aan de videokaart zijde.
Cooler Master heeft bij zijn nieuwe V series voedingen ook exact zulke kabels.
Is het dan niet aan te raden de extra connector er zelf af te halen (wel weer de andere opnieuw bevestigen, zodat alles goed zit)

Ik heb mijn 7970's ieder op één zo'n kabel aangesloten (2x 8 pin per kaart).

Acties:
  • 0 Henk 'm!
Een HD7970 verbruikt minder dan de helft van de R9 295X2, voor deze kaart maakt het dus weinig verschil. De R9 295X2 trekt alleen dubbel zoveel door hetzelfde aantal connectors en dat kan wel een probleem zijn op het moment je zo'n kabel gaat gebruiken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
DCG909 schreef op woensdag 09 april 2014 @ 08:41:
[...]


Cooler Master heeft bij zijn nieuwe V series voedingen ook exact zulke kabels.
Is het dan niet aan te raden de extra connector er zelf af te halen (wel weer de andere opnieuw bevestigen, zodat alles goed zit)

Ik heb mijn 7970's ieder op één zo'n kabel aangesloten (2x 8 pin per kaart).
Seasonic ook (niet zo heel raar aangezien die Coolermaster V serie een Seasonic KM3 binnenwerk heeft).

Waarom zou je die connector er af willen halen? gewoon niet gebruiken en los laten hangen.
Seasonic levert ook kabels waar maar 1x8P aan zit. Die kun je dan het beste gebruiken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik was de HardOCP 295X2 review aan het lezen en toen zag ik het volgende:
With the GeForce GTX 780 Ti we found the peak consistent clock speed on both GPUs went up to 1019MHz while gaming. This is higher than the boost clock on a GTX 780 Ti which is 928MHz. As we posted on the previous page, this seems slightly higher than we've tested in the past. Normally we've seen the GPU hit 1006MHz while gaming, but now it is at 1019MHz with this newest driver. We also noticed the temperature of the GPU was higher, at 87c, versus 84c on previous drivers. This higher temperature threshold has allowed the frequency to go higher, hence the 1019MHz. In any case, this means the GTX 780 Ti SLI configuration was providing us higher performance for this round of testing, so it definitely got to give us its best shot at stock performance without overclocking.
Dus een deel van de performance boost van de nieuwe "uber" drivers komt gewoon door hogere boost speeds.

@4K is de R9 295X2 wel een clear winner.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik vond het al verdacht dat Nvidia "ineens" zoveel performance uit zijn drivers weet te persen, alsof het iets was dat nog op de todo lijst stond. 10% hogere clock speed verklaart wel een groot deel van de gains. Het valt ook op dat de meeste gains te vinden zijn bij "oude" typische benchmark titels ipv. huidige games die ook nog veel gespeeld worden.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ja dat viel me ook al op. Ze pronken met +50% maar in de meeste games is het verschil nihil. Dan heb je het over 1-2%. En dat kan dus door die aangepaste boost komen.

Dus ze hebben slechts in een paar titels veel winst geboekt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Afbeeldingslocatie: http://images.anandtech.com/doci/7926/337_Perf_575px.jpg

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph7926/62483.png

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph7926/62484.png

(Total War: Rome II had geen multi-GPU support pre-337.50)

Het lijkt alsof de "boost" functie enkel werkt bij sommige games.




Het is ook weer typisch dat ze dit doen:

Afbeeldingslocatie: http://images.anandtech.com/doci/7926/337_Mantle_575px.jpg

Eerlijke vergelijking, 12% betere performance (het lijkt wel 80% !) met een kaart die 30% duurder is...
De GTX 780 non-Ti, waar de R9 290X eigenlijk tegen concurreert prijsgewijs, wordt niet genoemd. Zo kan iedereen hero spreadsheets maken:

Radeon R9 295X2 is 80% FASTER than TITAN Black
duh hij is ook 30% duurder...

[ Voor 3% gewijzigd door Phuncz op 10-04-2014 09:25 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Op 4K verpletterd een 290X een 780Ti met BF4 en mantle.
Het ligt ook maar net aan de settings.

1920x1080 is te laag voor een 290X daar kan hij z'n spierballen niet laten zien. nVidia heeft het altijd beter gedaan met lagere resoluties.

Ik vind 1080p zelf ook totaal niet interessant. Maar dat is omdat ik zelf 2560x1600 gebruik. Dan zijn de verschillen tussen de 290X en de 780Ti al een stuk kleiner.

Het wordt pas echt leuk bij 5760x1080 of 4K. Maar dan is een kaart niet snel genoeg meer als je alle IQ instellingen (behalve AA) maximaal wilt hebben.

[ Voor 15% gewijzigd door Astennu op 10-04-2014 11:51 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Phuncz schreef op donderdag 10 april 2014 @ 09:15:
Het is ook weer typisch dat ze dit doen:

[afbeelding]

Eerlijke vergelijking, 12% betere performance (het lijkt wel 80% !) met een kaart die 30% duurder is...
De GTX 780 non-Ti, waar de R9 290X eigenlijk tegen concurreert prijsgewijs, wordt niet genoemd. Zo kan iedereen hero spreadsheets maken:

Radeon R9 295X2 is 80% FASTER than TITAN Black
duh hij is ook 30% duurder...
Tsja, en uiteindelijk krijg je dit:

http://www.extremetech.co...facturer-provided-numbers

Afbeeldingslocatie: http://www.extremetech.com/wp-content/uploads/2014/04/nvidia-geforce-337.50-driver-spoof-640x353.jpg

NVidia voelt zich in ieder geval goed bedreigd door Mantle, zoveel is duidelijk.

Acties:
  • 0 Henk 'm!
Ik had niks anders verwacht, dit is namelijk niet de eerste keer dat ze met een zogenaamde wonderdriver komen net nadat AMD een driver had uitgebracht welke erg veel performancewinst bracht.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
!mark schreef op dinsdag 08 april 2014 @ 18:16:
[video]

De VRM wordt wel lekker warm trouwens, net als de PCIe connectors
Als mijn stofzuiger en wasmachine een kindje krijgen klinkt ie zo. Kan me niet voorstellen dat iemand die bladblazer voor zijn plezier stock in zijn systeem legt.
-The_Mask- schreef op donderdag 10 april 2014 @ 23:20:
Ik had niks anders verwacht, dit is namelijk niet de eerste keer dat ze met een zogenaamde wonderdriver komen net nadat AMD een driver had uitgebracht welke erg veel performancewinst bracht.
Volgens mij is het alleen AMD die de afgelopen 2 jaar sporadisch met een daadwerkelijke wonderdriver kwam idd.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ach, als een partij een "wonder" driver aankondigt dan ben ik enerzijds excited want "stel dat het klopt" en stel dat "maar 50% vd beloofde winst waargemaakt wordt". :P

Echter je moet gewoon lezen "gratis geld" dat is helaas namelijk net zo ongeloofwaardig. :X

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Er bestaan gewoon geen wonderdrivers. De laatste 'wonderdrivers' die AMD uitbracht, was een driver die een paar maanden na de eerste GCN kaarten uit kwam en behoorlijke verbeteringen bracht voor GCN kaarten. Op zich niets vreemds, want AMD was van VLIW naar Scalar gegaan wat betreft architectuur en dan kan het best zijn dat een driverteam iets langer nodig heeft om echt het onderste uit de kan te halen.

Als er al ergens gigantische winsten worden gehaald (zoals nVidia's claim van ~60% single-GPU en ~70% SLI), dan zijn het of gewoon marketingleugens of ze hebben een paar games gevonden waar totaal geen optimalisaties voor waren in de drivers (zoals bijvoorbeeld het SLI-profiel van Total War, die in eerdere drivers gewoonweg niet aanwezig was, waardoor er dus maar 1 kaart werd gebruikt)

De enige wonder-drivers die er echt zijn uitgebracht zijn die paar drivers van nVidia die ervoor zorgden dat kaarten zichzelf opbliezen bij bepaalde games. Het wonder van die drivers was dan ook dat ze uberhaupt beschikbaar kwamen.

Acties:
  • 0 Henk 'm!

  • DarkFire1985
  • Registratie: September 2002
  • Laatst online: 18-02 07:51
Bij zulke uitspraken krijg ik altijd het gevoel dat ik al die tijd ervoor genaaid ben.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
DarkFire1985 schreef op vrijdag 11 april 2014 @ 22:45:
Bij zulke uitspraken krijg ik altijd het gevoel dat ik al die tijd ervoor genaaid ben.
Verstandige gedachte,
Als een bedrijf zulke verschillen in de pers gooit, ben je of altijd al genaaid of word je dat nu. :+

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 21:39

MazeWing

The plot thickens...

Wel mooi hoe iedereen over nVidia heen valt met hun "wonderdrivers" en dat de winst maar in enkele games merkbaar is.

Vergeten deze mensen even dat er welgeteld 2 games zijn met Mantle ondersteuning. Verder is er wel degelijk een flinke performance winst met tragere cpu's en games die erg cpu gelimiteerd zijn (zoals Hitman Absolution). nVidia toont gewoon even aan dat ze net zo makkelijk Mantle achtige optimalisaties kunnen doorvoeren. Groot verschil is echter dat nVidia dit op DirectX niveau doet en AMD per game deze optimalisaties nodig heeft.

Zoals ik al eerder heb aangegeven; Mantle is een tijdelijk iets en is ten dode opgeschreven nu er DirectX aankomt met deze optimalisaties er in. En dat kan misschien nog wel eens sneller gaan dan gedacht nu nVidia al met de eerste optimalisaties in hun drivers komt...

edit: even wat benchmark resultaten van tweaker !mark toegevoegd

Afbeeldingslocatie: http://i.imgur.com/ED9a5nK.png

Afbeeldingslocatie: http://i.imgur.com/wiX2qYO.png

Verder geeft hij aan dat de minimumframerate omhoog is gegaan en de algemene prestaties gewoon beter/constanter lijken te zijn.

[ Voor 73% gewijzigd door MazeWing op 12-04-2014 09:31 ]

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

MazeWing schreef op zaterdag 12 april 2014 @ 09:26:
Wel mooi hoe iedereen over nVidia heen valt met hun "wonderdrivers" en dat de winst maar in enkele games merkbaar is.

Vergeten deze mensen even dat er welgeteld 2 games zijn met Mantle ondersteuning. Verder is er wel degelijk een flinke performance winst met tragere cpu's en games die erg cpu gelimiteerd zijn (zoals Hitman Absolution).
Hetgeen jij mist is dat AMD dit ook allemaal heeft meegedeeld: de API moet gebruikt worden en het is vooral gericht om de CPU te offloaden ipv. 60-70% across the board te beloven. Het werd ook duidelijk gemaakt dat de winst die te behalen ging zijn, vooral op de tragere CPU's ging zijn.

Dit zijn geen "nVidia sucks"-fanboy schreeuwen maar eerder de frustratie hoe nVidia zijn eigen klanten beliegd.
nVidia toont gewoon even aan dat ze net zo makkelijk Mantle achtige optimalisaties kunnen doorvoeren. Groot verschil is echter dat nVidia dit op DirectX niveau doet en AMD per game deze optimalisaties nodig heeft.
Bedoel je die 5-10% hogere prestatie ten gevolge van een hogere boost clock met de nieuwe drivers ? Want dat is geen optimalisatie op DirectX niveau.

De enige opvallende winst is bij de Star Swarm techdemo, waarschijnlijk omdat ze daar zoals bij Total War: Rome 2 nog helemaal geen complete optimalisatie gedaan hadden.
Zoals ik al eerder heb aangegeven; Mantle is een tijdelijk iets en is ten dode opgeschreven nu er DirectX aankomt met deze optimalisaties er in. En dat kan misschien nog wel eens sneller gaan dan gedacht nu nVidia al met de eerste optimalisaties in hun drivers komt...
Nvidia heeft enkel een driver gereleased die een werkend SLI profiel voor Total War: Rome 2 heeft voorzien evenals de boost clocks op een paar kaarten verhoogd om zo in specifieke benchmarks er beter uit te komen. De 60-70% snelheidswinst die ze beloofden is nog niet gehaald.

Let op he, ik spreek Mantle zeker niet goed, mijn ervaring ermee is allesbehalve positief met BF4 (maar enkel dat spel). Echter zijn er genoeg tevreden mensen die wel een betere ervaring hebben, voelbaar én meetbaar.

[ Voor 5% gewijzigd door Phuncz op 12-04-2014 10:42 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Bovendien wordt er zelfs in de benchmarks van !mark duidelijk geen CPU bottleneck opgeheven. Het enige wat je ziet is dat de 'winst' van de driver op lage clocks ongeveer gelijk is aan de winst op hoge clocks.

Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 23:49
Ah ik zie dat mijn benchmarks van het andere topic even is gebruikt :D
dahakon schreef op zaterdag 12 april 2014 @ 10:48:
Bovendien wordt er zelfs in de benchmarks van !mark duidelijk geen CPU bottleneck opgeheven. Het enige wat je ziet is dat de 'winst' van de driver op lage clocks ongeveer gelijk is aan de winst op hoge clocks.
Ik heb de clocks in de gaten gehouden, en die waren onder beide drivers 1032MHz boost

Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 21:39

MazeWing

The plot thickens...

dahakon schreef op zaterdag 12 april 2014 @ 10:48:
Bovendien wordt er zelfs in de benchmarks van !mark duidelijk geen CPU bottleneck opgeheven. Het enige wat je ziet is dat de 'winst' van de driver op lage clocks ongeveer gelijk is aan de winst op hoge clocks.
Van Guru3d
Afbeeldingslocatie: http://i.imgur.com/Zods4V5.jpg

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Mooi plaatje van Guru, temeer als je de oude driver performance vergelijkt met die van !mark, waarbij duidelijk mwordt dat de SLI setup langzamer bleek. Ergo, een werkend profiel wordt als driveroptimalisatie verkocht, zoals ik het zie. Als een game eerst geen goede support ontvangt voor een tweede kaart en daarna wel, is dat natuurlijk mooi, maar ze hadden het profiel ook gewoon los kunnen uitbrengen.

@ !mark: Ik doelde op de CPU clocks in mijn vorige post.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito


Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 21:39

MazeWing

The plot thickens...

Ik liet bewust alleen die van Hitman zien, omdat dat een game is waarvan bekend is dat ie behoorlijk CPU limited is. Ook met single performance is daar een behoorlijke winst te zien.
En het is niet alsof er nu opeens maar SLI profiles zijn toegevoegd die er eerst niet waren. Er zijn wel degelijk andere optimalisaties doorgevoerd.

Feit is en blijft dat de "feature" genaamd Mantle, die vaak wordt aangehaald als argument om een AMD kaart te kopen, nu al door nVidia ingehaald is. En in tegenstelling tot enkel 2 games die specifiek Mantle support nodig hebben, zijn er nu vele games die er van kunnen profiteren.

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Maar de nVidia wonderdriver steunt voornamelijk op een hogere boost clock. Daar zit geen technisch vernuft in.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
MazeWing schreef op zaterdag 12 april 2014 @ 12:53:
Ik liet bewust alleen die van Hitman zien, omdat dat een game is waarvan bekend is dat ie behoorlijk CPU limited is. Ook met single performance is daar een behoorlijke winst te zien.
En het is niet alsof er nu opeens maar SLI profiles zijn toegevoegd die er eerst niet waren. Er zijn wel degelijk andere optimalisaties doorgevoerd.
Als Hitman echt zo gigantisch CPU-bottlenecked is, waarom doet een R9-290X het dan zoveel beter, juist op de CPU-bottlenecking resoluties? Ook doet de R9-295X het amper slechter dan de GTX780 Ti SLI met die wonderdriver. Dat zonder dar AMD wonderdrivers heeft om de DX11 tax te kunnen ontlopen.

De single GPU winst die !mark laat zien voor Hitman, is ~6%. Leuk natuurlijk, maar niet verwoestend veel.
Feit is en blijft dat de "feature" genaamd Mantle, die vaak wordt aangehaald als argument om een AMD kaart te kopen, nu al door nVidia ingehaald is. En in tegenstelling tot enkel 2 games die specifiek Mantle support nodig hebben, zijn er nu vele games die er van kunnen profiteren.
Feit is ook dat nVidia momenteel zijn best doet om te downplayen wat Mantle daadwerkelijk is. En ja, er zijn op dit moment maar 2 games die er gebruik van maken, maar dat is nog altijd meer dan 2 maand na launch van een beta-versie van DX10 er DX10 games waren of gelijk zo DX11.

Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 21:39

MazeWing

The plot thickens...

Phuncz schreef op zaterdag 12 april 2014 @ 13:28:
Maar de nVidia wonderdriver steunt voornamelijk op een hogere boost clock. Daar zit geen technisch vernuft in.
Ach. nVidia kan tenminste de clocks opschroeven zonder dat de kaart smelt... :+ })
dahakon schreef op zaterdag 12 april 2014 @ 13:47:
Feit is ook dat nVidia momenteel zijn best doet om te downplayen wat Mantle daadwerkelijk is. En ja, er zijn op dit moment maar 2 games die er gebruik van maken, maar dat is nog altijd meer dan 2 maand na launch van een beta-versie van DX10 er DX10 games waren of gelijk zo DX11.
nVidia downplayed Mantle helemaal niet. nVidia loopt enigsinds vooruit op hetgeen in DX11.2 en DX12 gaat komen. Een prestatiewinst voor alle DX spellen en niet alleen de enkeling die Mantle ondersteund.

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
MazeWing schreef op zaterdag 12 april 2014 @ 14:03:
nVidia downplayed Mantle helemaal niet. nVidia loopt enigsinds vooruit op hetgeen in DX11.2 en DX12 gaat komen. Een prestatiewinst voor alle DX spellen en niet alleen de enkeling die Mantle ondersteund.
Behalve dat !imho! Mantle niks anders is dan DX12 in beta versie.

Aangezien wat Mantle en DX12 nou uiteindelijk (over ongeveer een jaar of twee jaar) gaat inhouden nog absoluut niet bekend is, is het onlogisch om aan te nemen dat AMD voor loopt op nVidia of andersom.

Allebei bedrijven zijn de laatste tijd veel aan het roepen, waarvoor men enige rust zou moeten houden over aannames.

Voorzover ik een kant zou moeten kiezen, zou ik het bij AMD zoeken met als hoofdreden dat ze de XBOX en PS4 erbij hebben wat betreft technologie en feedback, wat hun ook imho veel interessanter maakt voor gamedevelopers en daarom dus ook voor Microsoft.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
MazeWing schreef op zaterdag 12 april 2014 @ 12:53:
Ik liet bewust alleen die van Hitman zien, omdat dat een game is waarvan bekend is dat ie behoorlijk CPU limited is. Ook met single performance is daar een behoorlijke winst te zien.
Hitman is helemaal niet CPU limited op zichzelf.

Het spel is alleen op Nvidia CPU limited; met andere woorden, de verbeteringen die je in dat spel ziet zijn niet het resultaat van wat magisch werk dat Nvidia in DX11 heeft verricht (newsflash: kan niet, de overhead die MS/AMD weg willen zit in DX, niet in de drivers, dus dat is een taak voor MS). Die verbetering komt doordat ze een probleem in hun eigen driver hebben opgelost.

En ze zijn nog steeds CPU bound; van 1600x1200 tot 1440p zit er geen enkel verschil tussen de resoluties.

Rome 2 op single GPU's is ook niet verbeterd; voor SLI zit er nu simpelweg een profiel in. Zo kan ik ook gigantische winsten claimen ja.
MazeWing schreef op zaterdag 12 april 2014 @ 14:03:
nVidia downplayed Mantle helemaal niet. nVidia loopt enigsinds vooruit op hetgeen in DX11.2 en DX12 gaat komen. Een prestatiewinst voor alle DX spellen en niet alleen de enkeling die Mantle ondersteund.
Wat bazel je nu weer? Wat "komt" er in DX 11.2, dat al meer dan een half jaar op de markt is? 8)7


Mag ik in elk geval even de versie van 337.50 hebben die jij gebruikt en die blijkbaar wordt gebruikt in een stel benchmarks die niemand gezien heeft? Want alles wat jij linkt zijn ofwel winsten doordat er een SLI profiel bij zit, of alleen zichtbaar op lage resoluties waarmee je kunstmatig een CPU bottleneck creëert. Elke site laat 0-3% voor alle games zien op enkele GPU's, met uitzondering van Bioshock en Metro, waar je tegen de 10% ziet.

Ik zou namelijk maar wat graag nog meer uit m'n 770 persen, met 337.50 van Nvidia's website heb ik nog geen donder gemerkt.

[ Voor 6% gewijzigd door Werelds op 12-04-2014 15:16 ]


Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 21:39

MazeWing

The plot thickens...

Werelds schreef op zaterdag 12 april 2014 @ 15:14:
Wat bazel je nu weer? Wat "komt" er in DX 11.2, dat al meer dan een half jaar op de markt is? 8)7
Ik bedoel voornamelijk Tiled Resources en de daarbij horende voordelen.
Mag ik in elk geval even de versie van 337.50 hebben die jij gebruikt en die blijkbaar wordt gebruikt in een stel benchmarks die niemand gezien heeft? Want alles wat jij linkt zijn ofwel winsten doordat er een SLI profiel bij zit, of alleen zichtbaar op lage resoluties waarmee je kunstmatig een CPU bottleneck creëert. Elke site laat 0-3% voor alle games zien op enkele GPU's, met uitzondering van Bioshock en Metro, waar je tegen de 10% ziet.
Ik zou namelijk maar wat graag nog meer uit m'n 770 persen, met 337.50 van Nvidia's website heb ik nog geen donder gemerkt.
[/quote]
Is dat ook niet het geval bij Mantle? De performancewinst van de nieuwe drivers is misschien in veel gevallen niet zo extreem als nVidia beweert (die testen het in de meest ideale omstandigheden), biedt de driver voor mij een mooie prestatiewinst, waarbij voornamelijk de minimale framerates een stuk omhoog zijn gegaan en er minder vaak stotteringen optreden. Het zal mij eerlijk gezegd een rotzorg zijn hoe ze tot deze prestatiewinsten komen. Als ze dat voor elkaar krijgen door middel van het omhoog gooien van de clocks; so what! Dit geeft alleen maar aan dat er nog extra ruimte zit in de kaarten en toont ook aan dat er nog speelruimte is. Speelruimte qua warmte/koeling die AMD op dit moment NIET heeft!

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
MazeWing schreef op zaterdag 12 april 2014 @ 15:57:
Ik bedoel voornamelijk Tiled Resources en de daarbij horende voordelen.
En wat heeft dat te maken met het verminderen van de CPU overhead zoals Mantle en straks DX12 doen?
Is dat ook niet het geval bij Mantle?
Nee. Een 79x0/280(X) ziet ook gewoon 10-15% winst in bijvoorbeeld BF4, met veel hogere minima. En dat ding is toch echt niet CPU bound op 1080p.

Ja, Mantle moet door de developers geïmplementeerd worden. Echter heeft AMD inmiddels vrijwel alle engine bouwers achter zich geschaard, met uitzondering van Epic die gewoon een contract met Nvidia hebben. Het zijn nu wellicht slechts 2 games, maar dat zal binnen een jaar heel anders uitzien; AMD heeft nu al meer toezeggingen dan PhysX in de eerste 3 jaren. Of dat zo blijft na DX12 valt nog te bezien, maar dat boeit geen ruk. Het belangrijkste resultaat is dat Mantle de discussie op gang heeft gebracht en de komende 1,5-2 jaar een mooi test platform kan vormen voor engine bouwers om te kijken wat ze straks hopelijk ook met DX12 kunnen bewerkstelligen.

Betekent dat dat Mantle een zekere dood tegemoet gaat? Nee, want ik gok er op dat het in gebruik blijft voor gebruik buiten Windows. Vat dat zo breed op als je wilt, dat is wel wat het grote voordeel van Mantle is. Iedereen zal in eerste instantie aan Linux denken, maar ik denk juist aan bijvoorbeeld Apple. Zeker gezien het feit dat Nvidia's ondersteuning voor OpenCL zo ruk is; en laat OS X nu eens heel erg vertrouwen op OpenCL. Koppel dat met een potentiële ontlasting van de CPU voor render taken via Mantle en dat zou zomaar heel andere Macbooks op kunnen leveren.

Ja, het is momenteel alleen voor AMD - maar gezien hoe Nvidia er op gereageerd heeft, is dat vooral een kwestie van Nvidia die niet willen, zoals gewoonlijk; het is nog de vraag of Intel met AMD mee wilt of dat zij ook alleen voor DX12 gaan. Het geeft echter tastbare resultaten op allerlei configuraties, terwijl deze wonder driver alleen Nvidia's eigen problemen op lost.
Het zal mij eerlijk gezegd een rotzorg zijn hoe ze tot deze prestatiewinsten komen. Als ze dat voor elkaar krijgen door middel van het omhoog gooien van de clocks; so what! Dit geeft alleen maar aan dat er nog extra ruimte zit in de kaarten en toont ook aan dat er nog speelruimte is. Speelruimte qua warmte/koeling die AMD op dit moment NIET heeft!
Ik heb mijn kaart al lang overgeklokt, had ik een 780 Ti gehad, was die ook overgeklokt. Dus dan blijft die winst uit.

Dus nee, clocks verhogen telt niet mee. Dat kon al, heb je geen driver voor nodig.

Feit is dat deze driver simpelweg niets bijzonders doet, tenzij je een 780 Ti hebt - liefst zelfs twee, want dan helpen de nieuwe SLI profielen ook nog een beetje. Voor de rest van ons is het niet meer of minder dan de standaard driver updates van Nvidia (of AMD).

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
MazeWing schreef op zaterdag 12 april 2014 @ 15:57:
Dit geeft alleen maar aan dat er nog extra ruimte zit in de kaarten en toont ook aan dat er nog speelruimte is. Speelruimte qua warmte/koeling die AMD op dit moment NIET heeft!
Is dat zo? Zou AMD de clocks van hun kaarten niet nog eens ~5% omhoog kunnen gooien in de turbo-modus, door iets andere profielen aangaande koeling etc in nieuwe drivers te stoppen? Dat AMD het niet gedaan heeft, betekent niet dat er geen ruimte is.

Je zou je ook kunnen afvragen met hoeveel de levensduur van zo'n nVidia kaart wordt verkort, door deze extra clock-boost. Eigenschappen van een kaart die al (heel) lang op de markt is, om voor wat sites een iets hogere framerate kunnen tevoorschijn toveren, is discutabel gedrag, tenzij je er een goed verhaal bij hebt waarin je stelt dat alle kaarten wel iets sneller kunnen draaien dan aanvankelijk gedacht, in plaats van een zwetsverhaal over het verlagen van de CPU-overhead in DX11.

Acties:
  • 0 Henk 'm!

  • fynrd1
  • Registratie: November 2009
  • Laatst online: 21:22

fynrd1

Fooled by Randomness

dahakon schreef op zaterdag 12 april 2014 @ 17:06:
[...]


Is dat zo? Zou AMD de clocks van hun kaarten niet nog eens ~5% omhoog kunnen gooien in de turbo-modus, door iets andere profielen aangaande koeling etc in nieuwe drivers te stoppen? Dat AMD het niet gedaan heeft, betekent niet dat er geen ruimte is.

Je zou je ook kunnen afvragen met hoeveel de levensduur van zo'n nVidia kaart wordt verkort, door deze extra clock-boost. Eigenschappen van een kaart die al (heel) lang op de markt is, om voor wat sites een iets hogere framerate kunnen tevoorschijn toveren, is discutabel gedrag, tenzij je er een goed verhaal bij hebt waarin je stelt dat alle kaarten wel iets sneller kunnen draaien dan aanvankelijk gedacht, in plaats van een zwetsverhaal over het verlagen van de CPU-overhead in DX11.
Kaarten kunnen wel wat hebben hoor in het algemeen, zolang de temps maar goed blijven. Tegen de tijd dat gpu's versleten zijn, gaan ze al niet meer mee met de tijd.

||| F1-aeroblog || Battlelog |||


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
fynrd1 schreef op zaterdag 12 april 2014 @ 17:28:
[...]

Kaarten kunnen wel wat hebben hoor in het algemeen, zolang de temps maar goed blijven. Tegen de tijd dat gpu's versleten zijn, gaan ze al niet meer mee met de tijd.
Doorgaans wel ja. Doorgaans worden ze uitvoerig getest en wordt een veilige kloksnelheid vastgesteld, waarmee ze uiteindelijk verkocht worden. Door frequenties te verhogen om betere prestaties te creeeren 'met een nieuwe driver', begeef je je als bedrijf nu eenmaal wel op een hellend vlak.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
MazeWing schreef op zaterdag 12 april 2014 @ 15:57:
Ik bedoel voornamelijk Tiled Resources en de daarbij horende voordelen.
Was "Tiled Resources" niet door John Carmack afgeschreven als techniek die in de toekomst geen waarde zou hebben aangezien het moeilijk te implementeren zou zijn en weinig toegevoegde waarde zou geven.
Maw een onnodige/onverstandige stap in de ontwikkelingen.

Meen dat hij daarover iets op Quakecon had gezegd, toen hij een heel betoog/uitleg deed over hoe moeilijk het is om te bepalen hoeveel licht er op een individuele pixel valt.

Daarbij is het algemeen bekend dat JC niet anti nVidia is. :)

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
enchion schreef op zaterdag 12 april 2014 @ 19:53:
Was "Tiled Resources" niet door John Carmack afgeschreven als techniek die in de toekomst geen waarde zou hebben aangezien het moeilijk te implementeren zou zijn en weinig toegevoegde waarde zou geven.
Maw een onnodige/onverstandige stap in de ontwikkelingen.
Juist niet :)

MegaTexture in Quake Wars en RAGE is voor een groot deel wat Tiled Resources zijn en wat Partially Resident Textures in AMD's GCN architectuur zijn.

Dat over lighting was een ander verhaal ;)

Acties:
  • 0 Henk 'm!

  • fynrd1
  • Registratie: November 2009
  • Laatst online: 21:22

fynrd1

Fooled by Randomness

MazeWing schreef op zaterdag 12 april 2014 @ 15:57:
[...]

Ik bedoel voornamelijk Tiled Resources en de daarbij horende voordelen.


[...]


Ik zou namelijk maar wat graag nog meer uit m'n 770 persen, met 337.50 van Nvidia's website heb ik nog geen donder gemerkt.
[/quote]
Is dat ook niet het geval bij Mantle? De performancewinst van de nieuwe drivers is misschien in veel gevallen niet zo extreem als nVidia beweert (die testen het in de meest ideale omstandigheden), biedt de driver voor mij een mooie prestatiewinst, waarbij voornamelijk de minimale framerates een stuk omhoog zijn gegaan en er minder vaak stotteringen optreden. Het zal mij eerlijk gezegd een rotzorg zijn hoe ze tot deze prestatiewinsten komen. Als ze dat voor elkaar krijgen door middel van het omhoog gooien van de clocks; so what! Dit geeft alleen maar aan dat er nog extra ruimte zit in de kaarten en toont ook aan dat er nog speelruimte is. Speelruimte qua warmte/koeling die AMD op dit moment NIET heeft!
Lees je eerst eens in joh, mantle gaat niet alleen om meer fps. Mijn ervaring is dat mijn minimum fps in bf4 met bijna 100% is gestegen, mijn max met 20% maar mijn average maar iets met 5%. Prima, maar waar ik het meeste voordeel van heb is dat de latency lager is, waardoor mijn feel met bf4 vele malen directer is dan onder dx. Mantle speelde zelfs al lekkerder in de eerste beta toen er nog flinke problemen waren met stutters en crashes, en soms vergeet ik mijn overclock (+20%) aan te zetten, waardoor mijn fps dan aanzienlijk lager is, maar je hrt bijna niet merkt en nog steeds ontzettend soepel is. Zoiets lukt niet met een wonderdriver.

||| F1-aeroblog || Battlelog |||

Pagina: 1 ... 3 ... 6 Laatste

Dit topic is gesloten.