CJ's Radeon Info & Nieuwsdiscussie - Deel 128 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 11 Laatste
Acties:
  • 41.853 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

De reference cooler is ook geen goede oplossing als verbruikt de GPU 30% minder stroom, die hybrid cooler is juist een oplossing die wel stil kan zijn. Ik hoop dat de R9 390X voorzien wordt van een sterk verbeterde koeler maar AMD heeft al een lange tijd dit probleem niet willen aanpakken.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Phuncz schreef op dinsdag 30 september 2014 @ 12:18:
De reference cooler is ook geen goede oplossing als verbruikt de GPU 30% minder stroom, die hybrid cooler is juist een oplossing die wel stil kan zijn. Ik hoop dat de R9 390X voorzien wordt van een sterk verbeterde koeler maar AMD heeft al een lange tijd dit probleem niet willen aanpakken.
nVidia kan het ook. Zie de koeler van de Titan die ook op de 780 TI enz gebruikt wordt. Koelt prima en is stil. En die chips verbruiken ook aardig wat.
Volgens mij moet het gewoon kunnen zonder H2O. H2O maakt het allemaal nog duurder. En neemt veel meer ruimte in. Dat je dat voor een eventueel top model doet kan ik me voorstellen.

Ik hoop nog steeds dat AMD een keer een goede Blower cooler maakt. En anders heb ik liever dat ze die 7990 cooler gebruiken en die wat aanpassen voor 2 fan's of zo.

Maar als ze een blower maken met een iets grotere diameter en een goed heatsink ontwerp gebruiken eventueel met vapor chamer en heatpipes, moet het best mogelijk zijn om een stille koeler te maken die toch een high end kaart kan koelen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Maak je geen zorgen. Als de AIBs er brood in zullen zien dan komen ze wel met custom kaarten met daarop luchtkoeling. Volgens jou is z'n AIO hybride watergekoeld systeem duur is t.o.v. luchtkoeling. AIBs zullen dus wel met luchtgekoelde varianten komen als dat mag van AMD. Ze zouden dan in potentie goedkoper zijn dan de referentie kaart van AMD.

Juist omdat AMD met zijn referentie kaart een AIO hybride watergekoeld systeem levert kan dat voor een relatief goedkope prijs. Immers zullen er daarvan veel gemaakt worden.

madmaxnl in "CJ's Radeon Info & Nieuwsdiscussie - Deel 128"

Wie weet doen ze eens gek en brengen ze een single GPU uit die 300 watt trekt _O-

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Inderdaad, de Nvidia Titan cooler is ook relatief duur, waardoor GTX 770's met die reference cooler duurder waren dan zowat elke andere AIB oplossing. Maar de AIB's zorgen dan wel voor een goed alternatief, enkel de mensen die best een blower cooler nemen (SFF bv.) betalen dan meer.

Zo hoop ik dat het ook opgelost wordt met de volgende high-end AMD's, maar dan met de hybrid cooling. Want ik zie AMD niet ineens een heel pak minder stroomverbruik inbouwen, als de R9 285 een voorproefje is.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Kijk eens aan, dat is heel erg goed nieuws. nVidia zou pas in 2016 ergens met StackedRAM komen. Als AMD dat begin 2015 al zou kunnen dan hebben ze waarschijnlijk minimaal tot 2016 een voorsprong op nVidia. Tevens is dit ook heel erg mooi voor de SoC, APUs en CPUs van AMD.

Dit zal vooral voor de SoCs en APUs zijn vruchten kunnen gaan afwerpen omdat het grafische gedeelte schreeuwt om meer geheugenbandbreedte.

offtopic:
Gefeliciteerd met je verjaardag trouwens ;)

Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:49
madmaxnl schreef op woensdag 01 oktober 2014 @ 22:30:
Kijk eens aan, dat is heel erg goed nieuws. nVidia zou pas in 2016 ergens met StackedRAM komen. Als AMD dat begin 2015 al zou kunnen dan hebben ze waarschijnlijk minimaal tot 2016 een voorsprong op nVidia. Tevens is dit ook heel erg mooi voor de SoC, APUs en CPUs van AMD.

Dit zal vooral voor de SoCs en APUs zijn vruchten kunnen gaan afwerpen omdat het grafische gedeelte schreeuwt om meer geheugenbandbreedte.

offtopic:
Gefeliciteerd met je verjaardag trouwens ;)
Inderdaad, hoop dat AMD qua powerefficiënte er ook op vooruit gaat wat ze lopen op dat gebied hopeloos achter op NVidia. Als ze stackedRAM al in 2015 kunnen introduceren dan hebben ze joker in handen.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het lijkt me echter dat je weinig aan enkel gigantisch veel geheugenbandbreedte hebt als de ontwikkelaars daar geen gebruik van maken. En als sommige studios al moeilijk doen over het toevoegen van Mantle support, zie ik ze niet zomaar een hele game toespitsen daarop. Zeker niet met de beperking van de consoles.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ja maar meer geheugenbandbreedte gaat echt wel helpen op 4K resolutie. Zeker als de GPU an sich al heel erg snel is geworden en daardoor meer geheugenbandbreedte kan benutten.

Die R9 390X wordt echt een beest van een kaart. Ondanks de stroombesparingen die bewerkstelligd worden door het toepassen van: 20nm t.o.v. 28nm, GCN2.0 t.o.v. GCN1.x en HBM t.o.v. GDDR5. Gaat deze kaart gewoon standaard met waterkoeling geleverd worden en dat voor een enkele GPU.

Daarnaast zijn de APU's van AMD ook heel erg hongerig naar meer geheugenbandbreedte.Dus HBM is daar ook een heel erg mooie troef. Dan geven ze Intel i.i.g. op grafisch gebied volledig het nakijken :)

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Ik zie de joker nog niet..in Q2 2015 komt AMD pas met een tegenhanger voor de GTX980 vs R9 380X. De r9 390X zal het opnemen tegen de GTX980ti of Titan. Dat is 28nm vs 20nm en GDDR5 vs HBM en toch dezelfde performance..(tis afwachten natuurlijk)
Als AMD volgend jaar met de 20nm komt, dan zal nVidia ook volgen en zal de "Maxwell" op 20nm toch weer veel beter presteren en volgens de link gaat Nvidia ook dezelfde HBM gebruiken van AMD. GDDR5 dus .

[ Voor 10% gewijzigd door Bullus op 01-10-2014 23:37 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
Bullus schreef op woensdag 01 oktober 2014 @ 23:28:
Dat is 28nm vs 20nm en GDDR5 vs HBM en toch dezelfde performance..
Als AMD volgend jaar met de 20nm komt, dan zal nVidia ook volgen en zal de "Maxwell" op 20nm toch weer veel beter presteren en volgens de link gaat Nvidia ook dezelfde HBM gebruiken van AMD. GDDR5 dus .
dat is natuurlijk bull crap.
The Rx 300 series is expected to be the first to feature TSMC’s 20nm manufacturing technology a full shrink from the current 28nm technology. And also be the first to be equipped with HBM. TSMC’s 20nm technology allows AMD to drastically reduce power consumption and heat as as well as drive clock speeds up. HBM also adds a healthy doze of power efficiency to the equation by reducing active power of the memory system to nearly half that of GDDR5.

Read more: http://wccftech.com/amd-2...than-gddr5/#ixzz3ExLRdgpx
Dus de performance is zeker niet hetzelfde. Als het al hetzelfde is, is het VEEL meer energie zuiniger.
Bullus schreef op woensdag 01 oktober 2014 @ 23:28:
Als AMD volgend jaar met de 20nm komt, dan zal nVidia ook volgen en zal de "Maxwell" op 20nm toch weer veel beter presteren en volgens de link gaat Nvidia ook dezelfde HBM gebruiken van AMD. GDDR5 dus .
Ook dat is niet zeker. NVIDIA zal pas HBM in 2016 toepassen. Ik denk dat ze tot die tijd of op prestatie, of op energie verbruik ontzettend achter gaan lopen.

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Dezelfde perforrmance tov gtx980 bedoel ik dan, uiteraard zal de r9 380x beter performen en energie zuiniger zijn dan de r9 290x, maar hoeveel tov de gtx980 is natuurlijk de vraag.

Als je de memvoltage overklokt(290x), dan is het qua wattage niet denderend veel hoger..

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
nu vergelijk je natuurlijk 2 verschillende architectures. zoals gequote, 20nm betekend hogere clocks of lager gebruik, of allebei. gecombineerd met de HBM dat het gebruik van het geheugen halveert t.o.v. GDDR5 zal de r9 380x een powerhuis (moeten) zijn dat de gtx980 uit het water blaast...

Maar niemand kan op dit moment iets concreets vast stellen en alles is puur conjecture. We weten het pas begin 2015. Mijn opinie is dat de gfx kroon in 2015 van eigenaar veranderd.

Acties:
  • 0 Henk 'm!

Verwijderd

bluebear schreef op donderdag 02 oktober 2014 @ 08:04:
nu vergelijk je natuurlijk 2 verschillende architectures. zoals gequote, 20nm betekend hogere clocks of lager gebruik, of allebei. gecombineerd met de HBM dat het gebruik van het geheugen halveert t.o.v. GDDR5 zal de r9 380x een powerhuis (moeten) zijn dat de gtx980 uit het water blaast...

Maar niemand kan op dit moment iets concreets vast stellen en alles is puur conjecture. We weten het pas begin 2015. Mijn opinie is dat de gfx kroon in 2015 van eigenaar veranderd.
Lol, je loopt nu al te verkondigen maar we weten nog niets over de prestaties. Het kan ook tegenvallen zoal Nvidia beweerde, en nvidia kan ook begin 2015 met 20nm gm210 of gm220 komen.

Ik denk dat de gtx980 word verslagen en de hd380 ook weer maar dan een paar week of maand later.
20nm verwacht ik trouwens ook nog niet met de 380, eerst zien dan geloven.
.

[ Voor 9% gewijzigd door Verwijderd op 02-10-2014 08:23 ]


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Verwijderd schreef op donderdag 02 oktober 2014 @ 08:09:
[...]

Ik denk dat de gtx980 word verslagen en de hd380 ook weer maar dan een paar week of maand later.
20nm verwacht ik trouwens ook nog niet met de 380, eerst zien dan geloven.
.
Ik mag toch hopen dat ie sneller gaat zijn als de 980ti/985. Een halfjaar extra ontwikkeltijd is in GPU land erg veel. Belangrijkere vraag is of AMD ook maar enigzins concurrerende performance per watt kan leveren

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Dat zou wel nice zijn. AMD was toen ook de gene die GDDR5 naar de markt gepushed heeft. De HD4870 was in dat opzicht revolutionair. Hij haalde zeer veel bandbreedte uit een 256Bit bus. Vandaag de dag is hij 15-40% sneller dan een HD4850 met gelijke core clocks. (de 50 had nog GDDR3)

Goed om te zien dat ze nog steeds actief mee ontwikkelen aan nieuwe memory technieken.
polli_ schreef op woensdag 01 oktober 2014 @ 22:45:
[...]


Inderdaad, hoop dat AMD qua powerefficiënte er ook op vooruit gaat wat ze lopen op dat gebied hopeloos achter op NVidia. Als ze stackedRAM al in 2015 kunnen introduceren dan hebben ze joker in handen.
Dat nieuwe geheugen zal wel iets helpen qua verbruik (GDDR5 op hoge clocks verbruikt erg veel)
Maar vooral de GPU moet zuiniger. AMD gebruikt voor mijn gevoel vrij hoge v-cores. Volgens mij zouden die wel wat omlaag kunnen en dan heb je nog steeds genoeg marge om je clockspeeds te halen. Mijn eigen tests laten zien dat elke kaart prima 40mv omlaag kan. @ max clocks zelfs meer (rond de 80mv) qua verbruik scheelt dat snel 20-40 watt. Maar het meeste zal uit de architectuur moeten komen.

Hopelijk gaan ze snel naar GCN2.0. Qua performance doet 1.0 het goed (en 1.1 en 1.2 van Hawaii en Tonga) Maar je merkt dat de architectuur qua verbruik wel z'n leeftijd laat zien. As ze die gewoon een overhaull geven kan het vast zuiniger dat hebben ze met VLIW5 ook gedaan en nVidia doet dat in feite ook met Maxwell. Het borduurt nog steeds voort op Fermi. (Kepler was daar weer een grote evolutie van).
Bullus schreef op donderdag 02 oktober 2014 @ 06:55:
Dezelfde perforrmance tov gtx980 bedoel ik dan, uiteraard zal de r9 380x beter performen en energie zuiniger zijn dan de r9 290x, maar hoeveel tov de gtx980 is natuurlijk de vraag.

Als je de memvoltage overklokt(290x), dan is het qua wattage niet denderend veel hoger..
Dat is wel apart. Mem clocks merk je wel goed. Als je 4GHz of 5GHz GDDR5 draait is duidelijk te zien in het verbruik. En vooral Idle scheelt het veel. Als hij dan op 5GHz blijft draaien ipv terug gaan naar 150 MHz merk je dat goed op de stoom meter (gebeurt als je meerdere schermen op een R9 290X of 7970 aansluit. Het zal niet alleen het geheugen zijn ook nog de 2e display controller die dingen moet doen. Maar het verschil is best groot). Ik weet de waardes niet meer uit mijn hooft.

[ Voor 19% gewijzigd door Astennu op 02-10-2014 11:42 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
Verwijderd schreef op donderdag 02 oktober 2014 @ 08:09:
[...]


Lol, je loopt nu al te verkondigen maar we weten nog niets over de prestaties. Het kan ook tegenvallen zoal Nvidia beweerde, en nvidia kan ook begin 2015 met 20nm gm210 of gm220 komen.
en ik wordt erop aangeroepen terwijl al de NVIDIA fanboys roepen dat het allemaal niks is en AMD binnen afzienbare tijd op de mat geroepen wordt (bij wijze van spreken)? Ik breng enkel een ander point of view.

Ik reageerde enkel op de jongen/meisje dat zei dat die al die nieuwe troep (20nm ipv 28nm + HBM) bij AMD enkel dezelfde performance zou opleveren als de GTX980. Ik zei dat dat bullshit was en supporte mijn mening met een goede bron... serieus, zijn er hier enkel NVIDIA fanboys of kunnen we ook een serieuze discussie voeren?

[ Voor 23% gewijzigd door bluebear op 02-10-2014 14:42 ]


Acties:
  • 0 Henk 'm!

Verwijderd

bluebear schreef op donderdag 02 oktober 2014 @ 14:31:
[...]


en ik wordt erop aangeroepen terwijl al de NVIDIA fanboys roepen dat het allemaal niks is en AMD binnen afzienbare tijd op de mat geroepen wordt (bij wijze van spreken)? Ik breng enkel een ander point of view.
*SNIP*

[ Voor 4% gewijzigd door dion_b op 18-10-2014 12:57 ]


Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
lees de reacties nog eens

Acties:
  • 0 Henk 'm!

Verwijderd

*SNIP*

[ Voor 37% gewijzigd door dion_b op 18-10-2014 12:57 ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
bluebear schreef op donderdag 02 oktober 2014 @ 14:31:
[...]


en ik wordt erop aangeroepen terwijl al de NVIDIA fanboys roepen dat het allemaal niks is en AMD binnen afzienbare tijd op de mat geroepen wordt (bij wijze van spreken)? Ik breng enkel een ander point of view.

Ik reageerde enkel op de jongen/meisje dat zei dat die al die nieuwe troep (20nm ipv 28nm + HBM) bij AMD enkel dezelfde performance zou opleveren als de GTX980. Ik zei dat dat bullshit was en supporte mijn mening met een goede bron... serieus, zijn er hier enkel NVIDIA fanboys of kunnen we ook een serieuze discussie voeren?
Deze jongen is 10jaar ouder dan jou ;)
HBM will allegedly make its way to AMD’s next generation of Pirate Islands GPUs starting early next year. With the introduction of the R9 380X powered by the Fiji GPU core and competing against the GTX 980. Also the R9 390X flagship powered by the Bermuda GPU which will be competing against the Titan 2 / GTX 980 Ti. Which is also rumored to be fully water cooled right out of the factory.
Hoezo bullshit dan?

http://wccftech.com/amd-2...hbm-9x-faster-than-gddr5/

[ Voor 3% gewijzigd door Bullus op 02-10-2014 14:53 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
Bullus schreef op donderdag 02 oktober 2014 @ 14:49:
[...]


Deze jongen is 10jaar ouder dan jou ;)
en als je ouder bent ben je opeens geen jongen meer?

[...]
de ene source zegt dit, de andere zegt dat.
Zoals ik zei, op dit punt is het allemaal conjecture en weten we niks zeker. Ik zag de enorme eenzijdigheid in deze thread en besloot een ander point of view te geven, en wordt dan op mn vingers getikt..
whatever.

btw, competing against betekend niet dat ze dezelfde performance hebben. Het is dezelfde generation, daarom 'competen' ze.
Verwijderd schreef op donderdag 02 oktober 2014 @ 08:09:
Lol, je loopt nu al te verkondigen maar we weten nog niets over de prestaties. Het kan ook tegenvallen zoal Nvidia beweerde, en nvidia kan ook begin 2015 met 20nm gm210 of gm220 komen.

Ik denk dat de gtx980 word verslagen en de hd380 ook weer maar dan een paar week of maand later.
20nm verwacht ik trouwens ook nog niet met de 380, eerst zien dan geloven.
.
tis grappig dat wanneer ik iets beweer je zegt dat het allemaal niet zeker is, maar jij kan er op los fantaseren. Als je de media een beetje volgt kun je lezen dat er een grote kans is dat AMD voor een goeie tijd de enige zal zijn met 20nm, want hun volgende kaart begin 2015 is bijna zo goed als zeker hiermee gebouwd.

NVIDIA zal deze stap waarschijnlijk skippen en direct naar 16nm gaan, maar dat zal nog wel eventjes duren.

Er is een grote kans dat de 20nm AMD kaarten NVIDIA goed zullen verslaan, vanwege de verschillen die ik al noemde.

[ Voor 49% gewijzigd door bluebear op 02-10-2014 15:35 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Competing zegt niet zo veel heel. Het kan ook puur alleen de zelfde price point betekenen niet direct performance...

Verder ik heb veel negatieve dingen gehoord over de aanstaande shrink en dat de increase in vooral power efficiency nogal tegenvalt.
Ook een belangrijk reden voor de relatief hoge verbruik van de huidige amd kaarten is de implentatie van GPGPU. Ik weet niet hoe geschikt de nieuwste nvidias zijn voor gpgpu taken maar ik weet wel dat toen met de 600 serie ze de gpgpu gedeelte zo goed als er uit gelaten hadden terwijl de tegenhangers van ati de 1ste waren met echt gpgpu onderdelen.

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
bluebear schreef op donderdag 02 oktober 2014 @ 14:52:
[...]

en als je ouder bent ben je opeens geen jongen meer?
Respect voor ouderen is ver te zoeken bij je.
bluebear schreef op donderdag 02 oktober 2014 @ 14:31:
[...]


en ik wordt erop aangeroepen terwijl al de NVIDIA fanboys roepen dat het allemaal niks is en AMD binnen afzienbare tijd op de mat geroepen wordt (bij wijze van spreken)? Ik breng enkel een ander point of view.

Ik reageerde enkel op de jongen/meisje dat zei dat die al die nieuwe troep (20nm ipv 28nm + HBM) bij AMD enkel dezelfde performance zou opleveren als de GTX980. Ik zei dat dat bullshit was en supporte mijn mening met een goede bron... serieus, zijn er hier enkel NVIDIA fanboys of kunnen we ook een serieuze discussie voeren?
Dat je gelijk Nvidia fanboys gaat roepen ,slaat echt nergens op.

Dat je mij als Nvidia fanboy beschouwd, raakt me diep :'( al sinds de radeon hd3850 heb ik alleen maar AMD gpu's gehad en "competing" beschouwde ik als performance idd.
Maar het blijft dat ze met elkaar vergeleken worden (20nm vs 28nm, hba vs gddr5)of dat qua performance is of prijs dat is nog afwachten.

[ Voor 13% gewijzigd door Bullus op 02-10-2014 15:59 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • HStyles
  • Registratie: Juni 2004
  • Laatst online: 23-04 12:44
Amd heeft het weer mooi voor elkaar met de 14.9 driver.
Ik krijg deze driver niet goed geinstalleerd

Setup 2x R9 290x
OS: Win7 64

stappen gevolgd

1. Met DDU oude driver verwijderd vanuit Safe mode
2. Toestel opnieuw opgestart
3. 14.9 driver installatie poging. tijdens de installatie een 0x3B bluescreen

4. Na een deze stappen een paar keer herhaald te hebben en vervolgens vanuit het apparaat beheer het stuurprogramma te hebben verwijderd de driver weten te installeren
5. Echter na een reboot wordt de driver niet geladen. Dit blijkt te komen door de digitale handtekening
6 computer opnieuw opgestart en via F8 digitale handtekening uit gezet. De driver worst geladen. helaas verschijnt er nu een CCC.EXE ongeldige installatiekopie C:\Windows\system32\amdmantle64.dll is niet geschikt is is beschadigd.

7. toestel opnieuw opgestart. Driver is weer niet geladen. weer die digitale handtekening...

8. elevated CMD geopend en volgende commands ingevoerd:
bcdedit.exe -set loadoptions DDISABLE_INTEGRITY_CHECKS en daarna
bcdedit.exe -set TESTSIGNING ON

9. Reboot. WEER driver niet geladen door digitale handteking. hier kom ik achter komdat de computer via f8 digitaale handteking uitzetten wel weer wordt geladen maar dan weer de amdmantle64.dll error.

Hoe moeilijk kan een driver installeren zijn zeg.. 8)7

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Niet echt het goede topic hiervoor, je kan beter een eigen topic aanmaken.
Heel vaak ligt het bij AMD drivers niet aan de driver zelf (in de gevallen die ik heb meegemaakt). Als je systeem onstabiel is en je een driver installeerd dan heb je kans dat het fout kan gaan.

Acties:
  • 0 Henk 'm!

  • HStyles
  • Registratie: Juni 2004
  • Laatst online: 23-04 12:44
Ja ik dacht mischien heeft hier iemand het zelfde probleem en mischien wist iemand een oplossing
Net de 14.8 driver er weer op gezet. dit ging probleemloos :>

Acties:
  • 0 Henk 'm!

Verwijderd

bluebear schreef op donderdag 02 oktober 2014 @ 14:52:
[...]


Er is een grote kans dat de 20nm AMD kaarten NVIDIA goed zullen verslaan, vanwege de verschillen die ik al noemde.
Het is een grote kans dat 20nm een ramp word voor AMD en Nvidia, 16nm zal pas echt voor vooruitgang zorgen. Als dit zo is hoop ik dat ze skippen want het word erg duur, heet en een flop.

http://www.kitguru.net/co...gy-jump-straight-to-16nm/

[ Voor 7% gewijzigd door Verwijderd op 03-10-2014 09:02 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ja die kans is er, maar de kans is er ook dat 16nm ruk wordt en dat tegen die tijd 20nm eindelijk fatsoenlijk werkt. Dus wat dat betreft is het koffiedik kijken voor gevorderden.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
wat is sowieso de laatste echt goed verlopen shrink? AMD stapte redelijk goed over naar 55nm maar we weten allemaal nog de problemen die Nvidia had.
Het is vrij duidelijk dat het steeds moeizamer gaat.

Acties:
  • 0 Henk 'm!
Is niet koffiedik kijken, vooral logisch nadenken en lezen. Er bestaat een grote kans dat er voor grote GPU's FinFET's nodig zijn op 20nm en kleine GPU's verwacht ik ook niet omdat de winst daar te klein op is. Is niet voor niks dat er TSMC alleen een 20nm SOC process heeft. Zowel Global Foundries als TSMC hebben grote moeite met 20nm zonder FinFET's. Intel heeft ook niet voor niks FinFET's in hun 22nm productieprocess, het was gewoon nodig.

Dat 16nm niks wordt zou vreemd zijn, daar is geen reden voor en lijkt gereed voor eind dit jaar, begin volgend jaar.

Maar vorige week zei ik dit ook al. :p -The_Mask- in "CJ's Radeon Info & Nieuwsdiscussie - Deel 128"

[ Voor 10% gewijzigd door -The_Mask- op 03-10-2014 14:35 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
tomcatha schreef op vrijdag 03 oktober 2014 @ 14:33:
wat is sowieso de laatste echt goed verlopen shrink? AMD stapte redelijk goed over naar 55nm maar we weten allemaal nog de problemen die Nvidia had.
Het is vrij duidelijk dat het steeds moeizamer gaat.
Voor AMD is dat gewoon 28nm hoor. 55, 40 en 28 waren allemaal geen probleem voor AMD. Nvidia had met 55 ook niet echt problemen, ze waren gewoon wat later dan AMD (maar dat geldt voor elke node). Met 40 en 28 hadden ze wel problemen; hoewel ze er bij 28nm wel een stuk slimmer mee om zijn gegaan.

Als je nu TSMC had gezegd, was het een ander verhaal geweest. TSMC heeft fikse problemen gehad met de laatste paar nodes (voor zover ze ze niet hebben overgeslagen *kuch*). Van yield problemen en hoge kosten tot daadwerkelijke productie problemen.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik kan me gewoon ook de gt200a herinneren.
En volgens mij was ook praktisch elke shrink later klaar dan oorspronkelijk geplant.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ik kan me eerlijk gezegd even niet herinneren of er toentertijd sprake was dat GT200a op 55 zou komen (a = 65nm, b = 55nm). Hij was in elk geval niet vertraagd en ook niet ronduit geannuleerd zoals we bij 40 en 28 hebben gezien :)

Ze waren inderdaad wel veel later dan ATI. Maar zoals ik al zei, dat is niet vreemd, AMD is meestal gewoon eerder.

[ Voor 25% gewijzigd door Werelds op 04-10-2014 16:24 ]


Acties:
  • 0 Henk 'm!

Verwijderd


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

http://www.tweaktown.com/...0-r9-290x-gpus/index.html

Misschien een leuk nieuwtje voor hier??

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Werelds schreef op zaterdag 04 oktober 2014 @ 16:23:
Ik kan me eerlijk gezegd even niet herinneren of er toentertijd sprake was dat GT200a op 55 zou komen (a = 65nm, b = 55nm). Hij was in elk geval niet vertraagd en ook niet ronduit geannuleerd zoals we bij 40 en 28 hebben gezien :)
wat ik me kan herrineren was dat de gt200a eigenlijk op 55 uit zou moeten komen maar dat ze daar nog niet klaar voor waren. Gezien de hoge prestaties van de 4xxx series zijn toen daarna wel snel mogelijk over gegaan op 55.

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024

AMD Catalyst 14.9.1 Beta Driver for Windows

Thanks to your feedback, we've successfully resolved random crashes or hangs, or the intermittent black screen (BSOD) on reboot after installing Catalyst 14.9 Driver. These issues were thankfully not encountered by everyone, but certain combinations of hardware/software made some people unlucky victims. Thanks to our cooperation, though, we were able to resolve the problems in just seven days. We truly appreciate your detailed feedback, your patience, and your willingness to help.

Please click here to download Catalyst 14.9.1 Beta Driver for Windows and use Issue Reporting Form to report any bugs or issues. In addition, read the Feature Highlights and Known Issues sections to learn more about this version of the driver. As an aside, if you’re not affected by any of the issues resolved in this driver, you can stay with 14.9 WHQL.

Highlights of AMD Catalyst™ 14.9.1 Windows Driver

Resolved Issues
Driver installation randomly crashes or hangs
Intermittent black screen or BSOD on reboot after driver installation
CCC intermittently crashes with error popup message
Random hang or BSOD when launching Battlefield 4 in quad Crossfire
Random hang or BSOD when enabling or disabling quad Crossfire
Intermittent hang when launching Sniper Elite 3 with quad Crossfire
http://forums.guru3d.com/...hp?p=4931713&postcount=21

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • HStyles
  • Registratie: Juni 2004
  • Laatst online: 23-04 12:44
Sjonge
Vananavond deze maar eens proberen. Met de 14.9.0 kreeg ik al bsods tijdens de install

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 20:28

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Zijn die problemen alleen bij de 290(x) kaarten, of ook andere varianten?

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

  • summetje
  • Registratie: December 2009
  • Laatst online: 14-09 00:32
Ik heb 2 7950's in crossfire en met zowel de 14.9.0 en .1 heb ik problemen

Zodra ik een mantle of DX game opstart of afsluit heb ik grote kans dat me pc compleet freezed.

Heb nu even crossfire uit staan, het lijkt erop dat de problemen dan weg zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

HStyles schreef op woensdag 08 oktober 2014 @ 11:41:
Sjonge
Vananavond deze maar eens proberen. Met de 14.9.0 kreeg ik al bsods tijdens de install
SAiN ONeZ schreef op woensdag 08 oktober 2014 @ 12:33:
Zijn die problemen alleen bij de 290(x) kaarten, of ook andere varianten?
summetje schreef op zaterdag 11 oktober 2014 @ 10:12:
Ik heb 2 7950's in crossfire en met zowel de 14.9.0 en .1 heb ik problemen

Zodra ik een mantle of DX game opstart of afsluit heb ik grote kans dat me pc compleet freezed.

Heb nu even crossfire uit staan, het lijkt erop dat de problemen dan weg zijn.
Problemen met drivers lijkt mij meer iets voor het ervaringen topic. :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik heb vandaag nieuwe foto's gemaakt van mijn VGA Collectie. Dit is een teaser:

Afbeeldingslocatie: https://sua1og-ch3302.files.1drv.com/y2p6EnnYGx4mzk6sPB6CyVW1eTq6elUoXIDWg-gyeh-fgBChsOamlfr2l2aXE5PhuiqAOMadi4f9sg6kJ7zb7ZNhIWhMyGjPi4y7cqP7VWhOMU/P1030177_watermark.jpg?psid=1

Deze keer helaas met watermerk omdat de foto's van de voorgaande sessie eind vorig jaar door andere "gestolen" zijn. Excusses daar voor.

Ik ga er nog iets beters op bedenken wat niet zo storend is. Maar voor een teaser leek me dit prima.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Wat een epic collectie weeral. Ik vind het watermerk eigenlijk heel goed meevallen.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Prachtige collectie! Welke mis je nu nog? Ik neem af en toe wel eens een kijkje bij het spul wat afgevoerd word op mijn werk, wie weet kan ik er wat voor je uitpikken.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
spNk schreef op zondag 12 oktober 2014 @ 10:40:
Prachtige collectie! Welke mis je nu nog? Ik neem af en toe wel eens een kijkje bij het spul wat afgevoerd word op mijn werk, wie weet kan ik er wat voor je uitpikken.
Op dit moment alleen de R9 295X2 maar die is me op dit moment te duur.

En ik mis de Rage kaarten. Maar het idee was vanaf het begin eigenlijk om alleen High end Refferenced Radeon kaarten te sparen anders moet je wel heel veel kaarten gaan kopen als je low en mid range kaarten ook mee gaat pakken.

Ik heb nu wel 3 rage kaarten. Ik wilde de Rage Fury Maxx toen graag hebben omdat dit de eerste dual gpu kaart van ATi was.

Ik zou nog wel graag een mooiere 5870 willen waar de fan stikker echt perfect is en ook in het midden zit. Die ik nu heb zit niet helemaal in het midden. Opzich maar een detail :)

En ik heb ze nog niet te koop gezien maar ik ben op zoek naar een 6970 en 6990 met opdruk:

Afbeeldingslocatie: http://pics.computerbase.de/3/2/1/0/6/4_m.jpg

Reviewers hebben dit soort kaarten toen de tijd gekregen. Maar ik heb het nog niet bij retail kaarten gezien.

En ik zou ook nog wel een Refferenced HD4770 willen hebben. Het is geen High end kaart maar het was wel de eerste 40nm chip en hij had wel een mooie cooler.

[ Voor 6% gewijzigd door Astennu op 12-10-2014 16:24 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het is en blijft een mooie verzameling Astennu ! :)
Zie een aantal kaarten die ik ook heb gehad, herinner me het nog dat ik ze ging bestellen, gebruiken etc. :)

Zou ook bij High end blijven anders lijkt het me helemaal niet te doen!

[ Voor 4% gewijzigd door Help!!!! op 12-10-2014 18:32 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 20:03
Astennu, ik heb nog een HD4770 van Club3D. Volgens mij zit er een stock cooler op. Ik PM je wel.

[EDIT] dit is hem (zonder de doos, oude foto)
Afbeeldingslocatie: http://i.imgur.com/bCiJf2Wl.jpg

[ Voor 34% gewijzigd door LongBowNL op 12-10-2014 20:14 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
295x2 zal hem niet worden ben ik bang :p. Volgens mij ligt er momenteel enkel een firepro kaartje, maar volgens mij zie ik daar niets van in je collectie.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Help!!!! schreef op zondag 12 oktober 2014 @ 18:29:
Het is en blijft een mooie verzameling Astennu ! :)
Zie een aantal kaarten die ik ook heb gehad, herinner me het nog dat ik ze ging bestellen, gebruiken etc. :)

Zou ook bij High end blijven anders lijkt het me helemaal niet te doen!
Thanks. Ja same here. Heb niet alles meteen gekocht wat er nu ligt maar heb er toen wel heel veel van gehad. zeker meer dan de helft.
LongBowNL schreef op zondag 12 oktober 2014 @ 20:02:
Astennu, ik heb nog een HD4770 van Club3D. Volgens mij zit er een stock cooler op. Ik PM je wel.

[EDIT] dit is hem (zonder de doos, oude foto)
[afbeelding]
Thanks.
Ik ben eigenlijk op zoek naar deze:

Afbeeldingslocatie: http://images.bit-tech.net/content_images/2009/04/amd-ati-radeon-hd-4770-512mb/1.jpg

Maar daar zijn er niet zo heel veel van. Ik heb je PM ook beantwoord
spNk schreef op zondag 12 oktober 2014 @ 21:53:
295x2 zal hem niet worden ben ik bang :p. Volgens mij ligt er momenteel enkel een firepro kaartje, maar volgens mij zie ik daar niets van in je collectie.
nee inderdaad. Op dit moment nog geen firepro. Maar afhankelijk van wat het is heb ik wel interesse. Zo heb ik bv ook een X1800 XL en een X1800 XL AIW er tussen zitten puur omdat het erg mooie kaarten zijn om te zien. En de HD4850 is ook aanwezig omdat het een belangrijke kaart was deze versie met opdruk er ook best mooi uit ziet.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fanatic_FS
  • Registratie: Juni 2002
  • Laatst online: 21:59

Fanatic_FS

Rated T for Troll™

Zijn er hier mensen die ook vastlopers ervaren bij het kijken van youtube filmpjes met een radeon? heb al verschillende drivers geprobeerd maar krijg geregeld vastlopers bij het kijken van youtube filmpjes.

[specs]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Nee geen vastlopers hier, probeer eens de hardware acceleratie uit te schakelen..(bij mij staat ie gewoon aan bij Chrome)

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 12-09 13:07
Fanatic_FS schreef op maandag 13 oktober 2014 @ 00:22:
Zijn er hier mensen die ook vastlopers ervaren bij het kijken van youtube filmpjes met een radeon? heb al verschillende drivers geprobeerd maar krijg geregeld vastlopers bij het kijken van youtube filmpjes.
Die heb ik idd (met 7970), altijd op 14 seconden. Niet bij ieder filmpje, maar als een bepaald filmpje het eenmaal te pakken heeft dan blijft ie het ook hebben, hoe vaak ik ook opnieuw probeer.

1 manier waarmee ik er vanaf gekomen ben is om in te stellen dat je filmpjes in html5 wilt bekijken ipv flash. Maar aangezien dit andere problemen (max 720p bvb.) met zich mee bracht ben ik daar ook mee gestopt, maar zou voor jou dus misschien een oplossing kunnen zijn.

Nu was ik toch al van plan om binnenkort een verse windows install te doen dus erg druk heb ik me er niet om gemaakt, maar als iemand hier een fix weet zou dat alsnog erg fijn zijn :)

Acties:
  • 0 Henk 'm!

  • Fanatic_FS
  • Registratie: Juni 2002
  • Laatst online: 21:59

Fanatic_FS

Rated T for Troll™

Ik hoor vandaag van een collega precies hetzelfde probleem. Bij mij is het echt heel random met youtube/flash filmpjes, soms dagen niets aan de hand, dan 2 dagen achter elkaar een vastloper tijdens een filmpje kijken.

Heb niet het idee dat het aan mijn OS installatie ligt gezien ik er meer over lees op internet.
Ik ga in ieder geval eens proberen met hardware acceleratie uit.

[specs]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Flash crasht al jaren PC's. Soms is het bij een specifieke webbrowser, soms bij een specifieke Flash release, maar het is altijd de oorzaak van Flash. Heb trouwens al héél lang geen Youtube crash meer gehad door te switchen naar HTML5, totdat een geintegreerde video (Flash) mijn PC deed freezen. "Flash Player has crashed"... En iedereen maar AMD hiervoor afrekenen.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Klopt, flash is een vreselijk pakket. Ik kan niet wachten tot we flash geheel af kunnen schaffen, evenals Java.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
Je kan hardware acceleration uitzetten toch? Heeft de cpu ook weer eens wat te doen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 12-09 13:07
haarbal schreef op maandag 13 oktober 2014 @ 12:21:
Je kan hardware acceleration uitzetten toch? Heeft de cpu ook weer eens wat te doen.
Dat was de eerste 'oplossing' die Google gaf, maar dat hielp niet. In mijn vorige post even vergeten te melden dat ik dan ook niet denk dat het aan m'n videokaart ligt.

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14:42
Flash is het meest hatelijke stuk software wat ik ken... (buiten virussen)...
Mijn oude Acer laptop kon nog gewoon redelijk mee, maar wanneer een site een flash element lade, dan raakte dat ding bijna oververhit :<
Nu was de koeling ook niet zo best, maar dat soort problemen gebeurde enkel met flash... HTML5 kan die laptop nog steeds prima aan :/

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
DCG909 schreef op maandag 13 oktober 2014 @ 13:29:
Flash is het meest hatelijke stuk software wat ik ken... (buiten virussen)...
Mijn oude Acer laptop kon nog gewoon redelijk mee, maar wanneer een site een flash element lade, dan raakte dat ding bijna oververhit :<
Nu was de koeling ook niet zo best, maar dat soort problemen gebeurde enkel met flash... HTML5 kan die laptop nog steeds prima aan :/
Klopt. Op oudere systemen kun je ook gewoon goed browsen totdat je moet scrollen op een webpagina met flash elementen, dan schokt het scrollen verschrikkelijk.

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 20:28

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Snorro schreef op maandag 13 oktober 2014 @ 10:38:
[...]

Die heb ik idd (met 7970), altijd op 14 seconden. Niet bij ieder filmpje, maar als een bepaald filmpje het eenmaal te pakken heeft dan blijft ie het ook hebben, hoe vaak ik ook opnieuw probeer.

1 manier waarmee ik er vanaf gekomen ben is om in te stellen dat je filmpjes in html5 wilt bekijken ipv flash. Maar aangezien dit andere problemen (max 720p bvb.) met zich mee bracht ben ik daar ook mee gestopt, maar zou voor jou dus misschien een oplossing kunnen zijn.

Nu was ik toch al van plan om binnenkort een verse windows install te doen dus erg druk heb ik me er niet om gemaakt, maar als iemand hier een fix weet zou dat alsnog erg fijn zijn :)
Ik draai ook al een hele tijd YT via HTML5 en kan daar gewoon de 1080p en ook de 1440p resoluties kiezen zonder problemen?! :?

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14:42
Waarschijnlijk gebruik je Chrome of Internet explorer.
FireFox heeft namelijk nog geen ondersteuning voor een bepaald automatisch element (om de optimale resolutie te bepalen), waardoor je geen 1080P optie krijgt :/
Het is BS, maar het zei zo... alles om maar geen flash te hoeven gebruiken :/

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Als je de drivers uit wilt sluiten zou ik een keer DDU draaien om alle oude driver onderdelen te verwijderen en dan 14.9 beta 1 er op zetten. (of een andere WHQL driver)

Dan heb je dat in ieder geval uitgesloten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Zoals belooft hier de foto van de gehele verzameling:

Afbeeldingslocatie: http://i.imgur.com/GrNsqWk.jpg

Enjoy!

[ Voor 4% gewijzigd door Astennu op 14-10-2014 21:03 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Mooie collectie !

Het wordt wel tijd dat je ze een geschikt plaatsje geeft zoals aan een frame aan de muur of een vitrinekast :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Phuncz schreef op dinsdag 14 oktober 2014 @ 21:11:
Mooie collectie !

Het wordt wel tijd dat je ze een geschikt plaatsje geeft zoals aan een frame aan de muur of een vitrinekast :)
Het idee is een langwerpige vitrine kast die hangt. maar dat komt volgend jaar denk ik pas :)

[ Voor 7% gewijzigd door Astennu op 14-10-2014 21:17 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Heel gaaf om te zien dat het totaal uit de hand loopt qua koeling en kaartoppervlak.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ghehe de 7990 is inderdaad een beest :P Veel veel groter kan niet binnen de ATX standaard. Ze hebben denk ik nog een paar CM over.

Maar opzich heb ik er niets op tegen met deze grote. Kasten van vandaag de dag zijn er helemaal op gemaakt en het past dus makkelijk. Maar het is wel duidelijk dat de kaarten veel meer stroom verbruiken :P Dat is duidelijk aan de koeling te zien.

Ik denk dat de kaarten nu even groot blijven maar het verbruik de komende jaren iets zal zakken. Kaarten worden dan gewoon wat stiller.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Eerst zakken omdat we volgend jaar op een nieuwe node zitten, maar de laatste generatie op die node zal waarschijnlijk weer evenveel verbruiken. De vraag naar meer snelheid zal immers toch blijven.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Inderdaad. Al krijgt intel het ook voor elkaar om amper betere prestaties te geven en het verbruik te laten zakken. Maar die hebben minder last van concurrentie dus wat ze ook doen ze blijven de snelste chips in handen hebben.

Met GPU's is dat anders. Zou AMD dat doen gaat nVidia er met de prestatie kroon vandoor. En andersom ook. Al heeft nVidia een erg mooie balans gevonden met Maxxwell.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Ja is idd zoals je zegt, Intel's R&D budget is gewoon vele malen groter dan die van AMD, dus Intel hoeft niet zo nodig als maar sneller en kan zich ook op zuinig richten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik hoop dat die nieuwe CPU archtectuur toch wel iets wat meer concurentie gaat brengen. Want Haswell was nou ook niet echt je van het. Als je een Sandby Bridge CPU hebt zit je nog prima terwijl we 3 jaar verder zijn.... Voorheen was je PC hopeloos veroudert als hij 3 jaar oud was.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Astennu schreef op dinsdag 14 oktober 2014 @ 22:20:
Ghehe de 7990 is inderdaad een beest :P Veel veel groter kan niet binnen de ATX standaard. Ze hebben denk ik nog een paar CM over.

Maar opzich heb ik er niets op tegen met deze grote. Kasten van vandaag de dag zijn er helemaal op gemaakt en het past dus makkelijk. Maar het is wel duidelijk dat de kaarten veel meer stroom verbruiken :P Dat is duidelijk aan de koeling te zien.

Ik denk dat de kaarten nu even groot blijven maar het verbruik de komende jaren iets zal zakken. Kaarten worden dan gewoon wat stiller.
Met de grootte van de kaarten heb ik zelf weinig problemen, ook al heb ik een héél compacte mITX case met een R9 290X erin. Het is inderdaad eerder het stroomverbruik dat aangepakt mag worden.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

http://www.guru3d.com/new...to-force-30fps-on-pc.html

Het feit dat de console hardware serieus tegenvalt in prestatieboost tov. de vorige maakte me al zorgen voor de PC gaming wereld maar dit gaat erover.

Ik begin me af te vragen of het wel een goede keuze was dat men met AMD voor de consoles is gaan samenwerken, het lijkt alsof er nu al, een jaar na release, nog steeds geen stappen vooruit gemaakt zijn in prestaties. Ik zie véél te vaak berichten over "game X draait op 1080p 30fps" of "game Y haalt 60fps in lagere resolutie", terwijl dit met de vorige consoles ook kon. En dat terwijl 4K UHD aan de horizon staat, we kunnen nog niet eens 1080p60 krijgen op consoles ! Het ziet er natuurlijk allemaal beter uit en heeft 1080p in de meeste gevallen wel een visueel verschil ? Geen idee, maar 4K UHD zal men nog niet eens kunnen beginnen te ondersteunen als 1080p nog niet lukt.

Maar nu dat de consolefabrikanten ook al eisen stellen aan game ontwikkelaars om het verschil met de PC wereld te minimaliseren, gaat het veel te ver. Mijn PC kostte geen 399,- maar veelvouden daarvan en dan moeten we het doen met gelimiteerde games omdat de consoles niet kunnen volgen ? Het is al erg genoeg dat menus en controls vaak rechtstreekse kopies zijn van de consoleinterface ontwikkeld voor gamepads, terwijl de meesten gamen met toetsenbord en muis. Of de zeer beperkte FOV die veel shooters hebben, wat een slechte ervaring is op PC-gebied.

Ik hou mijn hart vast voor GTA 5 op de PC...

[ Voor 22% gewijzigd door Phuncz op 15-10-2014 10:15 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op woensdag 15 oktober 2014 @ 10:11:
http://www.guru3d.com/new...to-force-30fps-on-pc.html

Het feit dat de console hardware serieus tegenvalt in prestatieboost tov. de vorige maakte me al zorgen voor de PC gaming wereld maar dit gaat erover.

Ik begin me af te vragen of het wel een goede keuze was dat men met AMD voor de consoles is gaan samenwerken, het lijkt alsof er nu al, een jaar na release, nog steeds geen stappen vooruit gemaakt zijn in prestaties. Ik zie véél te vaak berichten over "game X draait op 1080p 30fps" of "game Y haalt 60fps in lagere resolutie", terwijl dit met de vorige consoles ook kon. En dat terwijl 4K UHD aan de horizon staat, we kunnen nog niet eens 1080p60 krijgen op consoles ! Het ziet er natuurlijk allemaal beter uit en heeft 1080p in de meeste gevallen wel een visueel verschil ? Geen idee, maar 4K UHD zal men nog niet eens kunnen beginnen te ondersteunen als 1080p nog niet lukt.

Maar nu dat de consolefabrikanten ook al eisen stellen aan game ontwikkelaars om het verschil met de PC wereld te minimaliseren, gaat het veel te ver. Mijn PC kostte geen 399,- maar veelvouden daarvan en dan moeten we het doen met gelimiteerde games omdat de consoles niet kunnen volgen ? Het is al erg genoeg dat menus en controls vaak rechtstreekse kopies zijn van de consoleinterface ontwikkeld voor gamepads, terwijl de meesten gamen met toetsenbord en muis. Of de zeer beperkte FOV die veel shooters hebben, wat een slechte ervaring is op PC-gebied.

Ik hou mijn hart vast voor GTA 5 op de PC...
Dit dus, ze laten alleen maar lijken dat de pc zwaarder word belast, door hoe de console met het geheugen om gaat, alles gaat in het ddr5 geheugen zitten op de cosole wat op de pc allemaal naar het vram gaat, en je ziet het er niet van af aan de textures.

Ik ben bang voor meer games zoals Shadow of mordor en Watch dogs, die de console technieken gebruiken voor op de pc. Maar goed heb ook andere goede games gezien die wel normaal met het vram om gaan op videokaarten zoals Alien Isolation en The Evil within.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ja inderdaad, het verhaal van "optimaliseren voor consoles, simpel porten naar PC" wordt nu voorzien van beperkingen zodat de platformen elkaar niet ontlopen. Watch_Dogs, Middle-Earth: Shadow of Mordor en de pionier van slecht geheugengebruik op PC's na de next-gen consoles: Call Of Duty: Ghosts, het zijn allemaal voorbeelden van next-gen games die bij veel gebruikers issues geven door gebrekkige conversie of slechte optimalisatie voor PC-gamers.

Maar The Evil Within laat een extra probleem zien buiten optimalisatie, namelijk ook de 30 fps beperking die opgelegd wordt.

Alien: Isolation is dan weer een mooi voorbeeld van minimaal aangepaste interface voor PC, waar je duidelijk een console-oriented UI hebt met de cirkelvormige menu-structuur en onhandige crafting.

[ Voor 23% gewijzigd door Phuncz op 15-10-2014 10:49 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Phuncz schreef op woensdag 15 oktober 2014 @ 10:11:
http://www.guru3d.com/new...to-force-30fps-on-pc.html

Het feit dat de console hardware serieus tegenvalt in prestatieboost tov. de vorige maakte me al zorgen voor de PC gaming wereld maar dit gaat erover.

Ik begin me af te vragen of het wel een goede keuze was dat men met AMD voor de consoles is gaan samenwerken, het lijkt alsof er nu al, een jaar na release, nog steeds geen stappen vooruit gemaakt zijn in prestaties. Ik zie véél te vaak berichten over "game X draait op 1080p 30fps" of "game Y haalt 60fps in lagere resolutie", terwijl dit met de vorige consoles ook kon. En dat terwijl 4K UHD aan de horizon staat, we kunnen nog niet eens 1080p60 krijgen op consoles ! Het ziet er natuurlijk allemaal beter uit en heeft 1080p in de meeste gevallen wel een visueel verschil ? Geen idee, maar 4K UHD zal men nog niet eens kunnen beginnen te ondersteunen als 1080p nog niet lukt.

Maar nu dat de consolefabrikanten ook al eisen stellen aan game ontwikkelaars om het verschil met de PC wereld te minimaliseren, gaat het veel te ver. Mijn PC kostte geen 399,- maar veelvouden daarvan en dan moeten we het doen met gelimiteerde games omdat de consoles niet kunnen volgen ? Het is al erg genoeg dat menus en controls vaak rechtstreekse kopies zijn van de consoleinterface ontwikkeld voor gamepads, terwijl de meesten gamen met toetsenbord en muis. Of de zeer beperkte FOV die veel shooters hebben, wat een slechte ervaring is op PC-gebied.

Ik hou mijn hart vast voor GTA 5 op de PC...
Tja een fout van de Dev's. Ze kiezen voor mooiere beelden ipv 1080P60. Dat is een keuze. De hardware is 5x sneller dan in de vorige generatie consoles.

En het gat dichten met de PC qua performance kan niet. nVidia kan dit ook niet. Je zit namelijk met een zeer beperkt thermisch budget. Consoles mogen iets van 80-120 watt verbruiken. Een gaming PC zit zo op 400. Geen wonder dat een PC meer dan 2x zo krachtig is.

Als je een PC wilt bouwen binnen dezelfde TDP met GPU's van vorig jaar kom je ook niet zo heel erg ver en draait het lang niet soepel.

Daarnaast zijn de gaming machines die 4K goed kunnen draaien machines van over de 1500 euro en verbruiken deze meer dan 500 als niet 600 watt omdat er 2 of 3 video kaarten in zitten.

Kortom dit was te verwachten. In de tijd van de Xbox 360 was het verbruik van de GPU's ook nog niet zo hoog desktop en console zaten qua verbruik toen veel dichter bij elkaar.


Als ze PC games gaan beperken tot 30FPS is dat een zeer slechte zaak. Al zullen er dan vast snel mods komen die de FPS weer unlocken tot 60 of unlimited. Het is inderdaad wel een zorgwekkende situatie.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Astennu schreef op woensdag 15 oktober 2014 @ 10:47:
En het gat dichten met de PC qua performance kan niet. nVidia kan dit ook niet. Je zit namelijk met een zeer beperkt thermisch budget. Consoles mogen iets van 80-120 watt verbruiken. Een gaming PC zit zo op 400. Geen wonder dat een PC meer dan 2x zo krachtig is.
Extra info, niet als kritiek ofzo bedoeld maar voor de lezers:
De originele Xbox360 had een 203W voeding, het heeft 6 jaren geduurd voordat men de PSU op 120W kreeg. Dat spreekt natuurlijk niet over het reële verbruik, dat is eerder 175-200W (link).

De Xbox One heeft een 135W voeding, de PS4 nog wat meer. Beide verbruiken realistisch tijdens gamen tussen de 100W en 150W (link).
Als je een PC wilt bouwen binnen dezelfde TDP met GPU's van vorig jaar kom je ook niet zo heel erg ver en draait het lang niet soepel.
Op zich heb je daar gelijk mee dat een dubbel zo hoog stroomverbruik ook meer performance kan geven (indien echt scheef vergeleken), maar een console hoeft geen Windows mee te zeulen. Alhoewel deze efficienter is geworden, geloof ik er nog steeds in doordat consoles een vaste hardware bieden, er véél beter geoptimaliseerd kan worden. Dit had ook al moeten zichtbaar zijn na een jaar en met bekende x86 hardware in de consoles, maar dat is dus niet gebeurd.
Daarnaast zijn de gaming machines die 4K goed kunnen draaien machines van over de 1500 euro en verbruiken deze meer dan 500 als niet 600 watt omdat er 2 of 3 video kaarten in zitten.
Klopt ook, alhoewel mijn enkele R9 290X veel games in 4K UHD aankan als ik niet alles max zet en FSAA enable (sowieso minder nuttig op 4K UHD). Het probleem wat ik stel is dat men nog steeds geen 1080p60 kan/wil aanbieden op de laatste nieuwe generatie consoles terwijl de vorige generatie ook deze moeite had. Ter verduidelijking, binnen de twee jaren had de Xbox 360 een 1080p game (link) maar tegenwoordig zijn er dat nog niet zo veel (link).

Mijn vrees is niet dat de consoles geen 4K UHD met 60fps gaan kunnen weergeven, maar dat men dit voor PC's ook niet gaat optimaliseren doordat de consoles dat ook niet hebben. Doordat ze zelfs PC-games op 30fps willen limiteren op 1080p terwijl Alien: Isolation zelfs op vorige generatie mid-highend GPU's al op 120fps draait met alle details aan.
Als ze PC games gaan beperken tot 30FPS is dat een zeer slechte zaak. Al zullen er dan vast snel mods komen die de FPS weer unlocken tot 60 of unlimited. Het is inderdaad wel een zorgwekkende situatie.
Het vreselijke hieraan is dat de mensen zelf hun games moeten gaan fixen, zoals Occulus Rift support op Alien: Isolation, of fps unlockers op sommige games. Dat moet nu nog regelmatig met bizar lage FOV in veel console ports.

[ Voor 44% gewijzigd door Phuncz op 15-10-2014 11:15 . Reden: Sorry voor de ninja-edits, per ongeluk halverwege post gesubmit ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
Ik denk ook niet dat mensen 250W erg hadden gevonden, maar 700 euro wel. Daarom een redelijke gpu met een matige cpu.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Phuncz schreef op woensdag 15 oktober 2014 @ 10:58:
[...]

Extra info, niet als kritiek ofzo bedoeld maar voor de lezers:
De originele Xbox360 had een 203W voeding, het heeft 6 jaren geduurd voordat men de PSU op 120W kreeg. Dat spreekt natuurlijk niet over het reële verbruik, dat is eerder 175-200W (link).

De Xbox One heeft een 135W voeding, de PS4 nog wat meer. Beide verbruiken realistisch tijdens gamen tussen de 100W en 150W (link).


[...]

Op zich heb je daar gelijk mee dat een dubbel zo hoog stroomverbruik ook meer performance kan geven (indien echt scheef vergeleken), maar een console hoeft geen Windows mee te zeulen. Alhoewel deze efficienter is geworden, geloof ik er nog steeds in doordat consoles een vaste hardware bieden, er véél beter geoptimaliseerd kan worden. Dit had ook al moeten zichtbaar zijn na een jaar en met bekende x86 hardware in de consoles, maar dat is dus niet gebeurd.


[...]

Klopt ook, alhoewel mijn enkele R9 290X veel games in 4K UHD aankan als ik niet alles max zet en FSAA enable (sowieso minder nuttig op 4K UHD). Het probleem wat ik stel is dat men nog steeds geen 1080p60 kan/wil aanbieden op de laatste nieuwe generatie consoles terwijl de vorige generatie ook deze moeite had. Ter verduidelijking, binnen de twee jaren had de Xbox 360 een 1080p game (link) maar tegenwoordig zijn er dat nog niet zo veel (link).

Mijn vrees is niet dat de consoles geen 4K UHD met 60fps gaan kunnen weergeven, maar dat men dit voor PC's ook niet gaat optimaliseren doordat de consoles dat ook niet hebben. Doordat ze zelfs PC-games op 30fps willen limiteren op 1080p terwijl Alien: Isolation zelfs op vorige generatie mid-highend GPU's al op 120fps draait met alle details aan.


[...]

Het vreselijke hieraan is dat de mensen zelf hun games moeten gaan fixen, zoals Occulus Rift support op Alien: Isolation, of fps unlockers op sommige games. Dat moet nu nog regelmatig met bizar lage FOV in veel console ports.
Ik het begin waren er ook genoeg klachten dat de Xbox360 te veel herrie maakte. Maar mijn punt klopt nog steeds. Toen hij uit kwam lag het verbruik van die hardware veel dichter bij die van een high end PC.
Nu zit daar een groot gat tussen. De huidige consoles gebruiken 80-120 watt aan het stopcontact. Ik zal mijn PC een meten maar ik denk dat ik tussen de 250-350 watt zit met mijn game PC en die is nog vrij energie zuinig afgesteld. Daarnaast is die behuizing ondanks het een mATX kast is meer dan 3x zo groot als die van een console.

Dus wil je iets in je huiskamer hebben wat bijna niet te horen is kan je geen hardware gebruiken die tegen de 200 watt gebruikt. Dan wil je eerder rondom die 100 blijven.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Is er een mogelijkheid dat ze na een overstap op een nieuw productieprocede voor consoles de frequentie verhogen met als voordeel dat nieuwe versies van de consoles gewoon meer FPS en of een hogere resolutie ondersteunen en zo de ontwikkeling toch gaande blijft?

Het verschil in beschikbaar productie procedé is ook een generatie teruggelopen t.o.v. de vorige generatie consoles. De Xbox Ons en PS4 zijn geproduceerd op 28nm. Niet meer state of the art op moment van introductie. Terwijl het 90nm productie procedé (2005) dat voor de Xbox 360 (2005) wel zo was. De PS3 kwam in 2006 op de markt.

Daarnaast klopt het wat Astennu zegt. Het stroomverbruik is ook aardig omlaag gegaan samen met de introductie prijs trouwens.

Afbeeldingslocatie: http://www.extremetech.com/wp-content/uploads/2014/05/History-640x336.png
Afbeeldingslocatie: http://i.kinja-img.com/gawker-media/image/upload/s--ia0h9thI--/c_fit,fl_progressive,q_80,w_636/199q203cc5y96jpg.jpg

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
Astennu schreef op woensdag 15 oktober 2014 @ 14:37:
[...]


Ik het begin waren er ook genoeg klachten dat de Xbox360 te veel herrie maakte. Maar mijn punt klopt nog steeds. Toen hij uit kwam lag het verbruik van die hardware veel dichter bij die van een high end PC.
Nu zit daar een groot gat tussen. De huidige consoles gebruiken 80-120 watt aan het stopcontact. Ik zal mijn PC een meten maar ik denk dat ik tussen de 250-350 watt zit met mijn game PC en die is nog vrij energie zuinig afgesteld. Daarnaast is die behuizing ondanks het een mATX kast is meer dan 3x zo groot als die van een console.

Dus wil je iets in je huiskamer hebben wat bijna niet te horen is kan je geen hardware gebruiken die tegen de 200 watt gebruikt. Dan wil je eerder rondom die 100 blijven.
De ps3 kon ook 200W trekken, maar klonk niet als een bladblazer. Microsoft had een te karige heatsink in de 360. Ok, 400W was veel te veel geweest, maar de hoofdreden van de matige specs is volgens mij gewoon kosten.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Astennu schreef op woensdag 15 oktober 2014 @ 14:37:
Ik zal mijn PC een meten maar ik denk dat ik tussen de 250-350 watt zit met mijn game PC en die is nog vrij energie zuinig afgesteld. Daarnaast is die behuizing ondanks het een mATX kast is meer dan 3x zo groot als die van een console.
Mijn PC past op de watercooling na volledig in een Steambox case van 9 liter. De Xbox One is 7.2 liter, mijn huidige case is 12.1 liter. Tijdens gamen (Battlefield 4) trekt het tussen de 300 en 400W uit de muur (10-15% conversie tellen). Te bedenken dat ik nog een relatief onzuinige CPU en GPU heb, die in de praktijk betere graphics neerzet dan de nieuwe consoles.
Combineer een zuinige i3 CPU maar met een GTX 970 en het verhaal wordt ineens haalbaar met ~200W.
madmaxnl schreef op woensdag 15 oktober 2014 @ 14:51:
Is er een mogelijkheid dat ze na een overstap op een nieuw productieprocede voor consoles de frequentie verhogen met als voordeel dat nieuwe versies van de consoles gewoon meer FPS en of een hogere resolutie ondersteunen en zo de ontwikkeling toch gaande blijft?
Op zich zou dat een mogelijkheid zijn maar ga je dan geen teleurgestelde gamers krijgen ? "Mijn Xbox One draait de game niet zo vloeiend ;( " en van dat soort verhalen ? Dit hebben ze uiteindelijk in mindere mate ook wel gedaan, maar dat was over vele jaren getrokken.
haarbal schreef op woensdag 15 oktober 2014 @ 15:01:
Ok, 400W was veel te veel geweest, maar de hoofdreden van de matige specs is volgens mij gewoon kosten.
Inderdaad, ik geloof dat ze op deze consoles ook effectief geen of zeer weinig geld verliezen tijdens de launch doordat de hardware nu niet exotisch en duur om te produceren is.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
M.b.t. kosten, inderdaad, ik denk dat de custom CPU in de Xbox 360 en zeker die in de PS3 niet goedkoop waren.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Phuncz schreef op woensdag 15 oktober 2014 @ 15:58:
[...]

Mijn PC past op de watercooling na volledig in een Steambox case van 9 liter. De Xbox One is 7.2 liter, mijn huidige case is 12.1 liter. Tijdens gamen (Battlefield 4) trekt het tussen de 300 en 400W uit de muur (10-15% conversie tellen). Te bedenken dat ik nog een relatief onzuinige CPU en GPU heb, die in de praktijk betere graphics neerzet dan de nieuwe consoles.
Combineer een zuinige i3 CPU maar met een GTX 970 en het verhaal wordt ineens haalbaar met ~200W.


[...]

Op zich zou dat een mogelijkheid zijn maar ga je dan geen teleurgestelde gamers krijgen ? "Mijn Xbox One draait de game niet zo vloeiend ;( " en van dat soort verhalen ? Dit hebben ze uiteindelijk in mindere mate ook wel gedaan, maar dat was over vele jaren getrokken.
De Maxwell architectuur erbij halen en dan zeggen dat sub 200 watt mogelijk is? Die chip is om en na bij 400mm2 groot. Leuk dat die zo zuinig is, maar goedkoop is die i.i.g. niet. Een z'n videokaart kost al bijna evenveel als een hele console (en dan hebben we de zuinige Core i3 nog niet mee geteld). Geen goed vergelijk dus. Daarnaast is Maxwell net pas uit. Daarnaast is nVidia niet instaat een totaal pakket in de vorm van een SoC te leveren.

Nee, dat is het hem nu juist. Ze hanteren dan alleen hogere instellingen voor de nieuwere hoger geklokte Xbox One en PS4. Met een eerste generatie Xbox One zou je dan op FHD kunnen gamen op 30FPS terwijl een nieuwere versies op dezelfde resolutie opeens 60FPS neerzet. Zelfde game, zelfde grapichs, meer FPS.

[ Voor 5% gewijzigd door madmaxnl op 15-10-2014 16:37 ]


Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 12-09 11:51
madmaxnl schreef op woensdag 15 oktober 2014 @ 16:34:
[...]
Daarnaast is nVidia niet instaat een totaal pakket in de vorm van een SoC te leveren.
offtopic:
In principe kunnen ze dat prima en doen ze dat ook al. Kijk maar naar de Tegra chips.
Ze kunnen geen x86 SoC maken, omdat ze de licenties niet hebben. Afgezien van dat kunnen ze prima SoC's leveren hoor ;)

Maargoed, waarom hebben we het in het Radeon Nieuws topic over Nvidia chips?

[ Voor 9% gewijzigd door Meekoh op 15-10-2014 16:46 ]

Computer says no


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ja een ARM SoC, leuk voor de aansluiting op handhelds, maar een nog groter gat met de PC markt. Los van het feit dat nVidia helemaal geen console design win wilde binnenhalen ;) Ze hebben gewoon geen krachtige ARM SoC met een relatief dikke GPU erbij. K1 komt niet in de buurt van wat AMD biedt.

Een nVidia Tegra K1 haalt ongeveer 18.000 punten in 3DMark (2013): Ice Storm. Een AMD A10 Micro-6700T haalt ongeveer 15.000 punten in 3DMark (2013): Ice Storm.

Terwijl de K1 een hogere TDP heeft.. De aangehaalde AMD SoC heeft een TDP van maar 4,5 watt.

[ Voor 47% gewijzigd door madmaxnl op 15-10-2014 17:18 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
madmaxnl schreef op woensdag 15 oktober 2014 @ 14:51:
Is er een mogelijkheid dat ze na een overstap op een nieuw productieprocede voor consoles de frequentie verhogen met als voordeel dat nieuwe versies van de consoles gewoon meer FPS en of een hogere resolutie ondersteunen en zo de ontwikkeling toch gaande blijft?

Het verschil in beschikbaar productie procedé is ook een generatie teruggelopen t.o.v. de vorige generatie consoles. De Xbox Ons en PS4 zijn geproduceerd op 28nm. Niet meer state of the art op moment van introductie. Terwijl het 90nm productie procedé (2005) dat voor de Xbox 360 (2005) wel zo was. De PS3 kwam in 2006 op de markt.

Daarnaast klopt het wat Astennu zegt. Het stroomverbruik is ook aardig omlaag gegaan samen met de introductie prijs trouwens.

[afbeelding]
[afbeelding]
Ik verwacht niet dat ze de specs achteraf verhogen. Dat is in het verleden volgens mij ook niet gebeurd. De games moeten ook goed draaien op de consoles die vanaf dag 1 uit waren. Als de refresh van ineens 30% sneller zou zijn moet je een nieuwe gaan kopen omdat nieuwe games dan of niet zo mooi zijn of minder soepel lopen door de lagere FPS.
Lijkt me niet wenselijk.

Mja met dit soort hardware zie ik ook niet in hoe je er weer 7-10 jaar mee moet gaan doen. Of de PC hardware ontwikkelingen moeten ineens heel traag gaan (qua CPU's is dat wel zo als je kijkt van SB naar Hasswell in 4 jaar die verschillen zijn vrij klein vergeleken met het verleden) GPU's boeken ook wel minder winst dan voorheen maar daar komt nog regelmatig 20-50% bij als er een nieuwe generatie uit komt. Bij CPU's is dat eerder 5-15%.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

madmaxnl schreef op woensdag 15 oktober 2014 @ 16:34:
De Maxwell architectuur erbij halen en dan zeggen dat sub 200 watt mogelijk is? Die chip is om en na bij 400mm2 groot. Leuk dat die zo zuinig is, maar goedkoop is die i.i.g. niet. Een z'n videokaart kost al bijna evenveel als een hele console (en dan hebben we de zuinige Core i3 nog niet mee geteld). Geen goed vergelijk dus. Daarnaast is Maxwell net pas uit. Daarnaast is nVidia niet instaat een totaal pakket in de vorm van een SoC te leveren.
Mijn punt was helemaal niet dat Maxwell een goede fit voor consoles was qua prijs en haalbaarheid, mijn argument was als reactie op Astennu die zijn 350-400W mATX PC vergeleek met een 200W 7,1 liter console.

Zo ongelofelijk onhaalbaar zijn die specs echter niet (let op dat ik geen SoC's of markt haalbaarheid aanhaal), met ruwweg 160W verbruik op de GPU in desktopvariant. Met wat verdere optimalisatie kan dat met een zuinige CPU wel aan het formaat en verbruik concurreren.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
madmaxnl schreef op woensdag 15 oktober 2014 @ 17:10:
Ja een ARM SoC, leuk voor de aansluiting op handhelds, maar een nog groter gat met de PC markt. Los van het feit dat nVidia helemaal geen console design win wilde binnenhalen ;) Ze hebben gewoon geen krachtige ARM SoC met een relatief dikke GPU erbij. K1 komt niet in de buurt van wat AMD biedt.
Als nvidia's marketingplaatjes een beetje kloppen ziet Denver er anders heel krachtig uit. Verder is nvidia echt wel een instaat om een console SoC te maken, ze hebben immers heel wat meer resources achter de hand dan AMD. Dat ze dat niet hebben gedaan heeft waarschijnlijk meer te maken met de marges op console, dan met nvidia's technisch onvermogen.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 17:45
Wanneer klopt een nVidia marketingplaatje met de werkelijkheid? :)

Of het nu niet willen of niet kunnen is, is op zich niet zo ter zake, het feit is dat ze het niet hebben en dat zou ik als investeerder in nVidia toch wel heel jammer vinden. Want momenteel is het op ARM gebied een beetje de dertiende ARM bakker in het dozijn. Lastig om op die markt een deftige omzet/winst te draaien. Een console chip met dikke graphics, zou ze toch net dat ietsje anders kunnen maken dan al de rest en voor added value zorgen.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ze zullen zeker in staat zijn een console chip te fabriceren, maar of ze dat zo goed en vooral goedkoop als AMD kunnen doen. Enfin, dat konden ze dus niet.

AMD heeft misschien met zijn prijsstelling gegokt op twee a drie opdrachten van: Nintendo, Microsoft en/of Sony. Minder marge, maar meer afzet en daardoor toch meer winst. Daarnaast mist nVidia finaal de boot.

Ze hebben uiteindelijke alle drie de opdrachten binnengesleept. Is geen kattenpis.

Acties:
  • 0 Henk 'm!

Verwijderd

Het is maar beter ook dat nvidia niet die console markt wilde hebben. Ze kunnen ook gewoon chips te goedkoop weg doen maar dan is AMD nergens meer als Nvidia ook nog eens de console markt in handen kreeg. Ik vind het op zich ook best wel jammer aan de andere kant want Nvidia heeft een betere prestatie per Watt verhouding en had er dus makkelijker een sterkere Nvidia gpu in gekund, nu moeten we maar doen met minder mooie graphics of minder prestaties wat door trekt naar de pc dankzij AMD rn Nvidia die het niet wil.

[ Voor 3% gewijzigd door Verwijderd op 16-10-2014 09:17 ]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Verwijderd schreef op donderdag 16 oktober 2014 @ 09:14:
Ik vind het op zich ook best wel jammer aan de andere kant want Nvidia heeft een betere prestatie per Watt verhouding en had er dus makkelijker een sterkere Nvidia gpu in gekund, nu moeten we maar doen met minder mooie graphics of minder prestaties wat door trekt naar de pc dankzij AMD rn Nvidia die het niet wil.
Ik hoop dat je doorhebt dat de ontwikkeling van de consoles toch echt wel aan de gang was op het moment dat nVidia alleen maar notoire grootverbruikers op de markt bracht?

Acties:
  • 0 Henk 'm!

Verwijderd

dcm360 schreef op donderdag 16 oktober 2014 @ 10:01:
[...]

Ik hoop dat je doorhebt dat de ontwikkeling van de consoles toch echt wel aan de gang was op het moment dat nVidia alleen maar notoire grootverbruikers op de markt bracht?
Zo iets heb ik niet door omdat het niet zo is, de Nvidia 600 series kwam maar 2-3 maand later.

[ Voor 8% gewijzigd door Verwijderd op 16-10-2014 10:22 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 16 oktober 2014 @ 09:14:
Het is maar beter ook dat nvidia niet die console markt wilde hebben. Ze kunnen ook gewoon chips te goedkoop weg doen maar dan is AMD nergens meer als Nvidia ook nog eens de console markt in handen kreeg. Ik vind het op zich ook best wel jammer aan de andere kant want Nvidia heeft een betere prestatie per Watt verhouding en had er dus makkelijker een sterkere Nvidia gpu in gekund, nu moeten we maar doen met minder mooie graphics of minder prestaties wat door trekt naar de pc dankzij AMD rn Nvidia die het niet wil.
De ontwikkeling van chips duurt ongeveer 3 jaar. Ik weet niet hoe lang Microsoft en Sony met de de consoles bezig zijn geweest maar ik kan me voorstellen dat dat ook 2-3 jaar is. Kortom ze moeten voor dat de HD7xxx en Geforce 6xx serie op de markt waren een beslissing maken.

AMD was ook eerder op de markt met hun HD7970. nVidia kwam 3-4 maanden later pas met de GTX 680 op de proppen.

Daarnaast heeft AMD heel wat meer Compute power in de 7970 zitten dan nVidia in de GTX 680. Juist iets wat met consoles belangrijk kan zijn als je zaken als Physics wilt gaan doen. Of bv slimme AI wilt berekenen. Zo zo gek is de keuze voor een AMD chip nu ook weer niet. Ik neem aan dat Microsoft, Sony en Nintendo daar wel goed over na gedacht hebben en alle voor / nadelen en vooral de kosten tegen elkaar af gewogen hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14:42
Zulke ontwikkelingen lopen echt al heel wat langer :/
Volgens mij waren de eerste redelijk accurate geruchten over wat er en de Xbox One en PS4 zat enkele jaren voor de release al gedaan. Dus de consoles waren al een tijdje daarvoor in ontwikkeling en AMD heeft die opdracht al even daarvoor mogelijk binnen gehaald.

Edit.
gesniped door traag internet XD

[ Voor 6% gewijzigd door DCG909 op 16-10-2014 10:38 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Het was vooral de prijs die de keuze liet maken, er gingen ook geruchten dat het eerst een Nvidia chip zou worden maar Nvidia vond dat ze de chips toen te goedkoop weg moesten doen aan de console bouwers, Nvidia zou ook beter geschikt zijn voor de next gen, bron geen zin om te zoeken maar die is er wel feitelijk.

[ Voor 9% gewijzigd door Verwijderd op 16-10-2014 10:53 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 16 oktober 2014 @ 10:52:
Het was vooral de prijs die de keuze liet maken, er gingen ook geruchten dat het eerst een Nvidia chip zou worden maar Nvidia vond dat ze de chips toen te goedkoop weg moesten doen aan de console bouwers, Nvidia zou ook beter geschikt zijn voor de next gen, bron geen zin om te zoeken maar die is er wel feitelijk.
Yeah right. Zonder bron en zonder argumenten ben ik het dus echt niet met je eens.
Nu heeft nVidia met Maxwell een streepje voor op AMD. Maar wie weet wat de R9 390X voor een kaart wordt. Wellicht sloopt die kaart alles wat nVidia heeft. Het is misschien niet waarschijnlijk maar ook niet onmogelijk.

Daarnaast weet je niet wat er allemaal in ontwikkeling is bij nVidia en AMD. Next gen consoles heb je het dan over de PS5? want daar kun je nog niets over zeggen. Tegen die tijd zijn we al 3 als niet 4 GPU architecturen verder wie weet wat er dan mogelijk is. AMD en nVidia werken nu ook al aan de volgende architectuur en aan GPU's die in 2015 of zelfs 2016 uit gaan komen.

Dus ik denk niet dat je dat zo kan stellen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op donderdag 16 oktober 2014 @ 10:52:
Het was vooral de prijs die de keuze liet maken, er gingen ook geruchten dat het eerst een Nvidia chip zou worden maar Nvidia vond dat ze de chips toen te goedkoop weg moesten doen aan de console bouwers, Nvidia zou ook beter geschikt zijn voor de next gen, bron geen zin om te zoeken maar die is er wel feitelijk.
Waarom zou Nvidia beter geschikt geweest zijn?

De ontwikkeling van deze consoles die liep al een jaar of 5, 6, misschien wel 7. Zullen we eens even kijken wat Nvidia in die tijd produceerde tegenover ATI/AMD? Ik ga hier even uit van de grootste chips, omdat
- 2007/2008: GT200 - gigantisch groot, stroomvreter van jewelste tegenover R600 en R700. De kleinere chips waren het noemen niet waard.
- 2010: GF100 - nog steeds groot, nog steeds een stroomvreter. 6 maanden vertraagd, gigantische productie problemen; AMD kwam in 2009 al met Cypress die 40% kleiner was en een veel lager TDP had. Sony en MS hadden rond deze tijd toch echt al een ontwerp nodig en hoewel het ontwerp van Kepler natuurlijk wel al klaar was, was Nvidia niet echt in een goede positie om die twee te overtuigen.
- 2011: GF110 - nog steeds groot, nog steeds een stroomvreter. AMD bracht intussen Cayman uit, die nog steeds een stuk efficiënter dan GF110 was. Intussen had Nvidia wel al GF104 en GF114, maar die moesten het qua prestaties nog steeds afleggen tegen Cypress/Cayman Pro en zelfs Barts Pro zat op nagenoeg hetzelfde niveau als GF114 - wederom met een beter TDP en verbruik. Dit is het laatste jaar waarin Nvidia en AMD realistisch gezien een kans hadden om het contract binnen te slepen. AMD stond hier beter in de papieren; efficiëntere chips, kleinere chips en hun GCN ontwerp vertoonde veel gelijkenissen met Nvidia's Kepler ontwerp (bekijk ze maar eens goed). Het grote verschil zit hem in de veel bredere warps van GCN, wat betekent dat je met een beetje werk iets meer kracht uit de chip kunt persen omdat je meer shaders aan het werk krijgt.
- 2012: Nvidia komt met GK104 en AMD met Tahiti. Eindelijk zit Nvidia weer op hetzelfde niveau als AMD qua efficiëntie, maar wel ten koste van erg veel GPGPU rekenkracht. Rendering zit maar net iets onder Tahiti, maar op GPGPU vlak ligt AMD ineens mijlenver voor. Al zouden MS en Sony in 2012 nog hebben kunnen wisselen van ontwerp dan was op basis van GK104 en Tahiti AMD nog steeds de betere keus.

Maxwell was geen optie voor de PS4 en XB1. Die architectuur heeft nooit vroeg genoeg op de planning gestaan. Daar kun je zo lastig over doen als je wil, maar dat is gewoon onmogelijk.

En Nvidia zou de chips te goedkoop weg moeten doen? Ja, als jouw 500+mm^2 bijzonder slechte yields heeft en je bedrijf gewend is op hoge marges te werken dan wil je niet te goedkoop gaan doen.
Pagina: 1 ... 3 ... 11 Laatste

Dit topic is gesloten.