CJ's Radeon Info & Nieuwsdiscussie - Deel 124 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 19 20 Laatste
Acties:
  • 94.810 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
Jij zit zelf te slapen. Het hele artikel op HWI is niks om je zorgen over te maken als je de reacties ook eens leest, het brondocument van NH komt uit 2005 of 2007.. Dus ga zelf eerst eens meer lezen, en dan pas reageren.

Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 16:22
3XPER7 schreef op zaterdag 13 oktober 2012 @ 11:57:
[...]


Jij zit zelf te slapen. Het hele artikel op HWI is niks om je zorgen over te maken als je de reacties ook eens leest, het brondocument van NH komt uit 2005 of 2007.. Dus ga zelf eerst eens meer lezen, en dan pas reageren.
Over slapen gesproken, je reageert op de verkeerde! En mijn post was al lang voordat jij je input had gegeven in de reacties.....

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
winwiz schreef op zaterdag 13 oktober 2012 @ 12:03:
[...]


Over slapen gesproken, je reageert op de verkeerde! En mijn post was al lang voordat jij je input had gegeven in de reacties.....
Ik reageer met een quote dat dat artikel al voorbij was gekomen, even logisch nadenken he ;) :>

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Zou je je redenatie kunnen toelichten want ik mis volgens mij iets: brondocument uit 2005/2007 = geen reden om je zorgen te maken?
(niet om te trollen maar uit serieuze interesse)

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Europese Unie pakt stroomverbruik videokaarten aan
AMD ziet dit als een serieuze bedreiging voor zijn toekomstplannen en gaat de Europese Commissie oproepen om de spelregels te veranderen. Haar HD7700- en HD7900-videokaarten schijnen op dit moment niet aan de eisen te voldoen. Hetzelfde geldt voor de GPU's die in de Radeon HD6500, HD6600, HD7500 en HD7600 zitten. Ook met het oog op de komende generaties lijken er problemen te gaan ontstaan. Het doel van de commissie is om alles onder 320 GB per seconde te houden, terwijl laptopvideogeheugen maximaal 225 GB per seconde mag doorvoeren.
http://nl.hardware.info/n...verbruik-videokaarten-aan

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 16:44

superwashandje

grofheid alom

hahaha lupp, doe je dat nou express?

edit: @eljay
zie:
http://www.nordichardware...usive-.html#comment-20096

en expert heeft het bronartikel ergens vandaan getoverd en gelinkt in de reacties bij hardware.info

[ Voor 88% gewijzigd door superwashandje op 13-10-2012 12:29 ]

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Waar heb je het over, het is gewoon een nieuwsberricht, goed of fout alles is nieuws. Heb er geen bedoellingen bij verder. Ik vind het verder nergens op slaan dat ze moeilijk gaan doen over het stroomverbruik van videokaarten. Alsof dat een inpact heeft ?

Ik zie het al sorry ben nog niet helemaal wakker. 8)7

[ Voor 10% gewijzigd door Anoniem: 304087 op 13-10-2012 12:33 ]


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Je bent de derde in 1 page die het post ;)

Acties:
  • 0 Henk 'm!

Anoniem: 245699

@madmaxnl; Ik hoop dat je je aandelen al tijdig hebt verkocht... ;)
- nieuws: AMD gaat mogelijk tot 30 procent van zijn werknemers ontslaan
- http://finance.yahoo.com/q?s=AMD

Tja, met alleen (grofweg) Ilano, Trinity en een reeks goede gpu's is het lastig. Kan me niet onttrekken dat de cpu afdeling de laatste jaren teveel geld heeft gekost en te weinig heeft opgebracht. AMD zal zich denk ik verder moeten specialiseren (APU) en wieweet gaan ze de markt voor losse cpu's in de toekomst wel helemaal verlaten? Al geeft dit Intel wel heel makkelijk vrijbaan... Verder kunnen ze misschien verder groeien in de GPGPU markt waar ze met Tahiti verder zijn ingedoken.

Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 15-04 12:11

yzx

Als AMD de losse CPU markt zou verlaten is het Intel die WC eend kan spelen en dan zullen de prijzen er mooi bij gaan staan, tevens zonder concurrentie waarom vernieuwen of veel moeite insteken om te vernieuwen.

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
offtopic:
Niets is leuker dan leed vermaak ;) Dus ik heb ze nog altijd... En ik sta nu op verlies, maar ja als ik aandelen van het een of het ander koop beschouw ik mijn inleg sowieso altijd al als verloren. Op die manier is het daadwerkelijk verliezen van dat aandeel al ingecalculeerd in mijn studenten budget... Enfin, ik ga pas overwegen aandelen te verkopen als ik straks klaar ben met mijn studie (over 3 a 5 jaar) en dan een auto ofzo wil gaan kopen.


Ontopic, ja het gaat slecht met AMD, ze worden door Intel flink gepakt, ze krijgen niet eens een teen tussen de deur op de tablet markt (laat staan een voet) en de servermarkt (waar ze het vroeger altijd goed deden qua winst en omzet) is ze ook niet goed gezind. Om nog maar te zwijgen over de huidige situatie m.b.t. de GPU divisie die het waarschijnlijk nog het beste doet en dat zegt eigenlijk al genoeg over de algemenen situatie.

[ Voor 20% gewijzigd door madmaxnl op 13-10-2012 16:50 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Die nieuwe drivers zijn best leuk, boost van 5-15% zonder IQ-verlies :) En rara, nVidia komt ook met een magische beta die het tot 15% beter zou doen.

Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 15-04 12:11

yzx

Jejking schreef op woensdag 24 oktober 2012 @ 11:04:
Die nieuwe drivers zijn best leuk, boost van 5-15% zonder IQ-verlies :) En rara, nVidia komt ook met een magische beta die het tot 15% beter zou doen.
Zijn nog wel geen benchmarks van hoor
Of toch niet met getallen in fps ipv van %

[ Voor 6% gewijzigd door yzx op 24-10-2012 11:27 ]

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Ze zijn al getest, ga maar zoeken ;)

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 29-04 21:52

XanderDrake

Build the future!

Tikkeltje offtopic maar wel van wezelijk belang:
http://www.businessweek.c...uest-for-new-markets-tech
Advanced Micro Devices Inc. (AMD), the long-struggling competitor of giant rival Intel Corp., is facing yet another crisis amid a shifting technology landscape and declining demand for personal computers.

Chief Executive Officer Rory Read is firing workers to pare expenses as the chipmaker’s sales slide. Still, he can’t cut costs fast enough to head off his next looming challenge: shrinking cash reserves. Cash declined to $1.5 billion in the third quarter, shedding $279 million from the previous period.

If the trend continues, cash levels may drop to $600 million by this time next year, according to an estimate by Sanford C. Bernstein & Co. That compares with the $1.1 billion in reserves the company said it requires, and a quarterly operating expense target of $450 million. AMD has $2.04 billion of debt.

“I’d never been worried about cash flow; I am now worried,” said Stacy Rasgon, an analyst at Bernstein.
Ik hoop niet dat AMD zijn graphics department mee de afgrond in sleurt :X

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

XanderDrake schreef op donderdag 25 oktober 2012 @ 14:20:
Ik hoop niet dat AMD zijn graphics department mee de afgrond in sleurt :X
Niks aan de hand joh :

- Of ze krijgen een cash injection van Intel, zodat Intel geen gezeik krijgt vanwege gebrek aan concurrentie.
- Of Intel neemt gewoon het ATI gedeelte over >:) :P :+

Ik gok op het eerste voorlopig :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Anoniem: 172410

Ik vind de nieuwe desktopchips helemaal geen stap in de verkeerde richting. Het komende halfjaar kunnen ze in ieder geval behoorlijk concurreren met Intel, na Haswell is het weer even afwachten.

Het is niet zo rampzalig meer als met de eerste generatie Bulldozers. Die hoefde ik niet in mijn kast, terwijl de nieuwe FX's veel interessanter zijn.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 29-04 21:52

XanderDrake

Build the future!

Anoniem: 172410 schreef op donderdag 25 oktober 2012 @ 19:07:
Ik vind de nieuwe desktopchips helemaal geen stap in de verkeerde richting. Het komende halfjaar kunnen ze in ieder geval behoorlijk concurreren met Intel, na Haswell is het weer even afwachten.

Het is niet zo rampzalig meer als met de eerste generatie Bulldozers. Die hoefde ik niet in mijn kast, terwijl de nieuwe FX's veel interessanter zijn.
Ze zijn weer een stapje beter ja, maar dat is Ivy Bridge ook.
Het is slim van AMD om Intel's midrange aan te vallen maar daar slagen ze ook niet uniform in.
Ik denk niet dat je veel mensen kan overhalen om een high end AMD te halen...
Alleen de goedkope Trinity's staan mooi op zichzelf, en dan vooral door de agressieve prijs!

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Sinester
  • Registratie: Januari 2006
  • Laatst online: 09-04 17:26

Sinester

Game Guru

nero355 schreef op donderdag 25 oktober 2012 @ 19:03:
[...]

Niks aan de hand joh :

- Of ze krijgen een cash injection van Intel, zodat Intel geen gezeik krijgt vanwege gebrek aan concurrentie.
- Of Intel neemt gewoon het ATI gedeelte over >:) :P :+

Ik gok op het eerste voorlopig :)
Ach ja die verhalen hoor je toch elk jaar over AMD? voorlopig hebben ze nog nooit een cash injection gehad van Intel voor zo ver ik het weet

Maak me nog geen zorgen

Hello there


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 29-04 21:52

XanderDrake

Build the future!

Sinester schreef op vrijdag 26 oktober 2012 @ 14:32:
Ach ja die verhalen hoor je toch elk jaar over AMD? voorlopig hebben ze nog nooit een cash injection gehad van Intel voor zo ver ik het weet
Ohja? Ik zou die anderhalf miljard dollar van de settlement tussen Intel en AMD wel bijna zien wel zien als een verkapte steun. ;)

En ze hebben veel geld gekregen uit het midden oosten tijdje terug.


Trinity/Vishera is weer een mini stapje vooruit, maar NAAST de concurrentie met het veel grotere Intel heeft AMD ook te kampen met een krimpende PC markt dankzij de economische teruggang én de opkomst van ARM (in de vorm van tablets, smartphones, mediaplayers, smart TVs, enz. enz.).

Om nog maar te zwijgen over energie zuinig computeren: als electriciteits omkosten gaan spelen in de komende jaren, loopt AMD non-Brazos al helemaal hopeloos achter tov ARM en Intel :/

Wees eens eerlijk: hoe lang kan AMD nog door hinken?
Ik ben lang fan van ze geweest, maar de cake is op.

[ Voor 38% gewijzigd door XanderDrake op 26-10-2012 14:44 . Reden: toevoeging ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Anoniem: 251563

XanderDrake schreef op donderdag 25 oktober 2012 @ 14:20:
Tikkeltje offtopic maar wel van wezelijk belang:
http://www.businessweek.c...uest-for-new-markets-tech

[...]


Ik hoop niet dat AMD zijn graphics department mee de afgrond in sleurt :X
Waar je die business mensen nou nooit over hoort is AMD's grote succes betreft de volgende consoles. Ze krijgen zo de komende ~5 jaar in elk geval een fors basis inkomen. Ik denk dat het dus nog niet zo heel hard zal gaan - als men op de beurs niet al te paranoide gaat zijn, ten minste... En als ze de schulden kunnen afbetalen, want dat kan binnenkort een probleem voor ze worden.

Maar daar voorbij hebben ze zat mogelijkheden. Haswell schijnt maar iets van 10% sneller te worden dan Ivy, terwijl er voor Steamroller waarschijnlijk wel wat meer in zit. Hopelijk kunnen ze binnenkort Bobcat naar servers brengen, en daarna al snel Jaguar. HSA wordt inmiddels breed ondersteund, en de kans zit er in dat het opduikt in twee van de drie volgende consoles.

Moeten ze wel doorpakken en het allemaal in winst kunnen omzetten... En de genoemde obstakels overleven.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Steamroller is zowel architecturaal als op productie procedé gebied een verbetering. T.o.v. Bulldozer is Piledriver 15% sneller met eenzelfde verbruik op hetzelfde productie procedé. Als men met Steamroller alleen al op architecturaal 15% sneller is dan Piledriver is. Dan kan dit i.s.m. de overstap van 32nm naar 28nm een mooie boost geven (een hypothetische situatie waarbij Steamroller dus op 32nm gebakken zou worden waarbij het verbruik even hoog is als Piledriver terwijl de performance 15% hoger ligt). AMD heeft zijn target met Streamroller rond de 15% sneller dan Piledriver liggen. Dus ze zijn wat bescheiden, wellicht vanwege het loslaten van SOI wat indirect performanceverlies met zich meebrengt (verbruik neemt toe dus clock frequentie lager om dit te compenseren).

De opvolger van Vishera zou een grote stap voorwaarts kunnen zijn aangezien dit wel eens een decacore CPU zou kunnen worden. Verschillen t.o.v Vishera: Steamroller i.p.v. Piledriver, 10 i.p.v. 8 "cores" en 28nm HKMG i.p.v. 32nm SOI+HKMG. De opvolger van Vishera staat geplant voor 2014 terwijl Steamroller zelf zijn debuut in 2013 al maakt in de vorm van Kaveri, de opvolger van Trinity.

Ik denk zelf dat er nooit een opvolger van Vishera gaat zijn en dat AMD volledig afstapt van de productie van CPUs en dus volledig overgaat op de productie van APUs in 2013 of 2014. Immers is de Bulldozer architectuur en de daarop volgende architecturen (Piledriver, Steamroller en Excavator) gemaakt met Fusion in het achterhoofd waarbij men dus volledig overgaat op HSA. HSA zou in 2014 voor het eerst zijn intreden moeten doen.

Een logische stap voor AMD om te stoppen met CPUs. Immers is dat iets wat straks alleen nog maar op de high-end en servermarkt verkocht kan worden. Die laatste wordt daarnaast ook nog eens betreden door ARM gebaseerde chips en GPGPU wordt ook steeds meer toegepast op server gebied. Zelfs als deze laatste twee de servermarkt niet zouden beïnvloeden, dan nog zou AMD het af moeten leggen tegen Intel op dat gebied. Idem dito voor de high-end markt waar AMD ook niet op kan tegen Intel. Ze zetten logischerwijs hun geld dus in op Fusion/APUs.

Met APUs willen ze ook de servermarkt gaan betreden juist omdat vanwege het steeds belangrijker worden van GPGPU op dat gebied. De overnamen van SeaMicro was voor AMD waarschijnlijk hierom te doen.

De overnamen van ATI in 2006 is het enige wat AMD toekomst heeft gegeven aangezien ze het niet van hun CPU performance moeten hebben. Alles leunt dadelijk -en nu eigenlijk al- op de GPU divisie. Llano en Trinity zijn een "succes" vanwege het GPU gedeelte.

Let wel, in de financiële resultaten (op papier) lijkt het alsof de GPU divisie (Grapichs) er niks van bakt, maar dat is waarschijnlijk omdat de GPU divisie (op papier) niet mee profiteert van de verkopen van de APUs die onder de Computing Solutions valt (net als de CPUs). Derhalve is een vergelijking (zoals een paar al eens hebben gedaan) tussen AMD Graphics divisie financiele resultaten en de nVidia Graphics divisie financiele resultaten niet mogelijk.

Uit het 2011 ANNUAL REPORT ON FORM 10-K:
Computing Solutions
Computing Solutions net revenue of $5.0 billion in 2011 increased 4% compared to net revenue of $4.8 billion in 2010, primarily as a result of a 16% increase in unit shipments partially offset by an 11% decrease in average selling price. The increase in unit shipments was attributable to an increase in unit shipments of our microprocessors, including APU products for mobile devices, as well as our chipset products. Unit shipments of our microprocessors, including APU products for mobile devices increased due to strong demand for our Brazos and Llano-based APU platforms. However, the increase in unit shipments in 2011 was limited by supply constraints with respect to certain microprocessor products manufactured using the 32nm technology node. Chipset unit shipments increased primarily due to an increase in overall unit shipments of our microprocessor

Computing Solutions net revenue of $4.8 billion in 2010 increased 16% compared to net revenue of $4.2 billion in 2009, primarily as a result of an 18% increase in unit shipments partially offset by a 2% decrease in average selling price. The increase in unit shipments was attributable to an increase in unit shipments of our microprocessor products for mobile devices as well as chipset products, resulting primarily from an improved economic environment. In addition, chipset unit shipments increased as customers increasingly adopted our chipsets with our microprocessor products, while unit shipments of our microprocessors for mobile devices increased due to increased demand from existing and new customers for our new notebook platforms. Average selling price decreased due to a decrease in average selling price of embedded processors, partially offset by an increase in average selling price of our chipsets and microprocessor products. Average selling price of embedded processors decreased due to a shift in our product mix to lower-end, legacy products. Average selling price of products. The decrease in overall average selling price was primarily attributable to a decrease in the average selling price of our microprocessors for servers due to a shift in our product mix and competitive market conditions as well as sales of our Brazos APU platforms, which have a lower average selling price than our other processor products. microprocessor products increased due to a favorable shift in our product mix to higher end microprocessors, especially for servers, as customers continued to transition to our AMD Opteron™ 6000 series server platforms. Average selling price of our chipset products increased primarily due to a shift in product mix.

Computing Solutions operating income was $556 million in 2011 compared to $529 million in 2010. The improvement in operating results was primarily due to the increase in net revenue referenced above, partially offset by a $70 million increase in cost of sales, a $45 million increase in research and development expenses and a $42 million increase in marketing, general and administrative expenses. Cost of sales increased primarily due to higher microprocessor and chipsets unit shipments and the absence of a one-time benefit related to the deconsolidation of GF in 2010. Research and development expenses and marketing, general and administrative expenses increased for the reasons set forth under “Expenses,” below.

Computing Solutions operating income was $529 million in 2010 compared to $142 million in 2009. The improvement was primarily due to the increase in net revenue referenced above and a $25 million decrease in cost of sales, partially offset by a $224 million increase in research and development expenses and a $61 million increase in marketing, general and administrative expenses. Cost of sales decreased due to reductions in manufacturing costs and a one-time benefit related to the deconsolidation of GF in 2010. Research and development expenses and marketing, general and administrative expenses increased for the reasons set forth under “Expenses,” below.

Graphics
Graphics net revenue of $1.6 billion in 2011 decreased by 6% compared to net revenue of $1.7 billion in 2010. The decrease was due to a 6% decrease in net revenue from sales of GPU products. Net revenue from sales of GPU products decreased primarily due to a decrease in both GPU unit shipments and average selling price. The decrease in GPU unit shipments was primarily due to lower customer demand which we believe was due in part to the disruption in the supply of hard disk drives caused by the flooding in Thailand at the beginning of 2011. GPU average selling price decreased due to a shift in our product mix to lower end GPU products.

Graphics net revenue of $1.7 billion in 2010 increased 43% compared to net revenue of $1.2 billion in 2009. The increase was due to a 49% increase in net revenue from sales of GPU products. Net revenue from sales of GPU products increased primarily due to an increase in both GPU unit shipments and average selling price. Unit shipments increased due to strong demand for our DX 11 —ATI Radeon™ products. However, the increase was limited by supply constraints primarily related to constrained wafer foundry capacity in the first half of 2010. Supply constraints improved in the third quarter of 2010, and we did not experience any supply constraints during the fourth quarter of 2010. GPU average selling price increased due to a shift in our product mix to higher end GPU products.

Graphics operating income was $51 million in 2011 compared to $149 million in 2010. The decline in operating results was primarily due to the decrease in net revenue referenced above and a $20 million increase in marketing, general and administrative expenses, partially offset by a $25 million decrease in cost of sales. Marketing, general and administrative expenses increased for the reasons set forth under “Expenses,” below. Cost of sales decreased primarily due to lower GPU shipments and correspondingly lower manufacturing costs.

Graphics operating income was $149 million in 2010 compared to $35 million in 2009. The improvement was primarily due to the increase in net revenue referenced above, partially offset by a $345 million increase in cost of sales due to higher GPU unit shipments, a $22 million increase in research and development expenses and a $15 million increase in marketing, general and administrative expenses. Research and development expenses and marketing, general and administrative expenses increased for the reasons set forth under “Expenses,” below.
Enfin, dit hoort volgens mij allemaal min of meer thuis in het AMD nieuwsdiscussie topic...

[ Voor 60% gewijzigd door madmaxnl op 26-10-2012 19:50 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
madmaxnl schreef op vrijdag 26 oktober 2012 @ 19:19:
Ik denk zelf dat er nooit een opvolger van Vishera gaat zijn en dat AMD volledig afstapt van de productie van CPUs
Klinkt logisch wie wil er nu een snelle CPU hebben volgend jaar. Dat wil niemand. Iedereen wil een matig/redelijke videokaart en een aardige CPU hooguit. Niemand wil volgend jaar meer een high-end videokaart of een budget videokaartje.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Joepi
  • Registratie: December 1999
  • Laatst online: 06-03 12:36
Belangrijk nieuws ... over 7870/50:
mysterie rond de blacksceens (loss of signal) is blijkbaar eindelijk serieus uitgezocht bij AMD:
opvallend veel 7870 mnv sapphire hadden er last van en nu blijkt: niks te maken met tweaken, drivers, psu enz, maar een HW-fout bij de produktie... }:|
AMD had al in de testphase blijkbaar door, dat een SMD van een niet nader genoemde leverancier niet deugde en nadrukkelijk aan de producenten van het PCB doorgegeven, dat dit SMD dus niet gebruikt mag worden!
Je kunt nu gissen wat gebeurd is: iig sapphire heeft die troep wel gebruikt en kopers zitten met de probs: toon maar aan, zeker getweaked, niet de goeie drivers, te slappe psu enz... :X
Lees zelf maar:
http://www.hardware.fr/news/12705/ra...-solution.html
Wikipedia: Surface-mount technology

[ Voor 6% gewijzigd door Joepi op 28-10-2012 15:33 . Reden: foutje ]


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Al iets meer bekend over de 8xxx serie?
Ik zou graag namelijk de geruchten (ongeveer +15% performance per model) bevestigd dan wel ontkracht willen zien. Ik snap natuurlijk dat niemand een glazen bol heeft, maar 15 meer performance doet mij niet nog een half jaar wachten met upgraden, want hoewel mijn 6850 nog prima voldoet, wil ik mijzelf wel iets leuks cadeau doen in december.
Verwachten jullie dat de 8xxx serie (gtx7xx) net zo'n performance increase gaat opleveren als de 7xxx/Gtx6xx of werken GPU's ook met een tick/tock strategie a la Intel? (en krijgen we nu zuinigere GPU's met een marginale verbetering in performance)

(anders komt er een HW97KT onder de kerstboom ipv een 7870/660ti:p)
-The_Mask- schreef op vrijdag 26 oktober 2012 @ 19:36:
[...]

Klinkt logisch wie wil er nu een snelle CPU hebben volgend jaar. Dat wil niemand. Iedereen wil een matig/redelijke videokaart en een aardige CPU hooguit. Niemand wil volgend jaar meer een high-end videokaart of een budget videokaartje.
WTF did i just read? Staat je sarcasme mode aan? Want hoewel ik je mening deel dat de budget op termijn vervangen gaat worden door IGP en de High-end een onverstandige keus is (€/fps en W/fps), heb je altijd koekwauzen die toch een gtx610 kopen i.c.m. een hd4000 of een quad 7970 opstelling willen ;)

[ Voor 32% gewijzigd door eL_Jay op 02-11-2012 15:23 ]


Acties:
  • 0 Henk 'm!

Anoniem: 251563

Hey eL_Jay, AMD & nVidia hebben niet zo'n vaste tick/tock strategie als Intel, omdat ze afhankelijk zijn van voornamelijk TSMC betreft nieuwe processen. Ze stappen over wanneer het volgende proces klaar is, waarbij AMD doorgaans wat sneller is dan nVidia.

Helaas is het op het moment zo dat het volgende proces nog wel even op zich laat wachten, en zitten we eigenlijk in dezelfde situatie als toen AMD van de HD5000 serie naar de HD6000 serie ging: Er moet meer kracht komen terwijl men aan hetzelfde productie proces (28 nm) vast zit.

Toen ging AMD echter van VLIW5 naar VLIW4, waar ze wel wat voordeel mee konden behalen. Zo'n grote stap wordt nu niet verwacht, aangezien GCN net nieuw is. Daarentegen kan het zijn dat men nog niet alles uit het GCN ontwerp heeft kunnen halen, dat er dus nog wat "low hanging fruit" is. En verder heeft men het proces nu beter door, waardoor ze mogelijk betere yields kunnen krijgen en dus grotere chips kunnen maken zonder dat die heel veel duurder zijn.

Dat is wat we weten en kunnen verwachten... Hoe het uitpakt dat mag iedereen voor zich raden, dat is verder niet echt te zeggen. ;) Waarschijnlijk wordt de stap een stuk kleiner dan van de HD6000 naar de HD7000 serie, maar ik verwacht zelf toch wel wat meer dan 15%. 25% misschien, maar dat is dus slechts mijn gok. Charlie van SA denkt overigens dat het verschil niet zo denderend zal zijn, een "evolutionaire stap" had hij het volgens mij over.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Dank voor de info, dat heeft een hoop duidelijk gemaakt.
Helaas maakt dat de keuze voor mijn decembercadeau wel een stuk moeilijker.

Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 15-04 12:11

yzx

eL_Jay schreef op vrijdag 02 november 2012 @ 16:25:
Dank voor de info, dat heeft een hoop duidelijk gemaakt.
Helaas maakt dat de keuze voor mijn decembercadeau wel een stuk moeilijker.
Let wel op dat een 7 series met de nieuwe driver een lekkere boost heeft gekregen en dat valt ook wel te vermelden ;)

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
-The_Mask- schreef op vrijdag 26 oktober 2012 @ 19:36:
[...]

Klinkt logisch wie wil er nu een snelle CPU hebben volgend jaar. Dat wil niemand. Iedereen wil een matig/redelijke videokaart en een aardige CPU hooguit. Niemand wil volgend jaar meer een high-end videokaart of een budget videokaartje.
Ja inderdaad :P

Een opvolger van Vishera heeft wel nut afhankelijk van hoe goed Steamroller wordt. En er zit aardig wat potentie in die steamroller cores (kans om meer dan 20% sneller te zijn dan Piledriver). Ook excavator heeft leuke veranderingen in de planning staan.

Helaas speelt GF een grote rol en die moeten snel met iets anders komen dan 32nm. Dat is wat AMD nu het meeste pijn doet. Intel gaat al weer bijna naar 14nm. En ze zitten nog met 32nm opgescheept. Als ze nu ook iets in de richting van 22nm gehad hadden was het verschil qua verbruik weg geweest en waren de cpu's veel interessanter.

Voorlopig alleen focus hebben op de APU's en ARM cores is ook een optie. Om vervolgens met 20nm weer een high end platform op de markt te zetten. Maar dat zal dan met Excavator cores zijn en helaas pas over 2 jaar.




Maar goed nu ontopic xD heeft iemand al iets over de HD8xxx serie gehoord? het is november en de afgelopen 2 jaar released AMD rond Januari nieuwe kaarten. Ik ben wel benieuwd wat de GCN refresh ons gaat brengen :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
Astennu schreef op zaterdag 03 november 2012 @ 09:45:
[...]

Maar goed nu ontopic xD heeft iemand al iets over de HD8xxx serie gehoord? het is november en de afgelopen 2 jaar released AMD rond Januari nieuwe kaarten. Ik ben wel benieuwd wat de GCN refresh ons gaat brengen :)
Niets nieuws dan wat we ongeveer al wisten. Launch in 2013, een topper met 2560 SP's en 15% of 40% performance increase (afhankelijk van de site) over Tahiti. De meeste van de laatste geruchten houden ook op rond eind september, met dit als een van de tabellen:

Afbeeldingslocatie: http://www.kitguru.net/wp-content/uploads/2012/09/AMD-Radeon-8000-8950-8970-KitGuru-launch-CeBIT-2013.jpg

Oke, het is een WP-tabel en dus onbetrouwbaar, dat klopt. Maargoed, dat was de vraag ook niet ;)

[ Voor 7% gewijzigd door Fid3lity op 05-11-2012 14:49 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Er zijn dus nog geen andere geruchten opgedoken.
2560 PS met een verbeterde versie van GCN zou niet onaardig zijn. dan heb je het toch weer over iets van 20-30% hogere prestaties. Als ze dat kunnen halen ben ik in ieder geval happy :)

We zullen gaan zien of het klopt.

[ Voor 7% gewijzigd door Astennu op 04-11-2012 18:02 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 15-04 12:11

yzx

Als die lijst klopt qua benaming, gaat het dan niet wat "te druk" worden in het highend segment, 3 voor de 89xx en dan 3 voor de 88xx groep.

Gaat waarschijnlijk niet door net zoals die 7890

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 16:52

Tomas Hochstenbach

Redacteur componenten
Lijst is onzin, Wikipedia |:(

De exacte modellen zijn nog niet eens definitief vastgesteld, laat staan kloks e.d. De namen worden er sowieso pas later door de marketingafdeling aan gegeven.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
TomasH schreef op zondag 04 november 2012 @ 18:57:
Lijst is onzin, Wikipedia |:(

De exacte modellen zijn nog niet eens definitief vastgesteld, laat staan kloks e.d. De namen worden er sowieso pas later door de marketingafdeling aan gegeven.
Kitguru haalde dat als een van de laatste geruchten aan, boeiend dat die tabel van WP komt.. De vraag ging over geruchten.

Acties:
  • 0 Henk 'm!

  • Sniperzkillz
  • Registratie: November 2011
  • Laatst online: 22-02-2023
Heeft iemand een idee wat voor nummers AMD aan de kaarten na de 9xx0 serie gaat geven? Heb er al een paar keer naar gezocht maar kan nergens wat concreets vinden.

PC Specs: Asrock B75 Pro-3 M, Intel Core i7 2600, MSI GTX680, Intel 320 40GB SSD, Corsair Builder CX500 V2, Kingston 8GB RAM, Samsung 840 120GB SSD


Acties:
  • 0 Henk 'm!

  • Jorn1986
  • Registratie: Mei 2004
  • Laatst online: 29-04 23:45
Mocht het tabelletje nog ergens kloppen, dan zou de huidige HD7970 tussen de HD8870 en HD8930 komen qua prestaties.

De HD7970 presteert zowiezo waarschijnlijk beter dan de HD8870 (384 bits geheugen t.o.v. 256 bits geheugen), maar waarschijnlijk minder dan de HD8930 omdat die ook 384 bits geheugen heeft, maar 5100 miljoen transistors heeft, t.o.v. 3200 van de HD7970.

Verder lijkt het mij vreemd als de HD8930, HD8950 en HD8970 allemaal 5100 miljoen transistors hebben; dat zou betekenen dat ze allen dezelfde chip hebben, maar het verschil van kloksnelheden moeten hebben. Is het wel waar: dan kan je een HD8950 kopen, en kijken of hij op HD8970 snelheden kan lopen; dat zouden leuke tijden worden.
EDIT: zie het al: de verschillen liggen bij de 'config core', met 1792, 2133 en 2560 verhoudingen t.o.v. ''iets''.

[ Voor 7% gewijzigd door Jorn1986 op 04-11-2012 21:33 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Hebben de Wikipedia specificaties als zijnde speculatie ooit geklopt? Toen de echte specificaties uitkwamen?

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Jorn1986 schreef op zondag 04 november 2012 @ 21:31:
Verder lijkt het mij vreemd als de HD8930, HD8950 en HD8970 allemaal 5100 miljoen transistors hebben; dat zou betekenen dat ze allen dezelfde chip hebben, maar het verschil van kloksnelheden moeten hebben. Is het wel waar: dan kan je een HD8950 kopen, en kijken of hij op HD8970 snelheden kan lopen; dat zouden leuke tijden worden.
EDIT: zie het al: de verschillen liggen bij de 'config core', met 1792, 2133 en 2560 verhoudingen t.o.v. ''iets''.
Veel modellen hebben uitgeschakelde shaders. Die transistors zijn fysiek wel aanwezig, maar daar heb je dus weinig aan. Varianten met uitgeschakelde shaders zijn er van zo ongeveer elke GPU.

En nee, wikipedia-speculaties kloppen bijna nooit. Dat is ook maar een opsomming van de speculaties die ook in dit topic langskomen. Zelfs speculaties die hier meteen als onzin bestempeld worden komen daar nog wel eens terecht. Als er echt lekken van insiders zijn komt dat dan ook gewoon op een tweakers-achtig forum terecht. Op wiki komt dat dan tweedehands met copy-paste.

[ Voor 7% gewijzigd door bwerg op 04-11-2012 23:59 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 28-04 01:29

Sp3ci3s8472

@ 12 graden...

Sniperzkillz schreef op zondag 04 november 2012 @ 21:24:
Heeft iemand een idee wat voor nummers AMD aan de kaarten na de 9xx0 serie gaat geven? Heb er al een paar keer naar gezocht maar kan nergens wat concreets vinden.
Hmm wat denk je van UHD10k, of misschien een wat nettere naam UHD1xx0 :+ .

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Geen idee wat ze precies gaan doen met de naamgeving. Het lijk mij wel een aardig idee als ze de APU benaming en de GPU benaming met elkaar gaan matchen. Nu is het namelijk geen samenhangend geheel m.b.t. de naam die de GPU heeft in de APU en de GPU die gekoppeld kan worden om CF te gebruiken. Ik denk dat ze hierin wel een logische naamgeving kunnen verzinnen. Je kunt natuurlijk ook stellen dat de APU benaming en de GPU benaming niet met elkaar hoeft te matchen omdat het twee verschillende producten zijn.

AMD brengt ongeveer elke 2 jaar een nieuwe CPU generatie uit. Met APUs gaan ze dit om het jaar doen. Dit past dus goed bij de snelheid waarmee GPU generaties elkaar afwisselen, namelijk ook om het jaar. Qua naamgeving kunnen ze GPUs en APUs goed op elkaar afstemmen.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
yzx schreef op vrijdag 02 november 2012 @ 16:32:
[...]


Let wel op dat een 7 series met de nieuwe driver een lekkere boost heeft gekregen en dat valt ook wel te vermelden ;)
Ik heb geen enkele reden om al te upgraden (buiten de "je veux" factor), want mijn 6850 voldoet nog ruimschoots
(aangezien ik 2 a 2,5 jaar met een GPU wil doen en ik €/watt €/fps belangrijk vind stel ik mij aankoop toch nog even uit want hoewel de 8xxx serie wellicht slechts 15% meer performance biedt, verwacht ik dat de verhoudingen €/watt €/fps hoe dan ook beter worden)

Ontopic.

Wanneer kunnen we nieuwe output modellen verwachten, want ik geloof dat 2560*1600 nog de max is (al dan niet 6x), en aangezien ik met de volgende GPU wellicht 4K wil gaan aandrijven (aan het eind van zijn levensduur) zit ik wel te wachten op een nieuwe standaard/ontwerpmodel daarvoor

Acties:
  • 0 Henk 'm!

  • Frag_Zero
  • Registratie: Mei 2004
  • Laatst online: 30-04-2024
Displayport 1.2 kan 4K 3d aan. De gewenste standaard bestaat reeds - of begrijp ik je opmerking verkeerd?

Frag_Zero


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
HDMI 1.4 / 1.4a kan als het goed is ook al de 4K resolutie aan.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
3XPER7 schreef op zondag 04 november 2012 @ 19:56:
[...]


Kitguru haalde dat als een van de laatste geruchten aan, boeiend dat die tabel van WP komt.. De vraag ging over geruchten.
Dit heeft niks met geruchten nodig, dit is gewoon iemand met weinig verstand van videokaarten die dacht dat die de specs wel kan raden en dat lijkt mij toch vrij moeilijk...

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
3XPER7 schreef op maandag 05 november 2012 @ 12:08:
HDMI 1.4 / 1.4a kan als het goed is ook al de 4K resolutie aan.
Frag_Zero schreef op maandag 05 november 2012 @ 12:05:
Displayport 1.2 kan 4K 3d aan. De gewenste standaard bestaat reeds - of begrijp ik je opmerking verkeerd?
Als dit klopt dan ben ik gewoon slecht op de hoogte, want ik dacht de huidige implementaties op videokaarten 2560*1600 (al dan niet x6) als hoogste output konden leveren. (ik bedoelde met mijn vorige opmerking dus implementaties op videokaarten die een standaard van 4k aankan)
Als ik dit zo lees hoef ik mij dus geen enkele zorgen te maken aangezien ik sowieso een videokaart zal kopen met hdmi :)

[ Voor 7% gewijzigd door eL_Jay op 05-11-2012 12:19 ]


Acties:
  • 0 Henk 'm!

  • Frag_Zero
  • Registratie: Mei 2004
  • Laatst online: 30-04-2024
http://www.amd.com/us/pro...70/Pages/radeon-7970.aspx

The market isn’t ready for 4k video, but Radeon™ is. With full support for HDMI® (with 4K) and DisplayPort 1.2 HBR2, the AMD Radeon™ HD 7970 is set for quad HD.


Natuurlijk wel bij andere types even nakijken - het lijkt me niet onrealtisch dat dit richting budget geen feature meer is.

Frag_Zero


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
Sp3ci3s8472 schreef op maandag 05 november 2012 @ 01:14:
[...]


Hmm wat denk je van UHD10k, of misschien een wat nettere naam UHD1xx0 :+ .
Eerst eens UHD monitoren krijgen :+


@ hierboven: zowel HDMI 1.4a als DisplayPort 1.2 ondersteunen technisch gezien 4Kx2K. HOWEVER (je wist dat ie ging komen :P): niet alle implementaties van deze twee standaarden ondersteunen dat ook. DP 1.2 op Cayman en kleinere broertjes bijvoorbeeld gaat inderdaad maar tot 2560x1600 :)

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Werelds schreef op maandag 05 november 2012 @ 12:26:
[...]

Eerst eens UHD monitoren krijgen :+


@ hierboven: zowel HDMI 1.4a als DisplayPort 1.2 ondersteunen technisch gezien 4Kx2K. HOWEVER (je wist dat ie ging komen :P): niet alle implementaties van deze twee standaarden ondersteunen dat ook. DP 1.2 op Cayman en kleinere broertjes bijvoorbeeld gaat inderdaad maar tot 2560x1600 :)
Wil toch een 88xx oid kopen en aangezien ik er verwacht 2-3 jaar mee te doen, is een upgrade naar een 4K monitor wellicht een optie. (game nu op 1080p en wil 2560*1600/1400 liever overslaan en gelijk naar een 4K monitor:P).
Ik zal bij de aanschaf van de nieuwe GPU expliciet letten welke resoluties hij ondersteund:P

Acties:
  • 0 Henk 'm!

  • tikkietrugjaap
  • Registratie: Juli 2005
  • Laatst online: 16:52
Ik weet niet of deze vraag hier kan maar ik stel hem toch maar. Mocht het hier niet kunnen, hoor ik graag waar ik wel moet zijn.

Ik ben al een geruime tijd aan het wachten om een 7970 te kopen aangezien er momenteel weinig spellen zijn die ik interessant genoeg vind om zo'n kaart er voor te gebruiken maar nu ik net terug ben van een weekje vakantie kom ik erachter dat de twee kaarten die ik op het oog had, de Asus HD7970-DC2T-3GD5 en de Sapphire HD 7970 OC Dual-X 3GB GDDR5, richting EOL lijken te gaan.
Weet iemand hoe dit komt? Ik heb nog niks concreets gehoord over een opvolger dan de 7970 en deze twee topkaarten beginnen nu al op te raken. Moet ik, als ik 1 van deze 2 kaarten wil hebben, nu kopen of is er iets wat ik mis?

Prima.


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
tikkietrugjaap schreef op zaterdag 10 november 2012 @ 15:34:
Ik weet niet of deze vraag hier kan maar ik stel hem toch maar. Mocht het hier niet kunnen, hoor ik graag waar ik wel moet zijn.

Ik ben al een geruime tijd aan het wachten om een 7970 te kopen aangezien er momenteel weinig spellen zijn die ik interessant genoeg vind om zo'n kaart er voor te gebruiken maar nu ik net terug ben van een weekje vakantie kom ik erachter dat de twee kaarten die ik op het oog had, de Asus HD7970-DC2T-3GD5 en de Sapphire HD 7970 OC Dual-X 3GB GDDR5, richting EOL lijken te gaan.
Weet iemand hoe dit komt? Ik heb nog niks concreets gehoord over een opvolger dan de 7970 en deze twee topkaarten beginnen nu al op te raken. Moet ik, als ik 1 van deze 2 kaarten wil hebben, nu kopen of is er iets wat ik mis?
Dit topic is niet de plek om met dit soort vragen te komen, maar om toch even kort te reageren: die Sapphire is toch nog redelijk goed verkrijgbaar en van ASUS is er toch ook gewoon de regulierere DC2 die je zelf wel naar 1GHz kan tillen. Die is verder prima leverbaar, dus ik snap het probleem niet echt. Als je een van die kaarten echt wil, moet je 'm halen. Als je nog langer gaat wachten kun je net zo goed wachten op de volgende generatie.

Acties:
  • 0 Henk 'm!

  • tikkietrugjaap
  • Registratie: Juli 2005
  • Laatst online: 16:52
3XPER7 schreef op zaterdag 10 november 2012 @ 16:18:
Dit topic is niet de plek om met dit soort vragen te komen, maar om toch even kort te reageren: die Sapphire is toch nog redelijk goed verkrijgbaar en van ASUS is er toch ook gewoon de regulierere DC2 die je zelf wel naar 1GHz kan tillen. Die is verder prima leverbaar, dus ik snap het probleem niet echt. Als je een van die kaarten echt wil, moet je 'm halen. Als je nog langer gaat wachten kun je net zo goed wachten op de volgende generatie.
Ik was al bang dat ik niet hier moest zijn maar ik kon niet echt een goede thread vinden voor dit soort vragen en ik dacht dat ik deze week misschien wat info was misgelopen, vandaar dat ik hier postte.

De Sapphire is inderdaad nog verkrijgbaar maar daarvan is de prijs deze week gestegen ipv gedaald. Dat icm de Top versie van Asus die bijna niet meer verkrijgbaar is deed mij vermoeden dat er iets gaande was. Dat is dus niet het geval.

Anyway, bedankt voor het beantwoorden van mijn vraag.

Prima.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
tikkietrugjaap schreef op zaterdag 10 november 2012 @ 17:22:
[...]


Ik was al bang dat ik niet hier moest zijn maar ik kon niet echt een goede thread vinden voor dit soort vragen en ik dacht dat ik deze week misschien wat info was misgelopen, vandaar dat ik hier postte.

De Sapphire is inderdaad nog verkrijgbaar maar daarvan is de prijs deze week gestegen ipv gedaald. Dat icm de Top versie van Asus die bijna niet meer verkrijgbaar is deed mij vermoeden dat er iets gaande was. Dat is dus niet het geval.

Anyway, bedankt voor het beantwoorden van mijn vraag.
Die vraag is voor het 7xxx ervaringen topic.
Ik had ook al gezien dat de prijzen weer hoger zijn. Blijkbaar te veel vraag.




Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/imagenormal/1352713723.jpeg

AMD's Dual GPU kaart is een FirePro geworden (de S10000) Dual Tahiti met 1792 Shaders en een TDP van 375 watt. Ik ben benieuwd hoe stil die cooler is.

Ik vind het wel jammer dat het niet eens twee full Tahiti's zijn op een wat lagere clocksnelheid.

[ Voor 8% gewijzigd door Astennu op 12-11-2012 12:40 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Astennu schreef op maandag 12 november 2012 @ 12:39:
[...]
Ik vind het wel jammer dat het niet eens twee full Tahiti's zijn op een wat lagere clocksnelheid.
Ze zullen wel goed gekeken hebben wat het maximale rendement geeft m.b.t. de doeleinden voor deze kaart. Het zal dus wel beter zijn om minder shaders te activeren en de clocks wat hoger dan andersom. Dit alles natuurlijk binnen een bepaald gesteld verbruik waar men niet overheen wil komen, want die TDP van 375 watt is natuurlijk al vrij hoog voor de servermarkt.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Anoniem: 245699 schreef op maandag 12 november 2012 @ 17:42:
[...]

Ze zullen wel goed gekeken hebben wat het maximale rendement geeft m.b.t. de doeleinden voor deze kaart. Het zal dus wel beter zijn om minder shaders te activeren en de clocks wat hoger dan andersom. Dit alles natuurlijk binnen een bepaald gesteld verbruik waar men niet overheen wil komen, want die TDP van 375 watt is natuurlijk al vrij hoog voor de servermarkt.
Klopt normaal zitten ze rond de 225 Watt. Maar de S9000 heeft evenveel actieve shaders. 225watt. Dit zal wel efficienter zijn dan alle shaders actief op lagere clockspeeds.

In dat opzicht heeft nVidia het wel goed voor elkaar met GK110. Dat ding blijft gewoon bijna de 235Watt met zijn 7,1 Miljart transistors. Daar staat ook wel een cluster uit maar dan zijn er alsnog 2688 CUDA cores actief. Dit hadden er 192 meer kunnen zijn als ze alle 15 clusters actief gemaakt hadden.

Dan begin ik me toch af te vragen waarom Tahiti zo inefficient is qua verbruik. Ik ben benieuwd of ze dit met de volgende generatie gaan oplossen en misschien net als bij de GK110 meer shaders maar lagere clocks. Dus 800 MHz ipv 1000. Want GK110 is gigantisch draait op 732 MHz maar blijft wel binnen een 235watt TDP. De tragere K20 moet het doen met 2496 shaders op 706 MHz een 320 bit mem interface (ipv 384) en heeft een TDP van 225watt.

Ik moet zeggen dat ik het verbruik van de K20 vs de K20x tegen vind vallen. De K20x is qua TDP efficienter dan de K20. In praktijk zal het verschil wel groter zijn dan 10 watt (dat hoop ik tenminste voor nVidia),

[ Voor 27% gewijzigd door Astennu op 13-11-2012 11:13 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
Astennu schreef op dinsdag 13 november 2012 @ 11:08:
[...]


Klopt normaal zitten ze rond de 225 Watt. Maar de S9000 heeft evenveel actieve shaders. 225watt. Dit zal wel efficienter zijn dan alle shaders actief op lagere clockspeeds.

In dat opzicht heeft nVidia het wel goed voor elkaar met GK110. Dat ding blijft gewoon bijna de 235Watt met zijn 7,1 Miljart transistors. Daar staat ook wel een cluster uit maar dan zijn er alsnog 2688 CUDA cores actief. Dit hadden er 192 meer kunnen zijn als ze alle 15 clusters actief gemaakt hadden.

Dan begin ik me toch af te vragen waarom Tahiti zo inefficient is qua verbruik. Ik ben benieuwd of ze dit met de volgende generatie gaan oplossen en misschien net als bij de GK110 meer shaders maar lagere clocks. Dus 800 MHz ipv 1000. Want GK110 is gigantisch draait op 732 MHz maar blijft wel binnen een 235watt TDP. De tragere K20 moet het doen met 2496 shaders op 706 MHz een 320 bit mem interface (ipv 384) en heeft een TDP van 225watt.

Ik moet zeggen dat ik het verbruik van de K20 vs de K20x tegen vind vallen. De K20x is qua TDP efficienter dan de K20. In praktijk zal het verschil wel groter zijn dan 10 watt (dat hoop ik tenminste voor nVidia),
Maar er staat natuurlijk wel wat tegenover:

AMD FirePro S10000
It is also the first ultra high-end card that brings an unprecedented 5.91 TFLOPS of peak single-precision and 1.48 TFLOPS of double-precision floating-point calculations.
nVidia Tesla K20 / K20X
The NVIDIA Tesla K20X has 3.95 TFLOPS single-precision and 1.31 TFLOPS double-precision peak floating point performance. The new family also includes the Tesla K20 accelerator, which provides 3.52 TFLOPS of single-precision and 1.17 TFLOPS of double-precision peak performance.

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
AMD FirePro Server Graphics Redefining Supercomputing Performance
"There is a massive shift in the HPC industry from defining supercomputing performance in terms of FLOPS to performance-per-watt and developing environmentally responsible technologies," said John Gustafson, senior fellow and chief product architect, Graphics Business Unit, AMD. "The SANAM supercomputer, equipped with AMD FirePro S10000 GPUs based on our Graphics Core Next Architecture, consumes a mere 180 kilowatts of power while running, which is incredibly low for a supercomputer. With solutions like the FirePro S10000 along with innovative software from AMD and technology partners like AccelerEyes, CAPS Entreprise and PGI we enable institutions engaged in cutting-edge research, like the University's work in quantum chromodynamics, to achieve massive compute performance and processor density, while staying within their power budget."

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
3XPER7 schreef op dinsdag 13 november 2012 @ 12:46:
[...]


Maar er staat natuurlijk wel wat tegenover:

AMD FirePro S10000

[...]


nVidia Tesla K20 / K20X

[...]
Die DP scores van de S10000 vind ik nu niet echt indrukwekkend. De K10 (GK104) van nVidia heeft trouwens ook hogere SP scores dan de K20.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Nvidia: Maxwell GPU integreert 64-bit ARM processor in 2014

Ik denk dat AMD soortgelijke plannen heeft aangezien ze ARM ook gaan integreren in hun CPUs. Alhoewel het los plaatsen van een ARM chipje op een PCB van een videokaart ook tot de mogelijkheid behoord en minder werk kost.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
madmaxnl schreef op maandag 19 november 2012 @ 10:38:

Nvidia: Maxwell GPU integreert 64-bit ARM processor in 2014

Ik denk dat AMD soortgelijke plannen heeft aangezien ze ARM ook gaan integreren in hun CPUs. Alhoewel het los plaatsen van een ARM chipje op een PCB van een videokaart ook tot de mogelijkheid behoord en minder werk kost.
Tja zou kunnen maar ik denk dat AMD het meer aan de CPU kant gaat gebruiken. En niet zo zeer aan de VGA kant. Maar tijd zal het leren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Zou juist logisch zijn als ze die gekochte ARM licentie/mogelijkheden op meerdere vlakken gaan gebruiken en dus ook i.s.m. hun GPUs. Immers kunnen ze zo de kosten van hun ARM onderneming spreiden. Daarnaast zetten ze dan in op ARM+GPGPU en x86+GPGPU. Ze zullen sowieso zelf het zaakje compleet moeten gaan aanbieden in de toekomst. nVidia levert namelijk zelf ARM+GPGPU en Intel x86+GPGPU (Xeon Phi).

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
madmaxnl schreef op maandag 19 november 2012 @ 14:04:
Zou juist logisch zijn als ze die gekochte ARM licentie/mogelijkheden op meerdere vlakken gaan gebruiken en dus ook i.s.m. hun GPUs. Immers kunnen ze zo de kosten van hun ARM onderneming spreiden. Daarnaast zetten ze dan in op ARM+GPGPU en x86+GPGPU. Ze zullen sowieso zelf het zaakje compleet moeten gaan aanbieden in de toekomst. nVidia levert namelijk zelf ARM+GPGPU en Intel x86+GPGPU (Xeon Phi).
Tja ligt aan de meerwaarde die ARM geeft. Je weet niet pressies wat nVidia bedacht heeft. Ik kan me best voorstellen dat de Opvolger van de GTX680 (GK104) helemaal geen ARM gpu aan boord heeft. De Opvolger van Big Kepler (GK110) daarintegen denk ik wel. Voor Compute (en dus Tesla producten) Is dit interessant.

Voor gaming verwacht ik voorlopig geen toegevoegde waarden.

En die Xeon Phi is niet echt GPGPU. Die chip is niet in staat beeld te renderen daar heb je alsnog een video kaart voor nodig. Xeon Phi is niet helemaal wat larrabee had moeten zijn want die laatste was wel bedoelt als Video kaart. Xeon Phi is een doorontwikkeling van Larrabee speciaal gericht op Compute taken. Maar het is toch wel aanzienlijk anders dan nVidia's K20 of AMD's FirePro S9000.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 29-04 21:52

XanderDrake

Build the future!

[b]Astennu schreef op maandag 19 november 2012 @ 14:51:
En die Xeon Phi is niet echt GPGPU. Die chip is niet in staat beeld te renderen daar heb je alsnog een video kaart voor nodig. Xeon Phi is niet helemaal wat larrabee had moeten zijn want die laatste was wel bedoelt als Video kaart. Xeon Phi is een doorontwikkeling van Larrabee speciaal gericht op Compute taken. Maar het is toch wel aanzienlijk anders dan nVidia's K20 of AMD's FirePro S9000.
Het is aanzienlijk anders zijn dan Tesla en FirePro maar dat is JUIST Phi's voordeel. In feite heb je een heel voorspelbare co-processor, dat is zijn kracht.
Vanuit mijn werkveld (bioinformatics) zijn er zeer veel computational problems die nu worden opgelost door veel processor cores waarbij paralellisatie boven snelheid wordt verkozen. Vandaar dat mijn werkgever voornamelijk AMD servers hebben: de CPUs zijn niet snel (niet clock-for-clock en niet in ruwe clock snelheid, cache is ook laag) maar je kan voor weinig geld veel cores per socket kopen (16 cores voor maar €510). Dát is wat we zoeken.

GPGPU's moet je op andere manieren aanroepen dan CPU's, waardoor je daar specifiek voor moet programmeren, en dat vereist dure hoog-opgeleidde programmeurs. Zelfs 'personal cloud' oplossingen zoals Oracle/Sun Grid Engine en Apache Hadoop vereisen redelijk wat kennis, en dus tijd, en dus dure loon-uren.
Daarnaast, moederborden met meer dan vier sockets zijn ook vrij specialistisch, je kan ze vaak niet eens vinden in server webshops, dus zit je snel aan de max van 64 cores (4x AMD Opteron 6272) per server. Klinkt veel, maar als je weet dat je sommige middelmatige genomen pas degelijk in elkaar krijgt met 32 cores, sja. :+
Helaas zit het 'grote' geld vaak in grote genomen: Tarwe bijvoorbeeld heeft bijvoorbeeld 17 gigabases (17.000.000.000 nucleotides, menselijk genome is maar 2,3 gigabases) aan genomische data.

Daar is de Xeon Phi ineens: 60 zeer voorspeldbare x86 cores die waarschijnlijk los aan te roepen zijn met de juiste drivers. En die passen in een PCI-E 2.0 slot! Die hebben we nog wel over in onze servers! OK, snelheid is niet hoog (1ghz, dus 1,4ghz a lá AMD Opteron schat ik), maar zoals gezegd: niet persee vereist.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Astennu schreef op maandag 19 november 2012 @ 14:51:

En die Xeon Phi is niet echt GPGPU. Die chip is niet in staat beeld te renderen daar heb je alsnog een video kaart voor nodig. Xeon Phi is niet helemaal wat larrabee had moeten zijn want die laatste was wel bedoelt als Video kaart. Xeon Phi is een doorontwikkeling van Larrabee speciaal gericht op Compute taken. Maar het is toch wel aanzienlijk anders dan nVidia's K20 of AMD's FirePro S9000.
Daar ben ik van op de hoogte, maar het zijn in mijn ogen wel concurrenten van elkaar. Ze hebben elk hun voor- en nadelen. Ze dekken elkaars werkveld niet helemaal maar overlappen elkaar wel erg veel. I.i.g. meer dan CPUs en GPUs elkaar overlappen m.b.t het werkveld en die concurreren ook gewoon met elkaar.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
madmaxnl schreef op maandag 19 november 2012 @ 18:31:
[...]


Daar ben ik van op de hoogte, maar het zijn in mijn ogen wel concurrenten van elkaar. Ze hebben elk hun voor- en nadelen. Ze dekken elkaars werkveld niet helemaal maar overlappen elkaar wel erg veel. I.i.g. meer dan CPUs en GPUs elkaar overlappen m.b.t het werkveld en die concurreren ook gewoon met elkaar.
Daar ben ik het helemaal mee eens.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Op HWI hadden ze een bericht dat er een asus notebook met een gpu 8550m was opgedoken. Dit was echter een typfout schijnbaar.
http://nl.hardware.info/n...8550m-videokaart-duikt-op.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 27-04 18:04

RuddyMysterious

a smorgasbord of waywardness

SLI en CFX die nog eens worden getest bij Tom's, met daarbij nieuwe zaken zoals Adaptive V-Sync van nVidia en een 3rd-party-tegenhanger voor AMD: http://www.tomshardware.c...il13-7970-x2,3329-11.html

Wat blijkt? De interframetijden zijn belachelijk constant met die techniek, alsof micro-stuttering compleet verdwenen is. Daarom, voor mensen met een CFX-opstelling: jullie zijn eindelijk een happy camper.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Eindelijk ?? Al een aantal jaar hoor :Y)

Maar ehh ik ga effe die review lezen, want zo'n review om de zoveel tijd herhalen is helemaal zo gek nog niet voor de SLI en CFX liefhebbers :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 29-04 16:52
DevilsProphet schreef op dinsdag 20 november 2012 @ 17:23:
Wat blijkt? De interframetijden zijn belachelijk constant met die techniek, alsof micro-stuttering compleet verdwenen is. Daarom, voor mensen met een CFX-opstelling: jullie zijn eindelijk een happy camper.
Toch nog hoop een x terug te gaan naar de "Red Side". Bedankt voor de link. :)

Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 29-04 12:38

hidde212

Free your mind...

Paprika schreef op dinsdag 20 november 2012 @ 22:24:
[...]

Toch nog hoop een x terug te gaan naar de "Red Side". Bedankt voor de link. :)
Volgens mij wordt er juist in de review gezegd dat nVidia het al geintegreerd heeft in hun drivers en bij AMD daar alleen een tool voor gebruikt kan worden?
Nvidia's Adaptive VSync feature works well. In light of this, AMD really has some work to do. The thing is, there's a freeware tool out there able to achieve a comparable (or better) reduction in micro-stuttering.
Qua microstuttering zitten ze echter op vergelijkbaar niveau dus uiteindelijk zal het niet veel uitmaken.

...and your ass will follow


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
Nee, wat dat artikel bewijst is wat ik volgens mij vast wel al eens eerder heb gezegd: Adaptive V-Sync is niet zo goed als een frame limiter. Op een enkele kaart introduceert het zelfs slechtere frametijden; als ik adaptive V-Sync aan zet, gaat m'n videokaart heel spastisch met z'n clocks om. Hij ziet dat hij niet over de grens heen mag, klokt omlaag en vervolgens komt er weer iets in het spel waar hij meer reken kracht voor nodig heeft. Dat heeft hij dan niet, met als gevolg een hoge frametijd voordat hij weer omhoog klokt. Kijk maar eens goed naar de resultaten van Tom: Adaptive V-Sync maakt de frametijden met SLI wel beter, maar ze zijn nog steeds erg inconsistent; de oplossing van RadeonPro werkt vele malen beter. Adaptive V-Sync is leuk en aardig, maar de implementatie laat te wensen over.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Werelds schreef op woensdag 21 november 2012 @ 11:39:
Nee, wat dat artikel bewijst is wat ik volgens mij vast wel al eens eerder heb gezegd: Adaptive V-Sync is niet zo goed als een frame limiter. Op een enkele kaart introduceert het zelfs slechtere frametijden; als ik adaptive V-Sync aan zet, gaat m'n videokaart heel spastisch met z'n clocks om. Hij ziet dat hij niet over de grens heen mag, klokt omlaag en vervolgens komt er weer iets in het spel waar hij meer reken kracht voor nodig heeft. Dat heeft hij dan niet, met als gevolg een hoge frametijd voordat hij weer omhoog klokt. Kijk maar eens goed naar de resultaten van Tom: Adaptive V-Sync maakt de frametijden met SLI wel beter, maar ze zijn nog steeds erg inconsistent; de oplossing van RadeonPro werkt vele malen beter. Adaptive V-Sync is leuk en aardig, maar de implementatie laat te wensen over.
Inderdaad het werkt alleen maar als je de clock speeds vast zet anders heeft het weinig nut.

Ik ben zelfook niet echt weg van dat hele turbo/boost idee. Als je workload zwaar wordt en je de performance eigenlijk nodig hebt kan hij de boost niet gebruiken. En op de momenten dat het minder zwaar wordt weer wel. Het enige wat je dan dus krijgt is een groter verschil tussen je min en max FPS en dat helpt niet mee aan het soepel laten lopen van een spel. Het helpt alleen maar om boven aan te komen in de benshmarks :\

[ Voor 17% gewijzigd door Astennu op 21-11-2012 12:43 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Astennu schreef op woensdag 21 november 2012 @ 12:41:
Ik ben zelfook niet echt weg van dat hele turbo/boost idee. Als je workload zwaar wordt en je de performance eigenlijk nodig hebt kan hij de boost niet gebruiken.
Hoe kom je daar bij?

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 27-04 18:04

RuddyMysterious

a smorgasbord of waywardness

Nu de discussie toch gaande is, in welke realistische situatie komt die turbomodus van pas? Bij CPU's is het duidelijk: in weinig-gemultithreade lasten kan zo'n turbo best leuk zijn omdat de weinige threads die bezig zijn toch dat ietsje sneller gaan. Maar is er sprake van hetzelfde probleem bij GPU's, dat de last niet altijd even parallel is als ondersteund door de hardware?

  • BlaBla1973
  • Registratie: Februari 2001
  • Laatst online: 29-04 21:28
Omdat je met 100% gpu load geen boost hebt, alleen met bv 65% gpu load.

Computer nr 486 denk ik..


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Precies. Terwijl in het geval van 65% je gegarandeerd meer dan genoeg FPS hebt voor een soepel spel verloop. Terwijl in het geval van 100% je FPS tekort kan komen. Leuk die turbo boost, maar zoals Astennu zegt; "als je workload zwaar wordt en je de performance eigenlijk nodig hebt kan hij de boost niet gebruiken".

Conclusie: turbo boost heeft geen enkel nut.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
Het is allemaal zelfs nog leuker. Ik zal het even kort samenvatten, want Boost is de "bane of my life" met m'n 680.

Allereerst moet ik even duidelijk maken dat een GPU (net als een CPU) P(ower)-states heeft. Bepaalde powerstates worden in bepaalde situaties geactiveerd; in games hoor je in P0 te zitten (de hoogste stand) terwijl in Windows je in Px hoort te zitten. Wat x is, laat ik even in het midden, dat is bij elke generatie anders - wel is deze hoger dan 0. Hoe hoger het cijfer, hoe lager de clocks en voltage. Boost is geen P-state. Boost is een dynamische overklok, gebaseerd op GPU load. In theorie klinkt het geweldig, toch? Guess again, want GPU load is pas factor #2 waar hij naar kijkt, stroom verbruik is factor #1.

Men neme een game die zwaar op de GPU leunt en sterk veranderende situaties heeft (waardoor GPU load dus onstabiel is), BF3, Metro of Crysis bijvoorbeeld. Geen probleem, spel draait voor het grootste deel vlekkeloos, de GPU load fluctueert alleen erg.

Een aantal situaties waar in elk geval Boost keihard faalt:
- V-Sync aan (Adaptive of niet, maakt geen ruk uit): netjes 60 FPS maar geen Boost, omdat er niet meer frames gerenderd kunnen worden. Vervolgens gebeurt er iets op het scherm waarvoor er eigenlijk meer power nodig is; FPS dropt dus (frametijden vliegen omhoog) en pas NADAT dat gebeurt is heeft Boost zoiets van "hey, ik moet wat meer power geven". Mosterd na de maaltijd dus.

- Geen v-sync: je draait lekker op hoge FPS en wederom gebeurt er iets pittigs op het scherm. GPU load vliegt omhoog en dan ziet Boost dat dus ook het stroomverbruik boven de limiet uit komt. Gevolg? Hij gaat omlaag met z'n clocks, met wederom slechtere frametijden en dus lagere FPS als gevolg.

- Zelf de clocks omhoog geschroefd (Boost geeft je dan nog eens +x bovenop je eigen overklok): zelfde als zonder v-sync. Power limit kicks in en daar gaat je performance weer.

Als je dan ook nog zoals ik pech hebt met een slechte chip (mijn 680 is echt het onderste van de bin, zit op het randje waar hij een 670 geweest zou zijn) krijg je ook niet eens de volle +104 op de clocks, de mijne gaat maar tot 1084 in plaats van 1110.

Ik zou maar wat graag Boost uitzetten en fijn zelf m'n overclock regelen, wat dat betreft ben ook uitermate teleurgesteld in deze kaart. Met de komende generatie ga ik dan ook zeker weer kijken naar een vervanging. Ik hoop dat Boost dan uitgeschakeld kan worden of gewoon z'n werk doet, of ik ga weer naar het rode kamp :)

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Leuke verhalen, maar waar zijn de benchmarks?
Wat is 100% load precies? Is dat Furmark of OCCT zonder driver throttling?
Jullie lijken er vanuit te gaan dat alle units continu bezig zijn tijdens het renderen van frames, maar is dat ook zo?

Is nV GPU Boost te traag om met vsync te werken? Ik zou verwachten dat ie naar de hoogste clock gaat bij de start van het renderen en dan weer naar idle gaat als ie wacht op vsync.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Het zal niet altijd zo zijn. Maar je ziet vaak dat de GPU qua belasting zwaar belast wordt als in in games een lage framerate hebt. En dat het verbruik op dat punt hoger is dan gemiddelt. Nogmaals dit zal niet altijd zo zijn.
Maar ik heb het wel eens gezien. En dan vergroot een Turbo die dan niet mee kan draaien het FPS verschil.
madmaxnl schreef op donderdag 22 november 2012 @ 10:31:
Precies. Terwijl in het geval van 65% je gegarandeerd meer dan genoeg FPS hebt voor een soepel spel verloop. Terwijl in het geval van 100% je FPS tekort kan komen. Leuk die turbo boost, maar zoals Astennu zegt; "als je workload zwaar wordt en je de performance eigenlijk nodig hebt kan hij de boost niet gebruiken".

Conclusie: turbo boost heeft geen enkel nut.
Dat is misschien ook kort door de bocht maar eigenlijk wil je dat hij de boost in die zware load gevallen wel even vol kan houden en daar na pas weer uit gaat.
Dus eigenlijk dat hij tijdelijk boven zijn TDP kan. Je wilt eigenlijk turbo op momenten dat de FPS erg begint te zakken. Maar dat is niet altijd mogelijk omdat de het verbruik dan al tegen het TDP aan zit.




@ Werelds: Dit is pressies wat ik bedoel. Je kunt beter geen boost hebben en dan maar altijd lagere performance dan zo iets wat het minder soepel maakt. Ik weet niet hoe dit bij AMD werkt qua OC en een kaart met boost. Want ik heb zelf nog een oudere R7970 Lightning.

Misschien gebruikt hij sowieso geen boost als in in overdrive de slider ook op zijn max boost speed zet. En anders zou ik gewoon een normale R7970 bios flashen :P dan is hij ook uit :D en clock ik hem wel handmatig.

Maar misschien gaan ze boost in de toekomst nog wel verbeteren zodat hij meteen als de load hoog wordt op kan schakelen of het misschien al kan voorspellen. Al zal dat vrij moeilijk worden.

Ik vrees dat het niet meer weg te denken is en dat de komende generaties aan kaarten het allemaal zullen hebben.

[ Voor 68% gewijzigd door Astennu op 22-11-2012 11:44 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
Olaf van der Spek schreef op donderdag 22 november 2012 @ 11:17:
Leuke verhalen, maar waar zijn de benchmarks?
Wat is 100% load precies? Is dat Furmark of OCCT zonder driver throttling?
Jullie lijken er vanuit te gaan dat alle units continu bezig zijn tijdens het renderen van frames, maar is dat ook zo?

Is nV GPU Boost te traag om met vsync te werken? Ik zou verwachten dat ie naar de hoogste clock gaat bij de start van het renderen en dan weer naar idle gaat als ie wacht op vsync.
Werelds in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54"

Dit was puur om het effect van V-Sync te demonstreren, maar je begrijpt het principe. Als ik tijd heb wil ik hetzelfde nog wel eens uitvoeren met een zwaardere game. Overigens heb ik het nooit over 100% load gehad ;)

En juist omdat niet alle units altijd bezig zijn wil ik dat de units die WEL bezig zijn iets rapper hun werk doen. Er zijn maar weinig games die de GPU load API waarde op 99% krijgen; en om hier duidelijk in te zijn: GPU load 99% in GPU-Z betekent niet 99% van je shaders aan het werk. Load is de samenvatting van geometry, shaders, ROPs, TUs - alles.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 29-04 21:52

XanderDrake

Build the future!

Werelds schreef op donderdag 22 november 2012 @ 10:55:
Het is allemaal zelfs nog leuker. Ik zal het even kort samenvatten, want Boost is de "bane of my life" met m'n 680.

Allereerst moet ik even duidelijk maken dat een GPU (net als een CPU) P(ower)-states heeft. Bepaalde powerstates worden in bepaalde situaties geactiveerd; in games hoor je in P0 te zitten (de hoogste stand) terwijl in Windows je in Px hoort te zitten. Wat x is, laat ik even in het midden, dat is bij elke generatie anders - wel is deze hoger dan 0. Hoe hoger het cijfer, hoe lager de clocks en voltage. Boost is geen P-state. Boost is een dynamische overklok, gebaseerd op GPU load. In theorie klinkt het geweldig, toch? Guess again, want GPU load is pas factor #2 waar hij naar kijkt, stroom verbruik is factor #1.

Men neme een game die zwaar op de GPU leunt en sterk veranderende situaties heeft (waardoor GPU load dus onstabiel is), BF3, Metro of Crysis bijvoorbeeld. Geen probleem, spel draait voor het grootste deel vlekkeloos, de GPU load fluctueert alleen erg.

Een aantal situaties waar in elk geval Boost keihard faalt:
- V-Sync aan (Adaptive of niet, maakt geen ruk uit): netjes 60 FPS maar geen Boost, omdat er niet meer frames gerenderd kunnen worden. Vervolgens gebeurt er iets op het scherm waarvoor er eigenlijk meer power nodig is; FPS dropt dus (frametijden vliegen omhoog) en pas NADAT dat gebeurt is heeft Boost zoiets van "hey, ik moet wat meer power geven". Mosterd na de maaltijd dus.

- Geen v-sync: je draait lekker op hoge FPS en wederom gebeurt er iets pittigs op het scherm. GPU load vliegt omhoog en dan ziet Boost dat dus ook het stroomverbruik boven de limiet uit komt. Gevolg? Hij gaat omlaag met z'n clocks, met wederom slechtere frametijden en dus lagere FPS als gevolg.

- Zelf de clocks omhoog geschroefd (Boost geeft je dan nog eens +x bovenop je eigen overklok): zelfde als zonder v-sync. Power limit kicks in en daar gaat je performance weer.
Wat een verhaal! Ik moet zeggen dat je het goed beargumenteerd. Maar wat mij op de borst stuit is dat dit niet matched met wat ik lees in reviews... Voorbeeld:
Als je de kaart forceert om niet gebruik te maken van de boost (power limit -16%) dan zie je de volgende resultaten:
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph5699/45185.png
Dit zijn natuurlijk geen frame times dus geven niet het complete beeld.

Als ik een review check die naar frame times kijkt op het allerhoogste quality niveau en 1600p ipv 1080p of 1440p (all hail Tech Report _/-\o_ ) zie ik het volgende:

Afbeeldingslocatie: http://techreport.com/r.x/geforce-gtx-680/bf3-comparo.gif

Geen bijzondere afwijkingen, heeeel soms spikes richting de 40ms (25fps), sowieso betere timings dan een andere high end kaart die geen boost heeft (HD 7970).

Ik zie het dus niet, wat jij omschrijft.
In ieder geval, niet in vergelijking. Misschien voelt het erger aan voor jou dan dat het zich empirisch voordoet. Ik merk het zelf ook niet met mijn GTX 670, die is echt rock solid, maar ik speel nu slechts op 1080p.
Als je dan ook nog zoals ik pech hebt met een slechte chip (mijn 680 is echt het onderste van de bin, zit op het randje waar hij een 670 geweest zou zijn) krijg je ook niet eens de volle +104 op de clocks, de mijne gaat maar tot 1084 in plaats van 1110.
Dat zou kunnen. Pech kan iedereen hebben. Wat is je ASIC percentage?
Wat zijn verder je ervaringen met het verruimen van de power limits, hogere fanspeeds e.d.?

Verder kan je boost dus wel afzetten met nVidia Inspector:
http://www.overclock.net/...ndervolting#post_17444114

(sorry dat ik dit in een AMD topic post, maar ik wilde even aanduiden dat Boost ten ergste iets is was je af kan zetten en ten beste iets wat de efficientie van je kaart verhoogt.)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Tja daar kies je ook een game om een slechte vergelijking te maken met AMD.... BF3 is zwaar pro nV.
Sinds de nieuwe AMD drivers valt het mee. Maar die zijn hier niet gebruikt dus AMD wordt hier zwaar benadeelt en dan is het niet raar dat die MS waardes dan een stuk hoger zijn.

Afbeeldingslocatie: http://techreport.com/r.x/geforce-gtx-680/crysis2-comparo.gif

Dit lijkt er al meer op al is de GTX680 hier wel wat constanter aan het einde. Waar de Radeon constanter is in het begin.

[ Voor 27% gewijzigd door Astennu op 22-11-2012 13:24 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
@ XanderDrake:
Anand zet daar de power target omlaag en het is ook zonder V-Sync. Daarnaast is BF3 in beide gevallen geen goede benchmark statistisch gezien; er zit immers geen vaste sequence in het spel die je kunt doorlopen in MP; MP is zwaarder dan SP omdat er minder gescript is ;)

Nogmaals, ik heb zeker pech met m'n chip (ASIC waarde moet ik trouwens straks even kijken als ik weer in Windows zit, geen idee), maar dat geeft ook aan waarom Boost het niet waard is tegenover gewoon simpel zelf overklokken, want op een slechtere chip werkt het ook minder goed. Nu haal ik met mijn chip lang niet de resultaten die anderen halen met een 680, maar ik wil wel graag die clocks forceren - stroomverbruik is mijn verantwoordelijkheid; temperatuur houd ik wel op peil door de fan wat harder te laten draaien (standaard komt die niet eens aan de 50%, met als gevolg dat BF3, Crysis of zelfs Hitman nu de chip boven de 80 graden halen zonder mijn eigen fan profiel).
XanderDrake schreef op donderdag 22 november 2012 @ 13:14:
(sorry dat ik dit in een AMD topic post, maar ik wilde even aanduiden dat Boost ten ergste iets is was je af kan zetten en ten beste iets wat de efficientie van je kaart verhoogt.)
Ik vind dat dit hier gewoon thuis hoort, tenzij iemand een soortgelijke ervaring op AMD wil delen. De technieken zullen toch niet veel verschillen; SLI en CFX zijn immers ook nagenoeg identiek.


offtopic:
@ nvidia inspector: helemaal gemist, dank daarvoor! Vanavond meteen uitproberen. Qua clocks kom ik overigens maar tot +120/+75, ongeacht m'n power target, voltages of wat dan ook. Met name die +75 op het geheugen waar sommigen +500 halen is gewoon idioot.

[ Voor 5% gewijzigd door Werelds op 22-11-2012 13:52 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Wat mij betreft mag het ook hier.
Al berkekend AMD de boost wel anders. Volgens mij is dat op anandtech terug te vinden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 29-04 21:52

XanderDrake

Build the future!

Astennu schreef op donderdag 22 november 2012 @ 13:19:
Tja daar kies je ook een game om een slechte vergelijking te maken met AMD.... BF3 is zwaar pro nV.
Ik begrijp dat jullie dit zo zien, maar ik zocht gewoon een game op hoge resolutie en kwaliteit, met zware effecten. Dat je die vertragingen niet ziet. De vergelijking met de HD 7970 is dan ook een bijzaak.
[afbeelding]

Dit lijkt er al meer op al is de GTX680 hier wel wat constanter aan het einde. Waar de Radeon constanter is in het begin.
Crysis 2 had ook gekund, maar jullie zien ook dat je daar al helemaal geen vertragingen waarneemt mbt de GTX 680. De lage resolutie (1200p), niet zwaar genoeg belast.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Werelds schreef op donderdag 22 november 2012 @ 13:05:
Dit was puur om het effect van V-Sync te demonstreren, maar je begrijpt het principe.
Mwa, ik weet niet of je dit zomaar door kunt trekken naar een zware game.
Een benchmark die echt en direct het nadeel van Boost aantoont zou wel handig zijn.
Als ik tijd heb wil ik hetzelfde nog wel eens uitvoeren met een zwaardere game. Overigens heb ik het nooit over 100% load gehad ;)
Nee, dat waren Astennu en BlaBla1973.
Ik gok bij die frametime spikes eigenlijk op CPU of driver issues ofzo, niet een simpel gebrek aan rekenkracht.
Load is de samenvatting van geometry, shaders, ROPs, TUs - alles.
Is dat ergens precies gedocumenteerd? Zou wel interessant zijn als je loads van individuele onderdelen kunt zien.

[ Voor 12% gewijzigd door Olaf van der Spek op 22-11-2012 18:48 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
Olaf van der Spek schreef op donderdag 22 november 2012 @ 18:43:
[...]
Is dat ergens precies gedocumenteerd? Zou wel interessant zijn als je loads van individuele onderdelen kunt zien.
Nope, is niet gedocumenteerd en kun je ook niet (meer) los ophalen. Al die tools halen hun "load" op via NVAPI en daar staan niet veel details bij. Je kunt 99% "GPU load" via een game of Furmark krijgen, maar die laatste is degene van de twee die je kaart zwaarder belast. Verschil? Games belasten de shaders niet zo zwaar als Furmark, verdelen het beter :)

Vroeger had Nvidia wel losse load componenten er in zitten, maar juist omdat dat zo vaag was hebben ze ze samengevoegd.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
Hier mag een slotje op >> Deel 125 :Y)

Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 24-04 21:47

Ultraman

Moderator Harde Waren

Boefje

Done :)
Maak voortaan even een TR aan, dat valt nog net ff beter op.

[ Voor 14% gewijzigd door Ultraman op 01-12-2012 15:44 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.

Pagina: 1 ... 19 20 Laatste

Dit topic is gesloten.

Let op:
Hou het aub on-topic, dit is een AMD Radeon info & nieuwsdiscussietopic en dus NIET een AMD vs nVidia bashtopic. Tolerantie voor onzinnige ver-pis-vergelijkingen zal erg laag zijn. Kom dus met nieuwe info, ga niet een 1001-keer gevoerde discussie nog eens voeren.