CJ's Radeon Info & Nieuwsdiscussie - Deel 128 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 ... 11 Laatste
Acties:
  • 41.858 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • darkangel456
  • Registratie: Juni 2010
  • Laatst online: 25-12-2023
Ik had even een vraag. Ik ben totaal niet meer op de hoogte van videokaarten tegenwoordig, nadat ik de volgende kaarten heb gehad.
Het is namelijk zo dat ik de eigenaar ben geweest van een 2x 5990, 2x 6990 serie.
En ik me eigenlijk afvraag of er al een nieuwe serie na de 7990 is met dual GPU.
Of dat die serie erna nog moet komen met dual GPU.

Hopelijk kan iemand mij een beetje informeren hierover.
Want er staat een nieuw systeem op de planning.

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
R9 295X2

[ Voor 20% gewijzigd door Bullus op 12-11-2014 11:29 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
darkangel456 schreef op woensdag 12 november 2014 @ 02:53:
Ik had even een vraag. Ik ben totaal niet meer op de hoogte van videokaarten tegenwoordig, nadat ik de volgende kaarten heb gehad.
Het is namelijk zo dat ik de eigenaar ben geweest van een 2x 5990, 2x 6990 serie.
En ik me eigenlijk afvraag of er al een nieuwe serie na de 7990 is met dual GPU.
Of dat die serie erna nog moet komen met dual GPU.

Hopelijk kan iemand mij een beetje informeren hierover.
Want er staat een nieuw systeem op de planning.
Jazeker de R9 295X2 standaard met H2O cooling. Hij is al iets goedkoper geworden. Hij was eerst 1500. Nu tussen de 870-950.
Hij is eigenlijk alleen interessant als je twee van deze in CF wilt zetten voor een Quad CF Config of als je niet meer dan 2 kaart kwijt kan. Anders kun je beter 2x een R9 290X pakken en die in CF zetten dan ben je wat goedkoper uit (700-750 euro). Of bv 3x R9 290 in CF dan ben je al voor 750-800 euro klaar en heb je meer reken kracht dan met een R9 295X2.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Side note op de bovenstaande comments.
De 295X2 kun je beter niet aansluiten met doorgeluste PCI-e voedingskabels (dus dat er 2x een 8 pin of 2x 6 pin aansluiting op een kabel zit waarvan er maar één aansluiting op de kant van de voeding zit).
De 295X2 trekt dusdanig veel stroom dat de kabels in die gevallen de geest kunnen gaan geven (of de aansluiting op de voeding).

Je moet dus wel zeker weten dat je voeding genoeg PCI-e aansluitingen heeft om 2x 295X2 te kunnen aansluiten.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
DCG909 schreef op woensdag 12 november 2014 @ 09:38:
Side note op de bovenstaande comments.
De 295X2 kun je beter niet aansluiten met doorgeluste PCI-e voedingskabels (dus dat er 2x een 8 pin of 2x 6 pin aansluiting op een kabel zit waarvan er maar één aansluiting op de kant van de voeding zit).
De 295X2 trekt dusdanig veel stroom dat de kabels in die gevallen de geest kunnen gaan geven (of de aansluiting op de voeding).

Je moet dus wel zeker weten dat je voeding genoeg PCI-e aansluitingen heeft om 2x 295X2 te kunnen aansluiten.
True maar ik mag hopen dat mensen daar wel over na denken. Aan de andere kant als je soms op internet leest wat mensen uithalen vraag je af of iedereen wel gezond verstand heeft.... :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Ik herinner mij nog steeds een review die ergens op het internet staat, waarbij iemand zijn beklag deed dat de 980x of 990x (socket 1366) zo snel kapot ging door de hitte...
Hij had feen koeler gebruikt, omdat er niks bijgeleverd werd :/

Troll of niet er zijn hoogst waarschijnlijk mensen die dat soort fouten maken...

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
Mjah, moederborden zonder afstandsbusjes in de case schroeven, plastic beschermlaagje bij de koeler niet verwijderen...

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
DCG909 schreef op woensdag 12 november 2014 @ 11:24:
Ik herinner mij nog steeds een review die ergens op het internet staat, waarbij iemand zijn beklag deed dat de 980x of 990x (socket 1366) zo snel kapot ging door de hitte...
Hij had feen koeler gebruikt, omdat er niks bijgeleverd werd :/

Troll of niet er zijn hoogst waarschijnlijk mensen die dat soort fouten maken...
Ook wel eens iemand gezien die pasta op de socket gesmeerd had ipv op de cpu zelf. Er zitten echt gekke dingen tussen.

Laatst ook iets gezien van iemand die zijn motor wilde reinigen. Hij had gelezen dat ze het normaal zandstralen dus hadden ze een bak met zand gevuld de inlaat in de bak gestopt en de motor laten draaien. En vervolgens vragen of mensen kunnen helpen om te vinden waarom de motor ineens slecht loopt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Astennu schreef op woensdag 12 november 2014 @ 12:51:

[...]

Laatst ook iets gezien van iemand die zijn motor wilde reinigen. Hij had gelezen dat ze het normaal zandstralen dus hadden ze een bak met zand gevuld de inlaat in de bak gestopt en de motor laten draaien. En vervolgens vragen of mensen kunnen helpen om te vinden waarom de motor ineens slecht loopt.
7(8)7 7(8)7 :o

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

20nm node broken for GPUs

Fear Uncertainty and Doubt

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Ah, well, beter luck next time :/

Ga hoogst waarschijnlijk toch een 390x oid halen, draai momenteel 2x 7970, dus als één gpu dat ruim omver blaast ben ik blij. En de 7970 lijkt bij bepaalde spellen toch wat rare kuren te vertonen :/ (moet nog steeds testen of mijn 7970m (7870 based) die kuren ook heeft)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Waar heb je dan last van? ik heb nog nooit rare dingen met 7970 kaarten gehad.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
http://tweakers.net/ext/f...Uqh/full.jpg?nohitcount=1

Corruptie rechtsonder het blijft een minuut of 5 á 10 beperkt tot exact die plek en daarna krijgt het hele beeld een beetje een neon groene filter :/
Ik heb het sterke vermoeden dat het aan de engine ligt, omdat echt alle andere programma's geen problemen hebben (soms firefox, maar die heeft bij vele mensen wel eens kuren).

Shadow of mordor had ook over het algemeen meer problemen met 280(x) kaarten toen ik er op het steam forum over las.

Ik weet eigenlijk niet of ik het ook zou kunnen testen door mijn 1e 7970 van de stroom en cf bridge af te koppelen en mijn monitor op de 2e kaart aan te sluiten (watergekoeld :/ ), het lijkt mij wel, toch?

Acties:
  • 0 Henk 'm!

  • darkangel456
  • Registratie: Juni 2010
  • Laatst online: 25-12-2023
DCG909 schreef op woensdag 12 november 2014 @ 15:15:
http://tweakers.net/ext/f...Uqh/full.jpg?nohitcount=1

Corruptie rechtsonder het blijft een minuut of 5 á 10 beperkt tot exact die plek en daarna krijgt het hele beeld een beetje een neon groene filter :/
Ik heb het sterke vermoeden dat het aan de engine ligt, omdat echt alle andere programma's geen problemen hebben (soms firefox, maar die heeft bij vele mensen wel eens kuren).

Shadow of mordor had ook over het algemeen meer problemen met 280(x) kaarten toen ik er op het steam forum over las.

Ik weet eigenlijk niet of ik het ook zou kunnen testen door mijn 1e 7970 van de stroom en cf bridge af te koppelen en mijn monitor op de 2e kaart aan te sluiten (watergekoeld :/ ), het lijkt mij wel, toch?
Ja natuurlijk waarom zou je dat niet kunnen proberen?
Dan sluit je in ieder geval uit of het aan die ene videokaart ligt.
Zou overigens wel proberen beiden kaarten apart te testen en niet alleen maar 1.


Bedankt overigens voor het antwoord op me vraag.

Het systeem bestaat straks uit:
(zoals het er nu naar uit ziet, tenzij er iets behoorlijk veranderd in prijs of nieuwere producten.)
- 2x, R9 295X2 standaard met H2O cooling.
- Intel Core I7-5960X
- Corsair dominator Pt 32GB DDR4 2400 MHz
- asus rampage V extreme

Systeem kast dat ik heb heeft mogelijkheid om 2 voedingen erin te plaatsen dus dat probleem is ook opgelost. Zit nu al een 1200 watt in.

Acties:
  • 0 Henk 'm!

  • Cronax
  • Registratie: December 2006
  • Laatst online: 04-06-2024
1200 watt? Wat heb je in hemelsnaam verder dan nog aan je PC hangen om dat te rechtvaardigen?

Acties:
  • 0 Henk 'm!

  • darkangel456
  • Registratie: Juni 2010
  • Laatst online: 25-12-2023
Cronax schreef op woensdag 12 november 2014 @ 17:32:
1200 watt? Wat heb je in hemelsnaam verder dan nog aan je PC hangen om dat te rechtvaardigen?
Momenteel

I7980X
2x 6990
6 GB DDR3
5x 2 TB seagate

En verder is die voor extra uitbreidingen zoals nu die er gaan aankomen.

Acties:
  • 0 Henk 'm!

  • Cronax
  • Registratie: December 2006
  • Laatst online: 04-06-2024
darkangel456 schreef op woensdag 12 november 2014 @ 17:36:
[...]


Momenteel

I7980X
2x 6990
6 GB DDR3
5x 2 TB seagate

En verder is die voor extra uitbreidingen zoals nu die er gaan aankomen.
Ik had het idee dat het een beetje overkill was, maar een calculatortje geeft aan dat dat niet helemaal het geval is, pessimistisch gerekend (zwaarste schijven etc.) trekt je huidige systeem tussen de 900 en 1000watt. Met 2x die kaart die je op het oog hebt kom je dan inderdaad boven de 1300w uit, dus ik heb niets gezegd. Ik begin me dan wel af te vragen of het de moeite waard is om voor je opslag een andere oplossing te bedenken, maar daar zal je zelf ook vast al aan gedacht hebben.

Acties:
  • 0 Henk 'm!

  • darkangel456
  • Registratie: Juni 2010
  • Laatst online: 25-12-2023
Dat is al aan de orde ja. Systeem van 40 TB neto dat hier al staat.
Schijven worden omgebouwd en naar dat systeem overgezet. Waardoor ik in het nieuwe systeem 2 SSD in raid 5 zet, en 2 data schijven voor installatie en opslag in raid ga zetten. Welke schijven en welke raid setup voor de 2 data schijven weet ik nog niet.
Is er op termijn van 1 jaar een nieuwe serie die uitkomt of is daar nog niks van bekend?

[ Voor 25% gewijzigd door darkangel456 op 12-11-2014 20:48 ]


Acties:
  • 0 Henk 'm!

  • darkangel456
  • Registratie: Juni 2010
  • Laatst online: 25-12-2023
<verwijderd maar, foutje>

[ Voor 217% gewijzigd door darkangel456 op 12-11-2014 20:50 ]


  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
darkangel456 schreef op woensdag 12 november 2014 @ 18:14:
Is er op termijn van 1 jaar een nieuwe serie die uitkomt of is daar nog niks van bekend?
Nieuwe GPU serie (300-series) van AMD? Zie post van tomcatha:
Dus als we de geruchten mogen geloven, over een paar maandjes: Q1 2015
I think after months of speculating it’s already a common knowledge, that next flagship GPU is called Fiji. It’s worth noting that until now, we didn’t really have any proof of it being called Fiji. Things may change a bit, thanks to the latest entry in Zauba.

Zauba is a database of import and export data, which was very helpful for the past few months before Maxwell GM204 made an appearance. According to the latest entry, AMD is currently finishing the C880 model, which is believed to be the backbone of Radeon R9 390 series, equipped with Fiji processor.

Similarly, Radeon R9 290 and R9 290X are using the same board known as C671, so technically we could conclude C880 will be the utilized by both Fiji PRO and Fiji XT (R9 390 and R9 390X respectively)
...
...
Tonga XT is currently planned to appear with 300 series, somewhere in the next few months.
bron: Videocardz

offtopic:
Hey Darkangel, long time no see! :w

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Hij doelt waarschijnlijk op een 395X2 achtig iets.
Ik verwacht zo'n dual gpu eigenlijk nog niet binnen 6 maanden :/ hoogst waarschijnlijk wel binnen een jaar.

  • darkangel456
  • Registratie: Juni 2010
  • Laatst online: 25-12-2023
DCG909 schreef op donderdag 13 november 2014 @ 13:48:
Hij doelt waarschijnlijk op een 395X2 achtig iets.
Ik verwacht zo'n dual gpu eigenlijk nog niet binnen 6 maanden :/ hoogst waarschijnlijk wel binnen een jaar.
Daar ging het me inderdaad om, vergeten erbij te zetten.

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
HA
Had vandaag call of pripyat op mijn laptop geprobeerd en ook hier exact hetzelfde probleem.

Toen viel mij echter wel op dat de problemen het ergst waren bij punten met schaduw.
Ik bedacht mjj dat ik de ik een schaduw gerelateerde setting op max had gezet (hbdo oid).
Toen ik die setting een stapje lager heb gezet was het probleem opgelost :)

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
14.11.2 beta
http://support.amd.com/en...-BetaWINReleaseNotes.aspx

[ Voor 56% gewijzigd door Bullus op 18-11-2014 11:16 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Mooi dat AMD zo snel nieuwe beta drivers uitbrengt voor nieuwe games. Dat was nu vaak een klacht van AMD gebruikers.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Las dit net in de reactie van Robby517 onder de Nvidia MFAA benchmark.
http://games.slashdot.org...?sid=6048819&cid=48382141

Jammer dat dit het geval is want SMAA ziet er beter uit en heeft veel betere performance, plus het is opensource en gratis te gebruiken.
http://www.tweakguides.com/Crysis3_6.html
http://www.hardocp.com/ar...d_performance_iq_review/6

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Maar klopt het ook ? Ik geloof er weinig van.

Acties:
  • 0 Henk 'm!

Verwijderd

Of alle details echt zo zijn is inderdaad de vraag, er zitten nogal wat beschuldigingen in zonder enige bron of wat ook.

Maar dat gameworks heel slecht nieuws is voor AMD gebruikers was al veel langer bekend. Het is het beleid wat we van Nvidia kennen: niet alleen proberen om de snelste kaart te bouwen, maar ook om de (enige) concurrentie te saboteren. Dat laatste is erg kwalijk imo, en voor mij een belangrijke reden waarom ik liever AMD hardware koop (ik wil geen geld geven aan een bedrijf wat een beleid voert waar ik het zeer mee oneens ben).

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Het is inderdaad moeilijk vast te stellen of het klopt. Het zou het misschien waard zijn om op een of andere manier aan de source van GameWorks te komen. Die is voor developpers verkrijgbaar.

Wat wel klopt is dat SMAA gewoon een van de beste varianten van AA is op het moment.

Wat Wes inderdaad zegt, dat is de reden dat ik lekker bij AMD blijf.

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Lijkt erop dat Pcars onder Gameworks valt als je de performance verschil ziet..
http://www.pcgameshardwar...-Test-Benchmarks-1136058/

Op het WMD forum praten ze daar niet graag over.

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Sp3ci3s8472 schreef op dinsdag 18 november 2014 @ 22:19:
Las dit net in de reactie van Robby517 onder de Nvidia MFAA benchmark.
http://games.slashdot.org...?sid=6048819&cid=48382141

Jammer dat dit het geval is want SMAA ziet er beter uit en heeft veel betere performance, plus het is opensource en gratis te gebruiken.
http://www.tweakguides.com/Crysis3_6.html
http://www.hardocp.com/ar...d_performance_iq_review/6
Ik ben het hier helemaal mee eens. FXAA is meuk. SMAA heeft een kleine performance hit en verbeterd het beeld meer. Ik gebruikt dit via RadeonPro voor MWO.

Ik vind dat Gameworks echt geen afschuwelijk gedrocht. Mja wat doe je er aan? nVidia heeft het geld en def's pakken het aan. De enige manier om dit te stoppen is massaal te stoppen met het kopen van nVidia GPU's maar dat gaat niet gebreuren. Want gamers willen de beste prestaties hebben. Het boeit ze niet dat het spel 2x beter had kunnen lopen als nVidia niet zo zat tegen te werken. Of ze zullen het toch niet geloven als je dat verteld.

Ik hoop echt dat AMD snel weer met een knaller van een GPU komt en het markt aandeel nVidia weer flink afneemt. Er moet wat meer balans komen. Intel heeft AMD in de CPU markt al zo goed als uitgeschakeld. Dit komt mede door het tegenwerken in de tijd van de P3 en P4 toen AMD de concurrentie ineens aan kon gingen ze OEM's om kopen om Intel only te leveren en review sites betalen om de benshmarks mooier voor te spiegelen dan ze waren. En nu hebben wij er met z'n allen last van en we pikken het ook nog dat is het ergste.

We betalen al jaren veel te veel voor de Intel cpu's. En we hebben de afgelopen 4 jaar misschien 20-30% extra preformance gekregen. Voorheen was dit in 3 jaar aanzienlijk meer. Concurrentie is gewoon goed maar die is in de CPU markt helaas weg.

Hopelijk gaat dit in de GPU markt niet gebeuren.
Phuncz schreef op dinsdag 18 november 2014 @ 22:45:
Maar klopt het ook ? Ik geloof er weinig van.
Ik geloof het meteen. nVidia heeft genoeg lelijke dingen gedaan in het verleden. Mooie voorbeelden zijn benshmarks beinvloeden door de IQ extreem terug te schroeven en het dan nog verliezen van een 9700 Pro.

De DX10.1 patch voor Assasins creed terug laten draaien omdat ze zelf geen DX10.1 kaart hadden.
De crippelende AA mode in de Batman games. AMD hardware haalde nog niet eens 1/3e van de performance.

Physic's van Borderlands neer zetten alsof het GPU only moest met een CUDA GPU maar vervolgens prima draaide op de CPU en dus ook bij AMD GPU's zodra je in de config files ging sleutelen. En de prestaties waren ook nog eens meer dan prima. Kortom ze doen er echt alles aan om hun GPU's in een beter dag licht te zetten en het boeit ze niets dat Gamers niet de beste speel ervaring krijgen.

Zo zou er in SCII ook bepaalde effecten gebruikt worden die op een AMD GPU zwaar ruk liepen. Eerst was er niets aan de hand maar bij een bepaalde build ging het mis. De prestaties van alle GPU's gingen omlaag maar die van nVidia GPU's minder weer zo'n voorbeeld dat nVidia dan beter uit de test komt maar dat wel alle gamers er op achteruit gaan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op dinsdag 18 november 2014 @ 23:02:
Of alle details echt zo zijn is inderdaad de vraag, er zitten nogal wat beschuldigingen in zonder enige bron of wat ook.

Maar dat gameworks heel slecht nieuws is voor AMD gebruikers was al veel langer bekend. Het is het beleid wat we van Nvidia kennen: niet alleen proberen om de snelste kaart te bouwen, maar ook om de (enige) concurrentie te saboteren. Dat laatste is erg kwalijk imo, en voor mij een belangrijke reden waarom ik liever AMD hardware koop (ik wil geen geld geven aan een bedrijf wat een beleid voert waar ik het zeer mee oneens ben).
Genoeg dingen uit het verleden waar wel bewijs van is zoals ook de dingen die ik hierboven noem. Die zaken zijn allemaal op het internet terug te vinden. En dit zal lang niet alles zijn.

nVidia heeft ook zo'n Focus group waar ze forum members geld betalen om AMD omlaag te praten en nVidia te promoten. En die gebruiken ze ook om negatief nieuws goed te praten. Aan alle kanten gooien ze er dingen tegen aan om er mee weg te komen en het lukt ze ook nog dat is het meest iritante.

Maar ik ben het helemaal met je eens. Ik adviseer zelf eigenlijk nooit een nVidia kaart. Ik zeg wel dat mensen gewoon moeten kijken naar de games die zij graag spelen en dan de beste kaart kunnen kiezen.

Maar zelf zou ik toch eerder een AMD kaart nemen ookal is hij wat trager. Ze zijn vaak wat goedkoper en ze ondersteunen open standaarden. Ik ben bv heel erg blij met Free Sync. Zo zou het moeten zo doe je het meeste voor je gebruikers. Maar daar verdien je natuurlijk minder mee. Je verdient meer met een closed systeem waar je licenties voor kan vragen.

SLI is ook zo'n mooi voorbeeld. nVidia vond het niets dat mensen op moederborden zonder nVidia chipset SLi konden draaien. Ze gingen het toen blokkeren voor Intel, Via en AMD moederbord. Later mocht het wel maar moest je een licentie kopen en dat moest ergens in de bios toegevoegd worden.

Vandaag de dag betaal je dus extra veel voor een SLi moederbord omdat er geld naar nVidia moet voor de licenties. En wederom pikken we het allemaal.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Sp3ci3s8472 schreef op dinsdag 18 november 2014 @ 23:38:
Het is inderdaad moeilijk vast te stellen of het klopt. Het zou het misschien waard zijn om op een of andere manier aan de source van GameWorks te komen. Die is voor developpers verkrijgbaar.
Ik dacht altijd dat het probleem met GameWorks was dat het een black box was: je krijgt als developer de gameworks api en daar moet je het mee doen, je krijgt geen source, mag in ieder geval niets veranderen of aanpassen. En dat maakt het zo kwalijk: niemand heeft een idee wat die code doet behalve nVidia

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Volgens mij is de source sinds de introductie van mantle voor de devs beschikbaar.

Over die focus groepen.
Dat bevestigd mij vermoedens over Maghreb wel :/
Altijd boosten over hoe goed nVidia is en dat AMD verder niks mist behalve Physx etc.
Moeten dat soort mensen het niet aangeven/bevestigen als je ze vraagt of ze door nVidia betaald worden? Dat zou wel grappig worden als dat nodig is XD

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
Jaja, als een spel goed draait op amd is het door goeie hardware, en als het slecht draait door sabotage van nvidia, het kwaadaardige groene monster.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!
DCG909 schreef op woensdag 19 november 2014 @ 10:15:

Dat bevestigd mij vermoedens over Maghreb wel :/
Maghreb, Magherb82, Xenomorf2_1979, Xenomorf_1979, Ludo, Lupo, Dr. Lup of één van zijn andere namen is het perfecte voorbeeld van een fanboy en een hele vervelende ook.
Astennu schreef op woensdag 19 november 2014 @ 13:25:
Een aantal van die namen komen wel bekend voor. Is het bewezen dat dit een dezelfde persoon is? of is dat een aanname?
99,9% zeker, maar je kan het hem vragen misschien is die eerlijk daarover. :p

[ Voor 32% gewijzigd door -The_Mask- op 19-11-2014 13:55 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
haarbal schreef op woensdag 19 november 2014 @ 13:07:
Jaja, als een spel goed draait op amd is het door goeie hardware, en als het slecht draait door sabotage van nvidia, het kwaadaardige groene monster.
Niet per definitie. maar er zijn zaken zoals:

1: TWIMTBP waarbij nVidia geld en dev's in het spel stak in ruil voor exclusieve toegang tot het spel. AMD kon toen pas als het spel uit was beginnen met driver optimalisaties
2: Assasins creed 1 waarbij AMD met de DX10.1 iets betere performance kreeg. De 8800GT was nog steeds iets sneller maar ondanks dat werd de patch terug gedraaid en ging de performance van AMD kaarten achteruit. Nieuwere patches bleven DX10.
3: Nieuwste telg Gameworks die in sommige gevallen tussen de kaart en het spel komt te zitten waar alles door heen moet. En we zijn bang voor de mogelijke gevolgen daar van.

Daarnaast heb je zaken waar AMD zelf wat aan kon doen:
1: HD2xxx en HD3xxx AA performance. AMD dacht slim te zijn door de AA resolve door de shaders te laten doen ipv de Render Back ends echter had dit veel meer impact op de prestaties dan verwacht.
2: Soms hebben ze gewoon zaken laten liggen wat betreft drivers en duurde het relatief lang voordat er een oplossing was.

Het zijn allemaal zaken waar uitgebreid info over te vinden is op internet. Het wordt niet allemaal maar uit de duim gezogen. Concurrentie is goed maar dit soort dingen vallen daar in mijn ogen niet meer onder. Dat is eerder sabotage en de grote verliezer is de klant.

Als AMD het zou doen keur ik het ook niet goed. Driver tweaks voor 3D mark en rebrands heb ik ook altijd afgekeurd.
-The_Mask- schreef op woensdag 19 november 2014 @ 13:18:
[...]

Maghreb, Magherb82, Xenomorf2_1979, Xenomorf_1979, Ludo, Lupo, Dr. Lup of één van zijn andere namen is het perfecte voorbeeld van een fanboy en een hele vervelende ook.
Hij heeft jullie reactie in ieder geval wel gelezen:

http://nl.hardware.info/n...rdwareinfo#comment-633616

Een aantal van die namen komen wel bekend voor. Is het bewezen dat dit een dezelfde persoon is? of is dat een aanname?

[ Voor 28% gewijzigd door Astennu op 19-11-2014 13:29 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

SpankmasterC schreef op woensdag 19 november 2014 @ 08:13:
[...]

Ik dacht altijd dat het probleem met GameWorks was dat het een black box was: je krijgt als developer de gameworks api en daar moet je het mee doen, je krijgt geen source, mag in ieder geval niets veranderen of aanpassen. En dat maakt het zo kwalijk: niemand heeft een idee wat die code doet behalve nVidia
https://developer.nvidia.com/what-is-gameworks
Licensing
Many NVIDIA GameWorks components including tools, samples and binaries are freely available to all developers. For other binary or source code access please contact us at Game Works Licensing: VisualFX-Licensing@nvidia.com
Ik heb geen idee in hoeverre je dus inzicht kan krijgen in de source code. Het kan zijn dat dit alleen van de tools is en niet de gebruikte shadercode.
Maar als je kijkt naar wat developpers plaatsen:
https://twitter.com/repi/status/452812842132332544
en dit:
http://www.extremetech.co...opers-end-users-and-amd/2

@Astennu
Wat betreft die namen. Het is niet 100% zeker, alleen zijn die post wel altijd dezelfde ongefundeerde bende zonder enige bron. Het vervelende van zulke posts is dat het het internet is, wat erop staat blijft er grotendeels opstaan, of het onzin is of niet. Wij moeten veel moeite doen om die onzin te ontkrachtigen en voordat we dat hebben gedaan is er weer nieuwe onzin geposts :P.

[ Voor 8% gewijzigd door Sp3ci3s8472 op 19-11-2014 13:52 . Reden: bronnen ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
Tot nu toe heb ik nog geen verdachte dingen gezien van gameworks, en het kan ook allemaal uit. Vind het nogal overdreven dat amd de gebeten hond uithangt terwijl ze zelf een eigen graphics api aan het pushen zijn. Maar goed, het gameworks verhaal werd vooral door richard huddy verspreid, en die zegt wel meer rare dingen, heeft ook een disclaimer op z'n amd pagina staan, dat wat ie zegt niet het standpunt van amd hoeft te zijn.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 12-09 21:16
Jullie betoog over hoe evil nVidia laat vooral zien wat de huidige status is van ontwikkeling bij AMD en dat het de hard nodig is om over te gaan op een kleiner procede om vernieuwende gpu's te kunnen maken voor hen. Het is vreemd dat het zo stil blijft vanuit AMD na de release nieuwe generatie nvidia kaarten.
Al ruim een maand lang is er naast een prijsverlaging niks te melden en komen ze alleen met een halfbakken product ala r285 aan om een gat te vullen wat er eingelijk niet is. De rek is duidelijk uit hun huidige chipdesign en ze willen liever eerst naar een kleiner proces dan geld investeren in een verbetering van een chip waar weinig profijt meer uit te halen is op 28nm.

Probleem is nu wel dat ze marktaandeel verliezen aan de concurrent die wel iets heeft gemaakt en naast goede prestaties ook nog een bijzonder weinig verbruikt.
Dan kunnen mensen wel weer oude koeien uit de sloot halen en weer betogen dat nVidia evil is, maar feit is gewoon dat er weinig op te merken valt aan de 970 en 980 die doen gewoon hun ding en zijn gewoon populair omdat hier weinig van de AMD tegenover zet op dit moment.
Alle zaken die hier alweer worden geroepen zijn vaak zaken die in veel gevallen al 7 tot 10 jaar oud zijn en een deel ook nog eens onbewezen of onbevestigd is door betrouwbare bronnen.

Het bestaansrecht van gameworks en vergelijkbare AMD programma's toont alleen maar aan hoe incapabel een hoop ontwikkelaars zijn geworden als het gaat om kwaliteitscode schrijven. Die doen vaak letterlijk geen reet meer doen om efficiente programma's maken. Ubisoft lijkt de kroon te spannen met AC Unity en volgens mij is dat volledig te wijten aan een draak van een engine die Anvil geworden is. Vanaf 2007 zijn ze deze al aan het tweaken en dat blijkt nu echt een beperkende factor te zijn geworden.

Als ontwikkelaars hun zaken op orde zouden hebben zouden nVidia en AMD geen tools hoeven maken. Daarnaast is microsoft ook bijna volledig gestopt met directX ontwikkeling en komt er straks met veel pijn en moeite eindelijk dx12 een jaartje of 6 na de release van dx11.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
haarbal schreef op woensdag 19 november 2014 @ 14:12:
Tot nu toe heb ik nog geen verdachte dingen gezien van gameworks, en het kan ook allemaal uit. Vind het nogal overdreven dat amd de gebeten hond uithangt terwijl ze zelf een eigen graphics api aan het pushen zijn. Maar goed, het gameworks verhaal werd vooral door richard huddy verspreid, en die zegt wel meer rare dingen, heeft ook een disclaimer op z'n amd pagina staan, dat wat ie zegt niet het standpunt van amd hoeft te zijn.
Mee eens. Misschien moeten we minder aannames doen en gewoon eerst eens afwachten wat het echt wordt en wat voor een effect het heeft. En pas dingen gaan roepen als er ook meer feiten bekend zijn.

Ze beschuldigen elkaar over en weer telkens van dit soort dingen. Wel jammer dat het zo moet het voegt zo weinig toe.
sjekneck schreef op woensdag 19 november 2014 @ 14:14:
Jullie betoog over hoe evil nVidia laat vooral zien wat de huidige status is van ontwikkeling bij AMD en dat het de hard nodig is om over te gaan op een kleiner procede om vernieuwende gpu's te kunnen maken voor hen. Het is vreemd dat het zo stil blijft vanuit AMD na de release nieuwe generatie nvidia kaarten.
Al ruim een maand lang is er naast een prijsverlaging niks te melden en komen ze alleen met een halfbakken product ala r285 aan om een gat te vullen wat er eingelijk niet is. De rek is duidelijk uit hun huidige chipdesign en ze willen liever eerst naar een kleiner proces dan geld investeren in een verbetering van een chip waar weinig profijt meer uit te halen is op 28nm.

Probleem is nu wel dat ze marktaandeel verliezen aan de concurrent die wel iets heeft gemaakt en naast goede prestaties ook nog een bijzonder weinig verbruikt.
Dan kunnen mensen wel weer oude koeien uit de sloot halen en weer betogen dat nVidia evil is, maar feit is gewoon dat er weinig op te merken valt aan de 970 en 980 die doen gewoon hun ding en zijn gewoon populair omdat hier weinig van de AMD tegenover zet op dit moment.
Alle zaken die hier alweer worden geroepen zijn vaak zaken die in veel gevallen al 7 tot 10 jaar oud zijn en een deel ook nog eens onbewezen of onbevestigd is door betrouwbare bronnen.

Het bestaansrecht van gameworks en vergelijkbare AMD programma's toont alleen maar aan hoe incapabel een hoop ontwikkelaars zijn geworden als het gaat om kwaliteitscode schrijven. Die doen vaak letterlijk geen reet meer doen om efficiente programma's maken. Ubisoft lijkt de kroon te spannen met AC Unity en volgens mij is dat volledig te wijten aan een draak van een engine die Anvil geworden is. Vanaf 2007 zijn ze deze al aan het tweaken en dat blijkt nu echt een beperkende factor te zijn geworden.

Als ontwikkelaars hun zaken op orde zouden hebben zouden nVidia en AMD geen tools hoeven maken. Daarnaast is microsoft ook bijna volledig gestopt met directX ontwikkeling en komt er straks met veel pijn en moeite eindelijk dx12 een jaartje of 6 na de release van dx11.
Het stuk over de R9 285 ben ik het niet mee eens. Ja de rek is er bij GCN1.x een beetje uit dat zie je ook.
Nu is het wel zo dat de R9 285 niet alles laat zien van wat deze chip echt kan. De full versie zal nog wel een stukje sneller zijn. Echter vraag ik me wel af wat deze GPU toe moet voegen. Ik zie het niet als een GPU die een gat gaat vullen.

Ik denk dat je deze meer moet zien als een refresh van de verouderde Tahiti die bv geen TrueAudio, Hardware CF engine en mogelijk geen FreeSync ondersteunt. Die features zaten er pas in vanaf GCN 1.1 en dus in Bonaire en Hawaii (R7 260(X) en R9 290X(X)).

Ik vraag me ook erg af wat de R9 39X moet gaan worden. Wordt dit een chip op een nieuwe architectuur? of ook GCN1.2. Als het dat laatste is krijgen ze het erg zwaar tegen Maxxwell qua verbruik wordt het dan heel moeilijk.

Het klopt dat ik veel oude koeien uit de sloot gehaald heb. En misschien moeten we dat ook niet meer doen. Maar het verleden zit zo vol met dit soort dingen. Dan wordt je wel enigsinds "bang" als je leest wat gameworks voor nVidia moet gaan doen.

Ik ben het wel helemaal met je eens dat de dev's wel eens beter hun best mogen gaan doen. Veel games draaien goed op consoles maar zwaar brak op de PC.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

haarbal schreef op woensdag 19 november 2014 @ 14:12:
Tot nu toe heb ik nog geen verdachte dingen gezien van gameworks, en het kan ook allemaal uit. Vind het nogal overdreven dat amd de gebeten hond uithangt terwijl ze zelf een eigen graphics api aan het pushen zijn. Maar goed, het gameworks verhaal werd vooral door richard huddy verspreid, en die zegt wel meer rare dingen, heeft ook een disclaimer op z'n amd pagina staan, dat wat ie zegt niet het standpunt van amd hoeft te zijn.
Als Johan Andersson de Technical Director van Frostbite het ook zegt is dan is het al meteen een stuk geloofwaardiger. Het is niet alleen Richard Huddy. Over wat voor andere rare dingen heb je het (als je zoiets zegt link het dan ook even)? Logisch dat hij die disclaimer er bij zet, wel zo veilig, maar waarom zou dat hem minder geloofwaardig maken?

@sjekneck
De dingen die ik plaatste zijn van de laatste paar jaren. Onnodig veel gebruik van tesselation komt helaas nog steeds voor zie Crysis 2 en Batman.
Nogmaals er is een verschil tussen GameWorks en Mantle.
Mantle geeft de developper/gebruiker de keuze om het Mantle codepath te gebruiken. Je kan dus ook gewoon het DX11 codepath kiezen.
GameWorks daarentegen forceerd de gebruiker om dat codepath te gebruiken, of het nu goed of slecht is. Daarom zijn er mensen die er tegen zijn omdat als het inderdaad een blackbox is je er nooit voor kunt optimaliseren.

Die links die ik net plaatste gaven die informatie.....

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
Astennu schreef op woensdag 19 november 2014 @ 14:34:
Het stuk over de R9 285 ben ik het niet mee eens. Ja de rek is er bij GCN1.x een beetje uit dat zie je ook.
Nu is het wel zo dat de R9 285 niet alles laat zien van wat deze chip echt kan. De full versie zal nog wel een stukje sneller zijn. Echter vraag ik me wel af wat deze GPU toe moet voegen. Ik zie het niet als een GPU die een gat gaat vullen.
Ik vind de 285 niet zo'n verkeerde gpu, amd scoorde altijd matig met tessellation, maar de 285 niet, zit op ~2x de 290, en doet het verder ook overal goed, misschien minder efficient dan maxwell, maar who cares.

De "full" gpu's gaan nu allemaal de imacs in, maar ik denk dat er ook nog wel wat naar de desktop komt als de 280 en 280x chips opraken.
Sp3ci3s8472 schreef op woensdag 19 november 2014 @ 14:47:
[...]
Als Johan Andersson de Technical Director van Frostbite het ook zegt is dan is het al meteen een stuk geloofwaardiger. Het is niet alleen Richard Huddy. Over wat voor andere rare dingen heb je het (als je zoiets zegt link het dan ook even)? Logisch dat hij die disclaimer er bij zet, wel zo veilig, maar waarom zou dat hem minder geloofwaardig maken?

@sjekneck
De dingen die ik plaatste zijn van de laatste paar jaren. Onnodig veel gebruik van tesselation komt helaas nog steeds voor zie Crysis 2 en Batman.
Nogmaals er is een verschil tussen GameWorks en Mantle.
Mantle geeft de developper/gebruiker de keuze om het Mantle codepath te gebruiken. Je kan dus ook gewoon het DX11 codepath kiezen.
GameWorks daarentegen forceerd de gebruiker om dat codepath te gebruiken, of het nu goed of slecht is. Daarom zijn er mensen die er tegen zijn omdat als het inderdaad een blackbox is je er nooit voor kunt optimaliseren.

Die links die ik net plaatste gaven die informatie.....
Bij gameworks heb je ook de keuze, het kan allemaal uit en dan heb je er geen last van.

En repi heeft het niet over sabotage, hij wil gewoon de source zien omdat ie denkt dat ie het beter kan.

[ Voor 3% gewijzigd door haarbal op 19-11-2014 15:11 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

haarbal schreef op woensdag 19 november 2014 @ 15:10:
[...]

Ik vind de 285 niet zo'n verkeerde gpu, amd scoorde altijd matig met tessellation, maar de 285 niet, zit op ~2x de 290, en doet het verder ook overal goed, misschien minder efficient dan maxwell, maar who cares.

De "full" gpu's gaan nu allemaal de imacs in, maar ik denk dat er ook nog wel wat naar de desktop komt als de 280 en 280x chips opraken.


[...]

Bij gameworks heb je ook de keuze, het kan allemaal uit en dan heb je er geen last van.

En repi heeft het niet over sabotage, hij wil gewoon de source zien omdat ie denkt dat ie het beter kan.
Je weet niet of het allemaal uitkan. Tenzij het er in het options menu bijstaat (of ergens anders).
Hij zegt nergens dat hij de source wil zien omdat hij denkt dat hij het beter kan, of heeft hij een post daarover gemaakt?

Eens over de R9 285, met name de betere compressie zodat bespaard kan worden op de geheugenbus en de veel betere tesselation.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
haarbal schreef op woensdag 19 november 2014 @ 15:10:
[...]

Ik vind de 285 niet zo'n verkeerde gpu, amd scoorde altijd matig met tessellation, maar de 285 niet, zit op ~2x de 290, en doet het verder ook overal goed, misschien minder efficient dan maxwell, maar who cares.

De "full" gpu's gaan nu allemaal de imacs in, maar ik denk dat er ook nog wel wat naar de desktop komt als de 280 en 280x chips opraken.
Dat klopt samen met de memory compressie techniek is dat een van de grote verbeteringen in GCN1.2 ten opzichte van 1.1.
De R9 290(X) hadden 2x de tesselator power van de 7970 maar ze presteerde lang niet twee keer beter. Het was duidelijk dat daar iets niet goed ging. Bij de R9 285 is dat gelukkig opgelost.

Dat denk ik ook en dan wellicht als R9 3xx rebrand dat zou deels wel jammer zijn.
Het is zeker geen slechte GPU alleen hij is qua performance per watt nog niet wat Maxxwell is. Wel iets beter dan Tahiti.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Catalyst 14.11.2 beta, updates for fc4 and dragon age
http://support.amd.com/en...-BetaWINReleaseNotes.aspx

|2600k|Asus 290|


  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 14-09 20:03
Uhm, die heb je zelf al eerder gepost. Bullus in "CJ's Radeon Info & Nieuwsdiscussie - Deel 128"

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
freesync in samsungs ultra hd lineup.
http://www.techspot.com/n...015-support-freesync.html

Mechwarrior Online: Flapdrol


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Kijk dat horen we graag!
Ben benieuwd of de nieuwe Dell schermen het ook krijgen.

Nu nog een 120Hz IPS panneel met 4K resolutie :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
Ips is te traag voor 120hz, tenminste, hij is dan nog niet in positie als de volgende frame doorgegeven wordt.

Mechwarrior Online: Flapdrol


  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 14-09 20:28

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Dan zijn we wrs paar gens vgas verder, en dan heb je er wrs nog 2 van zulke nodig om die fps steady te houden op high settings..

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Uhm niet helemaal..amd heeft blijkbaar de link hetzelfde gehouden, maar qua release notes was het niet hetzelfde.

1e link verwees naar
http://www.guru3d.com/fil...4-11-2-beta-download.html

Andere link is de release notes toch net wat anders
Thread updated for new release, same components version.
All driver files are identical (hash check), only inf difference (except build number and folder)
"HKR,, PP_DriverEnableNBDPM, %REG_DWORD%, 1" added
in "[ati2mtag_MullinsPA_Mobile_SoftwareDeviceSettings]"
En 17nov vs 19nov

[ Voor 23% gewijzigd door Bullus op 20-11-2014 14:06 ]

|2600k|Asus 290|


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
SAiN ONeZ schreef op donderdag 20 november 2014 @ 13:46:
Dan zijn we wrs paar gens vgas verder, en dan heb je er wrs nog 2 van zulke nodig om die fps steady te houden op high settings..
Dat is dus het mooie van gsync en freesync als je onder de 60fps komt voelt het nog steeds relatief soepel aan. Misschien wordt 40FPS dan ook al heel goed speelbaar. Praktijk zal het uitwijzen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
Astennu schreef op donderdag 20 november 2014 @ 14:05:
[...]
Misschien wordt 40FPS dan ook al heel goed speelbaar. Praktijk zal het uitwijzen.
Het bestaat al, dus kan je gewoon reviews lezen.
http://www.pcper.com/revi...ions-and-Closing-Thoughts
Is wel een tn, dus iig met snellere pixelresponse. Maar goed, ze noemen het 100% playable, al zijn de reviews van de swift een stuk enthousiaster.

Mechwarrior Online: Flapdrol


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
haarbal schreef op donderdag 20 november 2014 @ 14:22:
[...]

Het bestaat al, dus kan je gewoon reviews lezen.
http://www.pcper.com/revi...ions-and-Closing-Thoughts
Is wel een tn, dus iig met snellere pixelresponse. Maar goed, ze noemen het 100% playable, al zijn de reviews van de swift een stuk enthousiaster.
GSync inderdaad wel Freesync schermen nog niet. Al gok ik op een vergelijkbare ervaring. Ik had deze review nog niet gezien wel interessant om even te lezen.
TN is een no go voor mij dus wacht op een goed 4K scherm met IPS en FreeSync. 120HZ is geen must.

[ Voor 5% gewijzigd door Astennu op 20-11-2014 14:32 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
Ik wacht af om te kijken of er nog wat VA's komen, 4K is geen must, TN ook geen no go.

Mechwarrior Online: Flapdrol


  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
Ligt het aan mij of laat die reviewer het lijken alsof het zonder G-synch gewoon niet speelbaar is?
That resulted in a frame rate ranging between 40-55 FPS which is perfectly suited to show off the benefits of G-Sync. With a typical 4K monitor at that frame rate we would either see stuttering caused by shifting frame times or tearing as a result of misaligned scanning. But with G-Sync, you get an incredibly smooth gaming experience that is 100% playable.
I will say that Bioshock Infinite did have a few instances of dropping down to around 55 FPS, which might have caused some noticeable stutter issues on standard monitors, but weren't even noticed on the XB280HK until viewing the FRAPS data after the fact.
Ik speel zelf altijd zonder V-synch op 1440p (U2713HM) en heb nooit last van stuttering/tearing. En ik weet wel zeker dat ik nooit 60+ fps heb.

Nu wil ik niet zeggen dat omdat ik het nooit zie, het niet gebeurd bij anderen. Maar hij klinkt naar mijn mening te negatief over niet G-synch schermen. Ik heb ook nog wel het vermoeden dat de stuttering ook deels verklaard kan worden door SLI.

Maar goed, misschien ben ik gewoon net wat te skeptisch en moet ik het met mijn eigen ogen zien :)

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 14-09 20:28

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Astennu schreef op donderdag 20 november 2014 @ 14:31:
[...]


GSync inderdaad wel Freesync schermen nog niet. Al gok ik op een vergelijkbare ervaring. Ik had deze review nog niet gezien wel interessant om even te lezen.
TN is een no go voor mij dus wacht op een goed 4K scherm met IPS en FreeSync. 120HZ is geen must.
Hoewel 3d3overrider.exe niet meer werkt in Dx11 titels, heb ik daarvoor ten tijde van dx10 iedereen voor gek verklaard die destijds die tool met gratis DX tripple buffering niet gebruikte, en je hiermee volgens mij microstuttering tegenging, en ook bij vsync het niet liet schakelen tussen 30 en 60fps maar verschillende tussenwaardes, is dat niet ongeveer hetzelfde zoals dat Gsync nu werkt?

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
SAiN ONeZ schreef op donderdag 20 november 2014 @ 15:14:
[...]


Hoewel 3d3overrider.exe niet meer werkt in Dx11 titels, heb ik daarvoor ten tijde van dx10 iedereen voor gek verklaard die destijds die tool met gratis DX tripple buffering niet gebruikte, en je hiermee volgens mij microstuttering tegenging, en ook bij vsync het niet liet schakelen tussen 30 en 60fps maar verschillende tussenwaardes, is dat niet ongeveer hetzelfde zoals dat Gsync nu werkt?
Nee.

gsync wacht tot er een nieuwe frame klaar is, en ververst dan met die frame.

triple buffering blijft gewoon renderen, en het beeld blijft gewoon verversen op vaste frequentie, als je sneller rendert dan ververst worden er beelden overgeslagen, als je langzamer rendert heb je nog steeds dikke stutter.

[ Voor 15% gewijzigd door haarbal op 20-11-2014 15:25 ]

Mechwarrior Online: Flapdrol


  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 14-09 20:28

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Thnx, duidelijk en helder :)

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Astennu schreef op donderdag 20 november 2014 @ 14:31:
TN is een no go voor mij dus wacht op een goed 4K scherm met IPS en FreeSync. 120HZ is geen must.
Same, IPS, 4K UHD en FreeSync wil ik ook wel, liefst op 30-32". Na één IPS scherm wil ik nooit meer terug naar lage contrast, lage kijkhoek TN zooi.

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
Wat betreft contrast is IPS niet beter dan TN.

Mechwarrior Online: Flapdrol


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Misschien met meetapparatuur rechtstreeks op het paneel maar de werkelijkheid toont toch een ander beeld (pun intended :P)

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
Als het niet te meten is dan zie je het niet. Het voordeel van IPS is de onovertroffen kijkhoek, verder blinkt het nergens in uit.

[ Voor 3% gewijzigd door haarbal op 20-11-2014 16:23 ]

Mechwarrior Online: Flapdrol


  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Kunnen we van AMD in 2015 iets moois verwachten?

AMD begint in mijn ogen toch wel serieus achter te liggen op nvidia en intel
In mobile zijn de maxwell chips dusdanig veel beter dat AMD voor ieder rationeel (en tech savvy) persoon een definite no-go zijn.
Voor desktop-gpu's zijn ze in principe nog wel concurrerend, maar alleen vanwege de prijs. (en voor de semi-pro, die geen geld heeft voor een K oid)
Desktop-cpu's bieden af en toe redelijke budgetkeuzes in het middensegment en op zich best interessante APU's in het bodemsegment.

Met het oog op steam machines en andere sub itx game-systemen wordt performance per watt alleen maar belangrijker. (een behuizing met formaat melkpak kan nu eenmaal maar max 100 a 150 watt hitte afvoeren met compacte luchtkoeling). Gaat AMD dit wel kunnen leveren gezien de beperkte R&D en het nieuwe mantra van meer tdp=beter (getuige de r9)?

Gaat AMD voortaan een speler in de marge worden of kunnen we ook in de voor ons tweakers interessante mid-range en topsegment nog concurrerende hardware verwachten uit het rode kamp?

offtopic:
Ben van een 6850 naar en 860m gegaan en hoewel de performance beter is, zijn de drivers dat helaas ZEKER niet. Daarnaast zie ik AMD absoluut niet graag ten onder gaan omdat er dan pats boem 2 monopolies ontstaan

[ Voor 10% gewijzigd door eL_Jay op 20-11-2014 16:29 ]


  • Cheezus
  • Registratie: Februari 2001
  • Nu online

Cheezus

Luiaard

haarbal schreef op donderdag 20 november 2014 @ 16:22:
Als het niet te meten is dan zie je het niet. Het voordeel van IPS is de onovertroffen kijkhoek, verder blinkt het nergens in uit.
Misschien moet je ze eens in het echt naast elkaar zetten. Dan zie je het verschil echt i.p.v. wat afwijkende/overeenkomende getalletjes in reviews. Sinds ik op m'n werk een IPS scherm heb weet ik in ieder geval zeker dat mijn volgende scherm ook IPS wordt, helaas heb ik er nu nog geen geld voor over om m'n monitor te upgraden ;(

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:11
Heb wat gegamed op een ips scherm, input lag viel nog wel mee, maar een hoop ghosting. De beeldkwaliteit als het stilstond was goed, maar niks bijzonders wat mij betreft.

Mechwarrior Online: Flapdrol


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

haarbal schreef op donderdag 20 november 2014 @ 16:22:
Als het niet te meten is dan zie je het niet. Het voordeel van IPS is de onovertroffen kijkhoek, verder blinkt het nergens in uit.
Natuurlijk is er een verschil tussen meten en zien, meten doe je op het paneel, zien doe je 40-80cm van het paneel af. Dan heb je ineens invloed van lichtinval.

De kijkhoeken zijn ook juist bepalend voor een deel van het waargenomen beeld, bij veel TN-panelen kan je verschillende helderheden en contrasten zien van boven naar het midden naar onder op een normale afstand. Dat heeft een IPS of VA paneel niet. IPS en VA heeft ook een gemiddeld veel correctere kleurenweergave, waar je de meeste TN-panelen nog niet eens genoeg kan afstellen om ook maar in de buurt te komen van een correcte kleurweergave.
haarbal schreef op donderdag 20 november 2014 @ 17:12:
Heb wat gegamed op een ips scherm, input lag viel nog wel mee, maar een hoop ghosting. De beeldkwaliteit als het stilstond was goed, maar niks bijzonders wat mij betreft.
Het ligt er natuurlijk aan wat je verkiest, betere beeldkwaliteit of snellere weergave. Persoonlijk verdien ik mijn geld niet met gaming, gebruik ik mijn PC voor meer dan enkel games en geniet ik meer van goede, correcte kleuren dan de voorziening om een betere framerate weer te geven. Een hogere framerate (>60fps) vereist vooral in de nieuwe games ook meer GPU power (dus duurdere of extra GPU), terwijl betere kleuren met elke GPU mogelijk zijn en in elke situatie of toepassing. Dan maakt een TN-scherm weinig zin en is juist een IPS of VA scherm een betere keuze.

Verwijderd

eL_Jay schreef op donderdag 20 november 2014 @ 16:26:
Kunnen we van AMD in 2015 iets moois verwachten?

AMD begint in mijn ogen toch wel serieus achter te liggen op nvidia en intel

[...]
In mijn ogen overdrijf je een beetje. Ja AMD loopt even achter, maar dat is niet voor het eerst en komt omgekeerd ook voor. Er zullen heus nieuwe kaarten komen, hoe goed die gaan worden weten we niet. Het zou kunnen dat AMD snellere kaarten uitbrengt en een tijd de boventoon voert, het zou ook kunnen dat dat niet lukt en ze een tijdje achter lopen. Ik hoop het eerste, maar de ervaring leert dat het altijd heen en weer gaat wie er de boventoon voert. Zowel AMD als Nvidia zijn daar nog niet aan failliet gegaan of vervallen tot een bedrijf in de marge, ik zie geen reden waarom dat nu wel zou gebeuren. :)

Dat is inderdaad maar goed ook, want anders krijg je de situatie zoals bij CPU's. Mensen met een bijna vier jaar oude i5-2500k hebben nog steeds weinig reden om te upgraden, nieuwere CPU's bieden nog steeds weinig meerwaarde. :/

Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 21:32:
[...]

Zowel AMD als Nvidia zijn daar nog niet aan failliet gegaan of vervallen tot een bedrijf in de marge
Ik wil niet heel vervelend doen... maar de GPU-afdeling van AMD was ooit het op zichzelf staande bedrijf ATi, en is overgenomen door AMD, omdat ATi de slag met DX10 verloren had van NVidia (de Radeon 2900 was veel te laat, en totaal niet in staat om op te boksen tegen de GeForce 8000/9000-serie).
Elke generatie zal er één van de twee beter zijn als de andere, nVidia heeft er ook genoeg verloren dat is nog geen reden tot een faillissement, dat is juist mooi dat twee bedrijven zo dicht bij elkaar liggen.
eL_Jay schreef op donderdag 20 november 2014 @ 16:26:
Kunnen we van AMD in 2015 iets moois verwachten?
Begin volgend jaar staat de volgende generatie op de planning.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Verwijderd

nVidia heft er maar eentje verloren, dat is de GeForce FX.
Verder waren ze met Fermi een paar maanden te laat, maar toen ie er eenmaal was, deden ze weer heel serieus mee, dus dat konden ze wel opvangen.
Alle andere generaties was nVidia ofwel de bovenliggende partij, ofwel zaten ze zo dicht bij elkaar dat het gelijk opging.
Of kun je andere generaties noemen waarbij nVidia niet mee kon komen?

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
Verwijderd schreef op donderdag 20 november 2014 @ 22:00:
[...]


nVidia heft er maar eentje verloren, dat is de GeForce FX.
Verder waren ze met Fermi een paar maanden te laat, maar toen ie er eenmaal was, deden ze weer heel serieus mee, dus dat konden ze wel opvangen.
Alle andere generaties was nVidia ofwel de bovenliggende partij, ofwel zaten ze zo dicht bij elkaar dat het gelijk opging.
Of kun je andere generaties noemen waarbij nVidia niet mee kon komen?
Je wilt toch niet zeggen dat de 480 een win was voor Nvidia?

Verwijderd

Zeara schreef op donderdag 20 november 2014 @ 22:07:
Je wilt toch niet zeggen dat de 480 een win was voor Nvidia?
Ik voel de warmte nog steeds :P

Verwijderd

Zeara schreef op donderdag 20 november 2014 @ 22:07:
[...]


Je wilt toch niet zeggen dat de 480 een win was voor Nvidia?
Beter lezen: ik zeg niet dat nVidia alles gewonnen heeft, maar dat het in het geval dat ze geen duidelijke winnaar waren, dat er wel goede concurrentie was tussen beide.
Het was wel de snelste kaart. Daarmee compenseerde hij voor het hoge stroomverbruik, en was het een goede concurrent.
nVidia kwam ook niet lang daarna met een update van de architectuur, eerst met de 460, toen met de 580. Vanaf dat moment kon je wel van een win spreken, denk ik.

[ Voor 15% gewijzigd door Verwijderd op 20-11-2014 22:12 ]

Alle series chips die vroegtijdig kapot gingen was ook niet een echt een succes en dat waren er ook genoeg, dat heeft ook miljoenen gekost. Zo zijn er genoeg bij nVidia te bedenken welke geen succes waren.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Verwijderd

Wat definieer je als win dan? De absolute top? Die is natuurlijk maar van zeer beperkt belang, daar heeft bijna niemand mee te maken - nog los van dat prestaties geen hard gegeven zijn, maar een balans tussen o.a. verbruik, kosten en meer. Wat veel relevanter is wat iemand voor X-euro aan rekenkracht kan krijgen. Al heeft AMD ook qua topprestaties vaak genoeg het voortouw genomen :)

Ik klink als een fanboy :'( /me aait zijn GeForce.

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
Verwijderd schreef op donderdag 20 november 2014 @ 22:11:

Beter lezen: ik zeg niet dat nVidia alles gewonnen heeft, maar dat het in het geval dat ze geen duidelijke winnaar waren, dat er wel goede concurrentie was tussen beide.
Het was wel de snelste kaart. Daarmee compenseerde hij voor het hoge stroomverbruik, en was het een goede concurrent.
Nee, je zei dat ze er maar eentje hadden verloren. Wat er toe zou kunnen leiden dat je zegt dat ze rest hebben gewonnen of op zijn minst gelijk waren.

Maar blijkbaar hebben wij verschillende meningen over wat een "win" in houdt.

Ik zou zeggen dat de 5870 een win voor AMD was, hij was er 6 maanden eerder, was goedkoop en was snel. De 480 was volgens deze vergelijking marginaal sneller (al blijkt hij bij launch 10-20% sneller te zijn). Maar daar staat een flink hogere prijs en stroom verbruik tegen over. Ik zie dat niet als overwinning.

Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 22:16:
Wat definieer je als win dan? De absolute top? Die is natuurlijk maar van zeer beperkt belang, daar heeft bijna niemand mee te maken - nog los van dat prestaties geen hard gegeven zijn, maar een balans tussen o.a. verbruik, kosten en meer. Wat veel relevanter is wat iemand voor X-euro aan rekenkracht kan krijgen.
Nee, ik bedoel het hier in het algemeen: wie wint de concurrentiestrijd van een generatie over de hele linie?
Al hangt een en ander wel vaak samen: als je de snelste GPU op het moment hebt, is dat meestal een teken dat je architectuur efficienter is dan die van de concurrent, en geldt hetzelfde ook voor je lagere modellen gebaseerd op dezelfde architectuur.
Verwijderd schreef op donderdag 20 november 2014 @ 22:16:
Al heeft AMD ook qua topprestaties vaak genoeg het voortouw genomen :)
Volgens mij kun je die op 1 hand natellen hoor.
De Radeon 8500 was de eerste keer dat ATi serieus meedeed qua performance. Net even sneller dan de GeForce3. Helaas kwam nVidia vrij kort daarna met de GeForce4, die toch wel pittig sneller was.
Radeon 9700/9800 was ATi's glorietijd. Toen waren ze dus even heer en meester, terwijl nVidia aanrotzooide met GeForce FX.

Maar daarna, X800/X1800/X1900 vs GeForce 6000/7000... dat was echt stuivertje wisselen.
Radeon 2900 gigantische flop, einde van ATi, overname door AMD.
Daarna heeft ATi/AMD zich vooral op kleinere GPUs gericht, en probeerde men met multi-GPU mee te komen in high-end, niet echt een geslaagde strategie, gezien de problemen die SLI/CrossFire toch vaak met zich meebrengen.
En toen dus de 'moderne' tijd van DX11-GPUs, waarbij het weer vaak stuivertje wisselen is (al was nVidia vooral in de begintijd duidelijk beter met de nieuwe features als tessellation en compute shaders). Op het moment is nVidia met de Maxwell 2 redelijk overtuigend de bovenliggende partij. We weten nog niet wat het antwoord van AMD gaat zijn, en wanneer dat gaat komen.

Verwijderd

Zeara schreef op donderdag 20 november 2014 @ 22:21:
[...]

Nee, je zei dat ze er maar eentje hadden verloren. Wat er toe zou kunnen leiden dat je zegt dat ze rest hebben gewonnen of op zijn minst gelijk waren.
Dat bedoel ik ook.
Zeara schreef op donderdag 20 november 2014 @ 22:21:
Ik zou zeggen dat de 5870 een win voor AMD was, hij was er 6 maanden eerder, was goedkoop en was snel.
Dat is Fermi, die heb ik ook genoemd.
Zeara schreef op donderdag 20 november 2014 @ 22:21:
Ik zie dat niet als overwinning.
Hoeft ook niet, 'gelijk opgaan' is genoeg, zie wat je zelf hierboven zei.
En zoals ik zeg, de 480-generatie (vergeet niet de 470 en 465) kon de strijd met AMD wel aan, omdat ze wel meer performance zetten tegenover het hogere stroomverbruik.
De een kiest voor dit, de ander voor dat.
En zoals gezegd, er kwam voor die generatie vrij snel een update die het stroomverbruik fixte.

Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 22:27:
En zoals ik zeg, de 480-generatie (vergeet niet de 470 en 465) kon de strijd met AMD wel aan, omdat ze wel meer performance zetten tegenover het hogere stroomverbruik.
De een kiest voor dit, de ander voor dat.
Op die manier is het makkelijk altijd bovenaan te staan qua prestaties, want meer stroom door een chip pompen kan doorgaans wel. Dan krijg je alleen wel een 480 als je je zaakjes niet op orde hebt.

De kunst is een efficiënte chip te maken, die met een beperkt energiebudget veel neerzet. Dat doen ze nu bijvoorbeeld nu bij Nvidia heel fraai.

Verwijderd

Verwijderd schreef op donderdag 20 november 2014 @ 22:30:
[...]

Op die manier is het makkelijk altijd bovenaan te staan qua prestaties, want meer stroom door een chip pompen kan doorgaans wel. Dan krijg je alleen wel een 480 als je je zaakjes niet op orde hebt.
Dat is wel een hele versimpelde visie.
Sorry hoor, maar dat slaat nergens op.
Het probleem was overigens niet echt de architectuur, maar vooral het gebrekkige procede van TSMC.
De GeForce 580 heeft een vrijwel identieke architectuur als de 480. Hij is vooral beter/zuiniger door kleine tweaks aan de architectuur en het procede van TSMC.

Sterker nog, AMD heeft bij GCN hun hele VLIW-gebaseerde architectuur laten varen, en is overgestapt op een SIMD-architectuur die heel veel weg heeft van de 480/580. Dit voornamelijk omdat er efficienter voor te programmeren is, vooral qua GPGPU.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op donderdag 20 november 2014 @ 22:34:
[...]
Dat is wel een hele versimpelde visie.
Sorry hoor, maar dat slaat nergens op.
Het probleem was overigens niet echt de architectuur, maar vooral het gebrekkige procede van TSMC.
De GeForce 580 heeft een vrijwel identieke architectuur als de 480. Hij is vooral beter/zuiniger door kleine tweaks aan de architectuur en het procede van TSMC.
Helaas had AMD hier geen last van, ik noem het eerder onkunde van Nvidia zelf. Het is makkelijk om TSMC de schuld te geven. AMD heeft het gewoon beter aangepakt door eerst met de HD4770 te komen om op die manier het 40nm productie process te testen.
Daarnaast was het wel 10-20% performance verschil als je de HD5870 met de GTX480 vergelijkt, helaas pakte de GTX480 ook meteen 100 Watt meer.
http://images.anandtech.c...ch_032610115215/22204.png

Maar dit is oude koeien uit de sloot halen. Beide fabrikanten wisselen het stuivertje steeds. AMD was een stuk eerder met hun HD7xxx serie, en Nvidia had pas veel later pas een echt antwoord daarop met de Titan en GTX780.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Gaan we weer :+
Verwijderd schreef op donderdag 20 november 2014 @ 22:11:
Het was wel de snelste kaart. Daarmee compenseerde hij voor het hoge stroomverbruik, en was het een goede concurrent.
nVidia kwam ook niet lang daarna met een update van de architectuur, eerst met de 460, toen met de 580. Vanaf dat moment kon je wel van een win spreken, denk ik.
Nou....nee.

- +80% stroomverbruik
- +50% hitte
- Bijna twee keer zo luidruchtig
- Klapper op de vuurpijl: +35% prijs (wat wel moest, omdat het ding ook nog eens 60% groter dan Cypress was)

En dat alles voor +10% performance in de gunstige gevallen? Ik weet niet waar jij hier een win in ziet. Met GF104/GF114 kon Nvidia weer enigzins competitief bezig zijn, meer niet.
Verwijderd schreef op donderdag 20 november 2014 @ 22:34:
Het probleem was overigens niet echt de architectuur, maar vooral het gebrekkige procede van TSMC.
De GeForce 580 heeft een vrijwel identieke architectuur als de 480. Hij is vooral beter/zuiniger door kleine tweaks aan de architectuur en het procede van TSMC.
Dit is je reinste onzin. Ten eerste is het onmogelijk dat zoiets aan "de architectuur" ligt, de architectuur heeft geen ruk met het procedé te maken. Je probeert het daar verkeerd te verdedigen.

Ten tweede ligt het niet aan TSMC an sich, maar aan onkunde aan Nvidia's kant. Als het aan TSMC had gelegen, had AMD op z'n minst productie problemen gehad, maar veel waarschijnlijker hadden ze last van product uitval gehad. Nu was Cypress na een maand of twee wel lastiger te verkrijgen, maar dat had vooral met de enorme vraag te maken, aangezien Nvidia toen nog steeds niets had laten zien (konden ze ook niet). Hetzelfde is/was bij GM204 het geval. Product uitval hebben ze ook niet gekend, ik durf te wedden dat de 5870's van de meeste Tweakers hier hard op hun staart zijn getrapt en het nog steeds doen. Mijn 5870 is nog steeds in gebruik door de nieuwe eigenaar. Dat ding is inmiddels 5 jaar oud en als je mijn posts van toen bekijkt, ben ik er niet zachtzinnig mee om gegaan qua overklokken (ik kreeg hem over de GHz heen).

Ten derde, in navolging op #2, zijn er talloze bewijzen dat Nvidia het verknoeid heeft. Hun probleem was tweeledig: allereerst wilden ze meteen een chip van meer dan 500mm^2 op een nieuw procedé bouwen zonder dat eerst te testen (AMD had de 47x0 al op 40nm gebouwd). Vervolgens hebben ze daar simpelweg gewoon de foute materialen voor gekozen en verwachtten ze dat TSMC dit op zou lossen. AMD had zich aangepast en andere (nieuwe) materialen gekozen, Nvidia wilde dezelfde zooi als voor GT200 gebruiken. Zo'n procedé is niet allesomvattend, de klanten moeten zelf aangeven welke materialen ze voor de verbindingen en lagen gebruiken. TSMC levert een dienst, geen product. Als ik een klant krijg die een knalroze site met gifgroene tekst wil zal ik hem daar zeker tegen adviseren, maar uiteindelijk is hij de klant en als hij dat wil krijgt hij dat. Dit zie je ook terug in de yields en productie; AMD had nergens last van, Nvidia zat met uitzonderlijk slechte yields. GF100 was twee maanden lang bijna niet leverbaar en ze hebben nooit genoeg volledige chips gehad om daar ook een productreeks van in de markt te zetten (vergeet niet dat de 480 gewoon een defecte chip is). TSMC heeft al die tijd geen ruk aan hun 40nm procedé veranderd, maar Nvidia is wel andere materialen gaan gebruiken voor GF110. En dit is ook iets dat niet echt een verrassing is, het was niet voor het eerst dat ze slecht spul kozen; NV30/35, G80 en RSX come to mind ;)
Sterker nog, AMD heeft bij GCN hun hele VLIW-gebaseerde architectuur laten varen, en is overgestapt op een SIMD-architectuur die heel veel weg heeft van de 480/580. Dit voornamelijk omdat er efficienter voor te programmeren is, vooral qua GPGPU.
Ja, en? Als we zo gaan beginnen kunnen we verder terug kijken en zien we dat in de afgelopen 40 jaar alle GPU fabrikanten elkaars ideeën zijn gaan emuleren. Ze zullen wel moeten. Nvidia heeft veel van 3DFX afgekeken, S3 heeft veel van ATI afgekeken. Matrox had begin jaren 90 wat nieuwigheden waardoor je prachtige filmpjes kon kijken zonder stotteren, paar jaar later had de rest dat ook.

Overigens is "efficiënter ervoor programmeren" de foute term. Het is makkelijker om meer shaders aan de praat te krijgen. Het programmeerwerk wordt echter niet efficiënter, VLIW4 en VLIW5 zijn nog steeds veel sneller voor veel taken. Kijk maar naar coin mining, daar had Nvidia toen niets in te brengen omdat de software efficiënt gebruik maakte van VLIW ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op vrijdag 21 november 2014 @ 00:09:
Helaas had AMD hier geen last van, ik noem het eerder onkunde van Nvidia zelf. Het is makkelijk om TSMC de schuld te geven. AMD heeft het gewoon beter aangepakt door eerst met de HD4770 te komen om op die manier het 40nm productie process te testen.
De HD4770 had ook wat slimme maatregelen aan boord om de kans op succes bij het bakken van de chips te vergroten. Nvidia deed dat niet en kwam dan ook in de problemen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Beide fabrikanten doen dat toch?

Zover ik weet bevat elke gpu backups die disabled worden als ze niet goed zijn. Dat is ook de reden dat er kaarten zoals de HD5830/HD5850 en GTX465/470 zijn dat zijn gewoon kaarten die hoogstwaarschijnlijk aan de buitenkant van de wafer zaten en daardoor minder makkelijk (meer volt nodig) de beoogde core clock halen die voor het topmodel nodig is.
Wat ze dan doen is een cluster van shaders/texture units en ROPs uitschakelen doormiddel van een lasercut. Vroegah waren er kaarten waar dit niet met een lasercut was gedaan, die kon je dus unlocken naar een sneller model. Bij sommige R9 290's kon dit ook dacht ik.

Het kan inderdaad zo zijn dat de HD4770 iets extra's had. Kan je dat toevallig terugvinden, is wel zo interessant :P?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op vrijdag 21 november 2014 @ 00:18:
[...]

De HD4770 had ook wat slimme maatregelen aan boord om de kans op succes bij het bakken van de chips te vergroten. Nvidia deed dat niet en kwam dan ook in de problemen.
Nee, de HD4770 was simpelweg groot genoeg als chip om eventuele onvolkomenheden in het process van TSMC te kunnen opsporen en op te vangen bij de opvolgende producten. nVidia kwam niet verder dan een paar zeer kleine GPU's als testproduct en heeft als gevolg de prijs mogen betalen met hun zeer grote top-GPU.

Natuurlijk zullen er dus mensen zijn die de schuld graag aan TSMC toeschrijven, waaronder als eerste nVidia. Wellicht zijn er zelfs mensen met blog-posts van om het 'gelijk' te onderstrepen. Maar aangezien AMD zonder extreme moeite behoorlijk wat GPU's kon verkopen, is en blijft het toch vooral een zaak van het process niet aanvoelen in deze.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op vrijdag 21 november 2014 @ 00:09:
[...]
Helaas had AMD hier geen last van, ik noem het eerder onkunde van Nvidia zelf. Het is makkelijk om TSMC de schuld te geven.
AMD had hier geen last van omdat ze veel kleinere GPUs bakten.
De kans op defecten en leaking neemt natuurlijk toe naarmate de die groter wordt.
Het probleem had wel degelijk met TSMC te maken, want zij konden de targets niet halen die eerder aan nVidia waren doorgegeven. Daarom viel de 480 slechter uit dan gepland. Het risico van zo'n grote die bleek groter dan wat nVidia had ingeschat.
Zoals al gezegd, de 460 kwam niet veel later, kleienere die, hier en daar wat tweaks, en de problemen waren opgelost. Geen structurele problemen in de architectuur dus.
Werelds schreef op vrijdag 21 november 2014 @ 00:17:
En dat alles voor +10% performance in de gunstige gevallen? Ik weet niet waar jij hier een win in ziet.
Nogmaals, het woord 'win' heb ik nergens gebruikt.
Ik heb slechts gezegd dat nVidia de snelste kaart had, en er zijn genoeg mensen die alleen naar de performance kijken, niet het stroomverbruik.
Daardoor waren de 465, 470 en 480 wel degelijk competitief, al waren ze niet direct vergelijkbaar met de kaarten van AMD.
En nogmaals, de 460 en 580 lieten ook niet heel lang op zich wachten. Maart 2010 voor de 480, juli 2010 voor de 460 en november 2010 voor de 580.
Werelds schreef op vrijdag 21 november 2014 @ 00:17:
Dit is je reinste onzin. Ten eerste is het onmogelijk dat zoiets aan "de architectuur" ligt, de architectuur heeft geen ruk met het procedé te maken. Je probeert het daar verkeerd te verdedigen.
Zeker wel, en ik kan het je ook best uitleggen.
Een architectuur ontwerp je op basis van een bepaald inschatting van hoeveel transistors je op een die kwijt kunt, en wat voor kloksnelheden je kunt halen.
De propagatietijd van een transistor ligt min of meer vast. Dat betekent dus dat als je voor hogere kloksnelheden wil gaan, dat je meer pipelinestages moet gaan toevoegen, omdat de totale propagatietijd per pipelinestage omlaag gaat, en je het werk dus over meer stages moet gaan verdelen.
Dit leidt dus tot meer transistors op de die voor hetzelfde aantal ALUs.

De Pentium 4 is een schoolvoorbeeld van een CPU die niet goed afgestemd is op het procede.
De CPU is ontworpen met hele lange, complexe pipelines, waarmee hij in theorie tot ver over de 5 GHz geklokt zou kunnen worden.
Het bleek echter in de praktijk niet mogelijk om met het procede een dergelijk grote CPU op snelheden van meer dan 4 GHz te krijgen, omdat er dan teveel leaking optreedt.

Lag dit aan het procede? Nee, want, zo weten wij, de laaste Pentium 4/D werd gebouwd op hetzelfde 65 nm procede als de eerste Core2 Duo/Quad. Omdat deze architectuur ontworpen was met veel kortere, simpelere pipelines, en zich dus richtte op lagere kloksnelheden en meer IPC, was deze architectuur beter in balans met het procede. De dies waren een stuk kleiner, en hadden veel minder last van leaking. En howel de kloksnelheid rond de 3 GHz bleef hangen ipv tegen de 4 GHz, zoals bij de Pentium 4/D, waren deze CPUs toch sneller.

TL;DR: er is wel degelijk een sterk verband tussen architectuur en procede.
Werelds schreef op vrijdag 21 november 2014 @ 00:17:
Ja, en? Als we zo gaan beginnen kunnen we verder terug kijken en zien we dat in de afgelopen 40 jaar alle GPU fabrikanten elkaars ideeën zijn gaan emuleren.
Nou nee. VLIW vs SIMD is toch wel een heel fundamenteel punt qua ontwerp van een GPU.
Als jij wil gaan beweren dat de 480 een totaal inefficiente architectuur hebt, dan heb je dus het probleem dat de 480 SIMD gebruikte, en dat alle moderne GPUs nog steeds SIMD gebruiken, in een architectuur die zeer sterk lijkt op die van de 480.
Werelds schreef op vrijdag 21 november 2014 @ 00:17:
Het programmeerwerk wordt echter niet efficiënter
Niet als je het over high-level languages hebt. Maar voor compilers is het veel makkelijker om efficiente SIMD-code te schrijven, en ook met de hand is het makkelijker te doen.
Werelds schreef op vrijdag 21 november 2014 @ 00:17:
VLIW4 en VLIW5 zijn nog steeds veel sneller voor veel taken. Kijk maar naar coin mining, daar had Nvidia toen niets in te brengen omdat de software efficiënt gebruik maakte van VLIW ;)
Ligt eraan hoe je het bekijkt. De snelheid van VLIW komt voort uit het feit dat de ALUs ervoor simpeler zijn, en je er dus meer op een die kunt krijgen, en misschien ook nog wat hoger klokken. Dus ja, best case zal een VLIW-architectuur sneller zijn.
Maar niemand gebruikt nog VLIW in hun GPUs omdat de efficientie in de praktijk vaak te laag ligt, en je dus beter SIMD kunt gebruiken. nVidia deed dit al jaren (ook de 8800 is SIMD).

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op vrijdag 21 november 2014 @ 09:15:
AMD had hier geen last van omdat ze veel kleinere GPUs bakten.
Nee, het probleem is dat AMD door had dat ze dubbele VIA's moesten gebruiken en nVidia niet. De rest is gewoon gedraai en gespin om het falen met Fermi recht te breien.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op vrijdag 21 november 2014 @ 09:28:
[...]
Nee, het probleem is dat AMD door had dat ze dubbele VIA's moesten gebruiken en nVidia niet.
Oh god, krijgen we deze mythe weer.
Dubbele VIA's waren echt geen nieuwe technologie ten tijde van TSMC's 40 nm proces hoor. Die werden al jarenlang gebruikt. Sterker nog, ook triple VIA's werden al veelvuldig toegepast.
nVidia was uiteraard prima op de hoogte van multiple VIA's en waar ze deze al dan niet zouden moeten gebruiken.
Zoals ik al eerder aangehaald heb, in dit document uit 2003, over TSMC's 130 nm proces, worden double VIA's al genoemd op pagina 4: https://web.archive.org/w...rature/September_2003.pdf

Het probleem was een gebrek in het procede van TSMC, waardoor de VIA's vaker dan normaal faalden (en meer dan dat TSMC oorspronkelijk aan nVidia had gecommuniceerd).
Dit risico is natuurlijk een stuk groter naarmate de die groter is, maar dat punt had ik al eerder aangehaald.
En zoals ook al gezegd, in de 460 en 580 hadden nVidia en TSMC de problemen alweer onder controle.
dahakon schreef op vrijdag 21 november 2014 @ 09:28:
De rest is gewoon gedraai en gespin om het falen met Fermi recht te breien.
Ik wil niet heel vervelend zijn, maar de 460 en 580 zijn OOK Fermi, en die waren zeker niet gefaald.
En degene die aan het draaien en spinnen is, ben jij, met dat VIA-verhaal. Zie ook het document uit 2003 hierboven.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op vrijdag 21 november 2014 @ 09:15:
Nogmaals, het woord 'win' heb ik nergens gebruikt.
Ik heb slechts gezegd dat nVidia de snelste kaart had, en er zijn genoeg mensen die alleen naar de performance kijken, niet het stroomverbruik.
Daardoor waren de 465, 470 en 480 wel degelijk competitief, al waren ze niet direct vergelijkbaar met de kaarten van AMD.
En nogmaals, de 460 en 580 lieten ook niet heel lang op zich wachten. Maart 2010 voor de 480, juli 2010 voor de 460 en november 2010 voor de 580.
Ach kom op zeg. Als je het zo wil gaan spelen heeft Nvidia 2008/2009 ook niet gewonnen, immers had AMD toen R600. Ja tuurlijk niet zo snel, maar wel een stuk goedkoper dus weldegelijk competitief. Al waren ze niet direct vergelijkbaar met de kaarten van Nvidia.

|:( |:(
Zeker wel, en ik kan het je ook best uitleggen.
Een architectuur ontwerp je op basis van een bepaald inschatting van hoeveel transistors je op een die kwijt kunt, en wat voor kloksnelheden je kunt halen.
Jij doelt hier op het floor plan, niet op de architectuur. Een architectuur is op geen enkele wijze gebonden aan een procedé of transistor dichtheid. Deels wel aan kloksnelheid, maar in de meeste ontwerpen is het niet zo zeer op een specifieke snelheid gericht, als wel op de efficiëntie per tik (waardoor er dus met hogere kloksnelheden meer rendement is).
TL;DR: er is wel degelijk een sterk verband tussen architectuur en procede.
Alleen jammer dat je hierbij even vergeet dat het ontwerp van die architectuur zelden op een toekomstig procedé is gericht. Fermi was al in ontwikkeling toen we nog op 65nm (wellicht zelfs 90nm) zaten. Dat is precies waarom men een tick-tock schema aan probeert te houden. En dat is waar Nvidia, niet TSMC, de fout in ging. Ze wilden meteen een ronduit achterlijk grote chip met een nieuwe architectuur op een splinternieuw procedé uitbrengen. In het geval van Intel lag het ook niet aan problemen met het procedé, maar aan onvoorziene problemen met de natuurkunde. Die problemen waren bij 40nm (en 28, en 20) nog steeds aanwezig en bekend. Daarom hebben Intel, AMD en Nvidia al die jaren zo veel mogelijk tick-tock aan proberen te houden. Vandaar ook dat ik "zelden" zeg, want het is alleen Nvidia die dit nu recent twee keer hebben geprobeerd en beide keren ging het niet lekker (GK100 hebben we nooit gezien, meteen naar GK104..1+1=10).

Daarnaast negeer je nog steeds de materialen. Je zegt het zelf ook; GF110 is niet veel veranderd en toch kwam die beter uit de bus. TSMC heeft niets veranderd aan dat procedé in de tussentijd hoor. Ze hebben nieuwe apparatuur geplaatst om hun yields nog wat te verbeteren, maar het procedé in z'n geheel was nog steeds hetzelfde. Zulke wijzigingen hebben niet zo'n drastische gevolgen als we van GF100 naar GF110 hebben gezien.

Nogmaals, als het aan TSMC had gelegen had iedereen geklaagd. De enige die we hebben horen klagen is Nvidia. Altera had ook geen problemen.
Nou nee. VLIW vs SIMD is toch wel een heel fundamenteel punt qua ontwerp van een GPU.
Als jij wil gaan beweren dat de 480 een totaal inefficiente architectuur hebt, dan heb je dus het probleem dat de 480 SIMD gebruikte, en dat alle moderne GPUs nog steeds SIMD gebruiken, in een architectuur die zeer sterk lijkt op die van de 480.
Heh? Waar beweer ik in god's naam dat Fermi een inefficiënte architectuur zou hebben?

Ik zeg alleen dat een SS-SIMD architectuur niet per definitie efficiënter is, hij is alleen eenvoudiger te gebruiken in het geval van games. In complexere berekeningen komt VLIW in verhouding een stuk beter uit de bus. Afhankelijk van het soort, is bij coin mining een 5870 nog steeds een bijzonder effectieve chip. In Bitcoin mining ligt hij zelfs nog steeds ruim voor op GK110. Bij Litecoins is het stuivertje wisselen (pun intended :P). Leuk detail is overigens dat AMD het daar nog steeds stukken beter doet dan Nvidia.
Niet als je het over high-level languages hebt. Maar voor compilers is het veel makkelijker om efficiente SIMD-code te schrijven, en ook met de hand is het makkelijker te doen.
Nogmaals, jij hebt het over makkelijker. Code die is geschreven op een dusdanige wijze dat alle 4 of 5 de ALU's in VLIW aangesproken worden is lastiger te schrijven (of voor een compiler te optimaliseren dat dat gebeurt inderdaad), maar uiteindelijk zal die code efficiënter z'n werk doen. Dit kan echter niet bij alle toepassingen en met name in games is dit tegenwoordig niet meer aan de orde.
Ligt eraan hoe je het bekijkt. De snelheid van VLIW komt voort uit het feit dat de ALUs ervoor simpeler zijn, en je er dus meer op een die kunt krijgen, en misschien ook nog wat hoger klokken.
En dan zeg je dat anderen er te simpel naar kijken? :')

Zelfs bij gelijke aantallen hangt het maar precies van de workload af wat beter werkt. Het grote voordeel van een VLIW architectuur is dat je 4 of 5 componenten tegelijk kunt verwerken. Dat is ook waar VLIW vandaan kwam, zo kon AMD een vector+lighting in een enkele tik verwerken met R300. Dat is waarom ze toen zo veel sneller waren dan Nvidia, want dat was de meest voorkomende grafische bewerking. Tegenwoordig ligt dat anders en zien we veel meer kleine sequentiële instructies. Daardoor is voor games een SIMD basis makkelijker.

Dit was echter het punt niet, jij impliceert dat Nvidia een of ander magisch ontwerp met hun SIMD ontwerp heeft bedacht dat AMD heeft nagemaakt. Dat is gewoon evolutie. En als we dan toch bezig zijn, kan ik net zo goed zeggen dat AMD Nvidia's ontwerp heeft genomen en verbeterd heeft, gezien hoe AMD het op GPGPU vlak doet. En ze hebben duidelijk een magisch truukje, want als het op minen aankomt zijn ze nog steeds sneller met "dezelfde" SIMD opzet.
Verwijderd schreef op vrijdag 21 november 2014 @ 09:38:
Het probleem was een gebrek in het procede van TSMC, waardoor de VIA's vaker dan normaal faalden (en meer dan dat TSMC oorspronkelijk aan nVidia had gecommuniceerd).
Nope. TSMC heeft vanaf 40nm een nieuw DFM vrijgegeven (doet inmiddels elke fab) waarin die dubbele via's waren aangegeven als een minimum voor degelijke yields. In 2003 was het slechts een van vele opties om yields te verbeteren. Nogmaals, het was Nvidia's keuze om dat te negeren. TSMC levert de dienst, niet het product. TSMC's DFM wijst nog steeds op die dubbele via's.

[ Voor 3% gewijzigd door Werelds op 21-11-2014 11:16 ]


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
-The_Mask- schreef op donderdag 20 november 2014 @ 21:56:
Elke generatie zal er één van de twee beter zijn als de andere, nVidia heeft er ook genoeg verloren dat is nog geen reden tot een faillissement, dat is juist mooi dat twee bedrijven zo dicht bij elkaar liggen.


[...]

Begin volgend jaar staat de volgende generatie op de planning.
Is dat de de nieuwe generatie a la r9 285 (tonga of zoiets)? Want dan is het ook niet de moeite voor wat betreft performance per watt.
Maxwell is de ABSOLUTE WIN!, betaalbaar, niet te kloppen performance per watt en ook nog goede absolute performance.

[ Voor 20% gewijzigd door eL_Jay op 21-11-2014 11:58 ]


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Mwah, ik vind het erg jammer dat de prestaties vrij snel inkakken na fullHD, juist nu de hoge resoluties een beetje komen vind ik dat echt teleurstellend van Nvidia. En prijs/prestatie is nogsteeds wat beter bij AMD in de highend sector. Een R9 290 is een stuk goedkoper, en niet heel veel trager op fullHD.

Maar vergeet niet dat die sector helemaal niet zo groot is, de meeste mensen zullen hooguit 150 euro neerleggen voor een videokaartje om mee te gamen, en Nvidia heeft momenteel daar nog weinig te zeggen. De R9 270 is voor zijn prijs lekker snel. De GTX750ti is alleen echt intressant als je een OEM-bakje wilt upgraden.

Sterker nog, de R9 280 en de 280x hebben eigenlijk ook niet echt concurrentie van Nvidia. De GTX760 en GTX770 zijn allebei duurder dan hun rode concurrenten, hebben bijna dezelfde prestaties op fullHD, maar missen de de extra GB VRAM, en dat merk je weer op hogere resoluties. Of Maxwell daar verandering in gaat brengen, ik weet het eerlijk gezegd niet. Zeker de R9 280 is gewoon erg goedkoop.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
eL_Jay schreef op vrijdag 21 november 2014 @ 11:54:
Maxwell is de ABSOLUTE WIN!, betaalbaar, niet te kloppen performance per watt en ook nog goede absolute performance.
Nogal logisch zonder een nieuwe serie van AMD.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op vrijdag 21 november 2014 @ 10:56:
[...]
Ach kom op zeg. Als je het zo wil gaan spelen heeft Nvidia 2008/2009 ook niet gewonnen, immers had AMD toen R600. Ja tuurlijk niet zo snel, maar wel een stuk goedkoper dus weldegelijk competitief.
'Competitief' in de financiele context bedoelde ik (het ging immers om of bedrijven al dan niet ten onder gaan aan een 'falende generatie').
Aangezien de R600 de generatie is waar ATi failliet ging en overgenomen door AMD, is deze dus zeker NIET competitief.
nVidia was wel competitief, want ze hebben in de Fermi-tijd prima bedrijfsresultaten gedraaid, netjes winstgevend.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
Een architectuur is op geen enkele wijze gebonden aan een procedé of transistor dichtheid.
Natuurlijk wel. In 1978 kwam Intel met de 8086, en niet met de Core i7, omdat de 8086 wel binnen de technische mogelijkheden van het procede lag, en een Core i7 niet. 29000 transistors op een chip, dat lukte wel, met 4.77 MHz.
Een paar miljard transistors, op om en nabij de 4 GHz? Nee, dat gaat niet lukken.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
Deels wel aan kloksnelheid, maar in de meeste ontwerpen is het niet zo zeer op een specifieke snelheid gericht, als wel op de efficiëntie per tik (waardoor er dus met hogere kloksnelheden meer rendement is).
Dit hangt heel nauw samen, zoals al uitgelegd. Propagatietijd ligt min of meer vast, dus als je puur op efficientie per tik richt, heb je relatief weinig pipeline stages, en dus hoge propagatietijd per stage, en dus lage kloksnelheid.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
TSMC heeft niets veranderd aan dat procedé in de tussentijd hoor. Ze hebben nieuwe apparatuur geplaatst om hun yields nog wat te verbeteren, maar het procedé in z'n geheel was nog steeds hetzelfde.
Je spreekt jezelf hier tegen.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
Zulke wijzigingen hebben niet zo'n drastische gevolgen als we van GF100 naar GF110 hebben gezien.
Jawel, want het gaat exponentieel met dat soort dingen.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
Nogmaals, als het aan TSMC had gelegen had iedereen geklaagd. De enige die we hebben horen klagen is Nvidia.
Zoals je zelf aangeeft, nVidia was de enige die chips van een dergelijke grootte bouwde. Risico nam exponentieel toe.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
Ik zeg alleen dat een SS-SIMD architectuur niet per definitie efficiënter is, hij is alleen eenvoudiger te gebruiken in het geval van games. In complexere berekeningen komt VLIW in verhouding een stuk beter uit de bus.
Precies andersom.
Games (graphics) zijn extreem parallel, en het is niet heel lastig om in een rasterizer efficient gebruik te maken van VLIW. Bijna alles gaat met 3d of 4d vectors (ARGB data, XYZ posities, normals etc). Zeker met VLIW4 is dat dus vrij efficient.
Het probleem zit hem juist in alle wat meer complexe berekeningen, waar je ook met 1d, 2d data etc te maken hebt.
Omdat games tegenwoordig ook meer naar complexe berekeningen toe gaan (niet alleen 3d graphics, ook physics, AI, video encoding/decoding/postprocessing etc), is VLIW dus minder interessant aan het worden.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
Afhankelijk van het soort, is bij coin mining een 5870 nog steeds een bijzonder effectieve chip. In Bitcoin mining ligt hij zelfs nog steeds ruim voor op GK110. Bij Litecoins is het stuivertje wisselen (pun intended :P). Leuk detail is overigens dat AMD het daar nog steeds stukken beter doet dan Nvidia.
Coin mining is juist helemaal geen complexe berekening (aleen maar wat integer hashing).
Bovendien haalt AMD de winst vooral uit het feit dat ze een shifter/rotator in hardware hebben, die nVidia nog niet heeft, en het feit dat AMD meer geoptimaliseerd heeft voor integer-berekeningen, waar nVidia vooral voor float performance is gegaan.
Daar maakt coin mining dankbaar gebruik van (zie hier: http://www.extremetech.co...oys-nvidia-bitcoin-mining)
Is dus een special case, zegt weinig over het algemene geval, en al helemaal niets over VLIW.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
Nogmaals, jij hebt het over makkelijker. Code die is geschreven op een dusdanige wijze dat alle 4 of 5 de ALU's in VLIW aangesproken worden is lastiger te schrijven (of voor een compiler te optimaliseren dat dat gebeurt inderdaad), maar uiteindelijk zal die code efficiënter z'n werk doen.
Jij draait het hier om: Je schrijft code niet om 4 of 5 ALUs in een VLIW aan te spreken.
Je schrijft code om een bepaald probleem te berekenen. Het probleem is dus leidend, en je moet proberen dat probleem op je hardware te mappen.
Veel problemen mappen gewoon niet efficient op een VLIW4/5-architectuur. SIMD heeft dit probleem niet.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
Dit was echter het punt niet, jij impliceert dat Nvidia een of ander magisch ontwerp met hun SIMD ontwerp heeft bedacht dat AMD heeft nagemaakt.
Dat is ook het geval (nou ja, 'magisch'...). De 8800 was de eerste 'moderne' GPU, in de zin dat ie niet specifiek voor graphics ontworpen was, maar ook voor GPGPU. nVidia deed dit dmv een SIMD-aanpak, wetende dat dit puur voor graphics iets minder efficient is, maar voor GPGPU-problemen juist veel voordelen biedt.
Alle huidige GPUs zijn dus op deze SIMD/GPGPU-filosofie gebaseerd.
Dat kun je 'evolutie' noemen, maar dat neemt niet weg dat nVidia hier als eerste mee kwam, en dat AMD pas vele jaren later dit idee overnam.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
En als we dan toch bezig zijn, kan ik net zo goed zeggen dat AMD Nvidia's ontwerp heeft genomen en verbeterd heeft
Blijkbaar vind jij het erg belangrijk om dat te benoemen. Ga je gang.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
gezien hoe AMD het op GPGPU vlak doet. En ze hebben duidelijk een magisch truukje, want als het op minen aankomt zijn ze nog steeds sneller met "dezelfde" SIMD opzet.
Zoals gezegd, dat komt door shift/rotate, heeft niets met SIMD/VLIW an sich te maken, en echt 'magisch' kan ik het ook niet noemen (CPUs uit de jaren 70 hadden het ook al). Gewoon een instructie die toevallig voor 1 specifiek probleem wat winst kan boeken. nVidia vond blijkbaar dat het (nog?) niet nodig was om een dergelijke instructie in hardware te implementeren, en dus zijn ze minder efficient in coin mining.
Werelds schreef op vrijdag 21 november 2014 @ 10:56:
Nope. TSMC heeft vanaf 40nm een nieuw DFM vrijgegeven (doet inmiddels elke fab) waarin die dubbele via's waren aangegeven als een minimum voor degelijke yields.
Het probleem is dan ook niet dat nVidia die double VIA's niet gebruikte. Ze gebruikten ze wel degelijk. Het punt was dat bij de productie de dubbele VIA's vrij vaak mislukten, waarbij maar 1 van de twee punten contact had (effectief single VIA dus), of helemaal niet.
Dit probleem is opgelost, enerzijds doordat TSMC z'n VIA's betrouwbaarder maakte, en anderzijds doordat nVidia op bepaalde probleempunten dan nog maar vettere VIA's gebruikte voor de zekerheid.

Nogmaals, VIA's waren niet nieuw. Hier een document van nVidia over Tesla: http://www.cse.psu.edu/~x...s/IEDM2009/DATA/01-01.PDF
Daar zeggen ze al: "To
design for manufacturing, we use double or multiple vias for
each connecting node up to the limits allowed by die size. In
Fig.7, roughly 75% of all vias in a chip have redundancy to
improve yield. The remaining 25% single vias (a few
hundred millions) are at risk and are mainly responsible for
yield loss."

En dan wil jij beweren dat ze met de opvolger van Tesla, namelijk Fermi, ineens niets meer weten over double VIA's, multiple VIA's, redundancy, de risico's, yields etc?
Echt, get a clue.

Acties:
  • 0 Henk 'm!
eL_Jay schreef op vrijdag 21 november 2014 @ 11:54:
[...]

Is dat de de nieuwe generatie a la r9 285 (tonga of zoiets)? Want dan is het ook niet de moeite voor wat betreft performance per watt.
Nee Tonga is nog steeds gewoon GCN met een paar tweaks, soms GCN 1.2 genoemd. Overigens is de volledige Tonga nog niet gelanceerd en heb je ook alleen nog maar aangepaste versies van fabrikanten gezien die meestal ook een mindere performance per watt hebben, dus wat Tonga echt in huis heeft weten we nog niet echt.

Pirate Islands is de nieuwe en volgende generatie welke wel met grote veranderingen komt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op vrijdag 21 november 2014 @ 12:44:
'Competitief' in de financiele context bedoelde ik (het ging immers om of bedrijven al dan niet ten onder gaan aan een 'falende generatie').
Aangezien de R600 de generatie is waar ATi failliet ging en overgenomen door AMD, is deze dus zeker NIET competitief.
nVidia was wel competitief, want ze hebben in de Fermi-tijd prima bedrijfsresultaten gedraaid, netjes winstgevend.
AMD heeft ATI overgenomen in juli 2006, na een lange periode van onderhandelingen om een GPU-bakker over te nemen. De HD2900XT kwam bijna een jaar later uit. Ofwel, ATI is niet gekocht omdat het failliet is gegaan...
En dan wil jij beweren dat ze met de opvolger van Tesla, namelijk Fermi, ineens niets meer weten over double VIA's, multiple VIA's, redundancy, de risico's, yields etc?
Echt, get a clue.
40nm had gewoon double VIA's nodig om goed te werken. AMD heeft hier gehoor aan gegeven met zijn HD5K lijn, nVidia niet met zijn hoofdchip, de GF100. Dat men al eerder wist over het mogenlijk zijn van het gebruiken van multiple VIA's, betekent niet dat het ook gedaan werd. nVidia heeft zichzelf gebrand aan die 'koppigheid'.

Get a clue? niet zo'n vriendelijk statement...

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op vrijdag 21 november 2014 @ 13:09:
[...]
AMD heeft ATI overgenomen in juli 2006, na een lange periode van onderhandelingen om een GPU-bakker over te nemen. De HD2900XT kwam bijna een jaar later uit. Ofwel, ATI is niet gekocht omdat het failliet is gegaan...
De reden dat ATi uberhaupt over te nemen viel, was omdat het niet zo goed met ze ging, en de 2900 ook de nodige vertraging opliep. ATi kon dit niet op eigen kracht meer overbruggen, dus moesten zichzelf over laten nemen.
dahakon schreef op vrijdag 21 november 2014 @ 13:09:
40nm had gewoon double VIA's nodig om goed te werken. AMD heeft hier gehoor aan gegeven met zijn HD5K lijn, nVidia niet met zijn hoofdchip, de GF100. Dat men al eerder wist over het mogenlijk zijn van het gebruiken van multiple VIA's, betekent niet dat het ook gedaan werd. nVidia heeft zichzelf gebrand aan die 'koppigheid'.
nVidia gebruikte ook double/multiple VIAs, dat is vanzelfsprekend, anders werkt zo'n ontwerp niet. Omdat jij dat niet lijkt te begrijpen, get a clue dus.

Daarnaast heeft nVidia ook 40 nm GPUs gebouwd voor Fermi. Alleen zijn dit low-end/OEM/mobile parts geweest, waar de tweaker weinig mee had (de eersten waren de GT2x0M in juni 2009, zelfde periode als AMD's eerste 40 nm GPUs dus). Leuk detail: deze GPUs ondersteunden wel DX10.1: http://www.anandtech.com/show/2855
Dus dat is net zo'n fabeltje als dat double VIA-geleuter.

[ Voor 13% gewijzigd door Verwijderd op 21-11-2014 14:24 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op vrijdag 21 november 2014 @ 12:44:
'Competitief' in de financiele context bedoelde ik (het ging immers om of bedrijven al dan niet ten onder gaan aan een 'falende generatie').
Aangezien de R600 de generatie is waar ATi failliet ging en overgenomen door AMD, is deze dus zeker NIET competitief.
nVidia was wel competitief, want ze hebben in de Fermi-tijd prima bedrijfsresultaten gedraaid, netjes winstgevend.
Dat heb ik al eerder uitgelegd in de andere draad, de consumenten GPU tak draaide in die jaren slechter dan de jaren ervoor. Nvidia haalde hun winst toen uit HPC en vooral ook Tegra. HPC zal voor Nvidia altijd winstgevend blijven, ook met slechte yields, vanwege de marges in die branche.
Natuurlijk wel. In 1978 kwam Intel met de 8086, en niet met de Core i7, omdat de 8086 wel binnen de technische mogelijkheden van het procede lag, en een Core i7 niet. 29000 transistors op een chip, dat lukte wel, met 4.77 MHz.
Een paar miljard transistors, op om en nabij de 4 GHz? Nee, dat gaat niet lukken.
Jij verwart hier nog steeds de architectuur met de daadwerkelijke implementatie. Fermi, Kepler of Maxwell als architectuur is niet gebonden aan een procedé of een specifiek aantal transistors. De architectuur heeft betrekking op hoe de onderdelen in elkaar steken en met elkaar werken, niet op hoe groot elk onderdeel is. GF100, GF104 en GF107 zijn allemaal dezelfde architectuur en toch zijn de verhoudingen bij alle 3 heel anders. Dat laatste is waar het procedé van belang is.

Intel kwam in 1978 niet met de i7 omdat men simpelweg nog niet de ideeën had die men nu heeft. De Core architectuur is niet ontworpen met X transistors in gedachten. De Core architectuur is ontworpen met een L1, L2 en L3 cache, met meerdere cores in een enkel pakket, enzovoort. Hoe groot elk van die ging worden wisten ze nog niet, want ze wisten niet waar hun procedé's naar toe gingen. En nee, dat was in 1978 inderdaad niet mogelijk, maar dat is niet de reden dat 8086 dat niet had. Men dacht gewoon nog niet aan drie cache niveaus.
Je spreekt jezelf hier tegen.
Oh? Een autofabrikant vervangt ook vaak genoeg de ene robot door de andere in hun fabriekshal, waardoor er minder productie fouten zijn. Het hele proces van begin tot eind is dan echter niet veranderd. En zo'n verandering fixt ook een probleem met slecht metaal niet.
Zoals je zelf aangeeft, nVidia was de enige die chips van een dergelijke grootte bouwde. Risico nam exponentieel toe.
Helemaal niet. Altera's Stratix zat toen ook over de 500mm^2. En in tegenstelling tot Nvidia kunnen zij zich echt geen slechte yields permitteren; ze zijn behoorlijk groot, maar qua productie een dwerg vergeleken met Nvidia.
Precies andersom.
Games (graphics) zijn extreem parallel, en het is niet heel lastig om in een rasterizer efficient gebruik te maken van VLIW. Bijna alles gaat met 3d of 4d vectors (ARGB data, XYZ posities, normals etc). Zeker met VLIW4 is dat dus vrij efficient.
Het probleem zit hem juist in alle wat meer complexe berekeningen, waar je ook met 1d, 2d data etc te maken hebt.
Omdat games tegenwoordig ook meer naar complexe berekeningen toe gaan (niet alleen 3d graphics, ook physics, AI, video encoding/decoding/postprocessing etc), is VLIW dus minder interessant aan het worden.
Ten eerste, AI op de GPU? Grapjurk, dat is helemaal niet aan de orde. Ook physics niet veel, alleen met GPU PhysX en dan nog is dat beperkt.

Ten tweede zijn juist 1d/2d data berekeningen niet complex. De superscalar architecturen van nu zijn intelligent genoeg om een 4D/5D load goed te verdelen op een wavefront. Het zijn die kleine zeik berekeningen die heel eenvoudig zijn, maar waar je niets aan VLIW hebt omdat er dan 2-3 van de 4-5 shaders niets te doen hebben. Dat die kleine zeik berekeningen onderdeel zijn van een grotere, complexere berekening doet er niets aan af dat die berekening op zich een stuk eenvoudiger is - dat is namelijk bij de 5D berekeningen ook het geval. A*B is een stuk eenvoudiger dan R*G*B*A*V vanuit het oogpunt van een verzameling SP's. Of om de grotere berekeningen te nemen, ((A*B) + (C*D) - (E*F) - (G*H)) tegenover ((R1*G1*B1*A1*V1) + (R2*G2*B2*A2*V2)). Die laatste is veel complexer voor een processor. Die eerste kan parallel, die tweede maar half. En parallelliteit != complexiteit.
Dat kun je 'evolutie' noemen, maar dat neemt niet weg dat nVidia hier als eerste mee kwam, en dat AMD pas vele jaren later dit idee overnam.
AMD nam het later over omdat de GPU load nog niet veranderd was. GT200 heeft ATI toch echt geen pijn gedaan hoor.

Maar als we dan toch aan het kijken zijn, moet je misschien eens MMX, 3DNow en SSE opzoeken. Stuk voor stuk SIMD implementaties, vooral gericht op het versnellen van graphics (vandaar dat sommige games MMX vereisten). Intel had dat zelfs eind jaren 80 al met de i750. Maar het renderwerk had dit nog niet echt nodig, daarom kwam dat pas meer dan 15 jaar later grootschalig op de markt als een GPU.

Nvidia was slim door heel vroeg op die veranderingen voorbereid te zijn, maar VLIW heeft AMD absoluut geen pijn gedaan.
Zoals gezegd, dat komt door shift/rotate, heeft niets met SIMD/VLIW an sich te maken, en echt 'magisch' kan ik het ook niet noemen (CPUs uit de jaren 70 hadden het ook al). Gewoon een instructie die toevallig voor 1 specifiek probleem wat winst kan boeken. nVidia vond blijkbaar dat het (nog?) niet nodig was om een dergelijke instructie in hardware te implementeren, en dus zijn ze minder efficient in coin mining.
Dingdingding, u gaat door voor de koelkast!

Snap je hem nu al? Dit "na apen" is normaal en AMD vond het ook niet nodig om een superscalar SIMD architectuur neer te zetten in 2006.
En dan wil jij beweren dat ze met de opvolger van Tesla, namelijk Fermi, ineens niets meer weten over double VIA's, multiple VIA's, redundancy, de risico's, yields etc?
Echt, get a clue.
Vergeten? Nee. Maar dat ze enkele via's wilden wel (kosten besparen), aangezien ze TSMC toentertijd zelfs hebben proberen te dwingen om een 0% failure rate te garanderen door ze publiekelijk door het slijk te halen.

Begrijp me niet verkeerd, TSMC heeft zeker problemen ondervonden met 40nm en 28nm - dat is allemaal openbaar geworden door Charlie en Anand. Maar in beide gevallen waren de problemen al jaren bekend en is het ook vooral een kwestie de natuur die ons mensen dwars zit, daar kan TSMC ook niet veel aan doen. Dat hebben ze gewoon allemaal in hun DFM documenten gezet en AMD heeft hun zooi toen getest met een chip die in elk geval qua layout sterk op de grotere chip leek. Daarnaast was die toch nog ~40% zo groot als die grotere chip en was de chip bedoeld voor massa productie dus de yields moesten in orde zijn. Ze hebben onder andere besloten andere metalen te gebruiken en dubbele via's in te zetten (wat voor AMD wel nieuw was). Eind resultaat was dat de ze een retail product op de markt hadden dat werkte, met daarin de nodige wijzigingen om op 40nm alles goed te laten verlopen.

En wat doet Nvidia? Knalt er een stel kleine OEM chipjes met een compleet andere layout doorheen (waarvan 2 minder dan 100mm^2), krijgt bar slechte yields en doet er niets mee. Die dingen waren dan ook niet leverbaar (218, 216 en 215 ofwel de G210, GT220 en GT240). En dat wilden ze dan even de maand voor GF100 doen. Even voor de goede orde, RV740 is 9 maanden vóór Cypress de oven in gegaan, Nvidia's baksels met pijn en moeite 4 maanden. Waarschijnlijk zelfs nog minder, gezien de release dates.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op vrijdag 21 november 2014 @ 16:24:
[...]
Nvidia haalde hun winst toen uit HPC en vooral ook Tegra. HPC zal voor Nvidia altijd winstgevend blijven, ook met slechte yields, vanwege de marges in die branche.
Dus je bent het met me eens dat financieel de GF100-generatie een succes was (want ook de HPC-producten waren daarop gebaseerd).
Werelds schreef op vrijdag 21 november 2014 @ 16:24:
Jij verwart hier nog steeds de architectuur met de daadwerkelijke implementatie.
Ik verwar niks. Ik probeer jou iets dieper te laten nadenken over wat een architectuur precies is, en waarom je niet lukraak een architectuur kunt ontwerpen zonder daarbij het manufacturing process in ogenschouw te nemen.
Ik denk dat jouw probleem zit in het feit dat jij 'architectuur' interpreteert als 'instruction set architecture', en daar hebben we het hier natuurlijk NIET over. We hebben het over architectuur in de zin van 'micro-architecture', wat wel degelijk (deels) een implementatie is (want je kunt een architectuur vaak opschalen naar verschillende configuraties qua cores, caches, geheugencontrollers etc): http://en.wikipedia.org/wiki/Microarchitecture
Since microarchitecture design decisions directly affect what goes into a system, attention must be paid to such issues as:

Chip area/cost
Power consumption
Logic complexity
Ease of connectivity
Manufacturability
Ease of debugging
Testability
Werelds schreef op vrijdag 21 november 2014 @ 16:24:
De architectuur heeft betrekking op hoe de onderdelen in elkaar steken en met elkaar werken, niet op hoe groot elk onderdeel is.
Jawel. De architectuur bepaalt ook HOEVEEL onderdelen er zijn, en ook WAT die onderdelen moeten doen.
Wat ons weer terugbrengt bij het verhaal van de keuze voor het aantal pipeline stages en dergelijke.
Werelds schreef op vrijdag 21 november 2014 @ 16:24:
Intel kwam in 1978 niet met de i7 omdat men simpelweg nog niet de ideeën had die men nu heeft.
Ten eerste bestonden een hoop van die ideeen wel (caching was al lang uitgevonden, en ook bv multiprocessing werd in supercomputers al lang gedaan).
Ten tweede zijn die ideeen vaak erg complex.
Een Core i7 heeft out-of-order execution, waardoor hij een losse decoder heeft, en losse execution ports, met daartussen een scheduler en een reorder station etc.
Dit is dus een architectuur met veel meer componenten dan een 8086, en zelfs met de beste wil van de wereld kun je zo'n complexe architectuur niet strippen tot een niveau dat geimplementeerd zou kunnen worden met manufacturing technologie uit 1978.
Zo zijn er wel meer dingen aan te wijzen die niet konden totdat manufacturing ver genoeg gevorderd was.
Bv het integreren van de x87 in de CPU zelf (486)... of de overstap naar superscalar (Pentium), of de overstap naar out-of-order-execution (Pentium Pro).
Bij dergelijke architecturen zit je gewoon aan meer complexiteit, en dus heb je een bepaald minimum aantal transistors nodig om het te kunnen implementeren.
Ze hadden best in 1978 al meteen kunnen verzinnen dat de 8086 en 8087 in 1 chip geintegreerd zouden worden. Maar het was technisch/financieel niet haalbaar om zoiets te bouwen, dus dan ontwerp je het niet zo.
Werelds schreef op vrijdag 21 november 2014 @ 16:24:
Oh? Een autofabrikant vervangt ook vaak genoeg de ene robot door de andere in hun fabriekshal, waardoor er minder productie fouten zijn. Het hele proces van begin tot eind is dan echter niet veranderd. En zo'n verandering fixt ook een probleem met slecht metaal niet.
Ah, de auto-vergelijking... ik dacht al: waar blijft ie?
Slaat in dit geval nergens op. 'Slecht metaal' is namelijk de verantwoordelijkheid van TSMC, niet van nVidia. nVidia levert alleen het ontwerp, niet de grondstoffen of de machines.
Werelds schreef op vrijdag 21 november 2014 @ 16:24:
Ten eerste, AI op de GPU? Grapjurk, dat is helemaal niet aan de orde.
Nee klopt... Iets als path finding kun je echt niet op de GPU doen, toch? Stom van me: http://dl.acm.org/citation.cfm?id=1413968
Werelds schreef op vrijdag 21 november 2014 @ 16:24:
Ook physics niet veel, alleen met GPU PhysX en dan nog is dat beperkt.
Wordt dus wel gedaan.
Werelds schreef op vrijdag 21 november 2014 @ 16:24:
De superscalar architecturen van nu zijn intelligent genoeg om een 4D/5D load goed te verdelen op een wavefront. Het zijn die kleine zeik berekeningen die heel eenvoudig zijn, maar waar je niets aan VLIW hebt omdat er dan 2-3 van de 4-5 shaders niets te doen hebben.
Ja, berekeningen met 1d (scalar) of 2d vectors dus.
Dat is het hele punt dat ik maak, maar volgens mij snap je te weinig van VLIW om te begrijpen dat we het over hetzelfde hebben.
Werelds schreef op vrijdag 21 november 2014 @ 16:24:
Maar als we dan toch aan het kijken zijn, moet je misschien eens MMX, 3DNow en SSE opzoeken.
Je hebt geen idee he? Ik heb zelf jarenlang asm geoptimaliseerd, oa voor software renderers/math libraries, met dingen als MMX, 3DNow en SSE ja.
Werelds schreef op vrijdag 21 november 2014 @ 16:24:
Maar het renderwerk had dit nog niet echt nodig, daarom kwam dat pas meer dan 15 jaar later grootschalig op de markt als een GPU.
Haha, je weet ECHT niet waar je over praat he?
Het probleem van de VLIW-aanpak van GPUs is dus dat het enorm star is, en niet efficient (zoals eerder al genoemd).
Omdat een CPU veel generieker moet zijn, is een dergelijke VLIW-aanpak dus geen optie (sowieso zijn SIMD-units op een CPU veel complexer, en kun je er maar een paar kwijt in een CPU, niet honderden zoals op een GPU).
Dus voor CPUs is SIMD de enige logische keuze.
Rasterizen deden we toch al met 3d accelerators.
Werelds schreef op vrijdag 21 november 2014 @ 16:24:
Vergeten? Nee. Maar dat ze enkele via's wilden wel (kosten besparen), aangezien ze TSMC toentertijd zelfs hebben proberen te dwingen om een 0% failure rate te garanderen door ze publiekelijk door het slijk te halen.
Blijkbaar denk jij dat een chip ofwel single VIA's, ofwel double VIA's heeft.
Dat is de mythe die destijds door het AMD-kamp verspreid is.
In werkelijkheid heeft een chip verschillende soorten VIA's, zie ook de PDF die ik eerder al linkte, die dat uitlegt, risico-punten etc.
Ook 'zero-defect' werd daar al genoemd. Dat was iets waar TSMC naar streefde. Helaas ging het fout, en had 40 nm in eerste instantie zelfs MEER defects dan 55 nm. Ja, en DAAR had nVidia niet op gerekend.
TSMC heeft de defects wel verbeterd, maar zero defects hebben ze nooit gehaald op 40 nm.
nVidia en TSMC hebben ECHT wel om de tafel gezeten, en dit heel erg goed besproken (nVidia is een van de grootste klanten van TSMC, en bouwer van 1 van de grootste chips ter wereld. In de industrie kijkt men altijd met bewondering hoe nVidia die mega-chips nu weer gebouwd heeft).
TSMC heeft geroepen "Ja, gaat goed komen, wij kunnen die chip voor jullie bouwen, met zus-en-zo kans op defects etc".
En dat konden ze niet waarmaken, en DAAR is nVidia terecht boos over geworden.
TSMC heeft toen dus wat machines vervangen, waardoor de situatie verbeterde... nVidia heeft hier en daar de chip wat aangepast, et voila, probleem opgelost.
Pagina: 1 ... 5 ... 11 Laatste

Dit topic is gesloten.