PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Een aantal mist het punt compleet, ik vroeg mij af of het hogere stroomverbruik dan normaal kwam door die hogere temperatuur. Nogmaals, hoe veel een kaart verbruikt (en dat ie niet lineair meeschaalt bij overclocken) snap ik compleet, ik overclock al wat langer dan vandaag. Buiten dat heb ik zelf ook een mining farm gehad, en met nette apperatuur en goede doorluchting van de ruimte hoef je geen kapotte VRM's te hebben.Verwijderd schreef op dinsdag 14 april 2015 @ 18:34:
Als je powertune opschuift naar +20% of zelfs meer dan sta je toe dat de GPU gewoon 20% meer verbruiken kan. De VRM's moeten harder werken, en worden op hun beurt gewoon een slag heter.
Dat je het op laat lopen tot 110 graden verbaast me een beetje... dat zijn geen gezonde temperaturen manOp Ebay vind je heel veel kapotte high end kaarten die gebruikt zijn bij een mining-farm. Ook die dingen liepen constant tegen de limit van de VRM's aan en gaan gewoon binnen een jaar kapot.
Ik zou je VRM's wat meer in de gaten houden, powertune en / of je clocks wat terugschroeven.
Zeker begrijp ik dat die temperaturen idioot hoog zijn, maar hoe dit van dag 1 op 2 opeens kan ontstaan wist/weet ik niet. Denk je dat ik dat ding een uur op Furmark laat lopen met die temps? Nog geen 5 minuten vanaf idle.
Ik heb hem met perslucht uitgeblazen, maar nog steeds haal ik (ook op stock) hogere temperaturen dan het ding normaal haalt, misschien is de Thermal Paste naar de klote? Ik weet het niet, daarom vraag ik hier. Ik maak anders wel een apart topic aan, of ga eens kijken voor wat anders na 1,5 jaar.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Verwijderd
Het OC'en, benchen en dergelijk moet je naar mijn mening alleen doen met verse geleidingspasta, van het liefst de hoogste kwaliteit die je vinden kan (Artic silver voldoet al).
[ Voor 7% gewijzigd door SanderH_ op 14-04-2015 21:38 ]
Ja een hogere temperatuur zorgt voor een hoger stroomverbruik. In de tijd van de GTX480 is hier wel eens een test mee gedaan, dacht door hardware.fr. De GTX480, de eerste Fermi, was ook zo'n echte stroomslurper, hiermee was het dus ook goed te testen.kuusj98 schreef op dinsdag 14 april 2015 @ 21:10:
of het hogere stroomverbruik dan normaal kwam door die hogere temperatuur.
Neemt overigens niet weg dat de cijfers die je noemde niet kunnen.
[ Voor 7% gewijzigd door -The_Mask- op 14-04-2015 22:48 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat is ook een beetje mijn probleem.SanderH_ schreef op dinsdag 14 april 2015 @ 21:36:
Zijn er niet zeer veel fabrikanten, om niet te zeggen allemaal, die ronduit weigeren om garantie te geven éénmaal je de koeler losmaakt? En dan heb ik het vooral over de aftermarket varianten, niet AMD op zich.
Ach ja, des te meer reden om uit te kijken naar de 3xx serie
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
nieuws: AMD introduceert nieuwe gpu's in tweede helft 2015 en stopt met SeaMicro
R9 300 GPU's met HBM komen pas in H2 2015.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verwijderd
Dat doen ze bewust zodat ze weten of je gerommeld hebt met de kaart of niet.SanderH_ schreef op dinsdag 14 april 2015 @ 21:36:
Zijn er niet zeer veel fabrikanten, om niet te zeggen allemaal, die ronduit weigeren om garantie te geven éénmaal je de koeler losmaakt? En dan heb ik het vooral over de aftermarket varianten, niet AMD op zich.
Denk aan een mislukte LN2 poging met een hoog voltage. Of een andere koeler erop en 'vergeten' de VRM heatsinks erop te plakken ofzo. Van die kleine dingen, dat een fabrikant duur kan komen te staan.
Als je goede kaarten wilt moet je wat dieper in de buidel tasten, maar dan heb je wel een beter VRM ontwerp, betere 'cherry' picked chips en koeling wat erop gebaseerd is.
Welke fabrikanten maken geen problemen van het losmaken van de koeler?
Dat noem ik nu niet meteen alledaags gedrag. Hoeveel mensen in de wereld zijn bezig met LN2 op hun GPU's ? Minder dan 0,1% ? Het lijkt me niet dat ze voor die paar randgevallen garantie weigeren.Verwijderd schreef op vrijdag 17 april 2015 @ 15:24:
Denk aan een mislukte LN2 poging met een hoog voltage.
Het is eerder een excuus om garantie te weigeren, maar dat zijn we wel gewoon dat je aan producten niet zomaar mag knoeien.
Op mijn R9 290X zit een aftermarket cooler zonder VRM heatsinks, ze worden nog geen 80°C onder load. Dat kon ik niet zeggen van de standaard cooler, daarmee werden ze warmerOf een andere koeler erop en 'vergeten' de VRM heatsinks erop te plakken ofzo.

Verwijderd
Met een beetje goede (kleine) tang kan jij echtwel een schroefje losdraaien op waarop een garantiesticker zit. Maar ben het met je eens dat bij sommige kaarten er overmatig veel pasta op zit, op ten duur uitdroogd en daardoor de koelprestaties minder worden.SanderH_ schreef op vrijdag 17 april 2015 @ 16:20:
Je moet natuurlijk ergens wel een grens trekken, maar er als je dus de koelpasta vervangt of bijvoorbeeld de kaart waterkoelt mag je dus al fluiten naar je garantie?
Welke fabrikanten maken geen problemen van het losmaken van de koeler?
Na een jaar vervang ik die dingen meestal, en doe ik de kaart als 2dehands af. Altijd wel een tweaker die een leuk kaartje gebruiken kan. Die dingen hebben een lifespan van ongeveer 1 tot 3 jaar. De kaarten die extreem heet draaien hoogstens een jaartje.
Dat is alweer een half jaar later als wat de meeste hadden verwacht en lijkt toch sterk op slechte yields. Ik kijk er al niet meer raar van op. Kun je net zo goed weer gaan wachten op Pascal van nvidia, want die komt niet veel later.XanderDrake schreef op vrijdag 17 april 2015 @ 14:59:
Het verbaast me niet, maar het gaat nog steeds niet lekker met AMD:
nieuws: AMD introduceert nieuwe gpu's in tweede helft 2015 en stopt met SeaMicro
R9 300 GPU's met HBM komen pas in H2 2015.
Geen goed teken om nvidia een jaar lang geen antwoord te geven, want die pakken enorm veel marktaandeel met Maxwell.
Om een half jaar extra te doen over de productie heeft toch ook met yield te maken? Normaliter duurt het niet zo lang om op voorraad te komen. Bij de gtx 480 wel: dat bleek dus ook yield problemen.dahakon schreef op vrijdag 17 april 2015 @ 19:04:
Hoeft niet zoveel met slechte yields te maken te hebben. Als R9 3xx met HBM wordt uitgebracht en ze hebben besloten dat de kaarten 8GB HBM nodig hebben, dan zal het een behoorlijk tijdje duren eer ze genoeg HBM hebben voor een redelijke hoeveelheid kaarten.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Bedenk dat initieel HBM in 8Gb per stack zou komen, waarmee je normaliter tot 4GB per kaart zou komen. Er is een techniek waarmee je 2 stacks aan elkaar geknoopt krijgt zonder dat de bandbreedte verdubbeld, maar dat kost je dus wel 2 stacks, ofwel dubbel de hoeveelheid silicon. Dat moet dan wel eerst geproduceerd worden.
Wellicht heeft AMD pas laat besloten dat de topkaart met 8GB geheugen op de markt moet komen, wat dus gevolgen zou hebben voor de launchdate. Enfin, de tijd zal het leren.
Als het maar geen gevolg heeft voor de prijs, zal wel een hele hoop R&D in dat HBM zitten wat ook weer terugverdient zal moeten worden...dahakon schreef op vrijdag 17 april 2015 @ 19:24:
Ja, maar de GTX480 maakte geen gebruik van nieuw baanbrekend geheugen dat nog in een aanloopfase van massaproductie zat.
Bedenk dat initieel HBM in 8Gb per stack zou komen, waarmee je normaliter tot 4GB per kaart zou komen. Er is een techniek waarmee je 2 stacks aan elkaar geknoopt krijgt zonder dat de bandbreedte verdubbeld, maar dat kost je dus wel 2 stacks, ofwel dubbel de hoeveelheid silicon. Dat moet dan wel eerst geproduceerd worden.
Wellicht heeft AMD pas laat besloten dat de topkaart met 8GB geheugen op de markt moet komen, wat dus gevolgen zou hebben voor de launchdate. Enfin, de tijd zal het leren.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Dat zat er ook in gDDR5 met de HD4870, maar ook die kaart was niet overmatig duur. Nu zal R9-390X wel duurder zijn, maar dat zal dan ook komen omdat de chip zelf een stuk groter zal zijn. AMD is verder, net als bij gDDR5, zelf 1 van de ontwikkelaars van HBM.kuusj98 schreef op vrijdag 17 april 2015 @ 21:16:
[...]
Als het maar geen gevolg heeft voor de prijs, zal wel een hele hoop R&D in dat HBM zitten wat ook weer terugverdient zal moeten worden...
De eerste generatie HBM, die gebruikt wordt voor de Fiji GPU, wordt gebakken op 29nm waarschijnlijk bij SK Hynix zelf.
Bron 29nm: SK Hynix demos HBM2 memory ICs, opens way for 32GB graphics cards
Bron waarschijnlijk bij SK, want wie heeft er nog meer 29nm?: SK Hynix to start production of DRAM using 20nm process tech in 2H 2015
1. De nieuwe kaarten komen bijna uit
2. Men wil gewoon heel graag dat de nieuwe kaarten uitkomen.
Anyway, geruchten gaan nu weer dat de nieuwe kaarten in juni uitkomen.
http://www.fudzilla.com/n...fiji-cards-coming-in-june
As far as our sources are aware, the launch date is in June or the last month of the second quarter. AMD should launch the Carrizo APU at Computex at some point after June 2nd, and we heard that Fiji might come a week or two later, if not at the same event.
http://www.kitguru.net/co...-300-series-gpus-in-june/
Zal toch een 980Ti of een 390(X) moeten worden...
rikkie de zwerver TweakersIII (TandjeBij!)
http://www.guru3d.com/new...nm_and_jumps_to_14nm.html

[ Voor 4% gewijzigd door Werelds op 23-04-2015 21:25 ]
Dit was toch wat iedereen verwachtte? Het 22 of 20nm proces was alleen geschikt voor low-power toepassingen als socs, het 14 en 16 nm proces moet wel geschikt zijn voor gpu's. Ik denk dat dit wel klopt.Werelds schreef op donderdag 23 april 2015 @ 21:25:
Heeft iedereen genoeg smaakmaker op voorraad?
http://www.guru3d.com/new...nm_and_jumps_to_14nm.html
[afbeelding]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Having spoken to BenQ about it the issue is a known bug which apparently currently affects all FreeSync monitors. The AMD FreeSync command disturbs the response time (AMA) function, causing it to switch off. It's something which will require an update from AMD to their driver behaviour, which they are currently working on. It will also require a firmware update for the screen itself to correct the problem. Both are being worked on and we will aim to update this review when it is fixed, hopefully within a couple of weeks.
Misschien binnenkort minder ghosting met freesync.
Mechwarrior Online: Flapdrol
Zeer uitgebreide review weer. Monitor is nu E599 en staat nog steeds erg hoog op verlanglijst. Heb nu ook Benq en ben er erg tevreden over. Alleen een echt goede 1440p freescyn IPS staat nog hoger op de verlanglijst. Ga alleen geen E599 uitgeven voordat ik zeker weet dat het AMA issue naar behoren is opgelost.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik wil mijn 6970 2GB vervangen voor een 290x en lees overal dat de 390x om de hoek staat.
Nu upgrade ik niet zo heel vaak, dus ik heb eigenlijk geen enkel idee, maar wellicht kan iemand iets zinnigs zeggen over het prijsverloop van een 290x vlak na de release van een nieuwer model?
Ik neem aan dat de 390x een stuk duurder gaat zijn en dat de 290x goedkoper gaat worden, maar hoe snel gaat zoiets na een nieuw model doorgaans? Is dat al meteen de week na de launch van een nieuwe? Of gaat daar toch wel enige tijd overheen?
Ik wil namelijk eigenlijk echt niet meer dan 450 euro uitgeven, want zoveel game ik eigenlijk helemaal niet meer, dus het zal hoe dan ook een 290x worden want ik denk dat de 390x duurder gaat zijn.
Maargoed, lang verhaal kort: ik wil een 290x kopen en moet ik wachten op de launch van de 390x of duurt het dan waarschijnlijk nog wel enige tijd voordat de 290x aanzienlijk goedkoper gaat worden? Tientjeswerk maakt me niet zoveel uit; ik heb het meer over richting de 100 euro goedkoper.
Iemand?
Verwijderd
Koop gewoon nu de kaart die je hebben wilt. Bij introductie zal de 390x toch een slag duurder zijn (400 tot 600 euro). Alles onder de 390/380 zullen rebrands/refreshes zijn van de 270/280/290 series.
Neem een crossfire setup van dat geld, lekker knallen.
[ Voor 8% gewijzigd door Verwijderd op 28-04-2015 21:21 ]
Maar prijsdalingen als er een nieuwe generatie aankomt komt niet heel vaak meer voor, meestal zorgen ze er voor dat gewoon eerst de oude voorraad (zo goed als) uitverkocht is, dan hoeven ze ook niet voor minder verkocht te worden.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
De R9 290X heb ik op dag één gekocht/besteld en dat was aan 550€ voor de BF4 editie bij de op één na goedkoopste webshop. Nu kosten ze héél wat minder.tomcatha schreef op woensdag 29 april 2015 @ 13:26:
bij amd is het al jaren zo dat meestal dat er nieuwe kaarten uitkomen op het zelfde prijs niveau als de oude generatie en die zijn vaak net iets sneller en hebben meer features.
Ik verwacht dat de R9 390X ook 500-600€ zal kosten, eerder dat laatste dankzij de zwakke euro.
290X koopje!Phuncz schreef op woensdag 29 april 2015 @ 17:48:
[...]
De R9 290X heb ik op dag één gekocht/besteld en dat was aan 550€ voor de BF4 editie bij de op één na goedkoopste webshop. Nu kosten ze héél wat minder.
Ik verwacht dat de R9 390X ook 500-600€ zal kosten, eerder dat laatste dankzij de zwakke euro.
pricewatch: Club 3D Radeon R9 290X 4GB royalAce
Die is imo lelijk. De gaten bij de fans zijn niet rond en ook niet allemaal op dezelfde plek die scheve uitsparingen erin. Ik vind ze niet mooi.
Denk dat ik gewoon een Vapor-X neem met 4GB, meer dan zat voor 1920x1200 lijkt me zo.
Heb vroeger een 5770 Vapor-X kaartje gehad en die beviel bijzonder goed. Daarna nooit meer een Sapphire Vapor-X gehad
Mooi of niet lijkt me voor 9/10 mensen redelijk irrelevant.vosss schreef op woensdag 29 april 2015 @ 18:17:
[...]
Die is imo lelijk. De gaten bij de fans zijn niet rond en ook niet allemaal op dezelfde plek die scheve uitsparingen erin. Ik vind ze niet mooi.
Denk dat ik gewoon een Vapor-X neem met 4GB, meer dan zat voor 1920x1200 lijkt me zo.
Heb vroeger een 5770 Vapor-X kaartje gehad en die beviel bijzonder goed. Daarna nooit meer een Sapphire Vapor-X gehad
Daarnaast (als je al een window hebt) zit de kaart op de kop en heeft ie wel een 'mooie' backplate.
http://www.overclock3d.ne.../2014/06/19093154688l.JPG
De vapor-x kost 160 euro meer

http://tweakers.net/price.../373873;394868/categorie/
En ik maar denken dat koelprestaties belangrijk waren

Die zijn naar wat ik lees bij de Vapor X ook beter. En die kaart zou stiller zijn toch?Phuncz schreef op woensdag 29 april 2015 @ 20:15:
Een mooie kaartWil je dus zeggen dat de kaart afgekeurd is omdat ie niet "mooi" is ?
En ik maar denken dat koelprestaties belangrijk waren
Voor dat verschil kun je hem watergekoeld maken.
[ Voor 25% gewijzigd door mitsumark op 29-04-2015 23:46 ]
Afgelopen maandag gewerkt, op 1 dag genoeg verdient om die kaart te kopen.mitsumark schreef op woensdag 29 april 2015 @ 23:32:
De vapor-x is waarschijnlijk de beste 290X die er is, maar die prijs...
Aan de andere kant; het verschil is wel heel groot

Wat is de 2de beste 290x en dan vooral gelet op koelen en geluid? Lengte of 3 slots maakt niet uit
Of toch de club3d en dan zelf het fanprofiel iets rustiger zetten.
(VRM's worden wel iets warmer, maar hoef je je geen zorgen om te maken)
Of je neemt natuurlijk de 290 vapor-x voor 340, is maar 5% langzamer.
Door een lichte OC en goede koeling is hij al net zo snel als een stock 290X: http://www.techpowerup.co...re/R9_290_Vapor-X/25.html
(of een 970, maar we zitten in het amd topic
[ Voor 66% gewijzigd door mitsumark op 30-04-2015 00:08 ]
ik bedoelde meer dat meestal wanneer nieuwe kaarten uitkomen er ook nieuwe kaarten uitkomen die dan even duur zullen ongeveer als de 290x op dat moment maar vaak net wat beter zijn.Phuncz schreef op woensdag 29 april 2015 @ 17:48:
[...]
De R9 290X heb ik op dag één gekocht/besteld en dat was aan 550€ voor de BF4 editie bij de op één na goedkoopste webshop. Nu kosten ze héél wat minder.
Ik verwacht dat de R9 390X ook 500-600€ zal kosten, eerder dat laatste dankzij de zwakke euro.
Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.
HP outs new AMD R9 380 and two other unannounced Radeons in new systems
Dit zullen de rebrands wel zijn.LongBowNL schreef op maandag 04 mei 2015 @ 10:09:
In Juni komen (waarschijnlijk) de nieuwe kaarten (in ieder geval voor OEMs).
HP outs new AMD R9 380 and two other unannounced Radeons in new systems
rikkie de zwerver TweakersIII (TandjeBij!)
Dat was ook al min of meer bevestigd. Dit zijn dacht ik R9 290's en 290x's.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Dan zou de R9 285 een R9 370 kunnen worden en de R7 360 zou dan misschien een aangepaste R7 260X kunnen zijn. Het is niet toevallig dat de R9 285 ineens zakt in prijs dus ik vermoed dat hij een tier lager gaat eindigen.
Want als ze de bestaande GPUs zouden willen rebranden, is het gewoon een kwestie van een nieuw stickertje plakken.
Voor AMD zou het beter zijn als ze alle R7 en R9 kaarten minimaal naar GCN 1.3 brengen. Zij het door de Tonga GPU te gebruiken en te schalen naar een grotere en kleinere die te schalen.
Verwijderd
In het algemene AMD draadje vraag ik me daarom ook hardop af hoe ziek iemand is om zich uberhaupt met dat soort fratsen bezig te houden. Er valt immers geen geld/eer mee te behalen. Het blijft crimineel wangedrag.TomasH schreef op dinsdag 05 mei 2015 @ 15:41:
Fun fact: alles wat we tot nu toe hebben gezien van de Financial Analyst Day was nep.
True, bijzonder zielig. Maar waarschijnlijk maakt de info die morgen wordt gepubliceerd een hoop goedVerwijderd schreef op dinsdag 05 mei 2015 @ 15:50:
[...]
In het algemene AMD draadje vraag ik me daarom ook hardop af hoe ziek iemand is om zich uberhaupt met dat soort fratsen bezig te houden. Er valt immers geen geld/eer mee te behalen. Het blijft crimineel wangedrag.
Het wordt daarom ook afwachten.Phuncz schreef op dinsdag 05 mei 2015 @ 15:30:
Ik zou behoorlijk onder de indruk zijn, het is al een aantal jaren geleden dat ze dat nog deden. Zeker omdat het op 28nm niet veelbelovend lijkt om te schalen. Ik denk dat ze vooral de "aftermath" nu te verwerken hebben van de crypto-mining kaarten die de tweedehandsmarkt overspoeld hebben.
Hopelijk hebben ze morgen goed nieuws.
28 nm is al TE lang in gebruik voor High performance chips.

[EDIT]
Deze render blijkt een fake te zijn volgens WccfTech: http://wccftech.com/fake-render-amd-radeon-r9-390x-internet/
[ Voor 32% gewijzigd door LongBowNL op 08-05-2015 15:59 . Reden: Fake ]
Verwijderd
rikkie de zwerver TweakersIII (TandjeBij!)
[ Voor 36% gewijzigd door madmaxnl op 07-05-2015 17:33 ]
De Chinese fotosoeper was niet heel precies bezig?Verwijderd schreef op donderdag 07 mei 2015 @ 16:28:
Die wijkt eem beetje af van de render op de frontpage. De tekst RADEON staat wat verder van het slotplaatje af. Benieuwd waar dat verschil vandaan komt.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Following on from earlier rumoured leak of the R9 300 series cooling and card length, it seems the specification of the highly anticipated R9 390x has slipped as well.
From earlier, we know that the R9 390x is rumoured to ship with two options of cooling, the first a typical air cooling design similar to what AMD currently produce; however, the second appears to be no longer than the NVIDIA GTX 970 reference design PCB and will include a similar cooling feature to the current R9 295×2. The new High Bandwidth Memory (HBM) has been integrated onto the GPU core, which is how AMD has managed to squeeze all of the features onto such a small PCB design.
Now onto the specification:
“The Fiji XT-enabled R9 390X is said to feature 8GB video memory, GCN 1.2 architecture, 4,096 stream processors, 256 TMUs, 128 ROPs, and a 4096-bit wide interface resulting in a total bandwidth of 640GB/s.”
If these specifications are true, it will be based on a very similar architecture to the R9 285 and aims to be more powerful than the R9 295×2; very impressive for a single GPU, short PCB card.
Are you looking forward to the launch in approximately a month time? I personally can’t wait to get my hands on the R9 390x, especially if the specs and water cooling is as rumoured. Let us know your thoughts in the comments.
http://www.eteknix.com/leaked-r9-390x-specifications/
With AMD’s (NASDAQ:AMD) Radeon R9 300 series launch under a month away, details are starting to emerge as to the architecture and the hardware that will power the cards. The latest leak suggests that the vendor will offer the Fiji XT — the new silicon rumored to power the R9 390X — in two versions, an air-cooled variant and a water-cooled edition. The air-cooled edition will be similar to high-end AMD cards we’ve seen previously, but the water-cooled card is said to feature a short PCB, one that is as small as that of Nvidia’s (NASDAQ:NVDA) reference GTX 970.
AMD’s utilization of High Bandwidth Memory, which is three times as fast as existing memory, is said to be the main factor in the reduction in the PCB of the water-cooled Fiji XT. Instead of the memory modules surrounding the GPU, with HBM, AMD can stack the memory atop the silicon. The Fiji XT-enabled R9 390X is said to feature 8GB video memory, GCN 1.2 architecture, 4,096 stream processors, 256 TMUs, 128 ROPs, and a 4096-bit wide interface resulting in a total bandwidth of 640GB/s.
The chip vendor is also allegedly getting rid of DVI connectors for the upcoming R9 300 series, instead going with three DisplayPort ports and one HDMI 2.0 port. Similar to the R9 295X2, the R9 390X will come factory-fitted with a 120x120mm radiator, while the air-cooled variant will be slightly longer to accommodate the cooling stack on the card. The cards will be revealed at Computex, and may be available in retail stores by end of June to accommodate this year’s back-to-school season. The R9 390X will be an entirely new offering, but the other cards in the series are said to be re-branded editions of current-gen models, with AMD looking to retake the market share lost after the introduction of the GTX 900 series.
Komen daar de 380x met 2048 en de 390 met +-3500 nog tussen?
[ Voor 8% gewijzigd door DrBreakalot op 07-05-2015 23:14 ]
Wacht, dus HBM is on-die geheugen ipv tich chips rond de die zoals we dat normaal hebben? Dat is weer eens iets wat ik niet wist en 23x overheen gelezen heb...
Buiten dat, die specs lijken wel te mooi om waar te zijn, en al zijn ze waar: die prijs zal ook wel richting GTX 980+ schieten, en ik denk dat mensen het onderhand wel zat zijn steeds kaarten te kopen die in feite al 2 jaar oud zijn, waardoor ze niet heel veel market-share gaan winnen. Er is een reden dat de 970 zo goed verkoopt, namelijk een "lage" prijs met prestaties gelijk aan de 290X met minder stroomverbruik. Laatst was er in de LanShow van LinusTechTips een gigantisch leuke market-share grafiek, maar bij gebrek: http://jonpeddie.com/pres...reases-market-share-lead/
Je verliest niet zomaar 1/3de van je klanten in de GPU devisie, alhoewel dit ook nog gedeeltelijk een nasleep zal zijn de van Bitcoin mining.
Just my 2 cents.
Buiten dat ligt het geheel aan de prijs of ik upgrade, er komt een periode in je leven dat je een beetje leert "verstandig" met geld om te gaan ipv ieder jaar het nieuwe model te kopen. AMD komt ook begin 2016 met nieuwe CPU's, als ze dan een killer GPU-lijn lanceren mag je nu al beginnen met aandelen kopen, en die kans zit er dik in.
Denk dat we dan weer een shitstorm gaan zien, waar systemen met AMD de overhand krijgen op nVidia en Intel, alhoewel we eigenlijk gewoon moeten kopen wat op dat moment het beste is hoop ik dat de 3xx serie heel erg goed gaat worden.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Dit gaat over de OEM line-up. Die is niet gelijk aan die voor de retailmarkt, dus dat hoeft nog niks te zeggen. Al is Tonga Pro voor de 380, Tonga XT voor de 380X, 'Fiji Pro' voor de 390 en 'Fiji XT' voor de 390X natuurlijk wel het meest logisch, zo op het eerste gezicht.DrBreakalot schreef op donderdag 07 mei 2015 @ 23:12:
Als de 390x echt 4096 streamprocessoren gaat krijgen, zal er wel een groot gat vallen tussen mid- en highend. Volgens nieuws: AMD introduceert Carrizo-apu's en grafische kaarten voor oem's krijgt de 380 maar 1792.
Komen daar de 380x met 2048 en de 390 met +-3500 nog tussen?
Vergeet ook niet dat de x60 series van Nvidia telkens het opnemen tegen de subtop van AMD, GTX460 vs HD5850, GTX560ti vs HD6950, GTX660ti vs HD7950, GTX760 vs HD7950, GTX960 vs R9 280/R9 280x, telkens zat dat zo rond de 200-250 euro.
Tonga is nu dan misschien wel de subtop, na Hawaii, maar na Fiji is Hawaii natuurlijk de subtop. Tonga is naar mijn mening een mooie vervanger voor de R9 270, iets waar Nvidia sowieso weinig tegenin te brengen heeft op dit moment. Op die manier kan de R9 370 de GTX960 op prijs beconcurreren, want qua prestaties en zuinigheid zitten ze erg in de buurt van elkaar, en de R9 380 op pure prestaties, want hij zuipt stevig meer dan een GTX960 en is daarom lang niet voor iedereen even handig.
De R9 380 en 380x kunnen het dan ook veel beter opnemen tegen de GTX970, want die hoort te dalen in prijs. De GTX770 zat ook de hele tijd rond de 370 euro, tot Hawaii kwam, toen klapte hij opeens meer dan 100 euro naar beneden om naar rond de 250 te gaan zitten, om daar HD7970's te pesten. Hetzelfde zie ik gebeuren wanneer Fiji uitkomt.
Ik ben werkelijk dol op speculatie, het liefst doop ik ze in de chocolademelk
ik ben werkelijk teleurgesteld dat nog niemand een fotosoep heeft gemaakt van een doos speculaas/speculoos met daarop "speculatie"
People as things, that’s where it starts.
Verwijderd
Hopelijk is de 390X stiller, zuiniger en even snel (liefst sneller) als een GTX 980 SLI.
Allemaal leuk en aardig die geruchten, maar met 50% meer stream processors dan de 290X denk ik niet dat de Fiji XT net zo snel zal zijn als de R9 295x2, die 100% meer stream processors dan de 290X heeft. Behalve in spellen waar Crossfire niet werkt of heel slecht schaalt natuurlijk.polli_ schreef op donderdag 07 mei 2015 @ 23:02:
More AMD Radeon R9 390X Specifications Leaked:
...
Now onto the specification:
“The Fiji XT-enabled R9 390X is said to feature 8GB video memory, GCN 1.2 architecture, 4,096 stream processors, 256 TMUs, 128 ROPs, and a 4096-bit wide interface resulting in a total bandwidth of 640GB/s.”
If these specifications are true, it will be based on a very similar architecture to the R9 285 and aims to be more powerful than the R9 295×2; very impressive for a single GPU, short PCB card.
...
Niets is zeker over een GPU die nog niet uit is maar ik gok dat een GTX980 SLI sneller is dan één 390X. kan toch bijna niet anders...Verwijderd schreef op vrijdag 08 mei 2015 @ 11:28:
Ik twijfelde eerst nog over een 2e GTX 980 maar nu wacht ik lekker op de 390X met waterkoeling.
Hopelijk is de 390X stiller, zuiniger en even snel (liefst sneller) als een GTX 980 SLI.
rikkie de zwerver TweakersIII (TandjeBij!)
De 390X zit waarschijnlijk rond het prestatieniveau van de Titan X, dus ja een 980 SLI set zal sneller zijn.westergas schreef op vrijdag 08 mei 2015 @ 13:26:
[...]
Niets is zeker over een GPU die nog niet uit is maar ik gok dat een GTX980 SLI sneller is dan één 390X. kan toch bijna niet anders...
(mits de betreffende game goed schaalt natuurlijk)
[ Voor 6% gewijzigd door ColinZ op 08-05-2015 14:00 ]
Sowieso zie je redelijk typische photoshop trucages zoals het dimple patroon dat erg 2D en pixel-perfect lijkt terwijl de rest van de "foto" gaat voor realisme. Ook de watercooling fitting bracket bovenaan klopt niets van.Verwijderd schreef op donderdag 07 mei 2015 @ 16:28:
Die wijkt eem beetje af van de render op de frontpage. De tekst RADEON staat wat verder van het slotplaatje af. Benieuwd waar dat verschil vandaan komt.
Maar dat wil nog niet zeggen dat het niet kort bij de realiteit zit, afgaande van de teaser image.
Trouwens er staat GCN 1.2, zou dit niet GCN 1.3 worden? In het geval van GCN 1.2 hebben we te maken met een reusachtige chip die op zijn geheugen na geen efficiëntie slag slaat t.o.v. Tonga. Zowel qua stroomverbruik als qua chip grote.polli_ schreef op donderdag 07 mei 2015 @ 23:02:
Now onto the specification:
“The Fiji XT-enabled R9 390X is said to feature 8GB video memory, GCN 1.2 architecture, 4,096 stream processors, 256 TMUs, 128 ROPs, and a 4096-bit wide interface resulting in a total bandwidth of 640GB/s.”
If these specifications are true, it will be based on a very similar architecture to the R9 285 and aims to be more powerful than the R9 295×2; very impressive for a single GPU, short PCB card.
Are you looking forward to the launch in approximately a month time? I personally can’t wait to get my hands on the R9 390x, especially if the specs and water cooling is as rumoured. Let us know your thoughts in the comments.
http://www.eteknix.com/leaked-r9-390x-specifications/
Een Tonga GPU heeft een relatief grote die size van 366mm2 met daarin 2048 GCN cores gehuisvest. Volgens de geruchten zou een Fiji GPU 4096 GCN cores hebben. Tot een verdubbeling van de die grote zal het waarschijnlijk niet leiden. Immers hoeft de ruimte die TrueAudio, UVD, I/O e.d. niet dubbel uitgevoerd te worden.
Een Tahiti GPU heeft 2048 GCN cores en is een GCN 1.0 variant, dus geen TrueAudio (GCN 1.1) en ook geen Delta Color Compression of de betere en/of meer tesselation units (GCN 1.2). Deze chip heeft een die grote van 365mm2 en 4313 miljoen transistors. Een Tonga GPU heeft er 5 miljard. Van GCN 1.0 naar GCN 1.2 levert een toenamen op van net geen 700 miljoen transistors. Voor Tonga zou je dus kunnen stellen dat ongeveer 50mm2 verantwoordelijk is voor GCN 1.2. t.o.v. GCN 1.0. Hier op verder bordurend zou een Fiji GPU groter zijn dan 600mm2. Dat lijkt me wat te veel van het goede? Of de waterkoeling standaard erbij is echt geen grap
Een GM200 GPU van nVidia daarentegen is ook gewoon >600mm2 groot. Aangezien de prestatie van een Fiji XT GPU rond dit niveau zoude liggen, volgens de geruchten, vind ik dat een beetje zwakjes overkomen gezien het gebruik van HBM.
[ Voor 35% gewijzigd door madmaxnl op 08-05-2015 18:12 ]
Ik heb sinds een korte tijd last van gekleurde puntjes op mijn scherm. Het is nu voorgekomen tijdens een potje FIFA14 en tijdens het opstarten. Zodra het Windows logo gloeit, dan zie ik er kleine blauwe puntjes omheen verschijnen.
Ik heb even gekeken op Google, maar wijst dit op een kapotte GPU? Ik lees vaak, dat dit duid op een stervende GPU.
Het scherm heb ik nu al 2 jaar en de kaart een kortere periode, maar wel via V&A. Mijn GPU is trouwens een AMD7870 GHz edition van Sapphire.
Zou ik misschien nog even dingen moeten uitsluiten? Ik heb namelijk nog een verloop kastje tussen mijn scherm en PC/TV kastje hangen, alleen die is van een goedkope site als ik me dat goed herinner.
[ Voor 3% gewijzigd door Mosin op 09-05-2015 11:26 ]

Defecte core of te ver overgeklokte core geeft idd vaak puntjes:

Mogelijke oorzaken is meestal dat ie te warm wordt. Of ie van de V&A afkomt heeft er op zich weinig mee te maken als je er 3 of 6 maanden later ineens last van krijgt, een defecte kaart herstelt zich niet eventjes dus dan was het van dag 1 zichtbaar.
Verwijderd
Het lijkt me juist een goede toevoeging omdat er nooit aandacht aan het geluid word besteed, en positionering is iets wat belangrijk is voor gamers.
Bedankt voor de Info!Phuncz schreef op zaterdag 09 mei 2015 @ 12:02:
Meestal geeft defect geheugen een checkered flagpatroon zoals dit:
[afbeelding]
Defecte core of te ver overgeklokte core geeft idd vaak puntjes:
[afbeelding]
Mogelijke oorzaken is meestal dat ie te warm wordt. Of ie van de V&A afkomt heeft er op zich weinig mee te maken als je er 3 of 6 maanden later ineens last van krijgt, een defecte kaart herstelt zich niet eventjes dus dan was het van dag 1 zichtbaar.
Het lijkt dan toch aan de Core te liggen. Zover ik weet is hij nooit te warm geweest of wat dan ook.
Is het ook zeker dat deze kapot gaat of is er nog iets tegen te doen? (lijkt me onwaarschijnlijk)
Het is eerder dat hij tijdens gamen te warm wordt of defect is. Misschien ook te lage voeding maar in mijn ervaring zorgt dat gewoon voor crashes.
Dat predikeer ik elk half jaar, ik zie er ook veel nut in en het totale gebrek aan ondersteuning. Ooit zei men "wacht op de nextgen consoles want die hebben dat ook", ondertussen heb ik de hoop opgeven na anderhalf jaar.Verwijderd schreef op zaterdag 09 mei 2015 @ 12:05:
Ik vraag me af waarom AMD TrueAudio nog steeds niet word gebruikt op een demo en de game Thief na.
Het lijkt me juist een goede toevoeging omdat er nooit aandacht aan het geluid word besteed, en positionering is iets wat belangrijk is voor gamers.
In je jaren 90 wel eens gespeeld met zo'n aureal 3d demo, eigenlijk precies hetzelfde als trueaudio, maar dan in een geluidskaart. Is hem toen ook niet geworden.
Mechwarrior Online: Flapdrol
[ Voor 11% gewijzigd door Milmoor op 09-05-2015 15:24 ]
Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.

Snap er de ballen van, en weet ook niet of het authentiek is. Maar kan je hieruit concluderen dat mantle = dx12? Of is het systeem waarop low level acces verkregen wordt tot de hardware gewoon identiek, terwijl beide API's drastisch anders zijn?
||| F1-aeroblog || Battlelog |||
AMD heeft Mantle in de markt gezet en heeft die kennis ook met Microsoft gedeeld tijdens het ontwikkelen van DirectX 12. Op die manier is waarschijnlijk dit stuk door Microsoft overgenomen en bijgewerkt.fynrd1 schreef op zaterdag 09 mei 2015 @ 15:33:
[afbeelding]
Snap er de ballen van, en weet ook niet of het authentiek is. Maar kan je hieruit concluderen dat mantle = dx12? Of is het systeem waarop low level acces verkregen wordt tot de hardware gewoon identiek, terwijl beide API's drastisch anders zijn?
Sommigen zullen het niet willen horen, maar AMD zit toch echt achter veel van deze (uitzonderlijk snel uitgevoerde) ontwikkelingen.
Brengt het AMD ook financieel iets op? Ze kunnen voor voor iedereen zijn, maar als je daar zelf niks aan verdient dan is dat jammer. AMD zou de centen wel kunnen gebruiken.Werelds schreef op zaterdag 09 mei 2015 @ 18:23:
Dat is echt ja. Men vraagt zich zelfs af de documentatie voor beide niet door dezelfde persoon is geschreven, er zitten nog meer dingen in die erg op elkaar lijken. Het is ergens ook wel logisch, maar dat stukje hierboven is hilarisch
Sommigen zullen het niet willen horen, maar AMD zit toch echt achter veel van deze (uitzonderlijk snel uitgevoerde) ontwikkelingen.
Misschien neemt TrueAudio wel een vlucht met al dat VR-geweld.Phuncz schreef op zaterdag 09 mei 2015 @ 12:43:
[...]
Dat predikeer ik elk half jaar, ik zie er ook veel nut in en het totale gebrek aan ondersteuning. Ooit zei men "wacht op de nextgen consoles want die hebben dat ook", ondertussen heb ik de hoop opgeven na anderhalf jaar.
Misschien is de winst al dat ze relatief meer performance winst boeken dan nvidia.Mosin schreef op zaterdag 09 mei 2015 @ 18:32:
[...]
Brengt het AMD ook financieel iets op? Ze kunnen voor voor iedereen zijn, maar als je daar zelf niks aan verdient dan is dat jammer. AMD zou de centen wel kunnen gebruiken.
(ook op processor gebied)
Laten we hopen, daar zou het inderdaad het meest kostbare zijn voor de ultieme ervaring.LongBowNL schreef op zaterdag 09 mei 2015 @ 19:09:
[...]
Misschien neemt TrueAudio wel een vlucht met al dat VR-geweld.
Niet direct nee, maar het lijkt er tot nu toe wel op dat AMD meer uit deze API's haalt dan Nvidia. Daarnaast zijn hun relaties met ontwikkelaars nu een stuk sterker geworden.Mosin schreef op zaterdag 09 mei 2015 @ 18:32:
Brengt het AMD ook financieel iets op? Ze kunnen voor voor iedereen zijn, maar als je daar zelf niks aan verdient dan is dat jammer. AMD zou de centen wel kunnen gebruiken.
Overigens valt dat met de centen allemaal reuze mee hoor. Ik wil de discussie niet weer starten, maar het komt er op neer dat Read's veranderingen langzaam hun effect beginnen te krijgen en als Zen zo goed is als AMD zegt kunnen ze volgend jaar gewoon weer winst draaien. Hun verliezen de afgelopen 3 jaar (2009-2011 was gewoon netto winst) komen voor 80% op eenmalige afschrijvingen en boetes neer (m.a.w. van de 400 miljoen verlies in 2014 komt ruim 310 miljoen dit jaar niet terug). De CPU tak draait zeker nog steeds verlies, maar áls Zen echt zo goed is, is dat verlies relatief eenvoudig te overbruggen. En de GPU tak is sowieso al van 2007 t/m 2012 altijd winstgevend geweest. Helaas staat GPU nu niet meer apart in de financiële rapporten (
Als Fiji nu een echt goede chip is en ze dit jaar de verkoop kroon kunnen pakken en vasthouden zou dat best wel genoeg kunnen zijn om het verlies op de Computing and Graphics tak weg te werken. En als hij dusdanig goed verkoopt dat ze richting de cijfers van 2010 en 2009 komen draait de GPU tak genoeg om zelfs winst op C&G neer te kunnen zetten.
En die consoles waar Nvidia zogenaamd geen brood in zag zijn toch grotendeels verantwoordelijk voor zo'n 400 miljoen winst op de Enterprise/semi-custom tak, dus dat pakt ook goed uit
[ Voor 7% gewijzigd door Werelds op 09-05-2015 22:26 ]
Je ziet nu wel, dat ze zich goed terug pakken. Die banden met ontwikkelaars is al een goed iets. Met Mantle hebben ze al puike werk verricht en het resultaat mag er zijn. Ik draai op deze 7870 toch nog BF4 op nette settings + FPS.
Ik heb altijd AMD gedraaid. 1 Keer nvidia gehad (een GTX670) en daar had ik toen super veel problemen mee. Nu zit ik op mijn eerste Intel cpu waar ik zeer tevreden mee ben, alleen AMD deed het ook altijd uitstekend voor zijn prijs (AMD 945/1090T).
Het scheelt dat ze ook de Console tak eigenlijk in handen hebben, waardoor ze kunnen overbruggen van PC naar Console en andersom. Ze kunnen zich heel wat in het voordeel werken, maar daar zijn ze wel al goed mee op weg zo te zien.
Verwijderd
Bedoel de vorige generatie had ook gewoon een IBM Cell processor erin, of een Risc (PS2). Totaal andere architecturen vergeleken met X86.
AMD was de enige die de chips voor een goedkope prijs kon wegdoen. Het zorgt wel voor cashflow en ook Nintendo sluit zich aan bij AMD voor een CPU/GPU combinatie.
Toegegeven, het is een hele interessante deal, en het maakt het mogelijk om ook voor programmeurs meer uit AMD hardware te kunnen halen.
Met AMD cpu's is als je ze vergelijkt voor de generatie dat ze uitkwamen, niets mis mee. Ook een 1090T kan prima mee met games. Echter is Intel op dat gebied qua prestatie en verbruik gewoon iets beter, waardoor het markt verliest.
Ik heb mijn systeem met DDR3/X6 en dergelijk ook nog gewoon draaien. Je zit nu op een 'era' dat CPU, geheugen en een GPU niet langer de bottleneck meer is. Ook met komst van SSD is alles gewoon veel sneller geworden. Elke game draait uitstekend.
[ Voor 28% gewijzigd door Verwijderd op 09-05-2015 22:44 ]
Als ik me dat zo eens aanzie, dan heb ik er wel spijt van dat ik die AMD toen der tijd weg gedaan heb. Ik maar de hele tijd denken dat de processor te langzaam was
Bordje kostte mij toen 80 euro en dan kon ik Crossfire draaien en dat heb ik er ook op gedraaid. Daarnaast die processor en dat ging ook allemaal uitstekend. Overclocken was kinderspel in vergelijking met de Intel i7 920 die ik daarna had. Dat platform lag mij ook niet zo.
Wat GPU's betreft blijf ik gewoon fijn bij AMD. Uitstekend spul!
Ook Zen ziet er veelbelovend uit, met 40% hogere performance per core en veel cores in het vooruitzicht. Het zou leuk zijn dat Intel ook nog eens concurrentie krijgt op hun i5 en i7, zeker met DX12 in het plaatje begint het allemaal ineens te kloppen. Stel het je voor als AMD ineens met een oplossing komt die 50% snellere performance in DX12 games biedt dan een quad-core i7 voor dezelfde prijs.
Maar de pessimist in mij zegt om niet te hoopvol te zijn om te vermijden dat we teleurgesteld worden door al die mooie marketing leugens en me erbij neerleggen dat het nog een jaar of twee wachten wordt op een evolutie ipv. een revolutie.
AMD en zijn beloftes hebben mij ook al vaak teleurgesteld en met name Bulldozer. Het zag er allemaal wel goed uit, maar het viel toch vies tegen als je hun marketing bekijkt. Ze zullen wel moeten nu om weer keihard terug te komen.
Geen idee of het nu nog zo lastig is om een AMD ITX zien te bouwen, maar dat zie ik voor het high end segment graag.
En waterkoeling maken voor een klein kaartje is natuurlijk makkelijk, de radiator neemt ook nog een hoop volume in en zo verplaats je het probleem alleen maar. Dat is hetzelfde als een PC kleiner maken door de voeding buiten de PC te hangen.
De eerste tests tonen toch dat DX12 gaming minder afhankelijk zou moeten maken van de cpu. Het grote voordeel is uiteraard dat een dure cpu minder noodzakelijk wordt (en een dure gpu juist wel). Op die manier hoeft AMD eigenlijk niet i7 niveau te halen. Als ze een goeie i5 concurrent maken (wat ze nu al hebben qua performance) die zuiniger is dan de huidige FX is het eigenlijk al goed genoeg.Mosin schreef op zondag 10 mei 2015 @ 09:16:
AMD en zijn beloftes hebben mij ook al vaak teleurgesteld en met name Bulldozer. Het zag er allemaal wel goed uit, maar het viel toch vies tegen als je hun marketing bekijkt. Ze zullen wel moeten nu om weer keihard terug te komen.
Het zou allemaal wel mooi zijn, want intel verkoopt nu al 3-4 jaar dezelfde cpu voor premium prijs (een 4790K is slecht 31% sneller dan een 2600K, valt vies tegen naar mijn mening).
Verwijderd
Doe mij de waterkoeling maar. Past prima in bijna elke moderne kast en draait stil
Volgens mij zie je het anders dan wat de bedoeling is.catfish schreef op zondag 10 mei 2015 @ 11:09:
[...]
De eerste tests tonen toch dat DX12 gaming minder afhankelijk zou moeten maken van de cpu. Het grote voordeel is uiteraard dat een dure cpu minder noodzakelijk wordt (en een dure gpu juist wel). Op die manier hoeft AMD eigenlijk niet i7 niveau te halen. Als ze een goeie i5 concurrent maken (wat ze nu al hebben qua performance) die zuiniger is dan de huidige FX is het eigenlijk al goed genoeg.
Het zou allemaal wel mooi zijn, want intel verkoopt nu al 3-4 jaar dezelfde cpu voor premium prijs (een 4790K is slecht 31% sneller dan een 2600K, valt vies tegen naar mijn mening).
DX12 heft juist de CPU bottleneck op waardoor de CPU juist weer een grotere meerwaarde gaat krijgen, gaming werd al meer GPU afhankelijk omdat de CPU juist zo limited was.
(Intel was iets sneller dan AMD omdat Intel de proc doorontwikkeld heeft om die bottleneck iets kleiner te krijgen, met nadruk op iets)
Het heeft juist met DX12 weeer zin om meer naar de CPU te gooien, die daardoor eindelijk zijn krachten kan gaan tonen.
En geloof me die gamedevelopers gaan die proc-time echt wel volgooien.
[ Voor 5% gewijzigd door enchion op 10-05-2015 12:14 ]
How do you save a random generator ?
Dit topic is gesloten.