Weinig vreemds aan als je kijkt naar de performance bij Far Cry 4 tegenwoordig.



http://www.techpowerup.co...SUS/R9_380X_Strix/12.html



http://www.techpowerup.co...SUS/R9_380X_Strix/12.html
Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.



AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850
Helaas zal dit in Nederland waarschijnlijk geen effect hebben, of in ieder geval niet gigantisch. De prijsverlaging buiten beschouwing gelaten: de leverbaarheid is tot nu toe nog dramatisch. Je krijgt hem immers maar van 1 merk op dit moment en dan nog weinig op voorraad. Het is eigenlijk nog steeds nagenoeg onmogelijk om een "normale" Fury of Fury X te kopen. De yields zullen nog steeds erg laag zijn, de vraag erg hoog (alhoewel dit me het minst logisch lijkt) of de productie erg laag om zo weinig voorraad te houden.rikadoo schreef op maandag 11 januari 2016 @ 15:16:
Prijsdrop! R9 Nano voor 499 dollar
http://wccftech.com/amd-radeon-r9-nano-499-us-price/
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Want? Als ik de HBM kaarten vergelijk met andere kaarten zie ik toch echt een heel duidelijk verschil, bij de meeste kaarten zijn er sowieso een hele waslijst met aanbieders en is het aantal wat binnen 24 uur kan leveren is ook stukken groterVerwijderd schreef op maandag 11 januari 2016 @ 18:35:
Ik zou even in de pricewatch kijken en dan het gehele bericht opnieuw schrijven.
[ Voor 0% gewijzigd door Kuusj op 11-01-2016 18:43 . Reden: Smiley's maken het leven leuker :) ]
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
[ Voor 34% gewijzigd door NitroX infinity op 11-01-2016 23:16 ]
Graphene; a material that can do everything, except leave the lab. - Asianometry
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Ryzen 7 5700X 16GB RTX 5060 1TB NVMe
Robolokotobo schreef op dinsdag 12 januari 2016 @ 03:01:
AMD, Intel en Nvidia hebben de markt in één grote geldklopperij verandert. Ik vind dit erg vervelend. Het is dat ik zo graag games op de PC speel en dat games op de PC een stuk goedkoper zijn anders was ik console only gegaan. PC gaming heeft me ook een beetje in zijn macht omdat ik er zoveel games voor heb.
De mensen die al langer in dit wereldje zitten zullen precies weten wat ik bedoel. De PC gaming markt is zo groot en populair geworden dat de hardware fabrikanten overal mee weg kunnen komen. Mensen slikken het toch wel.
Ik vind het wel meevallen hoor.Robolokotobo schreef op dinsdag 12 januari 2016 @ 03:59:
CPU's net zo. Een i7 2600K kostte 250 euro. Een i7 6700K kost 400 euro.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
NitroX infinity schreef op maandag 11 januari 2016 @ 23:04:
https://semiaccurate.com/...ad-of-1416nm-competition/
Lees het hele artikel even door, de titel is een beetje misleidend.
Dat klinkt echt wel te goed om waar te zijn hoor. En zelfs aan het eind komt nog (met een link waar ie dat daadwerkelijk heeft gedaan).Those WW3/2015 date codes mean Nvidia had to tape their Pascal designs out in late 2014, even before the TSMC process was ready for such tapeouts much less stable. The Nvidia designers were obviously so good and so far ahead of the game that they were able to put out a design that worked so well out of the box that even on an unstable, some go so far as to say non-existent, process it worked on the A1 stepping. Not only that it worked so well that once TSMC stabilized the 16FF+ process months after Nvidia produced their Pascals, no update to the GPUs were even needed!
Nu weet ik niet of charly pro-Nvidia of pro-AMD was. Ik dacht dat ik zoiets hier had gelezen jaren terug. Maar goed, op mij komt het over alsof het hele stuk sarcastisch geschreven is. Met veel overdreven lof voor Nvidia, zoals in het eerste stukje wat ik quote.It all has to be true because as an executive in a publicly traded company with press and analysts who cover and trade Nvidia in the room, he is obliged by the SEC to be truthful. The only other explanation is that he knowingly lied to the press and analysts and showed a fake card in his keynote, something that would clearly be illegal.
[ Voor 48% gewijzigd door superwashandje op 12-01-2016 11:27 ]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.




Juist die vergelijking gaat veel minder op dan de i7 2600K vs i7 6700K waar jij op reageert. Zo zou ik de e8400 eerder aan een i3 hangen. In die tijd hadden we ook een hele serie quadcores die beter matchen met een i5. Verder is het dus inderdaad het high-end segment dat iets meer afstand heeft genomen. Vermoedelijk omdat we rond de 2600K nog in een "crisis" zaten en het nu gewoon wat beter kan.anessie schreef op dinsdag 12 januari 2016 @ 04:08:
Bwah, veel minder vergelijkbaar.
Mijn core2 8400 in 2008 was iets van 190 euro, een alternatief in 2016 daarvoor is bv i5-6400 en die kost net geen 200 euro.
[ Voor 9% gewijzigd door sdk1985 op 12-01-2016 13:04 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
People as things, that’s where it starts.
Je vergeet dat in die tijd dual-core nog mainstream was. Qua prijs waren de dualcores gelijk aan de i5, de quadcores aan de i7's en de Extreme varianten aan het socket 2011-3 platform.sdk1985 schreef op dinsdag 12 januari 2016 @ 13:01:
[...]
Juist die vergelijking gaat veel minder op dan de i7 2600K vs i7 6700K waar jij op reageert. Zo zou ik de e8400 eerder aan een i3 hangen. In die tijd hadden we ook een hele serie quadcores die beter matchen met een i5.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Ten tijde van de GTX 260 en 4870 had je ook niet veel GPU's die daar boven zaten. Bij nVidia had je de GTX 280 als top kaart en bij AMD was de 4870 de top kaart tijdens de release. Pas later zijn de GTX 275, 4890 en 4870 X2 aan beide lijnen toegevoegd. Je zou daarom de GTX 260 prima kunnen vergelijken met de GTX 970. De prijzen zijn volgens mij wel degelijk gestegen. Daarnaast hebben we er een hele groep nieuwe kaarten bij gekregen. Een soort van super enthousiast kaarten waar de Titan X, GTX 980 Ti en Fury X onder vallen. AMD en nVidia hebben weer een paar nieuwe melk koeien gevonden.sdk1985 schreef op dinsdag 12 januari 2016 @ 13:01:
[...]
Juist die vergelijking gaat veel minder op dan de i7 2600K vs i7 6700K waar jij op reageert. Zo zou ik de e8400 eerder aan een i3 hangen. In die tijd hadden we ook een hele serie quadcores die beter matchen met een i5. Verder is het dus inderdaad het high-end segment dat iets meer afstand heeft genomen. Vermoedelijk omdat we rond de 2600K nog in een "crisis" zaten en het nu gewoon wat beter kan.
Wat bij videokaarten speelt is dat wij nogal last hebben van euro/dollar koers veranderingen. Soms speelt dat in eens voordeel en andere keren (zoals nu) in ons nadeel. Als je de msrp (jn dollars) van de normale modellen vergelijkt dan zijn videokaarten eerder goedkoper dan duurder geworden. Tijdje terug hier al eens een overzichtje gemaakt van alle GTX x6x. Er is echter wel een nieuwe class van super high-end bijgekomen.
Overigens is de GTX 970 nu de meest populaire kaart uit de steam harware survey. Dus blijkbaar zijn "we" meer bereid te betalen tegenwoordig. Vroeger waren het meer de GTX 260 en 4870 die hoog stonden (zo ver ik me kan herrinerne).
Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x
Kleine correctie. De Titan Z is op basis van Kepler. Er is geen Dual-GPU op basis van Maxwell op dit moment.Verwijderd schreef op dinsdag 12 januari 2016 @ 15:01:
Een GTX 260 en GTX 280 zijn gebaseerd op de GT200 GPU van nVidia, dit is de high-end chip van die generatie. Een GTX 970 en GTX 980 hebben niet de beschikking over een high-end chip, de GM200 welke in de GTX 980 Ti, Titan X en dual GPU Titan Z zijn terug te vinden. De GTX 970 en GTX 980 beschikken over een GM204 GPU.
Mwa je had (een jaar later) ook nog de GTX 275, toen ik een GTX 260 aanschafte was dat al een optie. Dus voor mij is de GTX 275 dus meer een match voor de GTX 970. Toch is het inderdaad deze keer een beetje apart omdat de GTX 960 Ti nooit is gekomen en de GTX 960 wel een beetje tegenvalt. Maar goed, om daarom meteen over 7 jaar te oordelen gaat me wat ver. Je had in ieder geval rond die tijd de duurdere GTX 275, GTX 280, GTX 285 en GTX 295. Voor AMD de 4890 en 4870 X2.hubhib schreef op dinsdag 12 januari 2016 @ 14:54:
[...]
Ten tijde van de GTX 260 en 4870 had je ook niet veel GPU's die daar boven zaten. Bij nVidia had je de GTX 280 als top kaart en bij AMD was de 4870 de top kaart tijdens de release. Pas later zijn de GTX 275, 4890 en 4870 X2 aan beide lijnen toegevoegd. Je zou daarom de GTX 260 prima kunnen vergelijken met de GTX 970. De prijzen zijn volgens mij wel degelijk gestegen. Daarnaast hebben we er een hele groep nieuwe kaarten bij gekregen. Een soort van super enthousiast kaarten waar de Titan X, GTX 980 Ti en Fury X onder vallen. AMD en nVidia hebben weer een paar nieuwe melk koeien gevonden.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Zat nogal wat sarcasme aan het eind van het stukwinwiz schreef op woensdag 13 januari 2016 @ 15:28:
Wisten jullie dat het groene kamp zeker een jaar voor loopt met 14/16 nm?
https://semiaccurate.com/...ad-of-1416nm-competition/
Het stuk impliceert dat het fake is.So to wrap it up, Nvidia CEO Jen-Hsun Huang showed off what he said were two Pascal GPUs in an Nvidia Drive PX 2 module. The date codes on the devices he held up made it very clear that they had been sitting on these devices for a week or two short of a year, no one else was even close to large 16nm FinFET GPUs at the time. Even TSMC could not produce such parts for months afterwards, their process wasn’t actually ready at the time. And the performance is more than 2x that of 28nm AMD devices even without the HBM memory that Pascal was supposed to require.
It all has to be true because as an executive in a publicly traded company with press and analysts who cover and trade Nvidia in the room, he is obliged by the SEC to be truthful. The only other explanation is that he knowingly lied to the press and analysts and showed a fake card in his keynote, something that would clearly be illegal. Jen-Hsun would never do something like that, right?S|A
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Graphene; a material that can do everything, except leave the lab. - Asianometry
En niet eens een goede fake, van die fake-fermi hadden ze zo te zien nog een beetje werk gemaakt.Verwijderd schreef op woensdag 13 januari 2016 @ 15:59:
Natuurlijk is het nep, het is nVidia.
Verwijderd in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 133"
People as things, that’s where it starts.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
[ Voor 29% gewijzigd door Sp3ci3s8472 op 13-01-2016 22:57 ]
Wat is er mis met een E-350 en waarom zou ik geen Windows reinstall na 4 jaar mogen doen... Heb ik een keer iets van AMD is het weer niet goedmadmaxnl schreef op woensdag 13 januari 2016 @ 19:02:
Ben je nu serieus nog altijd aan het k*tten met die E-350. Niet lullig bedoeld, maar heeft het ooit allemaal maar behoren gewerkt? Zo ja waarom fix it untill It's broken?
Zo even uit het hoofd 2. Ik meen me te herrineren dat er drivers waren meegeleverd voor HDMI sound, sata (mogelijk de 5e poort) en USB (overbodig). Heb nu het oude OS teruggezet en daar 14.x overheen gegooid. Daarna kon de pc weer uit standby komen (het probleem). Reinstall is nog wel de bedoeling, alleen dan heb ik wel even alle drivers nodig anders blijf ik bezig. Nu werkt alles in ieder geval.Verwijderd schreef op woensdag 13 januari 2016 @ 19:00:
Bij wat oudere producten wordt vanaf Windows 7 vaak de chipset drivers zelf wel geïnstalleerd mits er een internet verbinding is. Hoeveel apparaten zijn er dan niet geïnstalleerd in apparaatbeheer?
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
sdk1985 schreef op woensdag 13 januari 2016 @ 22:06:
[...]
Wat is er mis met een E-350 en waarom zou ik geen Windows reinstall na 4 jaar mogen doen... Heb ik een keer iets van AMD is het weer niet goed.
[ Voor 31% gewijzigd door eL_Jay op 15-01-2016 23:33 ]
Nvidia heeft gewoon veel meer in hun marketing geïnvesteerd, en plukt daar nu de vruchten van. Dat is standaard bedrijfsvoering.Verwijderd schreef op vrijdag 15 januari 2016 @ 23:31:
Het grote probleem is dat het vooral de noobs zijn die voor nVidia kiezen en meer dan 95% van de mensen kun je scharen onder die categorie. Op HWI is dat ook duidelijk, daar zijn toch mensen met heel wat minder kennis dan in het AMD en nVidia topic hier. En die reactie daaronder maken dat ook vrij duidelijk, verreweg de meeste mensen daar hebben de voorkeur voor nVidia en vaak door gewoon slechte kennis van het onderwerp. nVidia is bekender dus beter is de conclusie, zie je bij elk merk en elk product overal ter wereld.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
People as things, that’s where it starts.
[ Voor 93% gewijzigd door madmaxnl op 16-01-2016 15:11 ]
Ashraf Eassa is a technology specialist with The Motley Fool. He writes mostly about technology stocks, but is especially interested in anything related to chips -- the semiconductor kind, that is.
...
Hiervoor kan je beter even een eigen topic maken. Dit topic is niet voor zulke vragen bedoelt.Luxicon schreef op zaterdag 16 januari 2016 @ 16:46:
Sinds een week heb ik een Powercolor R9 290 4GB PCS+. Deze lijkt (vanuit de fabriek) te zijn overclocked. Klopt dat? Deze kaart kan ik overigens niet unlocken naar een R9 290X. Het is verder vast niet aan te raden om verder te clocken? Volgens bepaalde info zou een overclocked R290, een prestatie leveren, precies tussen de R9 290 en R9 290X in.
Dat verklaart niet waarom Radeon sinds +- 2010 een dalend marktaandeel heeft. Of verklaar je dit doordat consumenten in het algemeen dommer zijn geworden? Mompelt iets over megalomanie. Een logischere verklaring is dat vanaf dat moment de beslissingen die AMD, in plaats van Ati, effect beginnen te krijgen op de verkoopresultaten en de producten. Dat is immers 2-3 jaar na de overname.Verwijderd schreef op vrijdag 15 januari 2016 @ 23:31:
Het grote probleem is dat het vooral de noobs zijn die voor nVidia kiezen en meer dan 95% van de mensen kun je scharen onder die categorie. Op HWI is dat ook duidelijk, daar zijn toch mensen met heel wat minder kennis dan in het AMD en nVidia topic hier. En die reactie daaronder maken dat ook vrij duidelijk, verreweg de meeste mensen daar hebben de voorkeur voor nVidia en vaak door gewoon slechte kennis van het onderwerp. nVidia is bekender dus beter is de conclusie, zie je bij elk merk en elk product overal ter wereld.
[ Voor 20% gewijzigd door sdk1985 op 16-01-2016 17:57 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.



[ Voor 72% gewijzigd door madmaxnl op 16-01-2016 18:09 ]
Goed dat ze daar dan een keer open over zijn. RGT is een stap in de goede richting. Hiermee doel ik op volledige afsplitsing van Radeon van AMD. Wie weet gaat dat gebeuren op het moment dat RGT het goed doet en AMD zelf weer een zak geld nodig heeft. De tijd zal het leren.We haven’t been focused on discrete graphics over the last several years. We’ve pursued integration and other strategies. But we believe that to get to an instinctive computing world, discrete graphics will be central. It’s a very healthy market, 80 million discrete APUs sold last year. We believe that will grow, not shrink, because of the trends we’ve seen, like VR. We want a focus from business, engineering, architecture, content, all under one division.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
[ Voor 94% gewijzigd door madmaxnl op 16-01-2016 20:33 ]

[ Voor 21% gewijzigd door Sp3ci3s8472 op 17-01-2016 00:16 . Reden: Niet VR maar wel VR headset ]
Nope. Gewoon 3D brillen.Sp3ci3s8472 schreef op zaterdag 16 januari 2016 @ 21:40:
[afbeelding]
Ze zijn duidelijk met VR bezig.
Graphene; a material that can do everything, except leave the lab. - Asianometry

Graphene; a material that can do everything, except leave the lab. - Asianometry
Verwijderd
[UPDATED Jan 16 2016, 08:50 PM ET ]
We’ve reached out to AMD for comment and despite it being a Friday night they were kind enough to come back to us with the following statement :
Ze kunnen dus zonder problemen wisselen tussen HBM(2) en GDDR5. De werkende Polaris chip die ze lieten zien gebruikte GDDR5. Goed om te zien dat ze zo'n zuinige videokaart icm GDDR5 kunnen maken.AMD has confirmed that its next generation Polaris graphics cards will feature both HBM2 and GDDR5 memory technologies. Speaking to MaximumPC at CES 2016, technical marketing lead for AMD, Robert Hallock reiterated the company’s commitment to the advanced High Bandwidth Memory technology dubbed HBM unveiled by the company last year.
Ja klopt maar in CF houd je vaak maar de helft over per kaart (mits je een CPU van 600 euro aanschaft). Ik weet niet of er spraken is van een bottleneck, vandaar dat ik graag een test/onderzoek zou willen zien dat hier uitsluitsel over geeft. Ik kan me namelijk niet voorstellen waarom nVidia anders met nVlink op de proppen komt. Blijkbaar voldoet PCI-e 3.0 en straks PCI-e 4.0 niet aan de bandbreedte die zij nodig denken te gaan hebben in supercomputer/server omgevingen.NitroX infinity schreef op zondag 17 januari 2016 @ 13:33:
Kaarten zitten toch lang nog niet aan de maximale bandbreedte van PCIe 3.0? Ik meende dat de snelste rond PCIe 2.0 x8 zitten. PCIe 3.0 x16 is ongeveer 4x zoveel bandbreedte als dat.
En toch is het zo. De marktcijfers slaan niet alleen op ons "hardcore" gamers en tweakers. 80% van de markt voor "discrete" GPUs komt gewoon neer op kant-en-klare huis-tuin-en-keuken PC's. En ja, onder de gemiddelde consument is Nvidia bekender dankzij hun marketing; of beter gezegd, AMD's gebrek daaraan. Vraag voor de gein eens rond in je eigen familie; niet degenen die er verstand van hebben, maar juist je tante die patience wil spelen en een beetje internetten. De personen die het over "internet opstarten" (browser? wat is dat?sdk1985 schreef op zaterdag 16 januari 2016 @ 17:47:
Verder lijkt het mij heel sterk dat Nvidia bekender is dan AMD. Iemand die zelf een videokaart koopt zal echt wel in aanraking komen met het een Radeon kaart. Er zijn immers maar twee merken. Nvidia heeft natuurlijk wel een betere reputatie. Of dat terecht is, is een lange en lastige discussie. Maar dat is iets anders dan naamsbekendheid.
Ik vindt het eigenlijk te ver gaan om 76% van de gpu kopers noobs te noemen (95% van 80%). Dat kun je toch niet serieus menen... Alle reviews met enige autoriteit waren bijvoorbeeld erg enthousiast over de GTX 970. Techpowerup gaf hem een 9.9. Niet heel vreemd dat het dan goed verkoopt. Op de frontpage had ik zo iets met -1 beoordeeld onder het motto flamebait.
Verwijderd
Helaas voor AMD fraudeerde intel een hele tandkundige industrie bij elkaar door omkoping & bedreiging van vrijwel alle retailers. Intel heeft daar later een miljard dollar aan boete voor betaald, imho nog steeds een lachertje gezien de gigantische omvang van de intel fraude over een aantoonbaar veel langere periode.Werelds schreef op zondag 17 januari 2016 @ 20:34:
[...]
............
Al zou AMD kopje onder gaan, dan wordt die GPU tak overgenomen of wellicht weer zelfstandig. De overname was immers niet om ATI te redden, die overname was omdat AMD op dat moment op Intel voor lag en dacht dat ze hun voorsprong zo konden behouden. Helaas voor hen zette Intel geen tandje, maar een heel gebit bij.
Die laatste opmerking is een beetje onnodig en overdrevenVerwijderd schreef op maandag 18 januari 2016 @ 01:38:
Efficiency word zwaar overschat, zowel in Cpu als Gpu land. Voor beiden geld nog steeds dat bijna alle consumenten systemen dik 90 procent van de tijd Idle draaien. Daar ontlopen Intel/AMD/Nvidia elkaar gewoon niet heel erg veel. Voor Gamers: Game je meer dan 4 uur per dag dan heb je grotere problemen dan je stroomverbruik en doe je er verstandig aan om geld te reserveren voor de Game-verslavingszorg.
Inderdaad. Bij CPU's zie je nu een trent dat ze zelfs iets zuiniger worden. Enkele Enthousiast modellen zijn nog wel 120+ watt maar het merendeel zit er onder.Verwijderd schreef op maandag 18 januari 2016 @ 13:04:
En efficiëntie bepaald ook de absolute performance, een videokaart niet oneindig veel verbruiken. We zitten nu met de high-end al jaren tegen de bovengrens van zo'n 300W voor een single GPU videokaart. Wil je dus meer prestaties dan moet de kaart efficiënter worden en daarom is performance/watt ook zo belangrijk.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Om precies te zijn de: Performance per Dollar per Watt. ...(performance/dollar/watt)Verwijderd schreef op maandag 18 januari 2016 @ 13:04:
En efficiëntie bepaald ook de absolute performance, een videokaart niet oneindig veel verbruiken. We zitten nu met de high-end al jaren tegen de bovengrens van zo'n 300W voor een single GPU videokaart. Wil je dus meer prestaties dan moet de kaart efficiënter worden en daarom is performance/watt ook zo belangrijk.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Verwijderd
Dank voor de link uiteraard.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Nee, Nee, Nee, Nee, Nee, Fout Fout Fout.Werelds schreef op zondag 17 januari 2016 @ 20:34:
[...]
Toen 3DFX de Voodoo uit bracht, draaide alles om hen in combinatie met een 2D ATI chip.
[ Voor 3% gewijzigd door enchion op 18-01-2016 20:25 ]
How do you save a random generator ?
Ik had het zelfs nog over een jaar of 2-3 eerder dan de G200 en G400 (1998 en 1999 als ik me niet vergis?), een Millennium zou dan inderdaad de "andere" optie geweest zijn tegenover ATIenchion schreef op maandag 18 januari 2016 @ 20:19:
[...]
Nee, Nee, Nee, Nee, Nee, Fout Fout Fout.
Matrox G200 of G400 was de beste combinatie.![]()
Ook naast 3dfx erg jammer dat Matrox inmiddels is verdwenen voor de normale thuisgebruiker, vondt het altijd een tof merk om te supporten.
Nog steeds liever een Matrox G9000 met een 3dfx voodoo 9000 erbij dan AMD en nVidia wmb.
GPU vreten zoveel omdat daar wel concurentie is op gelijke procede. En dan zal er eentje net wat meer power vragen dan de ander.Astennu schreef op maandag 18 januari 2016 @ 13:21:
[...]
Inderdaad. Bij CPU's zie je nu een trent dat ze zelfs iets zuiniger worden. Enkele Enthousiast modellen zijn nog wel 120+ watt maar het merendeel zit er onder.
Ik ben wel benieuwd hoe dat zich de komende jaren gaat ontwikkelen. Ik ben benieuwd of GPU's straks ook wat omlaag zullen gaan.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Inderdaad. Wellicht versprekingVerwijderd schreef op maandag 18 januari 2016 @ 19:44:
[...]
Dank voor de link uiteraard.
Hij heeft het vreemd genoeg over "80 million discrete APU's".
""It’s a very healthy market, 80 million discrete APUs sold last year.""
Dat begrijp ik niet goed", discrete & APU zijn imho twee tegenpolen.
Het een is een aparte grafische kaart en het ander een combinatie van Cpu&Gpu.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Verwijderd
Die Koduri heeft iig ambities genoegHelp!!!! schreef op dinsdag 19 januari 2016 @ 08:44:
[...]
Inderdaad. Wellicht verspreking
De hernieuwde focus en inrichting onder Koduri is een stap in de goede richting.
Goed om te zien dat ze hun ambities op vergezichten stoelen. Daarnaast lijkt het echt of Koduri een soort van vrije hand heeft gekregen om van scratch te beginnen en alle elementen (hardware, software, , samenwerking, marketing etc.) aan te pakken die nodig zijn om successen te boeken. En daarnaast ook zelf als boegbeeld te fungeren in de pers. Net als iedereen erg benieuwd hoe dit gaat uitpakken.
Polaris lijkt qua hardware te vroeg te komen voor hem om daar nog bepalende invloed op uit te oefenen qua design.
Wel moet ik zeggen dat ik nvidia’s uitstap(je) naar hardware voor auto’s ook wel interessant vind. Zelf heb ik geen kennis van die markt maar het lijkt zo op het eerste gezicht een erg interessante groeimarkt. Iemand enig idee of en wat AMD doet / gaat doen in die markt.
Hebben ze dat echt geprobeerd dan?Verwijderd schreef op dinsdag 19 januari 2016 @ 13:39:
Waarom het AMD tot dusver niet goed lukt om in auto systemen aan de bak te komen weet ik niet.
Mechwarrior Online: Flapdrol
Maar ook meer in R&D. R&D budget van Nvidia is groter dan AMD's TOTALE R&D budget (CPU/GPU).ColinZ schreef op zaterdag 16 januari 2016 @ 00:16:
[...]
Nvidia heeft gewoon veel meer in hun marketing geïnvesteerd, en plukt daar nu de vruchten van. Dat is standaard bedrijfsvoering.
Stuur ff een berichtje naar Techpowerup. Zou leuk zijn als ze daar iets mee gingen doen.Verwijderd schreef op maandag 18 januari 2016 @ 14:58:
[...]
Om precies te zijn de: Performance per Dollar per Watt. ...(performance/dollar/watt)
[ Voor 64% gewijzigd door eL_Jay op 19-01-2016 16:29 ]
Verwijderd
Dat mag ik wel hopen dat ze dat iig proberen.........
Uiteraard is het beter om meer R&D budget te hebben echter het zegt gelukkig ook niet alles. Je moet het namelijk wel ook zinvol besteden. Als je het breed hebt kun je ook snel lui of gemakzuchtig worden.eL_Jay schreef op dinsdag 19 januari 2016 @ 16:17:
[...]
Maar ook meer in R&D. R&D budget van Nvidia is groter dan AMD's TOTALE R&D budget (CPU/GPU)
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Ik kan me hier niet in vinden. Waar is Intel dan? En hoe denk jij dat AMD aan het geld komt om nieuwe markten aan te kunnen boren? Ze kunnen in de markten waarin ze al actief zijn moeilijk hun hoofd boven water houden. Zouden ze volgens jou ook nog mee moeten gaan doen aan die concurrentie slag met veel concurrentie en veel kapitaal krachtigere concurrentie. Auto fabrikanten kunnen nu volgens mij sowieso zelf bij AMD aankloppen en een custom SoC laten ontwikkelen geheel naar wens. Zo heeft AMD veel meer financiële zekerheid afhankelijk van de gemaakte afspraken/contracten.Verwijderd schreef op dinsdag 19 januari 2016 @ 16:23:
[...]
Dat mag ik wel hopen dat ze dat iig proberen.........
De hele auto industrie links laten liggen op een moment dat zelfrijdende auto's in ontwikkeling zijn zou niet erg bijdehand zijn.
[ Voor 4% gewijzigd door madmaxnl op 19-01-2016 18:02 ]
Verwijderd
Ik heb echt geen flauw idee waar je op doelt maar AMD is gewoon bezig om zijn Embedded systemen te verkopen in een markt die ze actief aan het verbreden zijn (daar besteden ze dus wel degelijk tijd en geld aan, zie alle presentaties). De auto industrie valt daar dus ook onder. Net als Medisch, In-flight, Gambling, Militair, etc.madmaxnl schreef op dinsdag 19 januari 2016 @ 18:00:
[...]
Ik kan me hier niet in vinden. Waar is Intel dan? En hoe denk jij dat AMD aan het geld komt om nieuwe markten aan te kunnen boren? Ze kunnen in de markten waarin ze al actief zijn moeilijk hun hoofd boven water houden. Zouden ze volgens jou ook nog mee moeten gaan doen aan die concurrentie slag met veel concurrentie en veel kapitaal krachtigere concurrentie. Auto fabrikanten kunnen nu volgens mij sowieso zelf bij AMD aankloppen en een custom SoC laten ontwikkelen geheel naar wens. Zo heeft AMD veel meer financiële zekerheid afhankelijk van de gemaakte afspraken/contracten.
Ik denk niet dat AMD speciaal een chip gaat ontwerpen in de hoop een voet tussen de deur te krijgen bij een van de auto fabrikanten? Pipe dream
Dit topic is gesloten.
![]()
Apple iPhone 17 LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2026
•
Hosting door TrueFullstaq