Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Zo leuk als het klinkt, zoals hierboven al gesuggeerd wordt moet het echt van AMD gaan komen nu...
Vega 64 en 56 zijn 486mm², GTX 1070 en 1080 zijn 314mm² dus die brengen wel even meer geld in het laatje dan Vega.Paprika schreef op vrijdag 18 augustus 2017 @ 16:08:
[...]
Ik betwijfel dat de GTX1070/80/80Ti en Titan modellen niet voor winst zorgen...
De RX 580 en GTX 1060 zitten dichter bij elkaar in de buurt (resp. 232mm² en 200mm²).
Een 3072 shader tellende Polaris chip met 512bits geheugenbus had in de buurt gezeten van de GTX 1070. Zowel qua prestaties als die-size en was dus een veel betere optie dan Vega 56 geweest.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Verwijderd
niet dusThe Source schreef op vrijdag 18 augustus 2017 @ 15:44:
[...]
Wie zegt dat er die wel gaan komen van ons...
eerst 100 vega tegen droomprijs uitbrengen dan komen de reviews:
AMD Radeon RX Vega 56 / 64 review: minder euro's, meer watts
mooie tittel/review/youtube, die hebben ze in hun pocket.
nu ga AMD vega prijzen verhogen met €100.
https://nl.hardware.info/...delijke-kickbacks-van-amd
Stiller zat er dik in, dit is interessanter.winwiz schreef op vrijdag 18 augustus 2017 @ 16:17:
ASUS Radeon Strix RX Vega 64 preview: sneller en vooral stiller
https://nl.hardware.info/...iets-sneller-veel-stiller
Kan iemand anders bevestigen dat de stock koelers inderdaad de maximale boostclock niet halen, en lagere niet vast kunnen houden? Geloof het eigenlijk wel, maar een tweede bron kan geen kwaad. Ook weer een reden waarom stock koelers gewoon knudde zijn. Verder alweer minder prestaties bij launch wat later ingehaald moet worden, als niemand het ziet want zeer weinig post launch benchmarks...Ondanks verschillende packages wist AMD de Vega-gpu's iets hoger te klokken dan AMD dit bij zijn referentiekaarten doet. Dat is geen kwestie van simpelweg de maximale boostclock verhogen, want die wordt zelden gehaald, wist de r&d-afdeling te vertellen. In de referentiekaarten zou deze zogeheten dpm7-modus vrijwel nooit geactiveerd worden. Alleen als de powerlimit verhoogd wordt, kan die dpm7 gerealiseerd worden, anders blijft de gpu overwegend in dpm5-modus en soms in dmp6-modus steken. Door echter de dpm5- en dmp6-powerlimits te verhogen van respectievelijk 200 en 220W naar 240 en 260W, kunnen de hogere kloksnelheden langer aangehouden worden. Dat levert volgens Asus een gemiddelde kloksnelheid van 1458MHz tegen het refentiekaartgemiddelde van 1371MHz op, oftewel een winst van 6,3 procent.
Voor de prijzen waarvoor ze verkocht worden, en het formaat van de chips? Natuurlijk zit daar winst. Zou zo €100 vanaf kunnen voor elke kaart en dan nog. Dat gaat Nvidia echt niet doen. Ze zien daar veel te veel groen voor.Paprika schreef op vrijdag 18 augustus 2017 @ 16:08:
[...]
Ik betwijfel dat de GTX1070/80/80Ti en Titan modellen niet voor winst zorgen...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
1760 vasthouden was ook geen punt, heb alleen wel permanente gehoorbeschadiging nu.
Niets mis mee?The Source schreef op vrijdag 18 augustus 2017 @ 00:37:
[...]
Niets mis mee hoor, gewoon launch partners.
Ik zou daar als Asus/MSI/Gigabyte/etc echt niet tussen gaan zitten, dat soort praktijken moet je niet willen faciliteren. Ook niet onder de noemer 'launch partner'. AMD heeft niet bepaald leverage met de beperkte oplage.De Noorse site Tek.no sprak met Komplett en deze winkel bevestigde dit verhaal: ook daar compenseerde AMD de shop voor het met verlies verkopen van de eerste kaarten (275 stuks in het geval van Komplett). Al met al lijkt dit dus een opzettelijke actie om de kaarten op zeer tijdelijk voor de beloofde scherpe adviesprijs in de winkel te leggen.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Het is niet zo ingewikkeld, op driver niveau is de hashrate eenvoudig te verpesten. Zal waarschijnlijk wel een kat en muis spelletje worden, maar het zal de vraag zeker drukken. Zeker wanneer AMD dit niet had aangekondigd dat ze naar bepaalde executables scannen en in elke review een onverklaarbaar lage hashrate van 10 MT/s had gestaanWerelds schreef op vrijdag 18 augustus 2017 @ 11:36:
[...]
Als jij denkt dat AMD op die manier hun range zou kunnen splitsen vrees ik dat je misschien toch eens moet uit zoeken hoe mining werkt (en dan vooral ETH bijvoorbeeld) en hoe AMD's GPU's in elkaar steken. De enige manier waarop AMD iets "weg kan laseren" voor mining is door dat ook voor gaming te doen.
...
Het ligt allemaal iets ingewikkelder dan jij lijkt te denken
Echter AMD doet precies het tegenovergestelde; ze komen met een driver die de hashrate verbetert.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Dus met een custom waterblok is het zeker een interessante kaart dan op zich?Foritain schreef op vrijdag 18 augustus 2017 @ 16:40:
Ik meen dat ik met +5% powerlimit genoeg had om die 1630 oid vast te houden. Op 100% knikkert ie tussen 1530/1630. Vond dat nu niet schrikbarend.
1760 vasthouden was ook geen punt, heb alleen wel permanente gehoorbeschadiging nu.
Fermi deed natuurlijk wel een paar dingen goed. Het was de snelste single card gpu en zeker nu weten we dat je dat beter kunt hebben dan een dual-card oplossing. Daarnaast werd Fermi ook mid-range toegepast. Waaronder in de GTX 460. Daar was het verschil in performance per watt beperkt tot tot 10% (indexatiewaarde); https://www.techpowerup.com/reviews/MSI/GTX_460_HAWK/29.htmlsjekneck schreef op donderdag 17 augustus 2017 @ 20:23:
[...]
Speaking of Fermi, het is bijna grappig hoeveel overeenkomsten Vega heeft ten opzichte van Fermi. Grote chip, groot verbruik, niet overtuigend snel ivm de kleinere counterpart van de concurrent, warm, luid, sterk in compute en laat door vertraging.
Aka Vega = Fermi
Vega is bij lange na niet de snelste single gpu en het simpele model loopt nog circa 40% (indexatiewaarde) achter op performance per watt. Met andere woorden; vega is een stukje dramatischer. Maar nogmaals; het is beter dat AMD *iets* uitbrengt in high-end dan dat ze helemaal niet mee doen. Niet iedereen hecht waarde aan het stroomverbruik. Alleen het prijsschandaal, ja dat hadden ze nou net niet moeten doen...
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Wow juist wowThe Source schreef op vrijdag 18 augustus 2017 @ 15:44:
[...]
Wie zegt dat er die wel gaan komen van ons...
Aan de andere kant als de prijzen echt zo hoog worden als gevreesd dan gaan de enige kopers miners zijn en die willen wellicht niets anders dan stock coolers + underclocked/undervolted gpu's te draaien.
Maw ziet MSI wellicht amper of niet hun geïnvesteerd kapitaal terug met de verkopen
Maar tot nu toe heb ik nog niet veel geweten dat fabrikanten zich terug trokken van de custom markt omdat hun marge zo klein werd

Tis in ieder geval niet echt een goed teken, aan andere kant mss kan MSI iets uitbrengen als de prijzen gestabiliseerd zijn na de minig hype?
Niet enkel de GTX460 was relatief niet zo slecht, de Ti ervan had je eigenlijk jaren plezier aan hoewel die toch nog veel lawaai maakte (zo zie je tis niet het vermogen maar de hitte/lawaai waarvan je de grootste nadelen hebt).sdk1985 schreef op vrijdag 18 augustus 2017 @ 17:50:
[...]
Fermi deed natuurlijk wel een paar dingen goed. Het was de snelste single card gpu en zeker nu weten we dat je dat beter kunt hebben dan een dual-card oplossing. Daarnaast werd Fermi ook mid-range toegepast. Waaronder in de GTX 460. Daar was het verschil in performance per watt beperkt tot tot 10% (indexatiewaarde); https://www.techpowerup.com/reviews/MSI/GTX_460_HAWK/29.html
Vega is bij lange na niet de snelste single gpu en het simpele model loopt nog circa 40% (indexatiewaarde) achter op performance per watt. Met andere woorden; vega is een stukje dramatischer. Maar nogmaals; het is beter dat AMD *iets* uitbrengt in high-end dan dat ze helemaal niet mee doen. Niet iedereen hecht waarde aan het stroomverbruik. Alleen het prijsschandaal, ja dat hadden ze nou net niet moeten doen...
Vooral de MSI variant die nu in m'n vader z'n pc zit klinkt gelijk een opstijgende F-16 telkens hij world of tanks opstart/speelt.
Maar qua performantie zijn die kaartjes zalig.. (maar dat geluid .. ) op full hd natuurlijk hoger zal die kaart wellicht zijn tekorten tonen.
[ Voor 48% gewijzigd door lightdestroyer op 18-08-2017 18:15 ]
Inderdaad, we hebben ook geen custom Fury (X) of Nano kaart van jullie gezien. Met een nog kleinere oplagen gaan jullie niet de resources daarin steken.The Source schreef op vrijdag 18 augustus 2017 @ 15:44:
[...]
Wie zegt dat er die wel gaan komen van ons...
Waarom niet op z'n asus's doen?madmaxnl schreef op vrijdag 18 augustus 2017 @ 18:37:
[...]
Inderdaad, we hebben ook geen custom Fury (X) of Nano kaart van jullie gezien. Met een nog kleinere oplagen gaan jullie niet de resources daarin steken.
Je neemt een koeler van een andere kaart: (1080ti) je gooit er een kwak koelpasta tussen om de verschillen tussen de 2 (of nog meerdere?) varianten van de gpu op te vangen en je moet enkel nog naar de vrm's omkijken.. *tadaa* "custom" card ready.
Soit als je verwacht er geen of bijna geen te verkopen is zelfs die moeite er teveel aan natuurlijk.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Kaarten met een beperkte oplagen van 500 kaarten hebben we wel eens van Asus gezien. Hoe veel Vega kaarten verwacht je dat er überhaupt beschikbaar zijn? Dertig a veertigduizend kaarten gok ik zo (voor consumenten). De rest gaat allemaal naar servers e.d.
Een custom RX Vega 56 is interessanter. Natuurlijk is dit gewoon hetzelfde ontwerp als voor de grote broer, maar dat is verder niet echt relevant. Wel relevant is dat AMD het zich eigenlijk niet kan of gaat veroorloven om volledig functionele Vega 10 chips te verkopen als RX, tenzij ze echt met stapels chips komen te zitten omdat niemand een Radeon Pro of Instinct koopt. Onwaarschijnlijk want daar zullen presteren die chips behoorlijk in veel taken en applicaties. Een software ecosysteem is er nu ook van AMD, door CUDA ondersteuning voor applicaties botweg om te zetten naar AMD compatibel. Genoeg markten en openingen voor Vega 10 hier voor de haast onverzadigbare lust naar rauwe compute FP16 en FP32 prestaties.
Een RX Vega 48 zou ook kunnen helpen om kosten per wafer te drukken, en deze door te bereken aan de AIB partners. Het blijft staan dat deze chips enorm zijn, en er weinig ruimte zal zijn voor prijsdalingen. Het blijft zo dat elke wafer een kostprijs heeft, en er een bepaald aantal chips verkocht moeten worden, tegen een bepaalde prijs, om de kosten van die wafer terug te verdienen. Extra chips uit een wafer halen, ook al verkoop je ze voor minder, helpt enorm. Tenzij iemand een heel goede (productie)technische reden kan geven waar om niet, zou ik het wanbeleid vinden als er niet tenminste gedacht wordt over een dergelijke chip voor de RX lijn.
Aan de andere kant moet je ook echt niet onderschatten waarom er nu opeens informatie is over krappe marges. Dat is ook een politiek steekspelletje. AMD probeert duidelijk het absoluut maximale uit elke RX Vega 10 chip te persen, en dat gaat ten koste van winstmarges voor de rest van de leveringsketen. Kennelijk voelen ze zich gesterkt binnen de RTG om dit te doen, of het is pure noodzaak. Waarschijnlijk beide. AMD is ook niet noodzakelijkerwijs afhankelijk van haar AIB's om Vega 10 chips te verkopen. Nee, die verkopen ze lekker aan Apple, Alienware (Dell) en de HPC markt. Wou je er nog een Epyc Threadripper bij?
AIB's hebben een leefbare marge nodig, anders lopen ze weg. Die gaan ze denk ik niet krijgen voor de volle Vega 10 chip. Over RX Vega 56 chips kan denk ik wel gepraat worden, en dat zou de inzet moeten zijn. Los daarvan zou een RX Vega 48 wederzijds behulpzaam zijn hier. Meer omzet voor de AIB's, kosten drukkend voor AMD die tenminste gedeeltelijk doorberekend kunnen worden.
AMD zal niet failliet gaan van Vega, verre van maar nu in Q3 en Q4 moeten er na jaren eindelijk weer winsten genoteerd gaan worden. Dat lijkt volledig af te gaan hangen van Zen tenzij Vega 10, snel, enorm gaat lopen voor de HPC markt.
Daar zit een ander probleem voor AMD, namelijk dat het bedrijf effectief in twee delen is gesplitst die heel anders opereren. Kijk alleen naar het verschil in marketing tussen de twee. CPU AMD is daar zoveel beter in dan de RTG. Natuurlijk is Zen heel wat makkerlijker te verkopen, maar de RTG faalt zelfs om een drol te laten glanzen nu, en dat is een basisprincipe van marketing. Ze maken een matig product nu alleen maar erger en erger...
Iets anders, en hier komen we in het rijk der geruchten, is dat het niet zo lekker zou boteren tussen Lisa Su en Raja Koduri.
https://www.hardocp.com/a..._back_journey_in_futility
Klopt dit, losstaand van theorieën over een apart ATi, gaat niet gebeuren, dan heeft Raja nu een probleem. Drie jaren en elk jaar een nieuwe achitectuur, tweemaal mis, eenmaal redelijk. Dan nog slechte marketing, of dat nu nog steeds features missen van Vega 10, zeker een feature zoals Primitive Shaders die in theorie een behoorlijk prestatieverschil zou kunnen bewerkstelligen. In theorie, want we moeten het nog zien. Dat zoiets niet functioneert is botweg onacceptabel voor een chip die ruim een jaar geleden al haar tape-out had...
Ik denk dat het ook geen toeval is dat je niks van Raja hoort nu RX Vega er is. Hij heeft niks te vieren...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
PCB design hoeft niet meer te gebeuren zeker?madmaxnl schreef op vrijdag 18 augustus 2017 @ 18:50:
Moet je niet aan mij vragen. Ik denk er net zo simpel over, maar begrijp daarentegen ook dat er waarschijnlijk heel wat meer bij komt kijken m.b.t. rendabiliteit.
Ja joh, dat werkte voor Furmark en z'n afgeleiden welgeteld 5 minuten voordat iedereen het door had toen Nvidia dat probeerdesdk1985 schreef op vrijdag 18 augustus 2017 @ 17:40:
[...]
Het is niet zo ingewikkeld, op driver niveau is de hashrate eenvoudig te verpesten. Zal waarschijnlijk wel een kat en muis spelletje worden, maar het zal de vraag zeker drukken.
Naar bepaalde executables of handtekeningen scannen kan wel, maar dat is zo eenvoudig te omzeilen dat juist miners er schijt aan zouden hebben. Zo'n oplossing is veel te simplistisch en zou van z'n leven niet werken.
Verwijderd
Bij PCPerspective maake Josh een opmerking waarvan ik me afvraag of dat er een kern van waarheid in zit: "AMD heeft mogelijk te weinig geïnvesteerd in RTG in de laatste paar jaar om de CPU-afdeling er weer bovenop te krijgen, de grafische kaarten deden het nog redelijk goed in vergelijking met de CPU's. Zou daar een kern van waarheid in zitten of is het gewoon pech hebben met de architectuur, de node (GF in plaats van TSMC) of is de hardware wel OK en komt het uiteindelijk nog wel goed met verbeterde drivers en adoptatie van Vulkan/DX12 en features zoals RPM?
[ Voor 6% gewijzigd door Verwijderd op 18-08-2017 19:43 ]
Pech met hbm2, zeker. LPP is wrsch prima voor RR, niet zo voor vega56+. architectuur presteert bij 150w beter dan polaris. Als RPM in RR zit, en RR laptops goed aanslaan en verkopen, wordt RPM zeker iets. Verbeterde drivers same deal, denk ik (ook omdat het wrsch voorwerk is voor Navi). Adoption rate zal ook afhangen van RR, want als ik OEMs zo zie (zie bijv. de MM website) is Polaris nog grotendeels afwezig, en Vega desktops ook ('vega pack' met mobo+cpu is leuk, maar het schijnt dat niet iedereen zijn eigen PC wil bouwen enzo, dus dat is niet echt een vervanging voor OEMs).Verwijderd schreef op vrijdag 18 augustus 2017 @ 19:42:
Zou daar een kern van waarheid in zitten of is het gewoon pech hebben met de architectuur, de node (GF in plaats van TSMC) of is de hardware wel OK en komt het uiteindelijk nog wel goed met verbeterde drivers en adoptatie van Vulkan/DX12 en features zoals RPM?
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
De hashrate verpesten wordt ook lastig omdat onder linux vrijwel de hele compute driver open source is. Dus als je probeert de hashrate op softwarematig niveau te verpesten wordt dat er trivaal uitgevist.sdk1985 schreef op vrijdag 18 augustus 2017 @ 17:40:
[...]
Het is niet zo ingewikkeld, op driver niveau is de hashrate eenvoudig te verpesten. Zal waarschijnlijk wel een kat en muis spelletje worden, maar het zal de vraag zeker drukken. Zeker wanneer AMD dit niet had aangekondigd dat ze naar bepaalde executables scannen en in elke review een onverklaarbaar lage hashrate van 10 MT/s had gestaan.
Echter AMD doet precies het tegenovergestelde; ze komen met een driver die de hashrate verbetert.
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Zowel jij als @sdk1985 denken hier veel en veel te simplistisch over.Verwijderd schreef op vrijdag 18 augustus 2017 @ 19:42:
Inderdaad, zoals @sdk1985 aangeeft doet AMD juist haar uiterste best om ook de miners te pleasen. Je ziet meerdere mensen hier speculeren over hoe AMD het 'minen' zou kunnen bottlenecken, dat is nogal zinloos aangezien AMD dat niet wil doen. Er kwam een driverupdate om de hashrate te verhogen, een paar weken geleden kwam er een of andere update om het vermogen bij 'minen' te verlagen.
De "mining hash rate fix" zoals hij genoemd wordt mag wel ontdekt zijn door het minen van ETH, maar het onderliggende probleem is (was?) juist een groter probleem. AMD heeft er bij mijn weten niet veel over gezegd, maar het was hoogstwaarschijnlijk een ongewilde bug waarbij ofwel de latency gigantisch omhoog schoot, ofwel de bandbreedte flink zakte bij een bepaalde belasting. Dat is ook slecht voor games, dus ze móesten het wel fixen, anders hadden ze daar weer mee gezeten.
Dat dat dan helaas ook betekent dat er een probleem voor miners opgelost is dan heel zuur ja.
Die bug en bijbehorende fix waren niet gerelateerd aan de verwachtte hashrate drop die er binnenkort nog steeds aan komt. Die drop komt er namelijk aan omdat GPU's met 4 GB VRAM dan tegen de capaciteit limiet aan zitten. Nogmaals: deze bug had met bandbreedte, latency of beide te maken - hij trof zowel 4 GB als 8 GB modellen; en 4 GB modellen van oudere kaarten hadden nergens last van.
En softwarematige castratie zou zoals ik eerder aangaf en @BNieuwenhuizen aan geeft veel te snel "legitieme" gebruikers benadelen. Er is vrijwel niets dat AMD (of AMD) kan doen om de mining capaciteiten van hun kaarten te beperken met drivers.
[ Voor 6% gewijzigd door Werelds op 18-08-2017 20:49 ]
Het is een vorm van een 'oplossing' die in 5 minuten te implementeren is. Die closed source drivers hangen toch al aan elkaar van de applicatie specifieke uitzonderingen. Dat dit niet optimaal en niet permanent gaat werkelijk had ik al onderschreven. Het gaat er meer om het signaal dat je daarmee afgeeft. Mining is nu een geld machine met ROI en onzekerheid daarin in de vorm dat met de volgende driver update je 7 dagen niet kan minen is iets wat reden genoeg kan zijn voor velen om vega maar even over te slaan. Je wint daarmee in het slechtste geval tijd om de gaming markt van Vega te voorzien.Verder zijn er vast genoeg driver engineers die een veel betere oplossing kunnen verzinnen.Werelds schreef op vrijdag 18 augustus 2017 @ 19:30:
[...]
Ja joh, dat werkte voor Furmark en z'n afgeleiden welgeteld 5 minuten voordat iedereen het door had toen Nvidia dat probeerde
Naar bepaalde executables of handtekeningen scannen kan wel, maar dat is zo eenvoudig te omzeilen dat juist miners er schijt aan zouden hebben. Zo'n oplossing is veel te simplistisch en zou van z'n leven niet werken.
Hoe dan ook gaat dit niet gebeuren want AMD lijkt er juist voor te kiezen mining te steunen. De beta driver werd immers op een bitcoin forum aangeboden, en niet op de website van AMD zelf.
Ik dacht dat de closed source driver (de proprietary) voor Linux het beter deed dan de opensrouce opencl. Maar goed ik ben dan ook geen miner dus wat weet ik er vanBNieuwenhuizen schreef op vrijdag 18 augustus 2017 @ 20:18:
[...]
De hashrate verpesten wordt ook lastig omdat onder linux vrijwel de hele compute driver open source is. Dus als je probeert de hashrate op softwarematig niveau te verpesten wordt dat er trivaal uitgevist.
[ Voor 18% gewijzigd door sdk1985 op 18-08-2017 21:51 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Nu jij het over laptops hebt, dat is een mogelijk motief voor AMD om toch voor die LPP van GF te kiezen: AMD is aan het werken aan APU's met Ryzen en geïntegreerde Vega-graphics, een relatief goede performance met een relatief laag vermogen is voor AMD erg belangrijk aangezien het met zo'n APU de laptopmarkt kan veroveren en dit veel geld in het laatje brengt, misschien wel meer dan wanneer ze meer Vega-kaarten voor de desktop zouden verkopen.foppe-jan schreef op vrijdag 18 augustus 2017 @ 20:17:
[...]
Pech met hbm2, zeker. LPP is wrsch prima voor RR, niet zo voor vega56+. architectuur presteert bij 150w beter dan polaris. Als RPM in RR zit, en RR laptops goed aanslaan en verkopen, wordt RPM zeker iets. Verbeterde drivers same deal, denk ik (ook omdat het wrsch voorwerk is voor Navi). Adoption rate zal ook afhangen van RR, want als ik OEMs zo zie (zie bijv. de MM website) is Polaris nog grotendeels afwezig, en Vega desktops ook ('vega pack' met mobo+cpu is leuk, maar het schijnt dat niet iedereen zijn eigen PC wil bouwen enzo, dus dat is niet echt een vervanging voor OEMs).
Ik ben geen fan vna die lpp zolang de multithread-support zo slecht wordt verzorgd door de programmeurs (in opdracht van developers?) hoewel het zeer zeker wel zinvol is om die kant uit te gaan aangezien het vermogen de bovengrens vormt en je meer processing-power (kunnen we hier alsjeblieft een Nederlands woord voor gebruiken?) kan krijgen met meer kernen die een wat lagere klokfrequentie maar een meer dan evenredig lager vermogen hebben.
Vandaar dat Intel 1-2 geleden aangaf dat we misschien wel juist lagere klokfrequenties gaan krijgen in de toekomst, met meer kernen.
Alleen voor nu is het vervelend.
Ho! Ik had hier eerder het voorbehoud gemaakt dat het mogelijk is dat AMD dit niet voor het minen deed maar om een algemeen probleem op te lossen waar toevallig ook de miners van profiteren. Echter gaat het nu wel om 2 recente performanceverbeteringen voor het 'minen' (vermogen en hashrate) terwijl twee medewerkers bij PCPerspective aangaven ook oog te hebben voor de 'miners', dat bij elkaar opgeteld maakt mij enigszins sceptisch.Werelds schreef op vrijdag 18 augustus 2017 @ 20:49:
[...]
Zowel jij als @sdk1985 denken hier veel en veel te simplistisch over.
De "mining hash rate fix" zoals hij genoemd wordt mag wel ontdekt zijn door het minen van ETH, maar het onderliggende probleem is (was?) juist een groter probleem. AMD heeft er bij mijn weten niet veel over gezegd, maar het was hoogstwaarschijnlijk een ongewilde bug waarbij ofwel de latency gigantisch omhoog schoot, ofwel de bandbreedte flink zakte bij een bepaalde belasting. Dat is ook slecht voor games, dus ze móesten het wel fixen, anders hadden ze daar weer mee gezeten.
In welke mate je de 'mining'-performance kan bottlenecken is een andere discussie. Het is duidelijk dat dit voor AMD moeilijker is dan voor Nvidia (meer open software) en dat open source drivers op Linux ook nog eens roet in het eten kunnen gooien als AMD met de drivers de performance zou beperken, al halen die normaal gesproken een lagere performance dan de proprietary drivers. Ook nu (ik ben van mening dat AMD vaak zwak communiceert) geldt voor mij dat AMD er goed aan zou doen om helderder te communiceren. Als AMD het net zo vervelend vindt als wij dat die kaarten nu naar 'miners' met euro-tekens (of welke munt dan ook) in de ogen gaan in plaats van naar de klanten die de kaarten voor gaming/CAD/rendering/scientific computing (op het niveau en/of de schaal waarvoor de RX-drivers volstaan) willen gebruiken, ben er dan duidelijk over en laat weten wat de overwegingen zijn om X wel en Y niet te doen. Als AMD van mening is dat het niets kan doen om de hashrate te verlagen zonder de performance voor de eigenlijke doeleinden te verminderen, laat het dan maar weten en motiveer het. In ieder geval kweek je dan wat begrip bij de mensen die nu geen kaart kunnen kopen.
[ Voor 43% gewijzigd door Verwijderd op 18-08-2017 22:53 ]
Onze koelers lijken misschien op elkaar maar bijna elke koeler is anders. Soms wordt een koeler op een andere kaart hergebruikt, echter wordt dat altijd afgestraft. Dat wil zeggen hij koelt erg goed, echter is de prijs voor het segment te hoog. Of hij koelt te slecht omdat de TDP te hoog is. Elke kaart is anders, dus het is altijd maatwerk.-The_Mask- schreef op vrijdag 18 augustus 2017 @ 18:50:
Er zit wel wat meer werk in dan dat. Maar koeler herbruiken voor meerdere kaarten doet MSI sowieso al.
Voor elke GPU bekijken wij welke kaarten (line-up) we ermee maken. Voor VEGA zijn er verschillende problemen waarvan het grootste probleem de shortage is. Ondanks de verhalen van AMD zal VEGA de komende paar maanden mondjesmaat verkrijgbaar zijn. Dan heeft VEGA ook een enorm hoge TDP, dat is makkelijk te koelen echter zit daar een prijskaartje aanvast. Ben maar alvast benieuwd naar de STRIX prijs die zal niet mals zijn en dan ben ik bang dan zelfs de grootste AMD fan zal overwegen om een 1080 of 1080Ti te kopen. Dus je moet altijd afvragen hoeveel resource je erin wilt steken en wat het overlevert. Marge heeft hier weinig mee te make maar uiteindelijk moet er iets op te verdienen zijn en ook nog voor een goede prijs in de markt te zetten zijn, als je je uit de markt prijst...
[ Voor 5% gewijzigd door The Source op 18-08-2017 23:46 ]
Dat de Vega chips moeilijk te verkrijgen zouden zijn voor RX Vega had ik allang geconcludeerd. Denk dat het voor 56 nog redelijk zal zijn, 64 absoluut niet. Misschien als Vega 20 een die shrink Vega 10 blijkt te zijn naar 7nm. Dat zou H2 2018 zijn, waarschijnlijk een halfjaar na Volta GV104...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De meeste miners updaten hun drivers maar zelden. Het enige dat ze van de driver nodig hebben is ondersteuning voor de nodige API's en dat is het dan ook wel zo'n beetje.sdk1985 schreef op vrijdag 18 augustus 2017 @ 21:47:
[...]
Het is een vorm van een 'oplossing' die in 5 minuten te implementeren is. Die closed source drivers hangen toch al aan elkaar van de applicatie specifieke uitzonderingen. Dat dit niet optimaal en niet permanent gaat werkelijk had ik al onderschreven. Het gaat er meer om het signaal dat je daarmee afgeeft. Mining is nu een geld machine met ROI en onzekerheid daarin in de vorm dat met de volgende driver update je 7 dagen niet kan minen is iets wat reden genoeg kan zijn voor velen om vega maar even over te slaan. Je wint daarmee in het slechtste geval tijd om de gaming markt van Vega te voorzien.Verder zijn er vast genoeg driver engineers die een veel betere oplossing kunnen verzinnen.
Uitzonderingen nu betreffen optimalisaties. Software blokkeren in de driver is inderdaad simpel te implementeren, maar nog simpeler te omzeilen en daar zal geen enkele miner wakker van liggen. Dat is de reden waarom Nvidia en AMD tegenwoordig het verbruik op de kaart zelf beperken, in plaats van Furmark in software proberen te beperken
Uh, nee. Iemand vond de link op AMD's website en postte daarover op bitcointalk, maar AMD zelf heeft de driver daar niet aangeboden. Die stond gewoon op hun eigen website en wel hier: https://support.amd.com/e...ompute-Release-Notes.aspx - AMD zelf heeft er überhaupt niet over gerept totdat deze gevonden werd.Hoe dan ook gaat dit niet gebeuren want AMD lijkt er juist voor te kiezen mining te steunen. De beta driver werd immers op een bitcoin forum aangeboden, en niet op de website van AMD zelf.
Open software heeft er echt helemaal niets mee te maken. Mining is eigenlijk vrij basale wiskunde. Het moeilijkste dat in de broncode van de gemiddelde mining software zit is het optimaliseren van register gebruik en spreiding van wavefronts voor specifieke chips en architecturen. Dat is niet echt iets dat AMD of Nvidia af kan vangen.Verwijderd schreef op vrijdag 18 augustus 2017 @ 22:41:
In welke mate je de 'mining'-performance kan bottlenecken is een andere discussie. Het is duidelijk dat dit voor AMD moeilijker is dan voor Nvidia (meer open software) en dat open source drivers op Linux ook nog eens roet in het eten kunnen gooien als AMD met de drivers de performance zou beperken, al halen die normaal gesproken een lagere performance dan de proprietary drivers.
Mijn suggestie was dan ook dit bij de launch van Vega te implementeren.Werelds schreef op zaterdag 19 augustus 2017 @ 01:12:
[...]
De meeste miners updaten hun drivers maar zelden. Het enige dat ze van de driver nodig hebben is ondersteuning voor de nodige API's en dat is het dan ook wel zo'n beetje.
Waarom een miner daar wakker van ligt had ik al beargumenteerd. Het kan daarnaast allemaal ook wat subtieler als je de MT/s per watt laat dalen tot onder het niveau van Polaris dan wel Nvidia dan gaat het hoogst waarschijnlijk een tijd duren voor dit wordt opgemerkt. Hoe lang duurde het ook alweer voor het 'probleem' met GTX 970 geheugen bekend werd? (Wat niet eens de eerste kaart was op die manier). Nogmaals er is ook vast wat slimmers te verzinnen door het driverteam.Uitzonderingen nu betreffen optimalisaties. Software blokkeren in de driver is inderdaad simpel te implementeren, maar nog simpeler te omzeilen en daar zal geen enkele miner wakker van liggen. Dat is de reden waarom Nvidia en AMD tegenwoordig het verbruik op de kaart zelf beperken, in plaats van Furmark in software proberen te beperken
Hoe dan ook; waar een wil is, is een weg. (Alleen de wil is er niet).
Het helpt je punt niet echt wanneer je linkt naar een pagina bij AMD waar staatUh, nee. Iemand vond de link op AMD's website en postte daarover op bitcointalk, maar AMD zelf heeft de driver daar niet aangeboden. Die stond gewoon op hun eigen website en wel hier: https://support.amd.com/e...ompute-Release-Notes.aspx - AMD zelf heeft er überhaupt niet over gerept totdat deze gevonden werd.
Waaruit je dus alsnog kan opmaken dat AMD eerder mining steunt dan actief tegenwerkt. Hetgeen mijn stelling was onderbouwd met het voorebeeld waarop je ageert. Je had hooguit kunnen komen met " nou nee het zit iets anders in elkaar...., maar inderdaad ondersteund AMD mining zie deze link". Argumenteren om het argumenteren is verder niet nodigRadeon Software Crimson ReLive Edition Beta for Blockchain Compute Highlights
Important Notes
◾This driver is provided as a beta level support driver which should be considered "as is" and will not be supported with further updates, upgrades or bug fixes.
◾This driver is not intended for graphics or gaming workloads.
[ Voor 20% gewijzigd door sdk1985 op 19-08-2017 16:01 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Vanaf de 26ste minuut legt hij uit dat er wat problemen ontstaan met die primitive discard (van alles niet zien wat je zou moeten zien op het scherm) als je Vega teveel overklokt.
18** MHz lijkt op dit moment het maximum voor Vega56 te zijn, als je de kaart goed genoeg koelt en wat softwaretrucjes uithaalt zodat je het vermogen kan verhogen.
[ Voor 43% gewijzigd door Verwijderd op 19-08-2017 18:15 ]
YouTube: GPUs: Gamers Left Behind as the Compute Market Taking Priority
Samenvatting:
- AMD Vega Microarchitecture is een compute architecture primair en graphics accelerator engine secundair.
- VEGA 64 heeft zelfde specificaties als GP102(1080Ti), dus zelfde of betere compute mogelijkheden. De goedkoopste 1080Ti kost 700 euro. VEGA 64 LE kost 700 euro. Voor gaming is dit een kromme prijs voor compute niet.
- Vroeger waren GPU voor gamers. Gamers zaten altijd op de voorste rij. Nu is het HPC-markt dan Apple dan professionals (CAD&redenering) dan miners en als laatst gamers.
Alle andere markten voor AMD's GPU (behalve Apple dan
[ Voor 9% gewijzigd door Amazigh_N_Ariff op 19-08-2017 21:47 ]
't enige wat ik heb gevonden op wikipedia wat enigszins handig zou kunnen zijn is "Hardware accelerated video decoding and post-processing" (madly encoded x265 video's)
PC: R9 5950X | 32GB | VEGA 64 Liquid Edition
Waarom is het toch dat als ik deze dingen zeg, al maanden lang, ik genegeerd word.Amazigh_N_Ariff schreef op zaterdag 19 augustus 2017 @ 21:41:
Deze video is momenteel een ''Stickie'' /r/AMD en geeft een mogelijke reden voor de rare sprongen die AMD momenteel aan het maken is met marketing en pricing.
YouTube: GPUs: Gamers Left Behind as the Compute Market Taking Priority
Samenvatting:
- AMD Vega Microarchitecture is een compute architecture primair en graphics accelerator engine secundair.
- VEGA 64 heeft zelfde specificaties als GP102(1080Ti), dus zelfde of betere compute mogelijkheden. De goedkoopste 1080Ti kost 700 euro. VEGA 64 LE kost 700 euro. Voor gaming is dit een kromme prijs voor compute niet.
- Vroeger waren GPU voor gamers. Gamers zaten altijd op de voorste rij. Nu is het HPC-markt dan Apple dan professionals (CAD&redenering) dan miners en als laatst gamers.
Alle andere markten voor GPU (behalve Apple) zijn bereid meer te betalen dan een gamer, aan wie denk jij dat AMD zijn GPU's gaat proberen te verkopen?

Maar deze had ik al gezien, en zijn redenering is op stukken best zwak. Hij negeert bijvoorbeeld dat de volle Vega 10 chip naar de Instinct MI25 en de Radeon Pro kaarten gaat, terwijl de Vega 56 niet naar deze producten gaat. Dat is een extra marge per wafer product, en die chips zijn voor gamers, en ironisch genoeg Apple.
Ook denk ik niet dat AMD echt inzet op miners. Het is zeker een inkomstenbron, maar deze is nog grilliger dan gamers. Die driver lijkt eerder een eigen leven te zijn gaan leiden als een "mining driver", terwijl er een bug werd geplet die ook elders voor problemen kon gaan zorgen.
Als laatste, en met afstand belangrijkste. Vega 10 is geen GP102 tegenhanger op de HPC markt, no way. Vega 10 is een GP100 tegenhanger en een behoorlijk goede ook. Dat hebben ze uitstekend gedaan met Vega 10, en dat was de focus. Een focus die ze ongelofelijk slecht naar buiten hebben gebracht via hun waardeloze marketing...
GP100 was ook iets van twee a drie miljard dollar om te ontwikkelen en is een 620mm2 die. Vega is een 484mm2 die. Beiden met 16GB HMB2, Nvidia een bredere bus en dus hogere geheugen bandbreedte.
Vervolgens is het met de PCI-e versies en de NV Link. Belangrijk want Nvidia haar PCIe versie presteert minder.
GP100 (PCI-e) | GP100 (NV link) | Vega 10 | |
FP16 | ? | 21,2 | 24,6 |
FP32 | 9,34 | 10,6 | 12,3 |
FP64 | 4,67 | 5,3 | 0,768 |
edit: stomme klote tabelfunctie van GoT. Echt, ik kan hier niet mee omgaan. Zelfs de almachtige zeef, ja die zeef, heeft het me geprobeerd uit te leggen maar nee.
https://devblogs.nvidia.com/parallelforall/inside-pascal/
https://instinct.radeon.c.../mi/radeon-instinct-mi25/
GP100 is een totale chip die meer dingen kan, maar er zijn applicaties waar Vega 10 die chip ruim zal verslaan. GV100, nog een keertje $3 miljard aan R&D, kwam echt niet zomaar zo veel sneller na GP100, en Nvidia gaf er echt niet zomaar een aantal weg aan onderzoeksinstituten.
[ Voor 6% gewijzigd door DaniëlWW2 op 19-08-2017 22:31 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
daarom heb ik uiteindelijk maar een 1080 gekochtDaniëlWW2 schreef op zaterdag 19 augustus 2017 @ 00:46:
Nou, kom maar met Vega 11 en Navi hype train.
Dat de Vega chips moeilijk te verkrijgen zouden zijn voor RX Vega had ik allang geconcludeerd. Denk dat het voor 56 nog redelijk zal zijn, 64 absoluut niet. Misschien als Vega 20 een die shrink Vega 10 blijkt te zijn naar 7nm. Dat zou H2 2018 zijn, waarschijnlijk een halfjaar na Volta GV104...
-Supply van de Vega is laag.
-Prijs van de volgende lading Vega wordt waarschijnlijk veel te hoog.
-Verbruik van de Vega is best wel hoog anno 2017.
Overigens denk ik dat AMD het best moeilijk gaat krijgen aankomende tijd, buiten de EU zijn de Nvidia kaarten een stuk goedkoper (ongeacht het GDDR5 tekort) dus als de prijs van de Vega daar hoog blijft... wie koopt ze dan nog?
@DaniëlWW2 wat is er moeilijk aan html tables?
GP100 (PCI-e) | GP100 (NV link) | Vega 10 | |
FP16 | ? | 21,2 | 24,6 |
FP32 | 9,34 | 10,6 | 12,3 |
FP64 | 4,67 | 5,3 | 0,768 |
[ Voor 67% gewijzigd door Damic op 19-08-2017 22:28 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Als je de pro drivers niet nodig hebt, zou je ook de RX drivers moeten kunnen gebruiken voor de FE. Dacht ik.Damic schreef op zaterdag 19 augustus 2017 @ 22:26:
Oh manheb de nieuwe beta driver voor Vega FE geïnstalleerd hopende op een stabielere Whatmann settings, hebben ze dat eruit gesloopt
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
* DaniëlWW2 gooit dingen naar vervelende "Nvidiot".ArcticWolf schreef op zaterdag 19 augustus 2017 @ 22:22:
[...]
daarom heb ik uiteindelijk maar een 1080 gekocht/runs
Zie reactie hierboven.-Supply van de Vega is laag.
-Prijs van de volgende lading Vega wordt waarschijnlijk veel te hoog.
-Verbruik van de Vega is best wel hoog anno 2017.
Overigens denk ik dat AMD het best moeilijk gaat krijgen aankomende tijd, buiten de EU zijn de Nvidia kaarten een stuk goedkoper (ongeacht het GDDR5 tekort) dus als de prijs van de Vega daar hoog blijft... wie koopt ze dan nog?
Vega 10 is een HPC chip, en een goede ook. Verder gaat een GDDR5 tekort Nvidia wel problemen bezorgen. Ik zie de prijzen van GP104 en GP106 voorlopig ook niet meer zakken. Polaris 20 is al een verloren zaak maar miners kopen die misschien nog steeds.
Alles.Damic schreef op zaterdag 19 augustus 2017 @ 22:26:
@DaniëlWW2 wat is er moeilijk aan html tables?
GP100 (PCI-e) GP100 (NV link) Vega 10 FP16 ? 21,2 24,6 FP32 9,34 10,6 12,3 FP64 4,67 5,3 0,768
[ Voor 31% gewijzigd door DaniëlWW2 op 19-08-2017 22:30 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Zijn die Alpha's nog ergens goed in he.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Met 30% extra power in de meeste games zo 1750 mhz kwa core. Mem. gaat iig makkelijk naar 1050, maar dit maakt weinig uit voor de perf.
Crossfire wordt momenteel helemaal niet ondersteund. Volgens hardocp zit het er wel aan te komen.
Ik hoop dat de grillige perf. een teken is van rauwe drivers, het feit dat CF nog niet eens gesupport wordt voor de oudere titels versterkt dit wel een beetje.
Wat mij ook opvalt is hoe snel games laden. Mijn hoop op een Ti concurrent staat nog en als ze CF met de efficiëntie van de vorige GPU's kunnen evenaren dan wordt dit mijn def. config, maar gemiddeld genomen zal er nog aardig wat werk verricht moeten worden voor zover dit nog mogelijk is, maar dat kan gewoon niet anders, zou je denken, want ik zie gewoon veel potentie en perf. contrasten. Anderzijds gebeurt het ook weer niet zo vaak dat er na de release nog tientallen procenten perf bijkomen...
Correctie, reshade is niet altijd meer zo extra zwaar, bv. in BF Hardline nauwelijks van invloed en 40 fps in 5K is echt een goed resultaat
Nog een pluspuntje, games voelen opvallend soepel en snel, geen rare haperingen, HBC is geforceerd btw.
Nog een toevoeging, ik speel zo goed als elke game met een aantal vrij zware geïnjecteerde shaders via reshade en nog steeds is de hit hierbij bij AMD veel groter dan bij nVidia. Ik dacht ooit dat het aan het Vram lag ten tijde van de Fury, maar dit beeld zie ik ook nog bij Vega. Dus de werkelijke perf. verhoudingen zullen daardoor in mijn geval nog deels vertekend zijn.
[ Voor 23% gewijzigd door edward2 op 20-08-2017 01:09 ]
Niet op voorraad.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Maar dit is toch ook nieuwsDaniëlWW2 schreef op zondag 20 augustus 2017 @ 01:15:
@edward2 Je weet dat dit topic er is?
AMD RX Vega Evaringen topic
Niet op voorraad.
Met zo'n prijzen is Vega64 DOA, iedereen gaat een gtx1080 kopen want goedkoper. En dan te bedenken dat de MSRP $499, daar zit AMD nu ver van af.
Maar AMD compenseerde de resellers bij launch met $100 om de kaarten competitief te prijzen en die zijn allemaal verkocht. Werkelijke prijs is dus $599 en die zien we terug in DE(€649) en UK. De kaarten van Alternate.be komen waarschijnlijk van DE. Voeg daar transportkosten aan toe en het feit dat het hier in België altijd duurder is door kleinere afzetmarkt(ivm met NL of DE) en je komt aan een prijs van €700-750 voor de stock koeler versie. Het wordt dus wachten tot betere leverbaarheid van Vega64 om €649 te halen, als dit ooit zal gebeuren.
Prijs van Vega56 stock cooler zal dus hoogstwaarschijnlijk €500 worden. Kun je evt nog rechtvaardigen door betere prestaties dan 1070 maar helaas wel hoger verbruik. Zo wordt het wel heel moeilijk voor AMD om te kaarten te verkopen.
@DaniëlWW2 Als Vega bedoelt is voor GPGPU hadden ze RX idd beter niet uitgebracht. AMD had duidelijk het geld niet om een tweede Vega chip te ontwerpen voor gaming. Al het geld is naar de cpu-tak gegaan, geen geld meer voor gpu daarom op veilig gespeeld en professionele gpu gemaakt omdat daar het grote geld zit en gamers in de kou laten staan. Het gebruik van HBM ipv GDDR wijst daar ook op.
AMD zou veel beter ATI terug verkopen want ze verpesten het voor de gaming markt. Ze hebben de financiële middelen niet om een competitieve gpu to Nvidia te zetten. Jammer genoeg gaan ze dit niet doen want ze hebben ATI nodig voor hun APU's.
Omdat bijna niemand buiten de meest geïnteresseerden replies van meer dan een schermgrootte lang leest, zeker niet als ze gemiddeld twee keer full page scrolls nodig hebben.DaniëlWW2 schreef op zaterdag 19 augustus 2017 @ 22:16:
[...]
Waarom is het toch dat als ik deze dingen zeg, al maanden lang, ik genegeerd word.![]()
[ Voor 14% gewijzigd door Phuncz op 20-08-2017 08:01 ]
De meeste reviews hebben echter hun conclusies getrokken toen de "valse" MSRP nog gold.
Misschien is de kaart nog relevant voor compute use. Voor gaming is het echter een ronduit slechte keuze. Dat was het al met de valse prijzen en met de nieuwe MSRP al helemaal. Waarschijnlijk worden de winkelprijzen nog hoger waardoor het helemaal een absurde situatie wordt...
MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y
Elke GCN GPU is hoofdzakelijk bedoelt voor GPGPU taken. Die dingen zijn compute, compute en compute. Vanaf het begin in 2012 ook altijd bedoeld om de HPC markt mee te betreden. AMD heeft alleen de fout gemaakt geen software ecosysteem te creëren naast CUDA, waardoor er geen interesse was. Dat is nu anders geworden.Fredi schreef op zondag 20 augustus 2017 @ 04:28:
@DaniëlWW2 Als Vega bedoelt is voor GPGPU hadden ze RX idd beter niet uitgebracht. AMD had duidelijk het geld niet om een tweede Vega chip te ontwerpen voor gaming. Al het geld is naar de cpu-tak gegaan, geen geld meer voor gpu daarom op veilig gespeeld en professionele gpu gemaakt omdat daar het grote geld zit en gamers in de kou laten staan. Het gebruik van HBM ipv GDDR wijst daar ook op.
AMD zou veel beter ATI terug verkopen want ze verpesten het voor de gaming markt. Ze hebben de financiële middelen niet om een competitieve gpu to Nvidia te zetten. Jammer genoeg gaan ze dit niet doen want ze hebben ATI nodig voor hun APU's.
Dat het een compute chip is, betekent niet dat je er niet mee kan gamen. Zeker chips zoals Tahiti waren uitstekend om mee te gamen. Als er echt niet gegamed mee zou mogen worden, en het puur een number cruncher zou moeten zijn, dan haalde je de ROPS eruit en noemde je het een "General Processing Unit". Je gaat ook niet zoiets als tile bases rasterisation inbouwen voor GPGPU taken, of de verdubbelt de L2 cache niet zodat alle data voor rasterisation niet naar het werkgeheugen hoeft, wat latency scheelt. Dit hebben ze bijna letterlijk uit Maxwell geplukt.
HBM2 wordt ook steeds maar verkeerd begrepen. Het gaat niet om de "high bandwidth", maar om het totale plaatje. HBM2 scheelt die space omdat je geheugencontroller veel kleiner is. Het scheelt latency naar het werkgeheugen omdat dit op een interposer zit. Je verdient je investering in een duurder geheugen terug met een kleinere die, en dat scheelt weer geld.
En dat is dus mijn punt. RX Vega heeft nu twee chips, de volle 64CU en de 56CU. De 64 gaar naar alle HPC producten, en is unobtanium voor RX Vega. Dat zien we nu al gebeuren. Elke chip die de 64 standaard niet haalt, maar wel de 56 standaard is beschikbaar voor Apple of RX Vega. Dat zijn je gaming chips. Verder zijn dit harvested chips die je anders weg moet gooien. Het doel hier is om de investering uit te yield te vergroten dus een hoge verkoopprijs is strikt noodzakelijk niet nodig. We hebben het hier ook over een grote chip, zullen er genoeg zijn die de 64 standaard niet halen. Kan je ook nog terugzakken nar 48 als je hierdoor mee chips kan verkopen. Het gat tussen de GTX1070/RX Vega 56 en de GTX1060/RX580 is groot genoeg, zeker als AMD nog prestaties gaar winnen in gaming.Prijs van Vega56 stock cooler zal dus hoogstwaarschijnlijk €500 worden. Kun je evt nog rechtvaardigen door betere prestaties dan 1070 maar helaas wel hoger verbruik. Zo wordt het wel heel moeilijk voor AMD om te kaarten te verkopen.
Phuncz schreef op zondag 20 augustus 2017 @ 08:00:
[...]
Omdat bijna niemand buiten de meest geïnteresseerden replies van meer dan een schermgrootte lang leest, zeker niet als ze gemiddeld twee keer full page scrolls nodig hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Verpesten het voor de gaming markt? Dat ze in de high-end niet competitief zijn verpest niet ineens de gaming markt. Dx12, vulkan, AMD heeft de console markt in handen, freesysnc allemaal dingen die aan AMD gerelateerd zijn en AMD invloed op heeft gehad die een positieve ontwikkeling zijn voor de gamer dus om nou te zeggen dat ze het verpesten voor de gamer simpelweg omdat ze niet genoeg geld hebben en daardoor concessies moeten maken vind ik een beetje te ver doorgeslagen.Fredi schreef op zondag 20 augustus 2017 @ 04:28:
AMD zou veel beter ATI terug verkopen want ze verpesten het voor de gaming markt. Ze hebben de financiële middelen niet om een competitieve gpu to Nvidia te zetten. Jammer genoeg gaan ze dit niet doen want ze hebben ATI nodig voor hun APU's.
Het is eerder de fout die juist jij maakt. ATI heeft dat wel gedaan. R520 zij ATI ook wat Ageia kan met PhysX kunne wij ook. Pre G80 tijdperk. In G80 tijdperk kwam nV met Cuda. De fout is , dat AMD R&D budged gedeeld is met CPU. Het algehele vele jaren verlies draaien slaat ook door naar dat wel bij flagen sucsesvole GPU afdeling. Wat mogelijk is omdat beide GPU merken concureren met dezelfde foundry TSMC. Gelijke procede.DaniëlWW2 schreef op zondag 20 augustus 2017 @ 11:01:
[...]
Elke GCN GPU is hoofdzakelijk bedoelt voor GPGPU taken. Die dingen zijn compute, compute en compute. Vanaf het begin in 2012 ook altijd bedoeld om de HPC markt mee te betreden. AMD heeft alleen de fout gemaakt geen software ecosysteem te creëren naast CUDA, waardoor er geen interesse was. Dat is nu anders geworden.
CPU> GPU dus ook met sucses van GPU trekt CPU tak de boel naar onder. Dat komt door achterlopen van Global foundry. Met 32nm vs 22 later 14nm intel , concurreren doet architectuur er niet toe.
En Cuda oppakken van die pro branch komt niet door die branche , maar door zwaar door de strot duwen door nVidia. Dat heeft nVidia kapitalen gekost om die markt naar zich te binden. Omzet winst van uit gamer product sales.
Dus dat AMD daar niet mee ingaat heeft meer te maken met de liquiditeit van bedrijf. Zij konden gewoon niet mee. Dus voor hun zit er niet meer in dan passievere rol. En voor standaarden te gaan. Niet zo zeer goedwill maar uit noodzaak.
De compute is meer dat dev wereld liever niet fixed function wil. Maar de vrijheid om zelf function te programeren. Dat voordeel bied gp programing shaders. Niet bound aan hardware implementaties maar vrije programmerrbaar. Daarmee zijn de shader mini cores geworden. Dus eigenlijk normale evolutie van GPU.Dat het een compute chip is, betekent niet dat je er niet mee kan gamen. Zeker chips zoals Tahiti waren uitstekend om mee te gamen. Als er echt niet gegamed mee zou mogen worden, en het puur een number cruncher zou moeten zijn, dan haalde je de ROPS eruit en noemde je het een "General Processing Unit". Je gaat ook niet zoiets als tile bases rasterisation inbouwen voor GPGPU taken, of de verdubbelt de L2 cache niet zodat alle data voor rasterisation niet naar het werkgeheugen hoeft, wat latency scheelt. Dit hebben ze bijna letterlijk uit Maxwell geplukt.
Wat GPU een GPU maakt zijn de Rops TMU en TM- logic voor uitgangen.
HBM2 heeft 1 reden dat per trace van gpu door PCB naar memchip lang is en veel stroom vergt.HBM2 wordt ook steeds maar verkeerd begrepen. Het gaat niet om de "high bandwidth", maar om het totale plaatje. HBM2 scheelt die space omdat je geheugencontroller veel kleiner is. Het scheelt latency naar het werkgeheugen omdat dit op een interposer zit. Je verdient je investering in een duurder geheugen terug met een kleinere die, en dat scheelt weer geld.
HBM2 is door de heel veel kortere trace door interposer stuk zuiniger en dat je heel breed kan gaan 4096 bij 4 stacks. En eenvoudigere PCB ivm mem chip routing.
Mij lijkt deze Vega semi fiasco gewoon erfenis uit verleden van AMD dat iNtel hun klein gehouden heeft en nu worsteld.En dat is dus mijn punt. RX Vega heeft nu twee chips, de volle 64CU en de 56CU. De 64 gaar naar alle HPC producten, en is unobtanium voor RX Vega. Dat zien we nu al gebeuren. Elke chip die de 64 standaard niet haalt, maar wel de 56 standaard is beschikbaar voor Apple of RX Vega. Dat zijn je gaming chips. Verder zijn dit harvested chips die je anders weg moet gooien. Het doel hier is om de investering uit te yield te vergroten dus een hoge verkoopprijs is strikt noodzakelijk niet nodig. We hebben het hier ook over een grote chip, zullen er genoeg zijn die de 64 standaard niet halen. Kan je ook nog terugzakken nar 48 als je hierdoor mee chips kan verkopen. Het gat tussen de GTX1070/RX Vega 56 en de GTX1060/RX580 is groot genoeg, zeker als AMD nog prestaties gaar winnen in gaming.
Bij eerlijke concurentie.
Zou AMD mogelijk
* niet fabless zijn.
* beter dieshrinks kunnen uitrollen.
* groter zijn en ook meer fabs hebben.
* stabieler grote marktaandeel hebben.
* altijd al ook een OEM aandeel hebben.
* mogelijk de console win niet hebben.
* door een A- merk status.
En daarmee 1 of 2 extra GPU refresh hebben dus voor elke nV release een tegen hanger.
En dus kwa release nV wat dichter volgen.
Ook meer concervatieve prestige en imago Bigchip beleid strakker volgen.
Meer markt harder pushen.
We zouden AMD iig niet meer herkennen zoals die nu is.
En daarmee ook hele andere GPU en CPU zoals die we nu kennen.
Ook geen Zen zoals nu , want tweede grote speler kan elke markt voorzien van een eigen specialistische architectuur of chip model.
Er zijn door iNtel ook al andere merken al gesneuveld. CyriX Alfa. En paar heavytin merken vs itanium.
Groei is ook afhankelijk van concurentie. Zou IBM Cyrix en AMD gezonder zijn zou iNtel gewoon 1 van de 4 merken zijn en niet zo groot zijn. En geen itanium of Larabee avondtuur. Dat is gewoon staaltje van kijk hier onze R&D budged. Daar moet je groot voor zijn.
Kwa GPU mogelijk toch vervolg op i740
In heden iNtel heeft veel lijken in de closet.
En AMD zit op randje te verzuipen maar lijkt het net weer te redden.
Op GPU tak. NV moet het zonder CPU doen en ARM SoC tel ik niet mee.
INtel is core CPU maar heeft i740 en Larabee avondtuur gehad. Wat Xeon Phi geworden is.
AMD met ATI is voor AMD niet slecht. Maar voor ATI tak wel.
Ik hoop dat Global foundry de procede wedloop kan bij benen. AMD is daar afhankelijk van.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Heeft Nvidia het niet gewoon beter getimed en op de markt gebracht? De GPGPU markt is de afgelopen jaren ook steeds meer gaan groeien, na Tesla. Nvidia had toen haar platform al, en AMD moest inlopen tegen alweer een monopoly en kon geen goed alternatief bieden tegen Nvidia haar closed source. Tot nu toe dan. Vega is een nieuwe kans met AMD haar software inzet om CUDA open te breken.SG schreef op zondag 20 augustus 2017 @ 13:52:
[...]
Het is eerder de fout die juist jij maakt. ATI heeft dat wel gedaan. R520 zij ATI ook wat Ageia kan met PhysX kunne wij ook. Pre G80 tijdperk. In G80 tijdperk kwam nV met Cuda. De fout is , dat AMD R&D budged gedeeld is met CPU. Het algehele vele jaren verlies draaien slaat ook door naar dat wel bij flagen sucsesvole GPU afdeling. Wat mogelijk is omdat beide GPU merken concureren met dezelfde foundry TSMC. Gelijke procede.
CPU> GPU dus ook met sucses van GPU trekt CPU tak de boel naar onder. Dat komt door achterlopen van Global foundry. Met 32nm vs 22 later 14nm intel , concurreren doet architectuur er niet toe.
En Cuda oppakken van die pro branch komt niet door die branche , maar door zwaar door de strot duwen door nVidia. Dat heeft nVidia kapitalen gekost om die markt naar zich te binden. Omzet winst van uit gamer product sales.
Dus dat AMD daar niet mee ingaat heeft meer te maken met de liquiditeit van bedrijf. Zij konden gewoon niet mee. Dus voor hun zit er niet meer in dan passievere rol. En voor standaarden te gaan. Niet zo zeer goedwill maar uit noodzaak.
Verder is TSMC verleden tijd voor AMD. Ze zijn nu 100% Global Foundries. Vanaf 2008 ging het aardig mis met AMD qua competitiviteit met de Phenom bug, Phenom II die te laat was, Core I van Intel en Bulldozer. Ondertussen ging de ATi tak voor minimale marge de strijd met Nvidia aan met TeraScale 4 en 5.
Ik zie het probleem van gedeelte R&D, en ben het wel eens met wat AMD doet, namelijk de CPU voortrekken. AMD moet terug op de servermarkt, een HEDT platform verkopen, en de OEM markt weer op. Daar zit gewoon veel meer geld dan de GPU's. Met name laptops en APU's zouden een mooi margeproduct kunnen zijn. Daarvoor hebben ze de RTG nodig voor betere grafische chips dan Intel kan maken. Dat onderscheid ze. Denk dat we hier ook Vega 12 terug gaan zien, en niet als een discrete kaart.
Vervolgens heeft AMD de keuze moeten maken tussen een HPC en een gaming chip, en hebben ze gekozen voor een HPC chip. Logisch, maar voor gamers is het zuur. Ik begrijp de overwegingen echt wel. Vega 11 kan misschien nog een mooie gaming chip gaan worden, volgend jaar. Ondertussen moet je het als gamer die AMD wil echt hebben van de RX Vega 56, en ik hoop echt ook een RX Vega 48. RX Vega 64 niet.
Dat snap ik ook nog. Ben een alfa hé.[...]
De compute is meer dat dev wereld liever niet fixed function wil. Maar de vrijheid om zelf function te programeren. Dat voordeel bied gp programing shaders. Niet bound aan hardware implementaties maar vrije programmerrbaar. Daarmee zijn de shader mini cores geworden. Dus eigenlijk normale evolutie van GPU.
Wat GPU een GPU maakt zijn de Rops TMU en TM- logic voor uitgangen.
Ik was nog wat vergeten zo te zien.[...]
HBM2 heeft 1 reden dat per trace van gpu door PCB naar memchip lang is en veel stroom vergt.
HBM2 is door de heel veel kortere trace door interposer stuk zuiniger en dat je heel breed kan gaan 4096 bij 4 stacks. En eenvoudigere PCB ivm mem chip routing.

Het scheelt ook verbruik, mede door de kleinere memory controller, en de HBM2 zelf. Natuurlijk ook een kleinere PCB, tenminste in theorie want Vega 10 is niet bepaald klein.
Bijna allemaal eens. Intel had eigenlijk ook gewoon boetes in de tientallen miljarden moeten krijgen voor hun praktijken, uit te keren aan AMD. Qua node lijkt Global Foundries wel goed bezig te zijn. Ze zijn nog op schema voor H2 2018 voor 7nm, en AMD lijkt Vega te gaan die shrinken als Vega 20 op 7nm. Testen voor Navi.Mij lijkt deze Vega semi fiasco gewoon erfenis uit verleden van AMD dat iNtel hun klein gehouden heeft en nu worsteld.
Bij eerlijke concurentie.
Zou AMD mogelijk
* niet fabless zijn.
* beter dieshrinks kunnen uitrollen.
* groter zijn en ook meer fabs hebben.
* stabieler grote marktaandeel hebben.
* altijd al ook een OEM aandeel hebben.
* mogelijk de console win niet hebben.
* door een A- merk status.
En daarmee 1 of 2 extra GPU refresh hebben dus voor elke nV release een tegen hanger.
En dus kwa release nV wat dichter volgen.
Ook meer concervatieve prestige en imago Bigchip beleid strakker volgen.
Meer markt harder pushen.
We zouden AMD iig niet meer herkennen zoals die nu is.
En daarmee ook hele andere GPU en CPU zoals die we nu kennen.
Ook geen Zen zoals nu , want tweede grote speler kan elke markt voorzien van een eigen specialistische architectuur of chip model.
Er zijn door iNtel ook al andere merken al gesneuveld. CyriX Alfa. En paar heavytin merken vs itanium.
Groei is ook afhankelijk van concurentie. Zou IBM Cyrix en AMD gezonder zijn zou iNtel gewoon 1 van de 4 merken zijn en niet zo groot zijn. En geen itanium of Larabee avondtuur. Dat is gewoon staaltje van kijk hier onze R&D budged. Daar moet je groot voor zijn.
Kwa GPU mogelijk toch vervolg op i740
In heden iNtel heeft veel lijken in de closet.
En AMD zit op randje te verzuipen maar lijkt het net weer te redden.
Op GPU tak. NV moet het zonder CPU doen en ARM SoC tel ik niet mee.
INtel is core CPU maar heeft i740 en Larabee avondtuur gehad. Wat Xeon Phi geworden is.
AMD met ATI is voor AMD niet slecht. Maar voor ATI tak wel.
Ik hoop dat Global foundry de procede wedloop kan bij benen. AMD is daar afhankelijk van.
Waar ik het niet mee eens ben is dat Vega een fiasco is. RX Vega 64 uitbrengen als gaming chip vind ik echt een fiasco, RX Vega 56 not so much. Vega 64 gaan we simpelweg niet zien als RX chip dus waarom uitbrengen en dan met zo'n verbruik. RX Vega 56 is niet geweldig, maar ook niet verschrikkelijk. Prestaties zijn in ieder geval acceptabel, voor een matige launch waar nog veel dingen verbeterd moeten worden qua drivers. RX Vega is simpelweg te veel "all over the place" qua prestaties en dan zijn er nog Primitive Shaders...
Ook begrijp ik dat er een balans nodig is. Eigenlijk zou AMD geen meerderheid van de markt mogen bezitten voor zowel GPU, als CPU, omdat ze dan gevaarlijk worden voor Nvidia en Intel. Het liefst zou ik tweemaal 40/60 zien. Dan is AMD groot genoeg om niet verdrukt te worden, en Nvidia en Intel blijven ook in leven. Hoewel, Intel mag eigenlijk wel branden van mij en vervangen worden door een minder hufterig bedrijf.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Er zijn maar 3 versies van TeraScale hoor; Wikipedia: TeraScale (microarchitecture)
Graphene; a material that can do everything, except leave the lab. - Asianometry
Foutje.NitroX infinity schreef op zondag 20 augustus 2017 @ 14:55:
[...]
Er zijn maar 3 versies van TeraScale hoor; Wikipedia: TeraScale (microarchitecture)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Alleen weet niemand hoe 7 nm. GF zich verhoudt tot 10 nm. Intel etc.DaniëlWW2 schreef op zondag 20 augustus 2017 @ 14:33:
Bijna allemaal eens. Intel had eigenlijk ook gewoon boetes in de tientallen miljarden moeten krijgen voor hun praktijken, uit te keren aan AMD. Qua node lijkt Global Foundries wel goed bezig te zijn. Ze zijn nog op schema voor H2 2018 voor 7nm, en AMD lijkt Vega te gaan die shrinken als Vega 20 op 7nm. Testen voor Navi.
Het helpt in ieder geval wel dat Zen extra geld in het laatje van GF brengt en dat andere bedrijven (Samsung en nog zo'n reus als ik me niet vergis) samenwerken met GF. Ik speculeerder hier ook eerder dat de zuinige node van GF wellicht werd gekozen voor de geïntegreerde graphics, dus omdat die het einddoel zijn, samen met de professionele graphics markt, en de desktop graphics kaart als het ware een bijproduct (gepland, dat wel) is, een beetje zoals Ryzen bij Zen is.
Vega56 is zeker geen flop, als en slechts dan als de AIC-kaarten in de toekomst verkocht gaan worden voor €400-450. Vega64 is m.i. voorlopig een flop, in ieder geval totdat eventueel de aansturing van de kaart sterk verbetert.
[ Voor 28% gewijzigd door Verwijderd op 20-08-2017 15:38 ]
Niemand weet hoe Intel haar 10nm zich zal verhouden met GF 7nm of TSMC 12nm. Wie zegt dat Intel gegarandeerd de beste node heeft?Verwijderd schreef op zondag 20 augustus 2017 @ 15:35:
[...]
Alleen weet niemand hoe 7 nm. GF zich verhoudt tot 10 nm. Intel etc.
Het helpt in ieder geval wel dat Zen extra geld in het laatje van GF brengt en dat andere bedrijven (Samsung en nog zo'n reus als ik me niet vergis) samenwerken met GF.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
We zullen het moeten afwachten maar het is natuurlijk wel moeilijker voor GF om met de beste node te komen dan voor Intel wat al jarenlang zwemt in het geld en al van een voorsprong geniet. Gelukkig voor GF hoeft GF het niet alleen te doen. Samsung is ook bepaald geen kleine jongen.DaniëlWW2 schreef op zondag 20 augustus 2017 @ 15:36:
[...]
Niemand weet hoe Intel haar 10nm zich zal verhouden met GF 7nm of TSMC 12nm. Wie zegt dat Intel gegarandeerd de beste node heeft?
Er zit trouwens een interessante geschiedenis vast aan Samsing (begonnen als visverwerkingsbedrijf) en Zuid-Korea in het algemeen. In het kort, de USA heeft hen groot gemaakt omwille van geopolitieke belangen.
[ Voor 21% gewijzigd door Verwijderd op 20-08-2017 15:41 ]
Hier idem dito, gisteren een 1080 Ti besteld... Dit om de genoemde redenen m.b.t. beschikbaarheid/prijs/verbruik. Echt heel jammer want ik had het AMD graag gegund, maar het geduld is wel op.ArcticWolf schreef op zaterdag 19 augustus 2017 @ 22:22:
[...]
daarom heb ik uiteindelijk maar een 1080 gekocht/runs
-Supply van de Vega is laag.
-Prijs van de volgende lading Vega wordt waarschijnlijk veel te hoog.
-Verbruik van de Vega is best wel hoog anno 2017.
Overigens denk ik dat AMD het best moeilijk gaat krijgen aankomende tijd, buiten de EU zijn de Nvidia kaarten een stuk goedkoper (ongeacht het GDDR5 tekort) dus als de prijs van de Vega daar hoog blijft... wie koopt ze dan nog?
Ik zit nu nog met een R9 290 en wilde die destijds gaan vervangen met een Fury waarvan helaas de prestaties dus geen schokkende verbetering waren ten opzichte van de 290.
Dan maar wachten (en wachten...) op Vega wat nu dus ook een teleurstelling is qua de genoemde punten.
Mijn laatste nVidia kaart was een 4200 Ti in 2003 of zo, de laatste 14 jaar dus alleen maar Ati/AMD kaarten gebruikt. Altijd de betere prijs/prestatie verhoudingen, de kaarten stelden nooit teleur.
Why AMD, waarom is dit toch zo mis gegaan......
MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y
Had eigenlijk eerst een RX 480 op het oog maar toen kwam dat mining gedoe. De RX 580 heb ik amper voor een normale prijs gezien/ niet normaal beschikbaar.
Vega...tja laat maar.
Het is zelfs zo erg dat ik ook naar een 1070 of 1060 aan het kijken ben. Liever niet maar AMD kaarten zijn gewoon niet te krijgen en zit al een tijdje zonder kaart....
Als ze zo door gaan gaan ze nog serieus klanten verliezen op de lange termijn.
Hoop dat mining gedoe nou eens voorbij is
[ Voor 3% gewijzigd door sapphire op 20-08-2017 20:59 ]
Tja, denk niet dat de RX Vega 56 een mining kaart gaat worden. Het verbruik blijft hoog, en de hasrate is niet veel beter dan een RX580. Als de prijs niet belachelijk is, dan gaat dat een acceptabele keuze zijn. Ook echt de enige keuze naast de RX560 voor AMD.sapphire schreef op zondag 20 augustus 2017 @ 20:40:
Mijn laatste Nvidia kaart was een 6600GT.
Had eigenlijk eerst een RX 480 op het oog maar toen kwam dat mining gedoe. De RX 580 heb ik amper voor een normale prijs gezien/ niet normaal beschikbaar.
Vega...tja laat maar.
Het is zelfs zo erg dat ik ook naar een 1070 of 1060 aan het kijken ben. Liever niet maar AMD kaarten zijn gewoon niet te krijgen en zit al een tijdje zonder kaart....
Als ze zo door gaan gaan ze nog serieus klanten verliezen op de lange termijn.
Hoop dat mining gedoe nou eens voorbij is

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Waren ze erg aan elkaar gewaagd dan begrijp ik dat nog. Gezien de huidige situatie (of eigenlijk een situatie die er al 14 maanden is) doe je jezelf zwaar te kort om niet gewoon naar de 1060/1070 en 1080 te kijken. Zeker de 1070 is al een zeer lange tijd een zeer goede kaart voor een nette prijs. Zeker toen dat hele mining nog geen invloed had, kreeg je onder de €450 gewoon een goede 1070.
MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y
Ik gebruik al jaren tevreden Ati/AMD dus waarom overstappen aangezien ik altijd kon vinden wat ik zocht
Dus ik heb niks tegen Nvidia maar koop gewoon net zo lief AMD (tenzij Sapphire Geforce kaarten gaat maken
PC: R9 5950X | 32GB | VEGA 64 Liquid Edition
Verwijderd
Als er te weinig concurrentie is, dan is er nauwelijks innovatie en de prijs blijft voor een hele tijd hoog. Als je dat fijn vindt moet je dat zelf weten. Ik heb geen eeuwig leven, dus innovatie mag van mij wat sneller gaan. Ik heb geen zin on 10-15 jr te doen over een kaart, 3-5 jr vind ik meer dan zat.
Als er serieuze concurrentie is voor de 1080ti dan had je dit jaar consumenten Volta kunnen kopen. Nu je moet je waarschijnlijk wachten tot H2 2018.
Deels omdat ik het onverstandig vind om als een markt maar 2 aanbieders kent, en die grofweg vergelijkbaar presterende producten leveren, maar de een een veel groter marktaandeel heeft dan de ander, de grootste te steunen. (Ik heb geen interesse in v64, of overklokken, en vega's perf/watt als je de chip undervolt is prima.)MazeWing schreef op zondag 20 augustus 2017 @ 21:27:
Ik snap niet waarom mensen hier zo tegen Nvidia zijn. Het is algemeen bekend dat er een boel meer AMD liefhebbers actief zijn dan aan de zijde van Nvidia (zeker gezien de hoeveelheid posts in het AMD nieuwstopic vs het Nvidia nieuwstopic), maar het lijkt er soms op dat mensen koste wat het kost geen Nvidia willen hebben.
Daarnaast vanwege dit soort hatelijk gedrag: https://www.reddit.com/r/...a_gpus_when_they/ctton60/
Wachten is voor een groot deel op gddr6.Als er serieuze concurrentie is voor de 1080ti dan had je dit jaar consumenten Volta kunnen kopen. Nu je moet je waarschijnlijk wachten tot H2 2018.
[ Voor 10% gewijzigd door foppe-jan op 20-08-2017 22:31 ]
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Verwijderd
Waarom wachten op GDDR6 als je ook HBM2 Samsung 2000 mhz kunt gebruiken dat ook in de Tesla P100 zit?foppe-jan schreef op zondag 20 augustus 2017 @ 22:30:
[...]
Wachten is voor een groot deel op gddr6.
Zucht


Vega 64 presteerd vergelijkbaar met een 980 Ti die twee jaar ouder is, op een ouder procédé is gemaakt en ook nog eens minder stroom verbruikt in de meeste gevallen.
https://www.techpowerup.c...Radeon_RX_Vega_64/29.html
Graphene; a material that can do everything, except leave the lab. - Asianometry
Kuch, die game is zwaar geoptimaliseerd voor Nvidia.NitroX infinity schreef op zondag 20 augustus 2017 @ 23:07:
YouTube: The Witcher 3 AMD RX Vega 64 Stock Vs GTX 980 TI OC Frame Rate Compa...
Zucht![]()
Vega 64 presteerd vergelijkbaar met een 980 Ti die twee jaar ouder is, op een ouder procédé is gemaakt en ook nog eens minder stroom verbruikt in de meeste gevallen.
https://www.techpowerup.c...Radeon_RX_Vega_64/29.html
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Niet zwaar, maar wel wat biased. Het draait gewoon goed op AMD, maar wel wat beter op Nvidia. Dit natuurlijk met Hairworks uit.Danny.G schreef op zondag 20 augustus 2017 @ 23:12:
[...]
Kuch, die game is zwaar geoptimaliseerd voor Nvidia.

Verder lijken de drivers voor RX Vega nog in een beta stadium te verkerenn met prestaties die behoorlijk kunnen variëren per titel, zonder een aantoonbare oorzaak...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Wat is daar eigenlijk precies zo hatelijk aan? In de zaken wereld zijn exclusiviteitsdeals vrij normaal, ook voor zover ik weet in de GPU wereld, volgens mij zijn alleen Asus, Gigabyte en MSI niet exclusief verbonden aan dan wel AMD dan wel Nvidia. Ik vind het dan ook zeker niet vreemd dat Nvidia een deal opzegt wanneer een voorheen exclusieve partner besluit om met AMD (toen nog Ati geloof ik) te gaan werken. Voor zover ik kan zien gewoon een vrij normale zakelijke beslissing zonder "haat".
In het licht van Vega price-gate zijn dat natuurlijk geen steekhoudende argumenten... Hoeveel official partners Nvidia dan wel AMD toestaan heeft daarnaast eigenlijk geen effect gehad op de consumenten. Doelbewust de pers manipuleren is flink wat erger.foppe-jan schreef op zondag 20 augustus 2017 @ 22:30:
[...]
Deels omdat ik het onverstandig vind om als een markt maar 2 aanbieders kent, en die grofweg vergelijkbaar presterende producten leveren, maar de een een veel groter marktaandeel heeft dan de ander, de grootste te steunen. (Ik heb geen interesse in v64, of overklokken, en vega's perf/watt als je de chip undervolt is prima.)
Daarnaast vanwege dit soort hatelijk gedrag: https://www.reddit.com/r/...a_gpus_when_they/ctton60/
[...]
Wachten is voor een groot deel op gddr6.
Los daarvan blijft het zonde want de XFX Nvidia kaarten waren zo ver ik mij kan herrineren prima en de support uistekend.
Vrij land dus dat is wat dat betreft een prima redenatie. Niet iedereen is individualistisch ingesteld.foppe-jan schreef op zondag 20 augustus 2017 @ 22:30:
Deels omdat ik het onverstandig vind om als een markt maar 2 aanbieders kent, en die grofweg vergelijkbaar presterende producten leveren, maar de een een veel groter marktaandeel heeft dan de ander, de grootste te steunen. (Ik heb geen interesse in v64, of overklokken, en vega's perf/watt als je de chip undervolt is prima.)
Systematisch bijna 10 jaar lang verlagen van R&D budget sinds de overname van Atibvk schreef op zondag 20 augustus 2017 @ 16:47:
[...]
Hier idem dito, gisteren een 1080 Ti besteld... Dit om de genoemde redenen m.b.t. beschikbaarheid/prijs/verbruik. Echt heel jammer want ik had het AMD graag gegund, maar het geduld is wel op.
Ik zit nu nog met een R9 290 en wilde die destijds gaan vervangen met een Fury waarvan helaas de prestaties dus geen schokkende verbetering waren ten opzichte van de 290.
Dan maar wachten (en wachten...) op Vega wat nu dus ook een teleurstelling is qua de genoemde punten.
Mijn laatste nVidia kaart was een 4200 Ti in 2003 of zo, de laatste 14 jaar dus alleen maar Ati/AMD kaarten gebruikt. Altijd de betere prijs/prestatie verhoudingen, de kaarten stelden nooit teleur.
Why AMD, waarom is dit toch zo mis gegaan......
[ Voor 26% gewijzigd door sdk1985 op 21-08-2017 00:53 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Nu ben ik niet bijzonder fan van deze meneer maar de beste man heeft meer dan een miljoen subscribers.A 4-tweet long chain, as follows:
"I've been thinking about this @AMD Vega price increase and the position they put us reviewers in... I no longer recommend Radeon."
"They never once mentioned a "coupon" and they clearly chose a deceptive marketing strategy with regards to reviewers."
"For this very reason, I will no longer accept any RADEON product for review and will purchase my review samples for their graphics reviews"
"But I will wait at least 1 month post launch to attempt to buy. I had high hopes AMD would take the high road this time, but clearly not"
Additionally, some thoughts on a Threadripper build he's doing:
"This whole thing has me wanting to also abandon my Threadripper build... but Intel isn't much better. So now I don't know how to proceed."
And a continuation of the rant:
"I am not an extension of ANYONES marketing strategy and to deceive me in to such a position means I WILL put you on blast... so buckle up"
"The idea of "now they won't send me review product anymore" GOOD! DONT! I started on my own dime and I'll succeed on my own dime!"
"BUT, If you honestly don't care about the company aspect and purely on price/performance then Vega can't be recommended at this time."
[ Voor 15% gewijzigd door sdk1985 op 21-08-2017 01:51 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Hij heeft volstrekt gelijk met deze opmerkingen.
"I've been thinking about this @AMD Vega price increase and the position they put us reviewers in... I no longer recommend Radeon."
"They never once mentioned a "coupon" and they clearly chose a deceptive marketing strategy with regards to reviewers."
AMD haalt de laatste tijd streken uit die we van Nvidia verwachten. Eerst die misleidende graphics (technisch gezien niet incorrect, wel misleidend) waarmee een slechte lezer zou kunnen denken dat Vega64 een hogere FPS haalde dan de 1080 waar dat niet was, nu dat gedoe met een lagere MSRP dan dat wordt gehaald. Ook teveel cherrypicking bij wat ze presenteren. Je hoeft echt niet de zwakke kanten van je product te benadrukken maar laat het wel representatief zijn, dat je daarnaast sterke punten in de verf zet en potentie laat zien, prima, maar laat het hele plaatje zien. Wij hebben het hier al vaker erover gehad dat de marketing voor Ryzen beter lijkt te zijn dan die van RTG.
[ Voor 27% gewijzigd door Verwijderd op 21-08-2017 01:55 ]
Financieel zal het voor hem geen probleem zijn om zelf de producten aan te schaffen. Echter dat betekent wel dat je als youtuber voortaan een maand na de launch pas je video online kan gooien. Dat werkt natuurlijk niet in je eigen voordeel als youtuber.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Hij was ook heel erg boos toen Nvidia dit soort dingen flikte. Dit is actueel en over de rest heeft hij het al gehad. Nogmaals, hij heeft volstrekt gelijk. Zie het laatste deel van mijn reactie wat jij nog niet had gelezen.sdk1985 schreef op maandag 21 augustus 2017 @ 01:54:
Laatste punt geeft aan dat hij toch best wel boos is, hij voelt zich verraden (verderop wordt nog wat meer gesneerd).
Ik ben het oneens met jou dat dat in zijn nadeel werkt, bij hem werkt het juist in zijn voordeel. Kwaliteit boven snelheid. Mensen kennen zijn kanaal en ze komen toch wel. Een beetje zoals wij toch wel naar Tomshardware gaan omdat we een bepaalde kwaliteit verwachten.
[ Voor 22% gewijzigd door Verwijderd op 21-08-2017 17:53 ]
Vraag me wel af of dit nu voldoende reden is voor AMD om met een statement te komen of dat de struisvogel taktiek weer een level omhoog gaat
edit:
Nou ja vier jaar geleden had hij nog <100K views op zijn video's dus ik zou er zelf wel een beetje mee oppassen. Ik kan me zo voorstellen dat als Linus e.d. 30 dagen eerder een Vega video online hebben gezet dat hij heel wat minder views trekt. De hype is er dan weer een beetje vanaf dus dan moet je echt iets bijzonders gaan doen met je video. Wellicht kan hij terry crews er weer bijhalen
[ Voor 51% gewijzigd door sdk1985 op 21-08-2017 02:07 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Het is echt olie dom van AMD om de goodwill van de fans zo te verpesten. Hopelijk komen ze alsnog met een goed verklaring want ik snap niet waarom iemand nu nog AMD wil verdedigen als underdog.
[ Voor 40% gewijzigd door Verwijderd op 21-08-2017 03:14 ]
Vind ik wel. AMD maakt keer op keer foute keuzes. Ik dacht dat ze hun lesje nu wel geleerd hadden met de Fiji flop met hun HBM geheugen. HBM is nog altijd te duur en slecht beschikbaar, vandaar dat AMD Vega nu weer, net zoals Fiji met een te hoog MSRP in de markt moet zetten. "Had AMD maar voor GDDRx gekozen" herinner ik mij The Source nog zeggen-en hij kan het weten-dan hadden ze Vega goedkoper in de markt kunnen zetten en hadden wij als gamers eindelijk weer eens een kaart onder de €500 kunnen kopen(ook de schuld vd miners, weet ik).Verwijderd schreef op zondag 20 augustus 2017 @ 12:04:
[...]
Verpesten het voor de gaming markt? Dat ze in de high-end niet competitief zijn verpest niet ineens de gaming markt. Dx12, vulkan, AMD heeft de console markt in handen, freesysnc allemaal dingen die aan AMD gerelateerd zijn en AMD invloed op heeft gehad die een positieve ontwikkeling zijn voor de gamer dus om nou te zeggen dat ze het verpesten voor de gamer simpelweg omdat ze niet genoeg geld hebben en daardoor concessies moeten maken vind ik een beetje te ver doorgeslagen.
In de mid-end doetcAMD het momenteel wel goed met de RX580 maar high-end maken zecer een potje van. Daar verpest AMD het idd. Ik koop altijd de high-end cut en velen met mij, omdat prijs/prestatie daar hetvbest was. Ik heb nu een HD7950, ervoor 8800gtx gehad wat niet de cut is maar hij was einde carriere en voor €300 kunnen kopen. Voor Vega wordt dat dus de Vega56 maar als hij min €500 wordt(AIB €550) koop ik hem niet. Ik weiger €500 te betalen voor de cut en begrijp trouwens niet waarom zoveel anderen dit wel doen. Een grafische kaart moet voor mij onder €500 blijven anders vind ik het te duur. Vroeger kon je de cut voor €300 kopen maar omdat AMD weeral eens voor HBM gekozen kunnen ze niet onder de €500 komen, dus ja AMD verpest het voor de gaming markt.
Je kan een keer een fout maken met Fiji en HBM, dat kan ik nog begrijpen maar nu weer met Vega en HBM2, dat begrijp ik niet meer. Ze hadden beter op veilig gespeeld en voor GDDR gekozen. HBM is duur om te produceren, slecht beschikbaar, moeilijk om te integreren met de GPU via de interposer waardoor duurder. Nvidia heeft dit goed begrepen en gebruikt het alleen in hun Quaddro's. Dat noem ik goed beleid, van AMD niet.
Het voordeel van compactheid hebben ze er ook niet van(met Fiji nog wel) want de gpu verbruikt zo veel dat ze er een mega-koeler moeten opzetten.
[ Voor 4% gewijzigd door Fredi op 21-08-2017 05:43 ]
@DaniëlWW2Ben het ook met AMD eens dat ze hun CPU-tak voortrekken, is altijd hun core-business geweest. Maar daarom zou het beter zijn als ze hun gpu-tak verkopen want die heeft er zwaar onder te lijden.Ik zie het probleem van gedeelte R&D, en ben het wel eens met wat AMD doet, namelijk de CPU voortrekken. AMD moet terug op de servermarkt, een HEDT platform verkopen, en de OEM markt weer op. Daar zit gewoon veel meer geld dan de GPU's. Met name laptops en APU's zouden een mooi margeproduct kunnen zijn. Daarvoor hebben ze de RTG nodig voor betere grafische chips dan Intel kan maken. Dat onderscheid ze. Denk dat we hier ook Vega 12 terug gaan zien, en niet als een discrete kaart.
[ Voor 111% gewijzigd door Fredi op 21-08-2017 06:36 ]
Okay, kan ik inkomen.@JayzTwoCents
I've been thinking about this @AMD Vega price increase and the position they put us reviewers in... I no longer recommend Radeon.
10:23 AM - 20 Aug 2017
Uhmm, wat?JayzTwoCentsVerified account @JayzTwoCents 12h12 hours ago
More
This whole thing has me wanting to also abandon my Threadripper build... but Intel isn't much better. So now I don't know how to proceed.
Ik snap dat iemand ontevreden is met de huidige Vega praktijken, maar om dan na te denken om AMD helemaal te laten vallen slaat ook nergens op. Jayz heeft een goed punt aangaande Vega, maar Threadripper is gewoon meer dan een degelijke CPU, en om ze daar dan ook maar op af te rekenen vind ik te ver gaan.
Iets verder in zijn tweet-tirade heeft hij het ook over de 970 van Nvidia die hij toen afraadde vanwege het memory probleem. Maar toen zwoer hij ook niet gelijk af van alle andere Nvidia producten. Ik vind zijn filmpjes heel leuk, maar ik kan dit anders zien dan een (wanhopige, teleurstellende) roep om aandacht.
Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig
Uiteindelijk verkopen ze nu een mining GPU die over een jaar niemand wil kopen voor 200€, gaan de miners er wel in investeren als ze er hun geld niet terug uit kunnen halen ? In mijn ogen had AMD beter gefocussed op het leverbaar maken en optimaliseren van de Polaris kaarten, nu hebben ze het imago een onvergetelijke slag bezorgd en een hoop geld verknoeid. Ze wisten in het begin van het jaar toch dat het geen concurrentie ging geven.
de enige reden waarom ze het asus/msi/gb "toestaan" is dat ze te groot zijn om zo te behandelen; xfx wou hetzelfde, en was vervolgens fucked.Dennism schreef op zondag 20 augustus 2017 @ 23:55:
[...]
Wat is daar eigenlijk precies zo hatelijk aan? In de zaken wereld zijn exclusiviteitsdeals vrij normaal, ook voor zover ik weet in de GPU wereld, volgens mij zijn alleen Asus, Gigabyte en MSI niet exclusief verbonden aan dan wel AMD dan wel Nvidia. Ik vind het dan ook zeker niet vreemd dat Nvidia een deal opzegt wanneer een voorheen exclusieve partner besluit om met AMD (toen nog Ati geloof ik) te gaan werken. Voor zover ik kan zien gewoon een vrij normale zakelijke beslissing zonder "haat".
Verder gaan de standaard redeneringen over 'normaal voor de zakenwereld' (waar ik niet vreselijk veel mee heb) niet op, want niet elke markt is (godzijdank) beperkt tot 3 aanbieders zoals de GPU-markt dit is. En in de context van een oligopolie is een dergelijke zet imo wel degelijk 'hatelijk' (vooral als het bedrijf in kwestie ook op allerlei andere manieren die niets met productverbetering te maken hebben bezig is om de competitie pootje te lichten).
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Volgens mij ga je voorbij aan het feit dat XFX aanstichter lijkt te zijn van dit hele verhaal. Als je van exclusief partner naar een situatie wil waarbij je kaarten kan maken van zowel AMD als Nvidia zul je toch echt de contracten op orde moeten hebben zodat een miskleun als deze niet mogelijk zou zijn geweest.foppe-jan schreef op maandag 21 augustus 2017 @ 07:39:
[...]
de enige reden waarom ze het asus/msi/gb "toestaan" is dat ze te groot zijn om zo te behandelen; xfx wou hetzelfde, en was vervolgens fucked.
Verder gaan de standaard redeneringen over 'normaal voor de zakenwereld' (waar ik niet vreselijk veel mee heb) niet op, want niet elke markt is (godzijdank) beperkt tot 3 aanbieders zoals de GPU-markt dit is. En in de context van een oligopolie is een dergelijke zet imo wel degelijk 'hatelijk' (vooral als het bedrijf in kwestie ook op allerlei andere manieren die niets met productverbetering te maken hebben bezig is om de competitie pootje te lichten).
XFX wordt denk ik niet voor niets regelmatig aangehaald als schoolvoorbeeld over hoe dit soort zaken niet aan te pakken. Ze leken een grote toekomst te hebben als Nvidia partner, wilden echter simpelweg meer geld gaan verdienen in een periode waarin Nvidia het wat minder deed. Wat hun goed recht is, maar dat gaat wel steken in je huidige partnership als je dat soort zaken contractueel niet goed afdekt. Tot het punt waarin ze nu het schuitje zitten dat ze volgens geruchten een stuk minder omzet hebben gedraaid de laatste jaren dan wanneer ze Nvidia waren trouw gebleven.
Precies dit. XFX kondigde deze stap aan toen nVidia feitelijk in zwaar weer zat. Ze maakte zelf de keuze om ATI ook te bedienen en zakelijk snap ik het nog wel dat nVidia hen toen heeft afgesneden als supplier.Dennism schreef op maandag 21 augustus 2017 @ 08:30:
[...]
Volgens mij ga je voorbij aan het feit dat XFX aanstichter lijkt te zijn van dit hele verhaal. Als je van exclusief partner naar een situatie wil waarbij je kaarten kan maken van zowel AMD als Nvidia zul je toch echt de contracten op orde moeten hebben zodat een miskleun als deze niet mogelijk zou zijn geweest.
XFX wordt denk ik niet voor niets regelmatig aangehaald als schoolvoorbeeld over hoe dit soort zaken niet aan te pakken. Ze leken een grote toekomst te hebben als Nvidia partner, wilden echter simpelweg meer geld gaan verdienen in een periode waarin Nvidia het wat minder deed. Wat hun goed recht is, maar dat gaat wel steken in je huidige partnership als je dat soort zaken contractueel niet goed afdekt. Tot het punt waarin ze nu het schuitje zitten dat ze volgens geruchten een stuk minder omzet hebben gedraaid de laatste jaren dan wanneer ze Nvidia waren trouw gebleven.
XFX zou deze keuze graag terugdraaien als ze wisten hoe hard nVidia terug zou komen. Ze hebben gewoon gegokt op het verkeerde paard.
Hier ben ik het dus niet mee eens. Het is nu al meerdere malen voorbij gekomen waarom AMD voor HBM2 kiest. Het is efficiënter, lagere latency, zuiniger, simpeler om enorme geheugen bandbreedte te creëren en het scheelt heel wat diespace. Het is niet alleen maar slecht. Verder heeft AMD een aantal jaar me vrij matige GDDR5 controllers gezeten, die ook nog eens extra groot waren, en nog meer verbruikte dan Nvidia tegenhangers. Geen HBM2 voor Vega zou botweg betekenen dat de chip 500mm2+ zou zijn, nog duurder om te maken, nog meer zou verbruiken en dan verlies je waarschijnlijk ook nog eens geheugen bandbreedte.Fredi schreef op maandag 21 augustus 2017 @ 05:35:
[...]
Vind ik wel. AMD maakt keer op keer foute keuzes. Ik dacht dat ze hun lesje nu wel geleerd hadden met de Fiji flop met hun HBM geheugen. HBM is nog altijd te duur en slecht beschikbaar, vandaar dat AMD Vega nu weer, net zoals Fiji met een te hoog MSRP in de markt moet zetten. "Had AMD maar voor GDDRx gekozen" herinner ik mij The Source nog zeggen-en hij kan het weten-dan hadden ze Vega goedkoper in de markt kunnen zetten en hadden wij als gamers eindelijk weer eens een kaart onder de €500 kunnen kopen(ook de schuld vd miners, weet ik).
In de mid-end doetcAMD het momenteel wel goed met de RX580 maar high-end maken zecer een potje van. Daar verpest AMD het idd. Ik koop altijd de high-end cut en velen met mij, omdat prijs/prestatie daar hetvbest was. Ik heb nu een HD7950, ervoor 8800gtx gehad wat niet de cut is maar hij was einde carriere en voor €300 kunnen kopen. Voor Vega wordt dat dus de Vega56 maar als hij min €500 wordt(AIB €550) koop ik hem niet. Ik weiger €500 te betalen voor de cut en begrijp trouwens niet waarom zoveel anderen dit wel doen. Een grafische kaart moet voor mij onder €500 blijven anders vind ik het te duur. Vroeger kon je de cut voor €300 kopen maar omdat AMD weeral eens voor HBM gekozen kunnen ze niet onder de €500 komen, dus ja AMD verpest het voor de gaming markt.
Je kan een keer een fout maken met Fiji en HBM, dat kan ik nog begrijpen maar nu weer met Vega en HBM2, dat begrijp ik niet meer. Ze hadden beter op veilig gespeeld en voor GDDR gekozen. HBM is duur om te produceren, slecht beschikbaar, moeilijk om te integreren met de GPU via de interposer waardoor duurder. Nvidia heeft dit goed begrepen en gebruikt het alleen in hun Quaddro's. Dat noem ik goed beleid, van AMD niet.
Het voordeel van compactheid hebben ze er ook niet van(met Fiji nog wel) want de gpu verbruikt zo veel dat ze er een mega-koeler moeten opzetten.
Verder weten we niet hoeveel RX Vega 56 gaat kosten. Ik zou ook nooit meer dan €500, eigenlijk €450 betalen voor een GPU. Wat de uiteindelijke prijs zal zijn, hangt alleen af van AMD. AMD moet meer waarde uit elke wafer halen qua chips dan ze erin stoppen. Gaan de HPC Vega kaarten lopen, dan is dit vrij gemakkelijk te doen. AMD moet RX Vega 56 chips gaan verkopen op een prijspunt waar ze competitief zijn met GV104. Dat is pijnlijk, maar goed mogelijk. Het is ook de reden waarom ik zo graag een RX Vega 48 zou zien, dat helpt met lagere prijzen want meer chips per wafer.
Over mining maak ik mij weinig zorgen. De hashrates zijn niet veel beter dan een RX580 en de kaart zal heel wat duurder zijn. Als laatste ben ik juist van mening dat AMD, de RTG niet moet, of kan verkopen. Vega is al een IF GPU, er zal ook het nodige mee gemoeid zijn qua R&D, en deze chip kan de HPC markt op. Verder zit Navi eraan te komen, en je zal de geruchten wat AMD daar wil doen ook wel kennen hoop ik. Krijg je precies hetzelfde scenario als AMD nu doet met Intel met Zen. Nvidia heeft behoorlijk wat R&D te verrichten om het in te halen. Zijn ze net zoals Intel volledig verrast door de IF, dan hebben ze nog jaren en jaren nodig om in te lopen. IF moet eigenlijk al klaar zijn geweest voordat het ontwerpen van Zen en Vega begon, heb je het dus over 2012-2013 gok ik zo. Het gefocuste Nvidia zie ik nog redelijk snel reageren, maar alsnog nadat Navi er allang is en denk ik ook wel de opvolger. Intel zie ik niet zo snel antwoorden, en dat vind ik helemaal niet erg.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
'feitelijk in zwaar weer', met ook destijds een marktaandeel van >=50%? Die volg ik niet.sjekneck schreef op maandag 21 augustus 2017 @ 09:01:
[...]
Precies dit. XFX kondigde deze stap aan toen nVidia feitelijk in zwaar weer zat. Ze maakte zelf de keuze om ATI ook te bedienen en zakelijk snap ik het nog wel dat nVidia hen toen heeft afgesneden als supplier.
XFX zou deze keuze graag terugdraaien als ze wisten hoe hard nVidia terug zou komen. Ze hebben gewoon gegokt op het verkeerde paard.
Nonsens. Besluiten om onder geen beding meer zaken met iemand te doen heeft volgt niet primair uit "contracten niet op orde hebben", maar uit een wens van Nvidia om voorbeelden te stellen (pour décourager les autres).Dennism schreef op maandag 21 augustus 2017 @ 08:30:
[...]
Volgens mij ga je voorbij aan het feit dat XFX aanstichter lijkt te zijn van dit hele verhaal. Als je van exclusief partner naar een situatie wil waarbij je kaarten kan maken van zowel AMD als Nvidia zul je toch echt de contracten op orde moeten hebben zodat een miskleun als deze niet mogelijk zou zijn geweest.
XFX wordt denk ik niet voor niets regelmatig aangehaald als schoolvoorbeeld over hoe dit soort zaken niet aan te pakken. Ze leken een grote toekomst te hebben als Nvidia partner, wilden echter simpelweg meer geld gaan verdienen in een periode waarin Nvidia het wat minder deed. Wat hun goed recht is, maar dat gaat wel steken in je huidige partnership als je dat soort zaken contractueel niet goed afdekt. Tot het punt waarin ze nu het schuitje zitten dat ze volgens geruchten een stuk minder omzet hebben gedraaid de laatste jaren dan wanneer ze Nvidia waren trouw gebleven.
En als XFX als schoolvoorbeeld van hoe het niet te doen wordt aangehaald, is dat dus puur omdat Nvidia door een samenloop van omstandigheden sindsdien een dominante marktpositie heeft verworven, terwijl AMD is gekrompen (met compleet voorspelbare consequenties voor de GPU-tak van XFX), en niet vanwege 'onhandigheid' van XFX. Die dingen hebben niets met elkaar te maken, dus is het onzin om hen erop aan te kijken dat ze op beide "paarden" wilden wedden, en hen te verwijten dat ze maar "trouw" hadden moeten blijven.
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Ik verwijt XFX niets, die hebben destijds gewoon een korte termijn beslissing genomen en zijn een contract met Ati aangegaan vanuit hun wens om meer volume / omzet / winst te draaien en te groeien. Die beslissing is op de lange termijn ongunstig is uitgepakt. Dit was gewoon een zakelijke beslissing van XFX, gegokt en verloren maar opzich niets mis mee (behalve dan dat je achteraf kan zeggen dat het niet handig is geweest, maar dat is achteraf).foppe-jan schreef op maandag 21 augustus 2017 @ 09:51:
Nonsens. Besluiten om onder geen beding meer zaken met iemand te doen heeft volgt niet primair uit "contracten niet op orde hebben", maar uit een wens van Nvidia om voorbeelden te stellen (pour décourager les autres).
En als XFX als schoolvoorbeeld van hoe het niet te doen wordt aangehaald, is dat dus puur omdat Nvidia door een samenloop van omstandigheden sindsdien een dominante marktpositie heeft verworven, terwijl AMD is gekrompen (met compleet voorspelbare consequenties voor de GPU-tak van XFX), en niet vanwege 'onhandigheid' van XFX. Die dingen hebben niets met elkaar te maken, dus is het onzin om hen erop aan te kijken dat ze op beide "paarden" wilden wedden, en hen te verwijten dat ze maar "trouw" hadden moeten blijven.
Net als dat met de keuze van Nvidia om niet verder te gaan met een partner die zij niet meer als betrouwbaar zagen gewoon een zakelijke keuze is geweest die vrij logisch is door de stappen die XFX gezet heeft voor deze beslissing.
Ik denk dat je in deze beide partijen niet direct iets kan verwijten, ze hebben beide keuzes gemaakt die op dat moment voor hun gezien vrij logisch waren. Iets dat leek op een goed huwelijk is daardoor gestrand, maar goed ook dat is niet nieuws.
https://www.facebook.com/...0740208097&type=3&theater
After tons of measurings I found finally the sweet spot of this Radeon RX Vega56. But not one of AMD's profiles is in within this green area, only three of them are more or less in the near.

[ Voor 48% gewijzigd door The Source op 21-08-2017 11:40 ]
Het gaat dus erg goed zijn om even zelf te tweaken aan de voltages en power limits maar op zich is dat geen nieuwe informatie. Een richtlijn is echter wel tof om te hebben.
Ik vraag me af hoe dit zich verhoudt bij de Vega 64...
AMD, ik wil driverupdates zodat ik alle power states aan kan passen!

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Dus bron?
Verder is dit wel erg klungelig weer. Ja, bijna 20W erbij voor een frame.
Gaan jullie overwegen om kaarten af te stellen voor maximale performance per watt? Het is eigenlijk volslagen zinloos om RX Vega te overclocken. Je wint er zo weinig mee qua prestaties, behalve als je een kachel nodig hebt.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Welk hatelijk gedrag? Ik zie een bedrijf wat op een legale manier concurrentievoordeel probeert te krijgen. Daar is niets mis mee hoor. Dat AMD nu in de positie is dat ze alleen maar open standaarden kunnen uitbrengen ivm gesloten standaarden (omdat anders echt niemand ze gaat gebruiken) is niet het probleem van nvidia.foppe-jan schreef op zondag 20 augustus 2017 @ 22:30:
[...]
Deels omdat ik het onverstandig vind om als een markt maar 2 aanbieders kent, en die grofweg vergelijkbaar presterende producten leveren, maar de een een veel groter marktaandeel heeft dan de ander, de grootste te steunen. (Ik heb geen interesse in v64, of overklokken, en vega's perf/watt als je de chip undervolt is prima.)
Daarnaast vanwege dit soort hatelijk gedrag: https://www.reddit.com/r/...a_gpus_when_they/ctton60/
[...]
Wachten is voor een groot deel op gddr6.
Nvidia staat compleet in z'n recht om te doen wat ze volgens dat filmpje doen. Iets anders verwachten van een commercieel bedrijf is gewoon naive.
Waarom zou je iets goedvinden puur omdat iets legaal is, danwel omdat X ermee wegkomt (lang niet alles dat in het bedrijfsleven dat strafbaar is, levert betekenisvolle straffen, of zelfs gedragswijziging op nadat een bedrijf is betrapt)? Ik weet dat veel mensen denken dat je "dom" bent om "meer" te verwachten dan de status quo, maar met dergelijk absolutisme, waarin waar je mee wegkomt bepaalt waarmee je 'mag' zitten, kan ik niet zoveel.Adlermann schreef op maandag 21 augustus 2017 @ 11:38:
Nvidia staat compleet in z'n recht om te doen wat ze volgens dat filmpje doen. Iets anders verwachten van een commercieel bedrijf is gewoon naive.
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Ik denk dat ik zelf gewoon ga kijken hoe veel omlaag ik het voltage kan gooien en het daar bij houden. Als ik 'm nog kan krijgen teminste, nog steeds geen reactie op m'n "Angebotsanfrage" bij Alternate DE.DaniëlWW2 schreef op maandag 21 augustus 2017 @ 11:30:
Gaan jullie overwegen om kaarten af te stellen voor maximale performance per watt? Het is eigenlijk volslagen zinloos om RX Vega te overclocken. Je wint er zo weinig mee qua prestaties, behalve als je een kachel nodig hebt.
PC: R9 5950X | 32GB | VEGA 64 Liquid Edition
Als je een kvk# hebt, waarom zou je dan bij alternate bestellen ipv MF?Gelunox schreef op maandag 21 augustus 2017 @ 11:49:
[...]
Ik denk dat ik zelf gewoon ga kijken hoe veel omlaag ik het voltage kan gooien en het daar bij houden. Als ik 'm nog kan krijgen teminste, nog steeds geen reactie op m'n "Angebotsanfrage" bij Alternate DE.
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Heb ik die dan?foppe-jan schreef op maandag 21 augustus 2017 @ 12:02:
[...]
Als je een kvk# hebt, waarom zou je dan bij alternate bestellen ipv MF?
PC: R9 5950X | 32GB | VEGA 64 Liquid Edition
Wie zou anders momenteel een AMD kaart kopen aan de huidige prijzen
Voor zover ik kan zien worden de prijzen alleen maar hoger, en ik wil 'm best graag hebben. Dus nu of nooit, heb er inmiddels echt spijt van dat ik die order die ik de 14e perongeluk had geplaatst heb geannuleerd.lightdestroyer schreef op maandag 21 augustus 2017 @ 12:03:
[...]
Wie zou anders momenteel een AMD kaart kopen aan de huidige prijzen
PC: R9 5950X | 32GB | VEGA 64 Liquid Edition
Ik ga straaljagermotor-simulaties draaien, dus nee.DaniëlWW2 schreef op maandag 21 augustus 2017 @ 11:30:
[...]
Dus bron?
Verder is dit wel erg klungelig weer. Ja, bijna 20W erbij voor een frame.![]()
Gaan jullie overwegen om kaarten af te stellen voor maximale performance per watt? Het is eigenlijk volslagen zinloos om RX Vega te overclocken. Je wint er zo weinig mee qua prestaties, behalve als je een kachel nodig hebt.
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Tjah als het voor te gamen is zou ik als ik u was gewoon op lanceer datum van de 56 variant met een pc of 2 klaar staan om snel snel de eerste te kopen, je weet wel diegene met de mooie 100 euro kortingGelunox schreef op maandag 21 augustus 2017 @ 12:05:
[...]
Voor zover ik kan zien worden de prijzen alleen maar hoger, en ik wil 'm best graag hebben. Dus nu of nooit, heb er inmiddels echt spijt van dat ik die order die ik de 14e perongeluk had geplaatst heb geannuleerd.
Mits beetje geluk (OC) kan je bijna even goede performantie verwachten voor evenveel verbruik
Das handig "free" audio simulatiefoppe-jan schreef op maandag 21 augustus 2017 @ 12:07:
[...]
Ik ga straaljagermotor-simulaties draaien, dus nee.
[ Voor 14% gewijzigd door lightdestroyer op 21-08-2017 12:09 ]
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.