PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
En dan gaat het vrolijk door onder de noemer "FineWine", nieuwe architectuur, reviewers zijn slecht want ze passen oude reviews niet aan na de release van de zoveelste super driver, resolutie X is niet relevant want Y, benchmark M is niet relevant want gebruikt techniek N, game Q is niet relevant want sponsor R, ik zei het toch discussies, verbruik is wel/niet relevant, koeler J maakt wel/niet acceptabel geluid etcHelp!!!! schreef op woensdag 5 juli 2017 @ 13:12:
Zal blij zijn als het eind juli is en de reviews de zo gewenste duidelijkheid bieden.
Verwijderd
Maar aan het inlopen. Over de GTX 1080 gaat RX Vega wel heen (uiteindelijk), de vraag is wat er nog meer mogelijk is. Ik denk niet dat AMD ambieert dat deze kaart de competitie aangaat met de GTX 1080 ti. Niet op basis van de resultaten van de Vega-FE, die zijn niet zo interessant, maar op basis van een slide die AMD liet zien die suggereert dat ze met de eerste itereatie van Vega nog niet op dat segment mikken (die slide met de balken waarbij de streep niet tot helemaal bovenaan kwam).
Nee hoor, dan is het nog steeds de vraag wat een jaar later de winst is met verbeterde drivers. Doorgaans heb je bij een sterker vernieuwde architectuur meer vooruitgang met vernieuwde drivers.Help!!!! schreef op woensdag 5 juli 2017 @ 13:12:
Zal blij zijn als het eind juli is en de reviews de zo gewenste duidelijkheid bieden.
[ Voor 24% gewijzigd door Verwijderd op 05-07-2017 14:38 ]
Jij snapt het. Het is pas goed als de Titan Xp met 50% wordt verslagen, en niks minder.Paprika schreef op woensdag 5 juli 2017 @ 14:25:
[...]
En dan gaat het vrolijk door onder de noemer "FineWine", nieuwe architectuur, reviewers zijn slecht want ze passen oude reviews niet aan na de release van de zoveelste super driver, resolutie X is niet relevant want Y, benchmark M is niet relevant want gebruikt techniek N, game Q is niet relevant want sponsor R, ik zei het toch discussies, verbruik is wel/niet relevant, koeler J maakt wel/niet acceptabel geluid etc
Onderhand kan AMD gewoon niet meer winnen want het zal altijd tegenvallen. Ook al matchen ze nu alsnog de Ti, en verkopen ze die GPU voor €600, dan zullen er alsnog mensen zijn die zeuren dat het niet goed is.

* DaniëlWW2 hoopt stiekem dat Vega toch een tikje tegen zal vallen bij release.

De beste RX Vega ergens tussen de 1080 en de Ti, en de cut down ergens tussen de 1070 en 1080 zou wel interessant zijn voor de consumenten. Zeker als "FineWine" na de release inzet.
Met een beetje geluk is de cut down sku dan voor €400- te krijgen. Teken ik voor want die RX580 die ik ooit bestelde ontvang ik toch niet meer, en eigenlijk woiu ik een niveautje krachtiger.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dan is het zeker niet goed inderdaad. Dan kijken we al een hele lange tijd uit naar iets wat al oud is als het uitkomt.DaniëlWW2 schreef op woensdag 5 juli 2017 @ 14:49:
[...]
Ook al matchen ze nu alsnog de Ti, en verkopen ze die GPU voor €600, dan zullen er alsnog mensen zijn die zeuren dat het niet goed is.
Ik snap ook echt niet hoe jij elke dag XXXXX posts kan plaatsen en zo hard probeert te schreeuwen hoe goed het wel niet wordt en iedereen het verder fout heeft.

Palms sweaty, knees weak, moms spaghettiHelp!!!! schreef op woensdag 5 juli 2017 @ 13:12:
Gaan jullie deze back & forth nog 25 dagen volhouden![]()
![]()
Zal blij zijn als het eind juli is en de reviews de zo gewenste duidelijkheid bieden.
En hoe precies zou €600 voor een speculatieve Ti tegenhanger niet geweldig zijn? Paar onder euro onder de prijs van Nvidia. De Ti, 1080 en 1070 zouden moeten flink zakken in prijs, beter voor iedereen die een dergelijk product wil kopen.chaoscontrol schreef op woensdag 5 juli 2017 @ 15:06:
[...]
Dan is het zeker niet goed inderdaad. Dan kijken we al een hele lange tijd uit naar iets wat al oud is als het uitkomt.
En ik begrijp nog steeds niet dat elke subtiliteit in mijn reacties worden gemist en ik elke keer met dergelijke onzinnige reacties geconfronteerd word...Ik snap ook echt niet hoe jij elke dag XXXXX posts kan plaatsen en zo hard probeert te schreeuwen hoe goed het wel niet wordt en iedereen het verder fout heeft.FineWine? More like FanWhine amirite?
Als Vega FE representatief blijkt voor RX Vega dan is het een van de, zo niet de slechtste GPU achitectuur ooit. Het hele punt van Vega was om de frontend bottleneck problemen van Fiji op te lossen, en nu presteert Vega FE dus clock voor clock minder dan Fiji, terwijl die veel meer verbruikt. Dat is een behoorlijke fuck up als hier niks veranderd. Vega FE matched niet eens het beste van de concurrent. Dat zou slechter zijn dan Fermi die tenminste nog presteerde ondanks alles wat daar mis ging. Dan kan je nog veel verder terug gaan graven naar zoiets als de FX 5800 Ultra wat een redelijke vergelijking zou zijn met de problemen die AMD gaat krijgen als Vega FE vergelijkbaar is. De FX 5800 Ultra draaide Nvidia bijna de nek om...
Verder ben ik bij lange na niet de enige die twijfels plaatst bij de huidige resultaten. Lijkt me ook niet vreemd aangezien er nu sprake lijkt te zijn van een vermindering van IPC, de GPU in een fallback modus lijkt te draaien, en de meeste features uit lijken te staan. Geen van deze dingen wijst op optimale prestaties...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat is niet goed omdat Nvidia ook niet stil zit en we niet willen dat Vega dadelijk uiteindelijk een keer uitkomt en Nvidia weer countert met een nieuw model welke weer véél sneller zijn. Loopt AMD weer achter de feiten aan en is er niks gewonnen.DaniëlWW2 schreef op woensdag 5 juli 2017 @ 15:44:
[...]
En hoe precies zou €600 voor een speculatieve Ti tegenhanger niet geweldig zijn? Paar onder euro onder de prijs van Nvidia. De Ti, 1080 en 1070 zouden moeten flink zakken in prijs, beter voor iedereen die een dergelijk product wil kopen.
[...]
En ik begrijp nog steeds niet dat elke subtiliteit in mijn reacties worden gemist en ik elke keer met dergelijke onzinnige reacties geconfronteerd word...
Als Vega FE representatief blijkt voor RX Vega dan is het een van de, zo niet de slechtste GPU achitectuur ooit. Het hele punt van Vega was om de frontend bottleneck problemen van Fiji op te lossen, en nu presteert Vega FE dus clock voor clock minder dan Fiji, terwijl die veel meer verbruikt. Dat is een behoorlijke fuck up als hier niks veranderd. Vega FE matched niet eens het beste van de concurrent. Dat zou slechter zijn dan Fermi die tenminste nog presteerde ondanks alles wat daar mis ging. Dan kan je nog veel verder terug gaan graven naar zoiets als de FX 5800 Ultra wat een redelijke vergelijking zou zijn met de problemen die AMD gaat krijgen als Vega FE vergelijkbaar is. De FX 5800 Ultra draaide Nvidia bijna de nek om...
Verder ben ik bij lange na niet de enige die twijfels plaatst bij de huidige resultaten. Lijkt me ook niet vreemd aangezien er nu sprake lijkt te zijn van een vermindering van IPC, de GPU in een fallback modus lijkt te draaien, en de meeste features uit lijken te staan. Geen van deze dingen wijst op optimale prestaties...
Los daarvan moet je echt loslaten dat de prestaties dadelijk wonderbaarlijk ineens 50% beter gaan zijn, dat is gewoon niet zo. Al zou de frontier edition op de Windows Basic Display Adapter draaien zou het verschil met uiteindelijke drivers nog kleiner zijn dan dat.
Als iemand je dat verteld steek je je hoofd weer in het zand en begin je te roepen dat we geen conclusies moeten trekken maar zelf trek je conclusie na aanname over dat er nog van alles kan gebeuren met de prestaties. Dat is misschien zo maar nu hebben we de frontier edition en dat is altijd nog dichterbij (en dus representatiever voor) de Vega dan alle speculaties van (fan)boys hier. Je kan daar prima een conclusie uittrekken en inderdaad, het kan zijn dat dat over een maand met een paar procent verschilt maar echt geen bergen.
"Beter laat dan nooit!"DaniëlWW2 schreef op woensdag 5 juli 2017 @ 15:44:
En hoe precies zou €600 voor een speculatieve Ti tegenhanger niet geweldig zijn? Paar onder euro onder de prijs van Nvidia. De Ti, 1080 en 1070 zouden moeten flink zakken in prijs, beter voor iedereen die een dergelijk product wil kopen.
Heerlijk hoe mensen het zichzelf moeilijk maken door te lang te wachten of alleen een bepaald merk willen hebbenflessuh schreef op woensdag 5 juli 2017 @ 15:38:
Ik vraag me af wanneer de eerste Vega kaarten te pre-orderen zijn. Heb nog PC in winkelwagentje zitten die braaf wacht tot dat mogelijk is

[ Voor 31% gewijzigd door nero355 op 05-07-2017 15:52 ]
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Moest Nvidia Freesync ondersteunen, was ikzelf zo overgestaptnero355 schreef op woensdag 5 juli 2017 @ 15:51:
Heerlijk hoe mensen het zichzelf moeilijk maken door te lang te wachten of alleen een bepaald merk willen hebben
Is er ook ergens een klagen-over-leveranciers-die-pas-leveren-als-ze-jouw-product-kunnen-inkopen-tegen-een-voor-hen-acceptabele-inkoopsprijs-topic? Beetje slappe hap van amazon..
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Verwijderd
Gelukkig voor AMD is Nvidia te koppig en/of trotst om dat in te zien.Rezk schreef op woensdag 5 juli 2017 @ 16:01:
[...]
Moest Nvidia Freesync ondersteunen, was ikzelf zo overgestapt
Wil jij alsjeblieft niet zo jezelf projecteren op anderen? Jij had er moeite mee om te wachten, dat wil niet zeggen dat andere mensen dat moeilijk vinden.nero355 schreef op woensdag 5 juli 2017 @ 15:51:
Heerlijk hoe mensen het zichzelf moeilijk maken door te lang te wachten of alleen een bepaald merk willen hebben
[ Voor 42% gewijzigd door Verwijderd op 05-07-2017 17:03 ]
Want een paar willekeurige forumgangers kunnen beter bepalen wat goed is voor de cijfers dan de analysten van het bedrijf zelf...Verwijderd schreef op woensdag 5 juli 2017 @ 17:01:
[...]
Gelukkig voor AMD is Nvidia te koppig en/of trotst om dat in te zien.

Verwijderd
Dat wil zeggen dat de verkoopcijfers niet nog beter zouden zijn als ze wel FreeSync zouden ondersteunen?Paprika schreef op woensdag 5 juli 2017 @ 17:17:
[...]
Want een paar willekeurige forumgangers kunnen beter bepalen wat goed is voor de cijfers dan de analysten van het bedrijf zelf...
[afbeelding]
Meer support is beter, het maakt de kaarten enkel aantrekkelijker. Dat de omzet flink is gestegen is nogal wiedes aangezien ze een jaar lang een monopolie hebben gehad op high midend en hoger.
[ Voor 18% gewijzigd door Verwijderd op 05-07-2017 17:25 ]
Schijnbaar zou het negatieve gevolgen hebben voor het totaalplaatje. Anders hadden ze het wel gedaan. Iets met licentiekosten, marktaandeel enz.Verwijderd schreef op woensdag 5 juli 2017 @ 17:24:
[...]
Dat wil zeggen dat de verkoopcijfers niet nog beter zouden zijn als ze wel FreeSync zouden ondersteunen?
Dat je überhaupt durft te stellen dat een miljarden bedrijf op basis van deze eigenschappen een strategie gaat bepalen en je jezelf daarin serieus neemt...te koppig en/of trotst
[ Voor 8% gewijzigd door Paprika op 05-07-2017 17:28 ]
Verwijderd
Verklaar jij maar eens waarom het goed zou zijn voor Nvidia om MINDER functionaliteit te bieden. Omdat ze een paar extra G-Sync modules verkopen?Paprika schreef op woensdag 5 juli 2017 @ 17:25:
Dat je stelt dat een miljarden bedrijf op basis van deze eigenschappen een strategie gaat bepalen
[ Voor 7% gewijzigd door Verwijderd op 05-07-2017 17:30 ]
Dan staat er AMD freesync op de doos en zien mensen dat er nog een GPU producent bestaat, willen ze niet.Verwijderd schreef op woensdag 5 juli 2017 @ 17:30:
[...]
Verklaar jij maar eens waarom het goed zou zijn voor Nvidia om MINDER functionaliteit te bieden. Omdat ze een paar extra G-Sync modules verkopen?
Ja, daar komt het dipje in de koers ook vandaan. Weet je toch.Paprika schreef op woensdag 5 juli 2017 @ 17:17:
[...]
Want een paar willekeurige forumgangers kunnen beter bepalen wat goed is voor de cijfers dan de analysten van het bedrijf zelf...
[afbeelding]
Alle gekheid op een stokje. Het zou leuk zijn als Nvidia ook gewoon Freesync zou ondersteunen maar ze zijn overduidelijk vrij in om het niet te doen. Ze komen er overduidelijk mee weg dus waarom zouden ze? De meeste mensen zullen toch nog een 1080p/60hz scherm hebben, en dat zal niet snel veranderen denk ik dus echt de standaard pushen is zinloos voor Nvidia. Liever marge pakken in combinatie met een Ti en een Gsync scherm. Freesync kan altijd nog. AMD moet wel omdat ze door jaren aan wanbeleid en de gevolgen hiervan nu de uitdager op de GPU markt zijn, en niet meer een van de twee grote spelers, en ze iets bijzonders moeten bieden.
En bij gebrek aan leverbare AMD GPU's, of mystieke producten die ooit eens uitgebracht worden en dan hopelijk presteren blijft er weinig anders over dan Freesync.
edit:
Dat ook.Paprika schreef op woensdag 5 juli 2017 @ 17:40:
[...]
Hoezo bieden ze minder functionaliteit? AMD ondersteunt toch ook geen G-SYNC? Beide standaarden trachten hetzelfde te bereiken. Het enige verschil is dat AMD een open standaard volgt, terwijl Nvidia een vendor-lockin oplossing heeft gekozen.
Vendor-lockin klinkt in mijn oren als een verwachtte keuze als je een groot percentage van de markt bezit. Zeker als je de markt beperkt tot de audience van G-SYNC, namelijk gamers. In de gamers wereld staat Nvidia er immers erg sterk voor. De low-end heeft Nvidia al lang losgelaten (zo is hun goedkoopste variant nu de GTX 1050) dus die markt is niet eens meer interessant. Dan kun je al (bijna) iedere thuis-office en work-office computer al overslaan. Die markt wordt immers goed bediend door AMD en Intel vanuit een iGPU perspectief. Dat zorgt ervoor dat je audience (voor de GeForce producten) eigenlijk in z'n geheel beperkt is tot gamers (al wordt CUDA nog wel breder ingezet, denk aan 3D bewerking, maar die willen helemaal geen variabele refreshrate). Die markt lijkt relatief nog best open te staan voor het kopen van een G-SYNC monitor en als ze dat nou eenmaal hebben gedaan dan is de kans groot dat hun volgende monitor weer een Nvidia kaart wordt, immers wil je toch je variabele refreshrates behouden. Ah kijk, precies de reden waarom sommigen nu geen Nvidia kaart kopen, immers zitten ze nu vendor-locked aan AMD... maar dat geldt dus ook de andere kant op.
[ Voor 39% gewijzigd door DaniëlWW2 op 05-07-2017 18:16 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hoezo bieden ze minder functionaliteit? AMD ondersteunt toch ook geen G-SYNC? Beide standaarden trachten hetzelfde te bereiken. Het enige verschil is dat AMD een open standaard volgt, terwijl Nvidia een vendor-lockin oplossing heeft gekozen.Verwijderd schreef op woensdag 5 juli 2017 @ 17:30:
[...]
Verklaar jij maar eens waarom het goed zou zijn voor Nvidia om MINDER functionaliteit te bieden. Omdat ze een paar extra G-Sync modules verkopen?
Vendor-lockin klinkt in mijn oren als een verwachtte keuze als je een groot percentage van de markt bezit. Zeker als je de markt beperkt tot de audience van G-SYNC, namelijk gamers. In de gamers wereld staat Nvidia er immers erg sterk voor. De low-end heeft Nvidia al lang losgelaten (zo is hun goedkoopste variant nu de GTX 1050) dus die markt is niet eens meer interessant. Dan kun je al (bijna) iedere thuis-office en work-office computer al overslaan. Die markt wordt immers goed bediend door AMD en Intel vanuit een iGPU perspectief. Dat zorgt ervoor dat je audience (voor de GeForce producten) eigenlijk in z'n geheel beperkt is tot gamers (al wordt CUDA nog wel breder ingezet, denk aan 3D bewerking, maar die willen helemaal geen variabele refreshrate). Die markt lijkt relatief nog best open te staan voor het kopen van een G-SYNC monitor en als ze dat nou eenmaal hebben gedaan dan is de kans groot dat hun volgende monitor weer een Nvidia kaart wordt, immers wil je toch je variabele refreshrates behouden. Ah kijk, precies de reden waarom sommigen nu geen Nvidia kaart kopen, immers zitten ze nu vendor-locked aan AMD... maar dat geldt dus ook de andere kant op.
Van mij hoef je geen Nvidia kaart of G-SYNC monitor te kopen. Ik bezit geen aandelen (had het geen slechte keuze gevonden deze te kopen in 2016, zowel AMD als Nvidia overigens), maar jouw stelling is een behoorlijk rood gekleurde verklaring die gedreven is door emotie en weinig te maken heeft met de realiteit. Je bent geen fan van Nvidia producten en wacht graag op een AMD product. Prima, het is immers ook jouw geld...
Welke monitoren staan bovenaan in de pricewatch (meest bekeken)? Monitoren met zowel geen FreeSync als geen G-SYNC
[ Voor 27% gewijzigd door Paprika op 05-07-2017 17:54 ]
Nee, want ze zouden er dan gewoon "NEW! Supports VESA Adaptive Sync!" op plakkenNature schreef op woensdag 5 juli 2017 @ 17:37:
[...]
Dan staat er AMD freesync op de doos en zien mensen dat er nog een GPU producent bestaat, willen ze niet.
Mechwarrior Online: Flapdrol
Iets met een pot en een ketel geloof ik...Verwijderd schreef op woensdag 5 juli 2017 @ 17:01:
Wil jij alsjeblieft niet zo jezelf projecteren op anderen? Jij had er moeite mee om te wachten, dat wil niet zeggen dat andere mensen dat moeilijk vinden.
Maar ehh... die kaart gaat net zo snel weg als VEGA interessant blijkt te zijn. Maak je daar maar geen zorgen over!
Ik wil namelijk zo relax mogelijk gamen en welk merk mij die kaart levert boeit me niet zo heel erg, maar wil dat wel NU kunnen en zonder allerlei irritante performance drops. Dat is de enige reden dat ik ineens een groene i.p.v. een rode kaart had.Met een niet zo handige Eyefinity tegenhanger wat betreft de software...
Hoewel... ook een beetje dankzij de miners
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Verwijderd
Het bekijken waard, vooral vanaf rond de 17de minuut.
Gaming/3DMark.-prestaties ongeveer gelijk voor FuryX en Vega op dezelfde klokfrequentie, andere prestaties fors hoger. Voorzichtige conclusie: Vega-FE is duidelijk getuned voor niet-gaming applicaties.
[ Voor 49% gewijzigd door Verwijderd op 05-07-2017 18:39 ]
Dit inderdaadRezk schreef op woensdag 5 juli 2017 @ 16:01:
[...]
Moest Nvidia Freesync ondersteunen, was ikzelf zo overgestapt
Gelukkig kan ik nu straks direct een Freesync 2 monitor er nog bij pakken. Plus Ryzen lekker future-proof gok ik
Mijn laatste Nvidia kaart was een GTX280 die zichzelf opstookte door een driver-fout van Nvidia
[ Voor 30% gewijzigd door flessuh op 05-07-2017 18:43 ]
Bespaar je zelf de moeite, dit heeft niks met argumenten te maken maar met afkeer tegen Nvidia, het is als geloof, je kan er niet van winnen met argumenten, redelijkheid en feiten.Paprika schreef op woensdag 5 juli 2017 @ 17:40:
[...]
Hoezo bieden ze minder functionaliteit? AMD ondersteunt toch ook geen G-SYNC? Beide standaarden trachten hetzelfde te bereiken. Het enige verschil is dat AMD een open standaard volgt, terwijl Nvidia een vendor-lockin oplossing heeft gekozen.
Nvidia heeft simpelweg een betere bedrijfsstrategie gekozen dan AMD, nvidia heeft een aantal keer achter gelopen op AMD(ati dan), Nvidia loopt nu bijna twee generaties voor op nV.
AMD is open source simpelweg omdat ze niet anders kunnen, als jij zo'n klein markt aandeel hebt, heb je weinig in te brengen. Zoals je zelf aangeeft: AMD ondersteunt geen G-sync of SLI, nee AMD toentertijd was nog bezig markt baasje te worden en heeft toen SLI verworpen en gekozen voor crossfirex..
Je weet wel die SLI die ze gekocht hadden met de aankoop van 3dfx..
(krekels....tumbleweed)
Hoor je niks over, alleen hoe goed AMD is als open source en hoe slecht nV is die niet mee werkt met AMD, hoe nV bedrijven opkoopt op de die kapot te maken en de tech vast te houden. Bedrijf gonna bedrijf, care, move on.
Zie het fimpje: poor vega, pagina 16. my kind of guy (ik hou wel van feiten en doordachte argumenten).
[ Voor 3% gewijzigd door D0gtag op 05-07-2017 19:06 ]
X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's
Grappig die laatste regel, adored werd altijd beschouwd als t1 amd fanboyD0gtag schreef op woensdag 5 juli 2017 @ 19:03:
[...]
Bespaar je zelf de moeite, dit heeft niks met argumenten te maken maar met afkeer tegen Nvidia, het is als geloof, je kan er niet van winnen met argumenten, redelijkheid en feiten.
Nvidia heeft simpelweg een betere bedrijfsstrategie gekozen dan AMD, nvidia heeft een aantal keer achter gelopen op AMD(ati dan), Nvidia loopt nu bijna twee generaties voor op nV.
AMD is open source simpelweg omdat ze niet anders kunnen, als jij zo'n klein markt aandeel hebt, heb je weinig in te brengen. Zoals je zelf aangeeft: AMD ondersteunt geen G-sync of SLI, nee AMD toentertijd was nog bezig markt baasje te worden en heeft toen SLI verworpen en gekozen voor crossfirex..
Je weet wel die SLI die ze gekocht hadden met de aankoop van 3dfx..
(krekels....tumbleweed)
Hoor je niks over, alleen hoe goed AMD is als open source en hoe slecht nV is die niet mee werkt met AMD, hoe nV bedrijven opkoopt op de die kapot te maken en de tech vast te houden. Bedrijf gonna bedrijf, care, move on.
Zie het fimpje: poor vega, pagina 16. my kind of guy (ik hou wel van feiten en doordachte argumenten).
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
Ik vind het niet erg als je ergens voor of tegen bent, maar kom wel met goede argumenten.aminam schreef op woensdag 5 juli 2017 @ 19:25:
[...]
Grappig die laatste regel, adored werd altijd beschouwd als t1 amd fanboy
En dat doet hij gewoon ook. Je mening veranderen is iets gezonds.
Fimpje gezien van gamers nexus, vanaf 17:00 komt hij met CAD software perf. en 19:00 zijn conclusie.
CAD software performance is redelijk makkelijk te verklaren: Zie 1080 vs p5000.
1080 snx score =8.04 p5000 = 198.58
De drivers zijn geoptimaliseerd voor CAD applicaties dat was inmiddels al duidelijk, drivers fury X zijn game optimized.
Maar een p6000 vs titan X (pascal) is de quadro p6000 sneller
Over drivers 20:10,
Natuurlijk komen er driver updates voor vega die prestaties verbeteren, maar geen 20%+.Be vary careful about how much you're expecting.
Be careful what you are expecting.
X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Echte kerels hebben een vriendin en kiezen geen kamp.winwiz schreef op woensdag 5 juli 2017 @ 19:47:
Ik krijg steeds meer het vermoeden dat ze gewoon zitten te sandbaggen. Als de RX uitkomt is er ook een betere, lees echte, game driver voor de FE en dan krijg je een totaal ander plaatje. Een beetje poker spelen. De watjes gaan over naar het groene kamp en de echte kerels blijven over.
X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's
Markt CPU>>GPU.
CPU liep vele jaren achter , met vele jaren verlies.
ATI zou grotere weestand bieden , maar onder AMD zal er kwa omzet winst R&D onderling geschoven zijn.
Nu AMD betere periodes tegemoet gaat kan er in 2018 ook de GPU tak mee.
Je kan zo zien AMD ramp jaren 32nm heeft de GPU tak mogelijk ook deels bedrijf drijvende gehouden.
En daarmee ook onderuit gehaald.
Het is niet nV die AMD markt aandeel heeft genomen. Het is de AMD CPU tak die mogelijk te zware last is geweest.
Verbaast mij dus niet dat AMD kwa GPU even de handoek in de ring gooid. Maar die periode is mogelijk voorbij met Vega RX.
En ik kan wachten en wil ook wachten en doe er toch zeker 2 maanden bij.
Als terug herleid waar de schuld is kom je bij de foundry die AMD te lang aan 32nm gehouden heeft.
Waar inderect GPU gebeuren last van heeft.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Niet de meest overtuigende bedrijfsstrategie ooit, aan de andere kant heeft amd deze versie van vega nooit in schijnwerpers gezet dus het kan inderdaad wel. Maar ik hoop toch dat de rx vega wel een stuk betere prestaties neerzet anders had de release nooit zo lang mogen duren en zou het weer betekenen dat nvidia king of the hill blijft. Nvidia kaarten gamen prima, heb de laatste 3 weken 2 gtx 980's gekocht puur omdat er toch geen amd kaarten beschikbaar zijn. Maar ik wil iedereen graag weer legit amd kunnen aansmeren puur omdat ik nvidia's bedrijfsstrategie niet aangenaam vindtwinwiz schreef op woensdag 5 juli 2017 @ 19:47:
Ik krijg steeds meer het vermoeden dat ze gewoon zitten te sandbaggen. Als de RX uitkomt is er ook een betere, lees echte, game driver voor de FE en dan krijg je een totaal ander plaatje. Een beetje poker spelen. De watjes gaan over naar het groene kamp en de echte kerels blijven over.
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Verwijderd
Dat is nogal een bekrompen gedachtegangD0gtag schreef op woensdag 5 juli 2017 @ 19:48:
[...]
Echte kerels hebben een vriendin en kiezen geen kamp.
Ontopic:
Ik verwacht dat "fine wine" echt van toepassing gaat zijn voor Vega. AMD grapte er ook al mee.
dus wellicht tussen de 1080 en 1080ti op "launch day" en het de maanden na launch continu verbeteringen ?
Mocht dat zo zijn dan wordt het zowel voor klanten en voor Nvidia lastig om de waarde in te schatten van Vega.
[ Voor 43% gewijzigd door Verwijderd op 05-07-2017 20:07 ]
Krijg je al snel in dit draadje
Ik ga me leven beteren en gewoon weer ontopic reageren

[ Voor 13% gewijzigd door D0gtag op 05-07-2017 20:04 ]
X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's
Ik ben tevreden met tussen1070 en 1080 niveau voor €400 er zouden toch meerdere RX Vega kaarten komen?
Je zou bijna gaan denken dat Vega FE workstation drivers heeft, en geen game drivers.
Oke, een deel zal verklaard kunnen worden door hoge Vram vereisten van dergelijke, zeer intensieve programma's, maar kom op zeg. De verschillen zijn enorm tussen een Fury X met gaming drivers, en een Vega FE met whatever die op draait.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
[b]Toettoetdaan schreef op woensdag 5 juli 2017 @ 09:45:
Het enige wat er voor zorgt dat ik als een mogelijkheid zie is dat er in de Linux drivers een functie zit met een gerelateerde comment:
code:
1 2 3 4 5 6 7 8 9 10 if (adev->firmware.load_type != AMDGPU_FW_LOAD_PSP) { /* legacy firmware loading */ r = gfx_v9_0_cp_gfx_load_microcode(adev); if (r) return r; r = gfx_v9_0_cp_compute_load_microcode(adev); if (r) return r; }
Maar volgens mij is dit een fallback voor als de firmware niet gecertificeert is.
1
2
| MODULE_PARM_DESC(fw_load_type, "firmware loading type (0 = direct, 1 = SMU, 2 = PSP, -1 = auto)"); module_param_named(fw_load_type, amdgpu_fw_load_type, int, 0444); |
Als je verder de PSP code leest lijkt het er op dat ze nu de PSP de rest van de firmware laten laden, in plaats van de de driver het direct met een memcpy doet (wat de legacy manier is zoals op de oudere generaties).
Ik wacht nog gewoon even op de benchmarks. In 3 maanden 15% performance, dus wie weet wat er nog in de trukendoos van Raja zit. Sowieso is dit een synthetic benchmark en ik speel games, geen benchmarks. Bij Ryzen riepen de cynici onder ons ook voortdurend dat het "maar Cinenbench" was, dus ik ga dat nu ook even doen.Toettoetdaan schreef op woensdag 5 juli 2017 @ 10:37:
Maar maar maar... 25 dagen!!!
EDIT: Leuk, Vega RX? @1630MHz / 8GB: http://www.3dmark.com/3dm11/12256169
EDIT: Uitleg van videocardz: https://videocardz.com/70...vega-3dmark11-performance
Van de andere kant temper ik mijn verwachtingen. Ik zit nu na te denken of ik voor een 1080 ga met gewoon een hoog refresh scherm, of dat FreeSync het waard is, maar dan zo'n Vega die 300W aan hete lucht in mijn PC blaast voor magere performance. Als AMD de prijs interessant maakt, wil ik het wel overwegen, maar dan moet het toch echt 1070 prijs voor 1080 performance zijn en geen cent meer. Over de kosten van de GPU voor AMD maak ik me minder zorgen, aangezien met Ryzen ook het verhaal maar bleef dat ze nooit een 8 kern CPU zouden kunnen maken voor minder dan $800.
Kan ook gewoon wachten op Volta, maar ik verwacht dat NVidia weer een geweldige GPU neerzet en dat die krengen maanden uitverkocht zijn.
Volgens mij heeft Raja trouwens juist gezegd dat ze van het FineWine af wilden, dus ik ben heel erg benieuwd naar de eerste benches.. en vooral wat de patch notes worden voor de eerste drivers
De ondertoon in je laatste paar reacties vind ik persoonlijk op het randje, zelfs als je vind dat mensen oogkleppen op hebben, dan mag je ze prima proberen te overtuigen van jouw visie, maar dat moet wel met respect gaan, nu lijkt je mensen op een minachtende manier weg te zetten.D0gtag schreef op woensdag 5 juli 2017 @ 20:03:
[...]
Krijg je al snel in dit draadje
Ik ga me leven beteren en gewoon weer ontopic reageren
Sowieso zou iedereen, ongeacht zijn/haar voorkeur moeten hopen dat AMD presteert, concurentie is uiteindelijk goed voor ons allemaal
Het eerste geruchten over Volta voor games is dat die er niet komt. Nvidia lijkt weer terug te gaan naar hun oude strategie van twee productlijnen en Volta is dus niet gemaakt voor games. In plaats daarvan zullen ze Pascall optimaliseeren en overzetten op 12nm: http://www.fudzilla.com/n...force-will-be-incrementalMrCharming schreef op woensdag 5 juli 2017 @ 21:02:
[...]
Kan ook gewoon wachten op Volta, maar ik verwacht dat NVidia weer een geweldige GPU neerzet en dat die krengen maanden uitverkocht zijn.
Kan net zo goed een stap worden die vergelijkbaar is met Maxwell -> Pascall, maar Pasall is al erg goed en het 16nm procede waar het op zit ook, dus het is nog even afwachten hoeveel ze verbeteren met deze stap.
Voor HDMI standaarden zijn ze uitzonderlijk snel deze keer. En wat nog veel enger is, het ziet er naar uit dat voor het eerst HDMI daadwerkelijk voor gaat lopen op DP. Neemt niet weg dat we op z'n vroegst over een jaar producten met HDMI 2.1 op de markt zullen zien verschijnen, als ze al zo snel verschijnen.haarbal schreef op woensdag 5 juli 2017 @ 17:53:
Hdmi 2.1 heeft vrr en hdr in de spec schijnt, maar dat duurt nog even.
Er van uitgaande dat de mafia erachter de spec eindelijk vrij geeft, wat eigenlijk gepland stond voor vorige maand.
Echter deed ATI dit ook toen ze marktleider waren. Zelfs in het 2D tijdperk al.D0gtag schreef op woensdag 5 juli 2017 @ 19:03:
AMD is open source simpelweg omdat ze niet anders kunnen, als jij zo'n klein markt aandeel hebt, heb je weinig in te brengen.
Het heeft weinig met marktaandeel te maken, het is gewoon altijd al onderdeel van hun visie geweest en met de overname door AMD is dat niet veranderd.
...wat?Zoals je zelf aangeeft: AMD ondersteunt geen G-sync of SLI, nee AMD toentertijd was nog bezig markt baasje te worden en heeft toen SLI verworpen en gekozen voor crossfirex..
Je weet wel die SLI die ze gekocht hadden met de aankoop van 3dfx..
#1: ik hoop dat je verwoording hier gewoon slecht is en dat je bedoelt dat Nvidia de SLI van 3DFX verworpen heeft, aangezien zij 3DFX (inclusief SLI) hebben opgekocht en niet ATI
#2: 3DFX SLI (Scan-Line Interleave) en Nvidia SLI (Scalable Link Interface) zijn twee radicaal verschillende technologiën. 3DFX renderde scanlines om en om. Nvidia heeft dat nooit gedaan met hun SLI. SLI is vanaf het begin SFR en AFR geweest. Ze hebben nooit en te nimmer iets gedaan met 3DFX' SLI. De brug tussen kaarten bij 3DFX werd ook gebruikt voor synchronisatie, dat werd bij Nvidia vanaf dag 1 via de PCI-e bus gedaan. De bridge zijn er alleen om het uiteindelijke frame "door te lussen" zodat je niet achter op de PC nog een kabeltje hebt lopen. Meer niet.
Soms schaalt de perf. totaal niet (linear) met de kloksnelheid. Verre van optimaal kwa drivers dus. Dit biedt hoop.Verwijderd schreef op woensdag 5 juli 2017 @ 18:37:
[video]
Het bekijken waard, vooral vanaf rond de 17de minuut.
Gaming/3DMark.-prestaties ongeveer gelijk voor FuryX en Vega op dezelfde klokfrequentie, andere prestaties fors hoger. Voorzichtige conclusie: Vega-FE is duidelijk getuned voor niet-gaming applicaties.
Niet op voorraad.
Hoewel ik ook niet de wijsheid in pacht heb, is 20% winst uit drivers in dit stadium niks. Bovendien zo'n situatie (workstation vs game GPU) als nu hebben we nog nooit gehad (bij AMD). Maar het blijft voor mij ook gissen, maar uitgaande van minimaal dezelfde IPC als Fiji, en een kloksnelheid die 50-60% hoger ligt, de primitive shader, matched de huidige game perf. van de FE niet met de op die basis te verwachte RX perf. Natuurlijk kan er een andere bottleneck zijn, who knows, maar wat ik tot nu tu zie, is een tegenstrijdig perf. karakter (niet schalen met frequentie bv.)D0gtag schreef op woensdag 5 juli 2017 @ 19:46:
[...]
Natuurlijk komen er driver updates voor vega die prestaties verbeteren, maar geen 20%+.
Niet op voorraad.
Ik vond AMD en ATi ook goed bij elkaar passen, ook al was het logo van AMD vroeger groenWerelds schreef op woensdag 5 juli 2017 @ 21:22:
[...]
Voor HDMI standaarden zijn ze uitzonderlijk snel deze keer. En wat nog veel enger is, het ziet er naar uit dat voor het eerst HDMI daadwerkelijk voor gaat lopen op DP. Neemt niet weg dat we op z'n vroegst over een jaar producten met HDMI 2.1 op de markt zullen zien verschijnen, als ze al zo snel verschijnen.
Er van uitgaande dat de mafia erachter de spec eindelijk vrij geeft, wat eigenlijk gepland stond voor vorige maand.
[...]
Echter deed ATI dit ook toen ze marktleider waren. Zelfs in het 2D tijdperk al.
Het heeft weinig met marktaandeel te maken, het is gewoon altijd al onderdeel van hun visie geweest en met de overname door AMD is dat niet veranderd.
[...]
...wat?
#1: ik hoop dat je verwoording hier gewoon slecht is en dat je bedoelt dat Nvidia de SLI van 3DFX verworpen heeft, aangezien zij 3DFX (inclusief SLI) hebben opgekocht en niet ATI
#2: 3DFX SLI (Scan-Line Interleave) en Nvidia SLI (Scalable Link Interface) zijn twee radicaal verschillende technologiën. 3DFX renderde scanlines om en om. Nvidia heeft dat nooit gedaan met hun SLI. SLI is vanaf het begin SFR en AFR geweest. Ze hebben nooit en te nimmer iets gedaan met 3DFX' SLI. De brug tussen kaarten bij 3DFX werd ook gebruikt voor synchronisatie, dat werd bij Nvidia vanaf dag 1 via de PCI-e bus gedaan. De bridge zijn er alleen om het uiteindelijke frame "door te lussen" zodat je niet achter op de PC nog een kabeltje hebt lopen. Meer niet.
Maar AMD is nooit lang marktleider geweest.
2004/2005 hoger dan Nvidia, (intel tel ik niet mee want dat is overduidelijk de igp's en crappy intel gpu's die samen met je centrino kwam)
2010/12 Alle andere jaren was Nvidia de marktleider.
Dus ati was eigenlijk altijd wel de underdog en dat was/is AMD nog steeds.
Ryzen is een uitstekend product en mijn volgende systeem, maar:
Isoroku Yamamoto (heeft hij nooit gezegd, maar was wel een mooie film quote)I fear all we have done is to awaken a sleeping giant and fill him with a terrible resolve.
Ik denk dat je wel snapt wie die slapende reus is
1 Ja Nvidia natuurlijk, ik had het anders moeten verwoorden.
2 Nvidia kocht 3dfx die Scan line had uitgebracht voor voodoo2 (98 of 99), de interface zelf hebben ze niks mee gedaan maar uit dat idee is Scalable Link Interface ontstaan, ik weet niet exact hoe de naam SLI tot stand gekomen is maar ik denk dat het expres gedaan is als Scan line interface reference/homage (misschien om een heel andere reden). Dit was begin 2004 dat SLI op de markt kwam, ze hebben natuurlijk niet de zelfde techniek gebruikt, wel het idee en toegepast op de toen hightech pci express.
Ja het is wel op het randje, dat geef ik toeToettoetdaan schreef op woensdag 5 juli 2017 @ 21:19:
[...]
De ondertoon in je laatste paar reacties vind ik persoonlijk op het randje, zelfs als je vind dat mensen oogkleppen op hebben, dan mag je ze prima proberen te overtuigen van jouw visie, maar dat moet wel met respect gaan, nu lijkt je mensen op een minachtende manier weg te zetten.
Sowieso zou iedereen, ongeacht zijn/haar voorkeur moeten hopen dat AMD presteert, concurentie is uiteindelijk goed voor ons allemaal
.
Enige wat je steeds hoort is uitstel uitstel en uitstel. Nu hebben we over een kleine maand de introductie ik ben er bang voor dat dit gewoon een papieren launch gaat worden.
Maar ... we zullen zien
Geloof me als ik zeg dat ik het liefst een kaart zie die gelijk als de 1080ti presteert voor een lagere prijs (met iets hoger TDP, maar die prijs
HMB is gewoon duur en ze halen kennelijk lage yields anders was de vega allang op de markt.
Ik zat er nog wel aan te denken dat de duurste vega misschien twee cores krijgt aangezien vega de eerste GPU is die ook de infinity fabric heeft als ryzen en nvidia van plan is om het zelfde te gaan doen in de toekomst (en nvidia mogelijk uitstekende bedrijfsspionage heeft toegepast).
Maar technisch gezien is dat een dubbele gpu maar als de prijs goed is (ben alleen heel bang voor het vermogen).
Er waren als samples gezien met 8GB HMB2 dus dat zou best de vega kunnen zijn die tegen de 1070 aanhinkt. en dat de duurste kaart 2xvega heeft met elk 8GB.
De link is 12 uur oud maar is van WCCF at your own risk. Volgens hun dus:
Grote korrel zout:AMD Radeon RX Vega Specs Confirmed – 1630MHz GPU Clock Speed, 8GB HBM2 @945MHz & 484GB/s Of Memory Bandwidth

Prijs voor een 1080 is 550€ dus hopelijk komt de vega onder deze prijs (komt de 1080ti ook lager in prijs
[ Voor 35% gewijzigd door D0gtag op 05-07-2017 23:04 ]
X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's
Zo te zien ook hele dikke scaling problemen. Soms is 1600 Mhz amper sneller. Dus iets anders is dan duidelijk de bottelnek. Wellicht toch iets van drawcalls via de drivers?
Want nVidia scoort daar hoger.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Precies wat ik hier aangaf.
'Verwijderd schreef op woensdag 5 juli 2017 @ 18:37:
[video]
Het bekijken waard, vooral vanaf rond de 17de minuut.
Gaming/3DMark.-prestaties ongeveer gelijk voor FuryX en Vega op dezelfde klokfrequentie, andere prestaties fors hoger. Voorzichtige conclusie: Vega-FE is duidelijk getuned voor niet-gaming applicaties.
Door sommige mensen misschien maar hij is nooit - sinds dat hij video's uploadt op Youtube - een fanboy geweest van eender welk bedrijf. Wel heeft hij meer sympathie voor AMD. Hij geeft gewoon zijn kritische blik. Ik denk dat het nuchter is om te verwachten dat RX Vega voor DX11 ergens tussen de 1080 en de 1080 ti in valt. Prima, als de prijs er naar is dan maakt dat geen drol uit. Niet voor AMD en niet voor 99,9% van de gamers.aminam schreef op woensdag 5 juli 2017 @ 19:25:
[...]
Grappig die laatste regel, adored werd altijd beschouwd als t1 amd fanboy
Correct, dat werd vorige week direct duidelijk toen die jongen TW3 en Doom testte. Voor alle min of meer recente AMD-kaarten zie je een veel hogere FPS dan bij de equivalente Nvidia-kaarten en toch was het gat tussen de Vega-FE en de 1080 (ti) voor Doom even groot als voor TW3.edward2 schreef op woensdag 5 juli 2017 @ 21:33:
[...]
Soms schaalt de perf. totaal niet (linear) met de kloksnelheid. Verre van optimaal kwa drivers dus. Dit biedt hoop.
Of tussen 1080 en 1080 ti voor €450-500?Nature schreef op woensdag 5 juli 2017 @ 20:15:
Ik ben tevreden met tussen1070 en 1080 niveau voor €400 er zouden toch meerdere RX Vega kaarten komen?
[ Voor 50% gewijzigd door Verwijderd op 06-07-2017 00:11 ]
Ik heb het over nog veel eerderD0gtag schreef op woensdag 5 juli 2017 @ 22:33:
[...]
Ik vond AMD en ATi ook goed bij elkaar passen, ook al was het logo van AMD vroeger groen![]()
Maar AMD is nooit lang marktleider geweest.
2004/2005 hoger dan Nvidia, (intel tel ik niet mee want dat is overduidelijk de igp's en crappy intel gpu's die samen met je centrino kwam)
2010/12 Alle andere jaren was Nvidia de marktleider.
Dus ati was eigenlijk altijd wel de underdog en dat was/is AMD nog steeds.
In 2001/2002 zal het ook bijna 50/50 geweest zijn. Daarvoor hadden we ook nog 3DFX.
Maar zelfs voordat Nvidia überhaupt bestond werkte ATI al aan allerlei open standaarden mee. Ze hebben nooit zoals 3DFX een eigen API proberen te pushen; zelfs Mantle hebben ze niet echt gepusht. Dat was vooral om een signaal af te geven. Ze waren ook al heel vroeg bij OGL en D3D betrokken bijvoorbeeld.
Ze hebben SLI als afkorting opnieuw gebruikt voor bekendheid, meer niet1 Ja Nvidia natuurlijk, ik had het anders moeten verwoorden.![]()
2 Nvidia kocht 3dfx die Scan line had uitgebracht voor voodoo2 (98 of 99), de interface zelf hebben ze niks mee gedaan maar uit dat idee is Scalable Link Interface ontstaan, ik weet niet exact hoe de naam SLI tot stand gekomen is maar ik denk dat het expres gedaan is als Scan line interface reference/homage (misschien om een heel andere reden). Dit was begin 2004 dat SLI op de markt kwam, ze hebben natuurlijk niet de zelfde techniek gebruikt, wel het idee en toegepast op de toen hightech pci express.
Als je SLI nu en 3DFX SLI vergelijkt is er echt maar bar weinig dat overeenkomt, behalve dat het enigzins betrekking heeft op meerdere GPU's samen laten werken. Echter bestond dat mid jaren 90 al; sterker nog, 3DFX is zo begonnen, je moest een 2D accelerator (want zo noemden we dat
Verwijderd
Terwijl ze zelf de hele kreet fiji drivers of fallback drivers de wereld in hebben geholpenThe "Fiji fallback driver" or "Fiji drivers" meme needs to stop. That's not how it works or should be described. Otherwise you should start calling Volta drivers Pascal drivers Maxwell drivers. There is obviously commonality -- that's just how software engineering needs to work for a GPU -- but calling it a Fiji driver or Fiji fallback is wrong.
Ja, dit doet weer veel stof opwaaien aangezien het ook geïnterpreteerd kan worden als "het ligt niet aan de driver, de kaart is gewoon ruk" volgens een aantal mensenVerwijderd schreef op donderdag 6 juli 2017 @ 08:41:
Ik snap AMD echt niet meer, iemand van AMD zegt nu het volgende;
[...]
Terwijl ze zelf de hele kreet fiji drivers of fallback drivers de wereld in hebben geholpen
Volgens mij heeft Raja dat zelf bij de presentatie gezegd van de FE dat hij (toen in ieder geval) op Fiji fallback drivers draaide. Denk dat het daardoor is blijven hangen
Ik heb even gekeken hoever terug ati opensource was, voor de rage series (94) en radeon (2000) waren ze absoluut niet opensource aangezien ze een kaart hadden speciaal voor win 3.11, eerste artikel dat ik vind over opensource en ATI komt uit 1999 (cnn, in dit geval geen fake news)Werelds schreef op donderdag 6 juli 2017 @ 00:44:
[...]
Ik heb het over nog veel eerder
In 2001/2002 zal het ook bijna 50/50 geweest zijn. Daarvoor hadden we ook nog 3DFX.
Maar zelfs voordat Nvidia überhaupt bestond werkte ATI al aan allerlei open standaarden mee. Ze hebben nooit zoals 3DFX een eigen API proberen te pushen; zelfs Mantle hebben ze niet echt gepusht. Dat was vooral om een signaal af te geven. Ze waren ook al heel vroeg bij OGL en D3D betrokken bijvoorbeeld.
[...]
Ze hebben SLI als afkorting opnieuw gebruikt voor bekendheid, meer niet
Als je SLI nu en 3DFX SLI vergelijkt is er echt maar bar weinig dat overeenkomt, behalve dat het enigzins betrekking heeft op meerdere GPU's samen laten werken. Echter bestond dat mid jaren 90 al; sterker nog, 3DFX is zo begonnen, je moest een 2D accelerator (want zo noemden we dat) ernaast hebben.
In die tijd was linux nog een platform waar van men dacht dat het de pc markt zou kunnen overnemen, het was dus gewoon een zakelijk besluit en opzicht een goed besluit. Maar meer dan een zakelijk besluit is het niet geweest, AMD deed dit om niks anders dan inkomsten te genereren (nu nog steeds).In its quest to become "the graphics company of choice among Linux users," ATI has contracted development company Precision Insight to develop 2D and 3D open source drivers for the Rage 128. The source code is expected to be freely available in the second quarter of next year.
nV kiest daar simpelweg niet voor, open source klinkt heel nobel maar het is en blijft een beursgenoteerd bedrijf en de oude bezitters waren ook gewoon bezig met vermogen op te bouwen.
Linux is ook heel groot geworden alleen niet op de PC.
Open/closed heeft zijn voor/nadelen dat is een andere discussie maar voor mij bied opensource helemaal geen voordelen, de keren dat ik linux gebruik kom ik sowieso niet verder dan de terminal af en toe een gui als ubuntu maar meer dan de basic drivers heb ik niet nodig.
Ik moet je zeggen dat ik bar weinig kan herinneren van de voodoo dagen, verder dan: ik had geen geld voor zo'n dure kaart, kom ik niet. Ik had net een p75 gekocht voor heel wat guldens, ik weet nog dat ik 3dstudiomax draaide en vrienden de voodoo kochten en toen dacht ik ga echt niet dat geld neerleggen voor zo'n kaart. En nu leg je 1600€ neer voor een aantal gpu's
Maar 3dfx is niet voor niks failliet gegaan, ze waren te duur boden goede 3d prestaties maar je kon inderdaad je eigen 2d kaart gebruiken, maar nV en Ati boden al snel alles in een chip/kaart.
De oude SLI idee was niks anders dan gedeelde werklast, de nieuwe sli doet feitelijk het zelfde alleen beiden compleet andere techniek, wat ze ook beiden deden/doen is het 'doorlussen' van data kanalen in dat opzicht is SLI een betere aanpak dan crossfire, alleen het maakt de kaarten duurder dan een crossfire variant. (kennelijk staat in het patent iets over data delen en fysieke koppeling, aangezien crossfire gewoon het zelfde is zonder de directe koppeling)
Maar we gaan over het punt heen dat AMD geen SLI ondersteunde en voor zijn eigen variant ging
De zelfde reden dat nV voor Gsync ging, gewoon een zakelijk besluit.
X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's
- SLI op moederborden
- Cuda = Nv only
- Gsync = Nv only
- OpenCL = open source
- Freesync = open source
- Mantle gedeeld met MS en grotendeels opgenomen in DX12
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Ik had het over open standaarden, niet per se open sourceD0gtag schreef op donderdag 6 juli 2017 @ 10:38:
Ik heb even gekeken hoever terug ati opensource was, voor de rage series (94) en radeon (2000) waren ze absoluut niet opensource aangezien ze een kaart hadden speciaal voor win 3.11, eerste artikel dat ik vind over opensource en ATI komt uit 1999 (cnn, in dit geval geen fake news)
Even los van open/closed source zijn open standaarden juist wel wat je wil als consument. G-Sync is een misselijkmakend product omdat je als consument daarmee niet alleen vast zit aan Nvidia's GPU's, maar ook nog eens aan alléén hun partners qua beeldschermen én hun matige FPGA in die beeldschermen.nV kiest daar simpelweg niet voor, open source klinkt heel nobel maar het is en blijft een beursgenoteerd bedrijf en de oude bezitters waren ook gewoon bezig met vermogen op te bouwen.
Linux is ook heel groot geworden alleen niet op de PC.
Open/closed heeft zijn voor/nadelen dat is een andere discussie maar voor mij bied opensource helemaal geen voordelen, de keren dat ik linux gebruik kom ik sowieso niet verder dan de terminal af en toe een gui als ubuntu maar meer dan de basic drivers heb ik niet nodig.
Dat is waar het verschil tussen Nvidia's "visie" en de rest zit. Nvidia probeert iedereen hun ecosysteem in te forceren net zoals 3DFX dat probeerde. Vooralsnog geeft dat geen problemen, maar als al je concurrenten wel gewoon dingen als DisplayPort, Adaptive Sync, OpenCL fatsoenlijk ondersteunen gaat dat op een gegeven moment toch fout. Tenzij de rest om valt natuurlijk
Ik moet je zeggen dat ik bar weinig kan herinneren van de voodoo dagen, verder dan: ik had geen geld voor zo'n dure kaart, kom ik niet. Ik had net een p75 gekocht voor heel wat guldens, ik weet nog dat ik 3dstudiomax draaide en vrienden de voodoo kochten en toen dacht ik ga echt niet dat geld neerleggen voor zo'n kaart. En nu leg je 1600€ neer voor een aantal gpu's
Ik heb heel lang gespaard om samen met m'n broertje een P1 133 + 24 MB RAM + Voodoo (Mach64 had ik al) aan te schaffen. Dat was het ook wel waard, aangezien die combinatie het idioot lang heeft uitgehouden. Vrienden hadden later een P2 333 tot 450 met wel 64 MB RAM en dan een Rage of Riva er naast. En toch liepen HL en UT beter op mijn bescheiden bakje dankzij de Voodoo
Nee, de verschillen gaan veel verder dan dat.Maar 3dfx is niet voor niks failliet gegaan, ze waren te duur boden goede 3d prestaties maar je kon inderdaad je eigen 2d kaart gebruiken, maar nV en Ati boden al snel alles in een chip/kaart.
De oude SLI idee was niks anders dan gedeelde werklast, de nieuwe sli doet feitelijk het zelfde alleen beiden compleet andere techniek, wat ze ook beiden deden/doen is het 'doorlussen' van data kanalen in dat opzicht is SLI een betere aanpak dan crossfire, alleen het maakt de kaarten duurder dan een crossfire variant. (kennelijk staat in het patent iets over data delen en fysieke koppeling, aangezien crossfire gewoon het zelfde is zonder de directe koppeling)
Bij 3DFX SLI:
- Geen master/slave
- Al het verkeer gaat over de "brug"
- De kaarten werken samen aan exact dezelfde payload
- De kaarten synchroniseren met elkaar om er voor te zorgen dat alle data gelijk loopt
Bij Nvidia SLI:
- Master/slave
- Al het verkeer gaat over de PCI-e bus...
- ...behalve de uiteindelijke frames, die gaan over de brug naar de display outputs van de master
- 0,0 synchronisatie, elke GPU werkt volledig onafhankelijk
- Payload kan verschillen per kaart
Zoals ik al zei, SLI en SLI zijn twee heel verschillende dingen. Nvidia heeft alleen de afkorting hergebruikt voor marketing redenen
AMD kon SLI helemaal niet ondersteunen? Geen van beide SLI's is een open standaard geweest, hoe kunnen ze het dan ondersteunen? Zelfde geldt voor G-SyncMaar we gaan over het punt heen dat AMD geen SLI ondersteunde en voor zijn eigen variant ging![]()
De zelfde reden dat nV voor Gsync ging, gewoon een zakelijk besluit.
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Van de ene kant lijkt me dat onwaarschijnlijk. Ze hebben zoveel voordelen aan GSync enkel te ondersteunen. Je locked iemand in jouw ecosysteem, zodat die alleen maar NVIDIA kaarten gaat kopen (monitor doe je toch al gauw 5 jaar mee, dus dat is een nieuwe kaart iedere 2-3 jaar voor de echte fanaat). Daarnaast zie ik niet in waarom NVidia AMD zou helpen. Gratis "reclame" voor AMD kaarten, minder reden om NVidia kaart te kopen, etc.foppe-jan schreef op donderdag 6 juli 2017 @ 12:10:
(Maar omgekeerd kan nvidia er op elk moment voor kiezen om naast GSync ook driversupport voor Free-Sync toe te voegen.)
Van de andere kant, misschien dat NVIDIA over een paar jaar genoeg GSync monitoren heeft verkocht. Kan me voorstellen dat bij een bepaalde marktverzadiging het geld van FreeSyncers die naar een NVidia kaart overstappen meer waard is. Onwaarschijnlijk lijkt me, maar je weet het nooit.
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Fixedfoppe-jan schreef op donderdag 6 juli 2017 @ 12:10:
(Maar omgekeerd kan nvidia er op elk moment voor kiezen om naast GSync ook driversupport voor Free-Sync Adaptive Sync toe te voegen.)
Gezien het feit dat Adaptive Sync (vooralsnog met enkel het FreeSync label voor marketing) een grote opmars heeft gemaakt en veel makkelijker + goedkoper te krijgen is, alsmede het feit dat HDMI 2.1 VRR ingebakken gaat krijgen, zal G-Sync toch echt gaan verdwijnen. Ik zie niet hoe Nvidia er aan vast kan houden.MrCharming schreef op donderdag 6 juli 2017 @ 12:21:
Van de ene kant lijkt me dat onwaarschijnlijk. Ze hebben zoveel voordelen aan GSync enkel te ondersteunen. Je locked iemand in jouw ecosysteem, zodat die alleen maar NVIDIA kaarten gaat kopen (monitor doe je toch al gauw 5 jaar mee, dus dat is een nieuwe kaart iedere 2-3 jaar voor de echte fanaat). Daarnaast zie ik niet in waarom NVidia AMD zou helpen. Gratis "reclame" voor AMD kaarten, minder reden om NVidia kaart te kopen, etc.
Van de andere kant, misschien dat NVIDIA over een paar jaar genoeg GSync monitoren heeft verkocht. Kan me voorstellen dat bij een bepaalde marktverzadiging het geld van FreeSyncers die naar een NVidia kaart overstappen meer waard is. Onwaarschijnlijk lijkt me, maar je weet het nooit.
Wellicht dat ze het wel blijven voeren, maar ze zullen echt niet om HDMI 2.1 VRR heen kunnen
Bij 3Dfx was het ook gewoon een master/slave systeem, dat heb je ook nodig bij het synchroniseren.Werelds schreef op donderdag 6 juli 2017 @ 11:24:
Nee, de verschillen gaan veel verder dan dat.
Bij 3DFX SLI:
- Geen master/slave
- Al het verkeer gaat over de "brug"
- De kaarten werken samen aan exact dezelfde payload
- De kaarten synchroniseren met elkaar om er voor te zorgen dat alle data gelijk loopt
Voor de rest zit er nog een verschil tussen de Voodoo 1/2 generatie en die van de Vooodoo 4/5 (VSA100), die was te schalen tot wel 32 chips (Quantum3d Aalchemy series).
Correct, maar master/slave is in deze context niet helemaal de correcte benaming. Ik kon echter niet op een betere benaming komenDijksman schreef op donderdag 6 juli 2017 @ 13:05:
[...]
Bij 3Dfx was het ook gewoon een master/slave systeem, dat heb je ook nodig bij het synchroniseren.
Voor de rest zit er nog een verschil tussen de Voodoo 1/2 generatie en die van de Vooodoo 4/5 (VSA100), die was te schalen tot wel 32 chips (Quantum3d Aalchemy series).
Bij 3DFX was de "master" verantwoordelijk voor de output en moest de slave (of slaves) zich aan de timing daarvan houden. Verder werken ze echter samen.
Bij Nvidia is de master echt de meester. De master is de maatstaf voor de scheduler; de tweede GPU wordt als tweede viool ingezet, terwijl het bij 3DFX een duet was. Graphics renderen is maar een deel van het verhaal tegenwoordig en dat is waar het probleem zit. Ook al geef je in het control panel aan dat de tweede GPU als "compute" GPU gebruikt moet worden, dat geldt voor slechts een deel van de workload. Er valt meer onder "compute" dan velen denken en dat wordt gewoon naar de primaire GPU gestuurd. Tegelijkertijd is er ook een hoop "compute" dat door beide GPU's gedaan moet worden omdat het in beide frames nodig is.
Hetzelfde geldt overigens voor CFX. Dat is ook meteen waarom SLI/CFX soms zo slecht schalen. In sommige games zijn de workloads niet 50/50 te verdelen en krijgt de master meer te verduren. Tegelijkertijd krijg je dan met sommige GameWorks gerelateerde workloads een contragewicht op de slave waardoor het weer meer in balans komt voor een deel van de frames.
De echte master is tegenwoordig de driver. Bij 3DFX regelden de GPU's het onderling, nu beslist de driver welke GPU wat mag doen.
Misschien had ik het dus master/slave bij 3DFX en slave/slave bij Nvidia (en AMD) moeten noemen?
[ Voor 3% gewijzigd door Werelds op 06-07-2017 14:04 ]
Je hamert steeds op de verschillen in technieken, waar wij geen menings- vershil over hebben. Het idee is het enige wat overeenkomt, zoals ik al eerder had geschreven, het verdelen van de workload over meerdere kaarten met een vorm van sync brug. Het idee heeft nV gewoon gekopieerd van 3dfx en de uitvoering aangepast aan de technische/financieele mogelijkheden die toen voorhanden was.Werelds schreef op donderdag 6 juli 2017 @ 11:24:
[...]
Ik had het over open standaarden, niet per se open source
[...]
Even los van open/closed source zijn open standaarden juist wel wat je wil als consument. G-Sync is een misselijkmakend product omdat je als consument daarmee niet alleen vast zit aan Nvidia's GPU's, maar ook nog eens aan alléén hun partners qua beeldschermen én hun matige FPGA in die beeldschermen.
Dat is waar het verschil tussen Nvidia's "visie" en de rest zit. Nvidia probeert iedereen hun ecosysteem in te forceren net zoals 3DFX dat probeerde. Vooralsnog geeft dat geen problemen, maar als al je concurrenten wel gewoon dingen als DisplayPort, Adaptive Sync, OpenCL fatsoenlijk ondersteunen gaat dat op een gegeven moment toch fout. Tenzij de rest om valt natuurlijk
[...]
offtopic:
Ik heb heel lang gespaard om samen met m'n broertje een P1 133 + 24 MB RAM + Voodoo (Mach64 had ik al) aan te schaffen. Dat was het ook wel waard, aangezien die combinatie het idioot lang heeft uitgehouden. Vrienden hadden later een P2 333 tot 450 met wel 64 MB RAM en dan een Rage of Riva er naast. En toch liepen HL en UT beter op mijn bescheiden bakje dankzij de Voodoo
[...]
Nee, de verschillen gaan veel verder dan dat.
Bij 3DFX SLI:
- Geen master/slave
- Al het verkeer gaat over de "brug"
- De kaarten werken samen aan exact dezelfde payload
- De kaarten synchroniseren met elkaar om er voor te zorgen dat alle data gelijk loopt
Bij Nvidia SLI:
- Master/slave
- Al het verkeer gaat over de PCI-e bus...
- ...behalve de uiteindelijke frames, die gaan over de brug naar de display outputs van de master
- 0,0 synchronisatie, elke GPU werkt volledig onafhankelijk
- Payload kan verschillen per kaart
Zoals ik al zei, SLI en SLI zijn twee heel verschillende dingen. Nvidia heeft alleen de afkorting hergebruikt voor marketing redenen
[...]
AMD kon SLI helemaal niet ondersteunen? Geen van beide SLI's is een open standaard geweest, hoe kunnen ze het dan ondersteunen? Zelfde geldt voor G-Sync
nV had ook voor een andere naam kunnen kiezen want de meesten die de term sli kennen weten echt niet dat het van 3dfx komt. Maar 3dfx ging failliet en nV kocht de restanten op, hebben de techniek toegepast van dit bedrijf. nV heeft 3dfx niet gekocht en kapot gemaakt zoals anderen beweren.
SLI is geen open standaard maar dat zijn bijna 90% van de technieken niet, daarvoor nemen ze licentie rechten. Zoals AMD die de 286tm486 onder licentie verkocht en als licenties te duur worden of meer zeggenschap willen kopen ze het betreffende bedrijf op. Zoals koning apple(die het verloor van softbank).
Hoe dan ook een bedrijf kan dan de keuze maken tussen licentie geld betalen of niet, baten kosten analyse.
Open source/open standard het gaat om het open gedeelte mijn voorbeeld was van opensource drivers maar openstadaard freesync vs gsync is voor mij het zelfde verhaal. Ik maak er geen gebruik van en mensen die het een wereld van verschil vinden en de meeste keuze (in schermen) willen moeten voor AMD gaan.
Ik zie het niet in mijn(consument) voordeel als bedrijven alleen maar elkaars open standaarden gaan gebruiken, als iedereen elkaar kopieert heb je al snel geen differentiatie meer en gaan de prijzen alleen maar omhoog en is er geen enkele innovatie meer. Het klinkt allemaal ideaal maar in de praktijk is dat gewoon niet, bedrijven zijn nu nog bezig om zich zelf een competitief voordeel te bezorgen en hun produten te kunnen verkopen met een USP. Het is de reden waarom AMD bestaat, wees blij dat ze niet elkaars producten kopiëren.
Maar ik ben wel benieuwd waarom jij denkt dat openstandaard (buiten de overheid om) een beter idee is.
Natuurlijk kan je gevallen benoemen zoals internet en wifi (zodat je koelkast met je telefoon kan chatten), maar tussen twee rivalen die de zelfde markt aanboren...
X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's
Omdat er geen AMD kaarten zijn in de high performance groep. Als NVidia zonder concurrentie zit boven de RX580 of zelfs GTX 1070, kunnen ze rustig doorgaan met hun G-Sync. Als jij op dit moment 1080p/144Hz of 1440p/144Hz wilt met adaptive sync, moet je NVidia kopen. De RX580 Nitro+, waarschijnlijk een van de snelste kaarten van AMD op 't moment, wordt vernietigd door een GTX1070. (Ik laat CrossFire even buiten beschouwing omdat het bagger is.)Werelds schreef op donderdag 6 juli 2017 @ 13:02:
Gezien het feit dat Adaptive Sync (vooralsnog met enkel het FreeSync label voor marketing) een grote opmars heeft gemaakt en veel makkelijker + goedkoper te krijgen is, alsmede het feit dat HDMI 2.1 VRR ingebakken gaat krijgen, zal G-Sync toch echt gaan verdwijnen. Ik zie niet hoe Nvidia er aan vast kan houden.
Wellicht dat ze het wel blijven voeren, maar ze zullen echt niet om HDMI 2.1 VRR heen kunnen
FreeSync is goedkoper te krijgen, juist omdat NVidia er een flinke prijskaart op plakt bij G-Sync. Als ze willen, maken ze het 100 euro goedkoper per scherm na een paar jaar. Dat is nog altijd duurder dan gratis, maar toch een heel ander verhaal dan nu (200 euro ofzo?).
Het VR argument is inderdaad waar, maar VR en schermen zijn toch twee verschillende dingen, plus dat VR nog verder weg is dan 1440p voor iedereen.
Misschien dat NVidia het ooit wel ondersteund, maar de komende jaren zeker niet.
VRR staat niet voor Virtual Reality, maar voor Variable Refresh Rate...MrCharming schreef op donderdag 6 juli 2017 @ 16:13:
[...]
Het VR argument is inderdaad waar, maar VR en schermen zijn toch twee verschillende dingen, plus dat VR nog verder weg is dan 1440p voor iedereen.
Echter is SLI nooit opengesteld om een licentie op te nemen. G-Sync ook niet. PhysX ook niet. En met die laatste weet ik dat AMD/ATI daar 10 jaar geleden wel een implementatie voor had gemaakt als Nvidia het toe had gelaten; nu niet meerD0gtag schreef op donderdag 6 juli 2017 @ 14:26:
SLI is geen open standaard maar dat zijn bijna 90% van de technieken niet, daarvoor nemen ze licentie rechten. Zoals AMD die de 286tm486 onder licentie verkocht en als licenties te duur worden of meer zeggenschap willen kopen ze het betreffende bedrijf op. Zoals koning apple(die het verloor van softbank).
Hoe dan ook een bedrijf kan dan de keuze maken tussen licentie geld betalen of niet, baten kosten analyse.
Open source/open standard het gaat om het open gedeelte mijn voorbeeld was van opensource drivers maar openstadaard freesync vs gsync is voor mij het zelfde verhaal. Ik maak er geen gebruik van en mensen die het een wereld van verschil vinden en de meeste keuze (in schermen) willen moeten voor AMD gaan.
Wederom, dat is een verschil in visie. Nvidia wil de consument alleen op hun platform hebben en dat is waar het voor hen eindigt. Intel, AMD/ATI en anderen bestaan al zo veel langer en werken ook al veel langer samen aan allerlei standaarden; of dat nu met licenties gepaard gaat of niet. In x86 zit tegenwoordig even veel van AMD als er van Intel in x64 zit. Het zijn aartsrivalen, maar ze zijn er allebei bij gebaat de meest gebruikte technologie eigen te maken en daar eventueel aan bij te dragen. Tegelijkertijd is het verkopen van licenties van je eigen techniek een extra bron van inkomsten en verzeker je jezelf er zo van dat deze nóg meer gebruikt wordt, waarna je (hopelijk) in een vicieuze cirkel terecht komt.
Dat laatste kan echter alleen als je marktleider bent. Een 60/40 split in eender welke richting is niet genoeg om anderen jouw spul aan te smeren. AMD kan Nvidia nu weinig aansmeren, maar andersom had wel gekund.
"Open" standaarden worden over het algemeen breder geaccepteerd en gebruikt - of dat nu met licenties gepaard gaat of niet. DirectX, OpenGL, VGA, DVI, HDMI, DisplayPort, USB - noem ze maar op. Stuk voor stuk zijn ze wijd geaccepteerd. De prijs van de licenties is daarbij uiteraard vaak bepalend voor welke technologie het wint van een andere; Apple vroeg te veel voor FireWire met als gevolg dat USB veel breder werd gebruikt. En uiteindelijk heeft dat er toe geleid dat FireWire nu verdwenen is.Maar ik ben wel benieuwd waarom jij denkt dat openstandaard (buiten de overheid om) een beter idee is.
Natuurlijk kan je gevallen benoemen zoals internet en wifi (zodat je koelkast met je telefoon kan chatten), maar tussen twee rivalen die de zelfde markt aanboren...
Uitzonderingen zijn er natuurlijk. x86 is geworden wat het is doordat Intel via IBM een gigantisch marktaandeel kreeg - AMD was echter eerder met x64 en dus hebben ze dat uiteindelijk gewonnen, ondanks de beste pogingen van Intel
HDMI is geworden wat het is doordat het 4 jaar eerder dan DP bestond. Maar in beide gevallen hebben ze het overleefd doordat iedereen ze kon implementeren (na het afnemen van een licentie). Als HDMI beperkt was gebleven tot Hitachi, Philips, Sony en die andere paar bedrijven, dan was het keihard geflopt.
Nogmaals: jij neemt het woord "open" te letterlijk. Ik heb het niet alleen over open source en gratis (!) standaarden. Ik heb het over standaarden die toegankelijk zijn voor iedereen, ongeacht of er betaling aan te pas komt of niet. Heel weinig van Nvidia's technieken zijn dat, waardoor ze niet zo breed gebruikt worden als ze graag zouden willen. En dat heeft er toe geleidt dat er inmiddels delen van GameWorks weldegelijk open source worden
Als Nvidia G-Sync open had gesteld en niet zo idioot duur had gemaakt dan had AMD het wellicht geïmplementeerd (+$$$ voor Nvidia van de licenties en een grotere userbase) en dan hadden ook meer (zoniet alle) monitor fabrikanten het in hun repertoire zitten, in plaats van dat halve handje vol.
Ik had het zoals Vipeax aan geeft inderdaad over Variable Refresh Rate in HDMI. Dat is precies wat G-Sync en Adaptive Sync/FreeSync zijn.MrCharming schreef op donderdag 6 juli 2017 @ 16:13:
Misschien dat NVidia het ooit wel ondersteund, maar de komende jaren zeker niet.
Zodra Nvidia HDMI 2.1 met VRR gaat ondersteunen -wat vrijwel zeker is-, bestaat de keuze voor TV's en monitors uit 500 modellen met HDMI 2.1 + VRR, Adaptive Sync (in het geval van monitors) die werken met je AMD GPU, PS5, Xbox One X (en wie weet wat nog meer)..tegenover 5-10 stuks met G-Sync die alleen met Nvidia GPU's werken en niet gemaakt worden door de "grote" merken die bekend staan om hun kwaliteit.
Op dat moment heeft G-Sync geen enkele meerwaarde voor de consument, hoe goed Nvidia (of hoe slecht) AMD op dat moment ook is. Waarom zou je een monitor/TV met het G-Sync labeltje aanschaffen als dat alleen met Nvidia werkt en verder geen meerwaarde biedt, terwijl al die andere modellen met al je andere apparaten werken?
Verwijderd
Niet minder dan AMD, minder dan wat gemakkelijk geboden kan worden! Het kost Nvidia erg weinig, ze hoeven enkel wat code te schrijven. Dat is voor Nvidia een verwaarloosbaar kleine investering maar ze zouden er wel veel van hun klanten een plezier mee doen.
Het probleem hierbij is dat slechts een zeer klein percentage van alle Nvidia-klanten een G-Sync monitor koopt. Typisch zijn dat de klanten die minstens een *80 kaart of hoger kopen. Die paar klanten die dat doen sluit je misschien op in het Nvidia ecosysteem: "ik heb X euro betaald voor deze G-Sync monitor, laat ik maar weer een Nvidia-kaart kopen". Hier staat tegenover dat je andere klanten richting AMD jaagt: "Ik heb een FreeSync monitor, Nvidia weigert om dat te ondersteunen dus laat ik de nu maar een AMD-kaart kiezen aaangezien het tijd is voor een upgrade en die van AMD niet slechter zijn voor dezelfde prijs."Vendor-lockin klinkt in mijn oren als een verwachtte keuze als je een groot percentage van de markt bezit. Zeker als je de markt beperkt tot de audience van G-SYNC, namelijk gamers.
Nvidia speculeert blijkbaar dat die laatste groep klanten dermate merktrouw is dat ze bij Nvidia blijven ondanks deze - voor hen - gebrekkige service.
Los hiervan: als je klanten moet houden door hen te dwingen op zo'n manier (pushen om een G-Sync monitor te kopen zodat ze maar bij Nvidia blijven omdat het anders zo zonde is van de investering) dan vind ik dat nogal bedenkelijk, behoud liever de klanten door steeds weer een beter product te leveren, richt daar je energie op. Misschien vind jij dat idealistisch en naïef geredeneerd maar er zijn meerdere strategieën om een goede omzet te krijgen, je hoeft niet dat soort ongein uit te halen.
Tot slot nog even dit. Miljardenbedrijf of niet, de harde keuzes moeten worden gemaakt door mensen , ze hebben niet voor alles perfecte algoritmes die hen vertellen wat precies de gevolgen zijn (X euro meer/minder omzet...) bij elke beslissing. Voor een deel zijn de beslissingen op subjectieve gronden gebaseerd en voor een deel moet er zelfs worden gegokt, bijvoorbeeld over hoe de technologie en software zich ontwikkelen of hoe klanten reageren op bepaaalde beslissingen omtrent het product. Het niet ondersteunen van FreeSync lijkt mij typisch zo'n beslissing waarbij verschillende managers verschillend gokken hoe het uitpakt voor de omzet op de lange termijn als je aanneemt dat al die managers de hoogste prioriteit geven aan die omzet op de lange termijn.
[ Voor 22% gewijzigd door Verwijderd op 06-07-2017 17:49 ]
Het eerste is niet waar, SLI is wel degelijk open gesteld en AMD heeft het nu ook in licentie genomen (2008) voor mobo's met resultaat dat de x370 chipset sli ondersteund.Werelds schreef op donderdag 6 juli 2017 @ 17:30:
[...]
Echter is SLI nooit opengesteld om een licentie op te nemen. G-Sync ook niet. PhysX ook niet. En met die laatste weet ik dat AMD/ATI daar 10 jaar geleden wel een implementatie voor had gemaakt als Nvidia het toe had gelaten; nu niet meer
Wederom, dat is een verschil in visie. Nvidia wil de consument alleen op hun platform hebben en dat is waar het voor hen eindigt. Intel, AMD/ATI en anderen bestaan al zo veel langer en werken ook al veel langer samen aan allerlei standaarden; of dat nu met licenties gepaard gaat of niet. In x86 zit tegenwoordig even veel van AMD als er van Intel in x64 zit. Het zijn aartsrivalen, maar ze zijn er allebei bij gebaat de meest gebruikte technologie eigen te maken en daar eventueel aan bij te dragen. Tegelijkertijd is het verkopen van licenties van je eigen techniek een extra bron van inkomsten en verzeker je jezelf er zo van dat deze nóg meer gebruikt wordt, waarna je (hopelijk) in een vicieuze cirkel terecht komt.
Dat laatste kan echter alleen als je marktleider bent. Een 60/40 split in eender welke richting is niet genoeg om anderen jouw spul aan te smeren. AMD kan Nvidia nu weinig aansmeren, maar andersom had wel gekund.
[...]
"Open" standaarden worden over het algemeen breder geaccepteerd en gebruikt - of dat nu met licenties gepaard gaat of niet. DirectX, OpenGL, VGA, DVI, HDMI, DisplayPort, USB - noem ze maar op. Stuk voor stuk zijn ze wijd geaccepteerd. De prijs van de licenties is daarbij uiteraard vaak bepalend voor welke technologie het wint van een andere; Apple vroeg te veel voor FireWire met als gevolg dat USB veel breder werd gebruikt. En uiteindelijk heeft dat er toe geleid dat FireWire nu verdwenen is.
Uitzonderingen zijn er natuurlijk. x86 is geworden wat het is doordat Intel via IBM een gigantisch marktaandeel kreeg - AMD was echter eerder met x64 en dus hebben ze dat uiteindelijk gewonnen, ondanks de beste pogingen van Intel
HDMI is geworden wat het is doordat het 4 jaar eerder dan DP bestond. Maar in beide gevallen hebben ze het overleefd doordat iedereen ze kon implementeren (na het afnemen van een licentie). Als HDMI beperkt was gebleven tot Hitachi, Philips, Sony en die andere paar bedrijven, dan was het keihard geflopt.
Nogmaals: jij neemt het woord "open" te letterlijk. Ik heb het niet alleen over open source en gratis (!) standaarden. Ik heb het over standaarden die toegankelijk zijn voor iedereen, ongeacht of er betaling aan te pas komt of niet. Heel weinig van Nvidia's technieken zijn dat, waardoor ze niet zo breed gebruikt worden als ze graag zouden willen. En dat heeft er toe geleidt dat er inmiddels delen van GameWorks weldegelijk open source worden
Als Nvidia G-Sync open had gesteld en niet zo idioot duur had gemaakt dan had AMD het wellicht geïmplementeerd (+$$$ voor Nvidia van de licenties en een grotere userbase) en dan hadden ook meer (zoniet alle) monitor fabrikanten het in hun repertoire zitten, in plaats van dat halve handje vol.
[...]
Ik had het zoals Vipeax aan geeft inderdaad over Variable Refresh Rate in HDMI. Dat is precies wat G-Sync en Adaptive Sync/FreeSync zijn.
Zodra Nvidia HDMI 2.1 met VRR gaat ondersteunen -wat vrijwel zeker is-, bestaat de keuze voor TV's en monitors uit 500 modellen met HDMI 2.1 + VRR, Adaptive Sync (in het geval van monitors) die werken met je AMD GPU, PS5, Xbox One X (en wie weet wat nog meer)..tegenover 5-10 stuks met G-Sync die alleen met Nvidia GPU's werken en niet gemaakt worden door de "grote" merken die bekend staan om hun kwaliteit.
Op dat moment heeft G-Sync geen enkele meerwaarde voor de consument, hoe goed Nvidia (of hoe slecht) AMD op dat moment ook is. Waarom zou je een monitor/TV met het G-Sync labeltje aanschaffen als dat alleen met Nvidia werkt en verder geen meerwaarde biedt, terwijl al die andere modellen met al je andere apparaten werken?
Bedrijven moeten ook tegen redelijke vergoeding hun technologie kunnen aanbieden en ter beschikking stellen iets wat bij wet geregeld is.
Zoals wat nV met intel heeft gedaan. Met deze regeling konden beide bedrijven elkaars technologieën toepassen, dit is overigens niet goed afgelopen en de laatste geruchten zijn dat intel toch wel is nV zou kunnen opkopen.
Dit is een redelijk extreem geval en dit kan alleen tussen bedrijven die elkaar iets gelijkwaardig te bieden hebben.
Tot op heden werkt freesync niet met nV dus het zelfde geld voor freesync, nV heeft aangegeven dat gsync inderdaad duurder is maar dat zij het als een premium verkopen en dat de systemen met G-sync altijd hoogwaardige producten zijn (wat je ook ziet aan de prijs en specificaties, volgens mij zijn er geen Gsyncs met 1080p) Dat is hun keuze, je kan veel zeggen maar de afgelopen jaren pakken beter uit voor nV dan voor AMD(ati).
Het enige verschil tussen g-sync en freesync is de prijs.
Vraag aan apple hoe hun overpriced strategie werkt.On the whole, the biggest benefit to enjoying FreeSync gaming is cost. As things stand, you'll spend less on a current generation graphics card and less on a PC monitor to use it with. You may sacrifice some ultra power and things like 4K gaming, but you'll have silky smooth, crisp graphics and money in your pocket.
If your gaming tastes are for the bleeding edge, the latest, greatest, most powerful of everything, then you're going to get a NVIDIA card. You're already going to spend more on that, and then you'll spend more on a G-Sync monitor to go with it.
The end experience between the two systems is very similar, but how much you've spent to get there could be very different.
Je hebt het over hoe breed nV zou willen dat hun producten gebruikt worden maar momenteel is nV ruim de marktleider in discrete graphics.
Voor mij is open.. open ik heb niks over gratis gezegd. Open platformen zijn gewoon bedoeld om ze toegankelijk te maken voor vele partijen, dat is handig als je samen kan profiteren van een bepaalde technologie. Maar nogmaals als er maar twee partijen zijn en kapers voor de kust als intel & qualcomm heeft open platform alleen maar als gevolg minder innovativiteit/stagnatie in techniek en stabiele prijzen.Nogmaals: jij neemt het woord "open" te letterlijk. Ik heb het niet alleen over open source en gratis (!) standaarden. Ik heb het over standaarden die toegankelijk zijn voor iedereen, ongeacht of er betaling aan te pas komt of niet
Nogmaals ik zegt niks over gratis of dat ze gratis technologie moeten krijgen uit open platformen.
nV had nooit geld geïnvesteerd in g-sync, had AMD nooit geld geïnvesteerd in een k5 (athlon --> ryzen) als iedereen in een open standaard was blijven hangen.
Waarom zou je nog de moeite doen om geld in r&d te steken, als je een ander het werk kan laten doen.
X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's
Het artikel betreft met name de chipset licenties voor SLI, dit heeft geen betrekking op de SLI techniek zelf. Deze is nooit opgensteld en AMD zal deze ook niet hebben gebruikt voor Crossfire. AMD pakt het ook weer iets anders aan dan Nvidia, zonder bridge met de XDMA techniek.D0gtag schreef op donderdag 6 juli 2017 @ 18:32:
[...]
Het eerste is niet waar, SLI is wel degelijk open gesteld en AMD heeft het nu ook in licentie genomen (2008) voor mobo's met resultaat dat de x370 chipset sli ondersteund.
Bedrijven moeten ook tegen redelijke vergoeding hun technologie kunnen aanbieden en ter beschikking stellen iets wat bij wet geregeld is.
Helaas ondersteunt de x370 chipset SLI, je hebt er geen barst aan en het kost mij als consument geld wat ik geef aan een bedrijf waar ik het liever niet aan geef. Lowend kaarten van Nvidia ondersteunen geen SLI en het wordt in steeds minder spellen ondersteunt. Met de komst van DX12 en Vulkan is SLI ook niet meer nodig omdat het in de handen van de ontwikkelaars ligt, die licentie heb je ook niet nodig om in DX12 twee Nvidia kaarten naast elkaar te zetten.
De SLI licentie voor moederborden is niks meer dan gebakken lucht.
Om het wat meer te onderbouwen, vroeger had je een Nvidia chipset nodig om SLI werkend te krijgen. Na een tijd werden south en north bridges steeds meer op de cpu geintegreerd en moest Nvidia SLI wel licenseren aan Intel en AMD omdat niemand hun chipsets meer nodig had.
[ Voor 20% gewijzigd door Sp3ci3s8472 op 06-07-2017 20:44 . Reden: Stomme reactie weggehaalt.... ]
De chipset hoeft alleen maar 2 kaarten op x8 pci-e breedte te kunnen, lastig om de chipset niet ondersteund te laten zijn.Sp3ci3s8472 schreef op donderdag 6 juli 2017 @ 19:10:
Helaas ondersteunt de x370 chipset SLI, je hebt er geen barst aan en het kost mij als consument geld wat ik geef aan een bedrijf waar ik het liever niet aan geef.
Er zijn idd weinig borden die de sli achterwege laten, maar biostar lijkt speciaal voor jou een paar borden te hebben die toch in x8 x8 kunnen en geen sli certificaat.
http://www.biostar.com.tw...hp?S_ID=874#specification
Mechwarrior Online: Flapdrol
[ Voor 98% gewijzigd door D0gtag op 06-07-2017 21:08 ]
X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's
Bordjes zoals deze twee hebben geen SLI. Nu moet ik toegeven dat het Gigabyte bordje niet echt aan te raden valt vanwege de matige VRM, bij X370 wil je wel wat beters, maar die van Asus is een leuk instapbordje. Eigenlijk het B350 bordje met de X370 chipset.
pricewatch: Asus Prime X370-A
pricewatch: Gigabyte GA-AX370-Gaming K3
En ja, verreweg de meeste ondersteunen wel SLI, en ja dat is vrij onzinnig want SLI zelf is vrij zinloos geworden. Het is alleen niet zo dat je altijd een SLI licentie moet nemen bij een X370 bordje.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Mechwarrior Online: Flapdrol
Ja, ik zit even behoorlijk niet op te letten. Asus plankje is ook de tweede x4.haarbal schreef op donderdag 6 juli 2017 @ 20:31:
Gigabyte bord heeft de slots in x16 x4 staan, ook niet optimaal voor multigpu.

[ Voor 6% gewijzigd door DaniëlWW2 op 06-07-2017 20:38 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Reactie was overtrokken en dat was niet de bedoeling, reactie ondertussen aangepast.D0gtag schreef op donderdag 6 juli 2017 @ 20:19:
[...]
[...]
Gefeliciteerd, ik heb steeds meer het idee dat ik hier een AA meeting bijwoon.
Wat een wrok om he-le-maal niks. Het gaat om videokaarten, we hebben het hier niet over zedendelinquenten. I'm out.
Reden is o.a. al dat nu al al tig pagina's een minder nuttige discussie. Soms gewoon niet geinformeerde reacties waarin je aangeeft dat Maxwell maar 10% is opgeschoten met tiled rasterization.
Dit is een AMD topic en soms worden er gelijkingen getrokken met Nvidia, alleen hoeven we niet de zoveelste discussie hier te hebben waarin we in dit geval jou ervan proberen te overtuigen dat Nvidia in ons (niet iedereen) perspecief gewoon niet positief is voor de consument of game markt. Die discussie is hier al vaak genoeg gevoerd.
Als we dat achterwege kunnen laten dan is een discussie wat betreft andere zaken natuurlijk welkom.
Andere reden is dat ik vandaag klote nieuws had wat betreft naasten en ik had dus niet zo moeten reageren, over het algemeen probeer ik iets constructiever te zijn met mijn reacties....
Keuze is erg beperkt als je geen SLI wilt. Vroeger vond ik het een valide reden om voor een bepaalt bord wel of niet te gaan, maar de techniek is haast "dood".DaniëlWW2 schreef op donderdag 6 juli 2017 @ 20:24:
@Sp3ci3s8472 nee, de meeste X370 bordjes hebben SLI, maar het geen onderdeel van X370.
Bordjes zoals deze twee hebben geen SLI. Nu moet ik toegeven dat het Gigabyte bordje niet echt aan te raden valt vanwege de matige VRM, bij X370 wil je wel wat beters, maar die van Asus is een leuk instapbordje. Eigenlijk het B350 bordje met de X370 chipset.![]()
pricewatch: Asus Prime X370-A
pricewatch: Gigabyte GA-AX370-Gaming K3
En ja, verreweg de meeste ondersteunen wel SLI, en ja dat is vrij onzinnig want SLI zelf is vrij zinloos geworden. Het is alleen niet zo dat je altijd een SLI licentie moet nemen bij een X370 bordje.
Overigens bedankt, maar ik heb al een bord
Graphene; a material that can do everything, except leave the lab. - Asianometry
Sp3ci3s8472 schreef op donderdag 6 juli 2017 @ 20:42:
[...]
Reactie was overtrokken en dat was niet de bedoeling, reactie ondertussen aangepast.
Reden is o.a. al dat nu al al tig pagina's een minder nuttige discussie. Soms gewoon niet geinformeerde reacties waarin je aangeeft dat Maxwell maar 10% is opgeschoten met tiled rasterization.
Dit is een AMD topic en soms worden er gelijkingen getrokken met Nvidia, alleen hoeven we niet de zoveelste discussie hier te hebben waarin we in dit geval jou ervan proberen te overtuigen dat Nvidia in ons (niet iedereen) perspecief gewoon niet positief is voor de consument of game markt. Die discussie is hier al vaak genoeg gevoerd.
Als we dat achterwege kunnen laten dan is een discussie wat betreft andere zaken natuurlijk welkom.
offtopic:
Andere reden is dat ik vandaag klote nieuws had wat betreft naasten en ik had dus niet zo moeten reageren, over het algemeen probeer ik iets constructiever te zijn met mijn reacties....
Vervelend om te horen, begrijpelijk, alles wat hier geschreven is verder irrelevant, we laten het rusten
Iedereen is hier met het zelfde doel, informatie verkrijgen (nu voornamelijk van vega). Voor mij is er geen kamp of partij, een beter dan de andere. Als vega bevalt heb ik een AMD kaart met een AMD cpu. Als hij niet bevalt is het een nV kaart met AMD cpu.
We maken allemaal fouten, including me, ik doe dit ook maar parttime
Ik zal wel het boetekleed aantrekken, ik ben ook wel een agitator als er zulke extremen langskomen,
Ja het is nu meer een prive chat geworden dus ik hou er over op, als het om vega aangaat denk ik gewoon dat nV erbij gehaald dient te worden omdat veel van de prestaties gericht zijn om dat bedrijf te overtreffen.NitroX infinity schreef op donderdag 6 juli 2017 @ 21:06:
Lekker, al dat gepraat over Nvidia's SLI in het AMD topic.
En dus in dat licht kunnen kijken wat AMD van plan is.
[ Voor 10% gewijzigd door D0gtag op 06-07-2017 21:12 ]
X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's
Er zitten een paar vervelende engines bij, maar met inspector heb ik toch heel wat titels, onofficieel, aan SLI geholpen. UE4-games bv. Maar ook de "nieuwe" Skyrim .
Niet op voorraad.
Waarschijnlijk wordt die eind van de maand achter gesloten deuren gedemonstreerd
Niet op voorraad.
Verwijderd
Bijna, nog maar 4 weekjes wachten. Het lijkt Sinterklaas wel.
En dan maar hopen dat de kaart zuigt voor cryptomining of dat de koers van die crypto'munten' flink is gekelderd.
Het zou direct na de presentatie beschikbaar komen, het achter gesloten deuren demonstreren heeft weinig zin. Normaal gesproken geeft AMD 1 week van tevoren een sample aan allerlei mediafiguren en reviewers, over een weekje of 3 zien we waarschijnlijk wat relevante benchmarks verschijnen.edward2 schreef op donderdag 6 juli 2017 @ 21:54:
[...]
Waarschijnlijk wordt die eind van de maand achter gesloten deuren gedemonstreerd
[ Voor 28% gewijzigd door Verwijderd op 06-07-2017 22:03 ]
Tja, het is allang bekent dat ETH slecht omgaat met niet GDDR5 geheugen waardoor dergelijke GPU's niet interessant zijn voor mining. Vega zal geen mining kaart worden, al is het maar vanwege het verbruik. Dat is overigens wel een voordeel zo.Verwijderd schreef op donderdag 6 juli 2017 @ 21:58:
Bijna, nog maar 4 weekjes wachten. Het lijkt Sinterklaas wel.
En dan maar hopen dat de kaart zuigt voor cryptomining of dat de koers van die crypto'munten' flink is gekelderd.
[ Voor 3% gewijzigd door DaniëlWW2 op 06-07-2017 22:10 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
-Hoe groot is de stock of moet je pre-orderen? (kan dat überhaupt...)
-Moeten we wachten tot de "echte" benchmarks (zelfs na de presentatie) of ben je dan al te laat (cryptominers ...)
-Stroom verbruik...
En stel je wilt daarna alsnog Nvidia dan moet je ook snel zijn aangezien het GDDR5(X) geheugen opeens schaars aan het worden is /hoofdpijn... en zit nog steeds met deze snail-HD6850 opgescheept

[ Voor 3% gewijzigd door ArcticWolf op 06-07-2017 22:11 ]
Join us on July 30 to experience:
our fieriest additions to the cutting-edge Radeon™ “Vega” architecture
the deliciously disruptive combinations of EPYC™, Ryzen™, and Radeon offerings to which our partners are giving rave reviews
how AMD is breaking the mould, remixing content pipelines in gaming, entertainment, manufacturing, engineering and more for this new era of passion, precision and performance
https://seekingalpha.com/...7-technology-internet-and
En aangezien de site moeilijk doet met bekijken ook even zo.
YouTube: Poor Vega
Het lijkt er in ieder geval op dat onafhankelijk van de prestaties, AMD wel neigt naar een flinke price undercut van Nvidia. Dat is tenminste iets.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat was sarcasme, omdat we al zoveel behind closed doors/presentaties ed. hebben gezien sinds de bekendmaking van Vega. Ik hoop op een hardlaunch, maar ik heb er (nog) niet veel vertrouwen in.Verwijderd schreef op donderdag 6 juli 2017 @ 21:58:
[...]
Het zou direct na de presentatie beschikbaar komen, het achter gesloten deuren demonstreren heeft weinig zin. Normaal gesproken geeft AMD 1 week van tevoren een sample aan allerlei mediafiguren en reviewers, over een weekje of 3 zien we waarschijnlijk wat relevante benchmarks verschijnen.
Vega FE is momenteel ook zo goed als non existent.
Niet op voorraad.
Verwijderd
Het hangt van de prijs en de performance af of dat preorderen te overwegen is. Even rustig afwachten.ArcticWolf schreef op donderdag 6 juli 2017 @ 22:10:
Ben alleen beetje bang;
-Hoe groot is de stock of moet je pre-orderen? (kan dat überhaupt...)
-Moeten we wachten tot de "echte" benchmarks (zelfs na de presentatie) of ben je dan al te laat (cryptominers ...)
-Stroom verbruik...![]()
En stel je wilt daarna alsnog Nvidia dan moet je ook snel zijn aangezien het GDDR5(X) geheugen opeens schaars aan het worden is /hoofdpijn... en zit nog steeds met deze snail-HD6850 opgescheept
Duidelijk is in ieder geval dat de Vega-FE voor van alles beter presteert dan de FuryX bij dezelfde klokfrequentie behalve bij gaming. Dat wijst erop dat de hardware en/of de software sterk is getuned voor die andere toepassingen (wat logisch is
Ik heb geen goed gevoel bij de uitspraak van die AMD-medewerker die ageert tegen de stelling dat Fiji-drivers worden gebruikt. Ik kan er nog niet mijn vinger op leggen wat er precies aan de hand is.
About the driver comment: it's normal and completely expected for there to be common code in a GPU driver that applies to some or all of the GPUs a driver supports, alongside the specifics for the GPU being driven. That's hopefully just a given. So it was just a guiding hand to not conflate any commonality with it running the driver for a different ASIC, and then reading things into that.Verwijderd schreef op donderdag 6 juli 2017 @ 08:41:
The "Fiji fallback driver" or "Fiji drivers" meme needs to stop. That's not how it works or should be described. Otherwise you should start calling Volta drivers Pascal drivers Maxwell drivers. There is obviously commonality -- that's just how software engineering needs to work for a GPU -- but calling it a Fiji driver or Fiji fallback is wrong.
I'd have said that regardless of working for AMD or not, since the above is true for all GPU vendors.
I want to talk about Vega and RX here as much as everyone else since I'm a GPU enthusiast, but that's not in my wheelhouse (unless you're an NDA'd developer of course!), so I can't go into specifics.
Voor virtualisatie (Windows in een container onder Linux) wordt echter ASRock Taichi of een Gigabyte (Gaming 5?) aangeraden, met SLI dus. Nu is Taichi een prima moederbord en goed geprijsd, maar helaas niet in Nederland. Het kan veranderen met toekomstige EFI-updates, het gaat erom dat je andere apparaten zoals je muis en toetsenbord (USB) moet kunnen passthoughen naar de virtuele machine om extra inputlag te voorkomen. Ik zou het fijn vinden als ik Windows enkel nog in een virtuele machine zou hoeven te gebruiken.DaniëlWW2 schreef op donderdag 6 juli 2017 @ 20:24:
@Sp3ci3s8472 nee, de meeste X370 bordjes hebben SLI, maar het geen onderdeel van X370.
Bordjes zoals deze twee hebben geen SLI. Nu moet ik toegeven dat het Gigabyte bordje niet echt aan te raden valt vanwege de matige VRM, bij X370 wil je wel wat beters, maar die van Asus is een leuk instapbordje. Eigenlijk het B350 bordje met de X370 chipset.![]()
pricewatch: Asus Prime X370-A
pricewatch: Gigabyte GA-AX370-Gaming K3
En ja, verreweg de meeste ondersteunen wel SLI, en ja dat is vrij onzinnig want SLI zelf is vrij zinloos geworden. Het is alleen niet zo dat je altijd een SLI licentie moet nemen bij een X370 bordje.
Je kan momenteel trouwens niet W10 in de virtuele machine draaien voor dit doeleinde, W7 werkt wel prima. Een kwestie van tijd natuurlijk maar als je per se DX12 wil gebruiken...
Ik vermoed dat AMD dit ook graag had gewild voor Polaris maar dat je in dat segment niet de ruimte hebt om het te doen (veel lagere marges).DaniëlWW2 schreef op donderdag 6 juli 2017 @ 22:40:
Dat is de tweede keer dat AMD nu vermeld dat ze ook marktverstorend willen zijn met Vega. De eerste keer was een tijdje terug.
https://seekingalpha.com/...7-technology-internet-and
En aangezien de site moeilijk doet met bekijken ook even zo.
YouTube: Poor Vega
Het lijkt er in ieder geval op dat onafhankelijk van de prestaties, AMD wel neigt naar een flinke price undercut van Nvidia. Dat is tenminste iets.
[ Voor 62% gewijzigd door Verwijderd op 07-07-2017 20:38 ]
Ben ik mee oneens. Het feit dat NVidia al die streken uitgehaald heeft is voor mij een reden hen niet te supporten. Wat iemand in het verleden geflikt heeft bepaald bij mij weldegelijk hoe ik hem behandel. Was het niet voor mensen die 'oud zeer' ophalen en deze feiten openbaren, had ik het niet geweten. Maar ik ben blij dat dat wel gedaan is.D0gtag schreef op donderdag 6 juli 2017 @ 21:08:
[...]
We maken allemaal fouten, including me, ik doe dit ook maar parttimemaar feiten en rationaliteit moeten de boventoon voeren, niet emotie en oud zeer. Daar hebben vooral mensen die informatie zoeken helemaal niks aan. Sommige drijven veel te veel hun standpunten terwijl er geen goed of fout is alleen keuzes.
Vanwege dat feit zal ik meer geneigd zijn AMD te kopen dan Nvidia of Intel.
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Dat snap ik niet. Weet jij waarom dat HBM2 een kaart minder geschikt maakt?DaniëlWW2 schreef op donderdag 6 juli 2017 @ 22:10:
Tja, het is allang bekent dat ETH slecht omgaat met niet GDDR5 geheugen waardoor dergelijke GPU's niet interessant zijn voor mining. Vega zal geen mining kaart worden, al is het maar vanwege het verbruik. Dat is overigens wel een voordeel zo.
Zo op het eerste gezicht klinkt het raar. Zowel nV als RTG brengen compute kaarten uit met HBM2 en dan zou een specifiek algoritme daar slechter op draaien. Het klinkt mij meer in de oren als een implementatieprobleem.
Ondanks mijn antiephatie tegen nVVerwijderd schreef op donderdag 6 juli 2017 @ 21:58:
Voor die paar mensen hier die de geschiedenis van PhysX niet kennen. Dit was aanvankelijk een aparte kaart die in combinatie met meerdere merken grafische kaarten werd gebruikt. Nvidia kocht dat bedrijf, zette de productie en verkoop van aparte PhysX kaarten stop en integreerde het in Nvidia-kaarten zodat enkel Nvidia-klanten het zouden kunnen gebruiken. Aanvankelijk waren er mensen die een AMD-kaart combineerden met een lowend Nvidia-kaart puur voor de PhysX. Nvidia blokkeerde softwarematig PhysX. Eveneens blokkeerde Nvidia later softwarematig PhysX wanneer de 2 Nvidia kaarten 'te veel' verschilden. Je kan die PhysX-effecten die gebruikt worden ook prima op een andere manier draaien als je ietwat fatsoenlijke hardware hebt, zo niet in het jaar waarin he spel uitkomt dan wel X jaar later, maar dan moet de developer het wel ondersteunen. Borderlands 2 is een goed voorbeeld, als je een ietwat fatsoenlijke CPU hebt dan kan je PhysX op normaal of hoog draaien door het bestandje met de waardes voor allerlei variabelen lichtjes te wijzigen.
Is het niet zozeer overname van Ageia , maar kiezen voor Cuda ipv Cuda based OpenCL.
De overname is reactie van nV in GPGPU WAR tegen iNtel van hun Havok overname in de pre Larabee tijdperk.
En killen van HavokFX module de gpgpu voor merk onafhankelijke physics.
PHysX en Havok soap , is dus voorbeeld van zwaar anti gamers beleid van beide nV en iNtel.
Om dit te omzijlen zouden game dev zelf hun Physics engine moeten implementeren op compute task. DX compute shaders of OpenCL. Eventueel higherlevel met C++AMP
Tijd voor derde grote Physics SDK. Bullit of newton.
PhysX was ooit NovodexSDK
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Van wat ik ervan begrijp is ETH mining zeer afhankelijk van veel vram, en dan GDRR5. Compute power is minder belangrijk, daarom werkt Pascal ook redelijk. Binnenkort zullen door de hype de 4GB vram kaarten niet meer afdoende zijn, en zullen deze massaal gedumpt gaan worden. Dan zullen de 6 en 8GB kaarten snel volgen. Dan kan je wel algoritmes aanpassen voor Vega, maar zelfs met andere efficiëntere drivers, features aan en minder stroomverbruik vanwege die extra features zal het een kaart blijven die simpelweg te veel stroom gebruikt om echt rendabel te zijn. Verder zijn alleen de hoogst gepositioneerde, professionele Tesla GPU's van Nvidia met HBM2 uitgerust. Niemand gaat minen op die dingen.Sandwalker schreef op vrijdag 7 juli 2017 @ 07:45:
[...]
Dat snap ik niet. Weet jij waarom dat HBM2 een kaart minder geschikt maakt?
Zo op het eerste gezicht klinkt het raar. Zowel nV als RTG brengen compute kaarten uit met HBM2 en dan zou een specifiek algoritme daar slechter op draaien. Het klinkt mij meer in de oren als een implementatieprobleem.
Oh en om het dode paard nog even na te trappen. Nee, gaming mode op Vega FE doet dus werkelijk helemaal niks.
YouTube: Vega FE Gaming Mode vs. Pro Mode Benchmarks
[ Voor 9% gewijzigd door DaniëlWW2 op 07-07-2017 08:54 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
[ Voor 48% gewijzigd door Damic op 07-07-2017 09:04 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Dat is dus volslagen zinloos, al is het maar omdat Wattman op het moment je HBM2 downclocked naar 500mhz bij elke overclock.Damic schreef op vrijdag 7 juli 2017 @ 09:02:
@DaniëlWW2 gaming mode laat je toe om je vega te "overclocken", mag niet in pro mode
En de DX12 feature set van Vega. Deze zijn ook niet misstaand. Nu nog een GPU en driver waarmee ze werken.
https://www.overclock3d.n...ral_directx_12_features/1
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Uh, volgens mij is alles boven de 1,6ghz een overclock dus.Damic schreef op vrijdag 7 juli 2017 @ 09:07:
Tja je moet dan ook niet over de 1.6GHz gaan, zolang je daar blijft, blijft het geheugen op 995MHz draaien (volgens Wattman).
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Het heeft geen drol met emotie en oud zeer te maken, het is een kwestie van dat jij als klant goedkeuring of afkeuring geeft aan antigaminggedrag en anticompetitief gedrag door een product wel of niet te kopen. De klant stuurt het gedrag van deze bedrijven. Wil je bepaald gedrag niet, laat dat merken met je aankopen. Daarnaast mag jij blij zijn dat er mensen zijn die voor een AMD-kaart kiezen aangezien jij veel meer gaat betalen voor dezelfde grafische kaart als enkel Nvidia overblijft.niet emotie en oud zeer.
Daarnaast zijn voor de meeste gamers (tenzij je een OEM-bak met een slechte voeding hebt) de 580 en 570 een betere keuze dan de 1060 en 1050 ti, als ze fatsoenlijk verkrijgbaar zijn voor de normale prijs.
[ Voor 16% gewijzigd door Verwijderd op 07-07-2017 10:09 ]
Verwijderd
Dit is veel interessanter: YouTube: HW News: Vega Expectation Reminder, QLC NAND, Ryzen Pro
Blender crasht bij bepaalde workloads. Een aanwijzing dat de drivers nogal onafgewerkt zijn? Het zou mij momenteel niet verbazen als AMD bewust allerlei features uitschakelde omdat het de enige manier was om de drivers uberhaupt werkende te krijgen. Bij programmeren is het vaak alles of niets, ofwel werkt het zoals je wil dat het werkt ofwel crasht het of geeft het 'rare' resultaten.
Havok is ook zo'n voorbeeld. Ooit een mooi onafhankelijk Iers bedrijf, nu in handen van MS die het in theorie kan gebruiken als leverage om onder Windows of met DX (i.p.v. het platformonafhankelijke Vulkan) te draaien. Het is zonde dat PhysX ons werd afgepakt omdat een bedrijf het speeltje ontoegankelijk wou maken voor de mensen die een product van een ander bedrijf kochten. Nu is PhysX nog weinig goed gebruikt maar je kan er mooie dingen mee doen.SG schreef op vrijdag 7 juli 2017 @ 07:52:
[...]
Ondanks mijn antiephatie tegen nV
Is het niet zozeer overname van Ageia , maar kiezen voor Cuda ipv Cuda based OpenCL.
De overname is reactie van nV in GPGPU WAR tegen iNtel van hun Havok overname in de pre Larabee tijdperk.
En killen van HavokFX module de gpgpu voor merk onafhankelijke physics.
PHysX en Havok soap , is dus voorbeeld van zwaar anti gamers beleid van beide nV en iNtel.
Om dit te omzijlen zouden game dev zelf hun Physics engine moeten implementeren op compute task. DX compute shaders of OpenCL. Eventueel higherlevel met C++AMP
Inderdaad. Al kan dat natuurlijk ook een onderdeel van een groter pakket zoals OpenCL of Vulkan zijn.Tijd voor derde grote Physics SDK. Bullit of newton
Ik zou het niet weten maar ik kan me niet voorstellen dat Vega slechts een overklokte FuryX is voor gaming gezien alle veranderingen aan de architectuur en de grote diesize (niet evenredig kleiner geworden met het kleiner worden van de node). Nog even rustig afwachten.Damic schreef op vrijdag 7 juli 2017 @ 09:02:
@DaniëlWW2 gaming mode laat je toe om je vega te "overclocken", mag niet in pro modeen wat betrefd ETH is het zo dat ze volgens mij voor Fury en Fega het geheugen anders moeten aanspreken, maar als ik zo even door de source blader kan het niet anders.
[ Voor 40% gewijzigd door Verwijderd op 07-07-2017 10:26 ]
Dit topic is gesloten.