Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

:P

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +3 Henk 'm!
Help!!!! schreef op woensdag 5 juli 2017 @ 13:12:
Zal blij zijn als het eind juli is en de reviews de zo gewenste duidelijkheid bieden. :)
En dan gaat het vrolijk door onder de noemer "FineWine", nieuwe architectuur, reviewers zijn slecht want ze passen oude reviews niet aan na de release van de zoveelste super driver, resolutie X is niet relevant want Y, benchmark M is niet relevant want gebruikt techniek N, game Q is niet relevant want sponsor R, ik zei het toch discussies, verbruik is wel/niet relevant, koeler J maakt wel/niet acceptabel geluid etc

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 5 juli 2017 @ 11:07:
[...]


Nog steeds lager dan een gtx 1080
Maar aan het inlopen. Over de GTX 1080 gaat RX Vega wel heen (uiteindelijk), de vraag is wat er nog meer mogelijk is. Ik denk niet dat AMD ambieert dat deze kaart de competitie aangaat met de GTX 1080 ti. Niet op basis van de resultaten van de Vega-FE, die zijn niet zo interessant, maar op basis van een slide die AMD liet zien die suggereert dat ze met de eerste itereatie van Vega nog niet op dat segment mikken (die slide met de balken waarbij de streep niet tot helemaal bovenaan kwam).
Help!!!! schreef op woensdag 5 juli 2017 @ 13:12:
Zal blij zijn als het eind juli is en de reviews de zo gewenste duidelijkheid bieden. :)
Nee hoor, dan is het nog steeds de vraag wat een jaar later de winst is met verbeterde drivers. Doorgaans heb je bij een sterker vernieuwde architectuur meer vooruitgang met vernieuwde drivers. :)

[ Voor 24% gewijzigd door Verwijderd op 05-07-2017 14:38 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Paprika schreef op woensdag 5 juli 2017 @ 14:25:
[...]

En dan gaat het vrolijk door onder de noemer "FineWine", nieuwe architectuur, reviewers zijn slecht want ze passen oude reviews niet aan na de release van de zoveelste super driver, resolutie X is niet relevant want Y, benchmark M is niet relevant want gebruikt techniek N, game Q is niet relevant want sponsor R, ik zei het toch discussies, verbruik is wel/niet relevant, koeler J maakt wel/niet acceptabel geluid etc
Jij snapt het. Het is pas goed als de Titan Xp met 50% wordt verslagen, en niks minder. :+
Onderhand kan AMD gewoon niet meer winnen want het zal altijd tegenvallen. Ook al matchen ze nu alsnog de Ti, en verkopen ze die GPU voor €600, dan zullen er alsnog mensen zijn die zeuren dat het niet goed is. :/

* DaniëlWW2 hoopt stiekem dat Vega toch een tikje tegen zal vallen bij release. O-)

De beste RX Vega ergens tussen de 1080 en de Ti, en de cut down ergens tussen de 1070 en 1080 zou wel interessant zijn voor de consumenten. Zeker als "FineWine" na de release inzet. :+
Met een beetje geluk is de cut down sku dan voor €400- te krijgen. Teken ik voor want die RX580 die ik ooit bestelde ontvang ik toch niet meer, en eigenlijk woiu ik een niveautje krachtiger. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • chaoscontrol
  • Registratie: Juli 2005
  • Laatst online: 00:33
DaniëlWW2 schreef op woensdag 5 juli 2017 @ 14:49:
[...]
Ook al matchen ze nu alsnog de Ti, en verkopen ze die GPU voor €600, dan zullen er alsnog mensen zijn die zeuren dat het niet goed is. :/
Dan is het zeker niet goed inderdaad. Dan kijken we al een hele lange tijd uit naar iets wat al oud is als het uitkomt.

Ik snap ook echt niet hoe jij elke dag XXXXX posts kan plaatsen en zo hard probeert te schreeuwen hoe goed het wel niet wordt en iedereen het verder fout heeft. 8)7 FineWine? More like FanWhine amirite?

Inventaris - Koop mijn meuk!


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36
Help!!!! schreef op woensdag 5 juli 2017 @ 13:12:
Gaan jullie deze back & forth nog 25 dagen volhouden :? :P

Zal blij zijn als het eind juli is en de reviews de zo gewenste duidelijkheid bieden. :)
Palms sweaty, knees weak, moms spaghetti :+.

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 13:27

flessuh

Set sail for fail!

Ik vraag me af wanneer de eerste Vega kaarten te pre-orderen zijn. Heb nog PC in winkelwagentje zitten die braaf wacht tot dat mogelijk is :P

https://www.dutchsolarboat.com


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
chaoscontrol schreef op woensdag 5 juli 2017 @ 15:06:
[...]

Dan is het zeker niet goed inderdaad. Dan kijken we al een hele lange tijd uit naar iets wat al oud is als het uitkomt.
En hoe precies zou €600 voor een speculatieve Ti tegenhanger niet geweldig zijn? Paar onder euro onder de prijs van Nvidia. De Ti, 1080 en 1070 zouden moeten flink zakken in prijs, beter voor iedereen die een dergelijk product wil kopen.
Ik snap ook echt niet hoe jij elke dag XXXXX posts kan plaatsen en zo hard probeert te schreeuwen hoe goed het wel niet wordt en iedereen het verder fout heeft. 8)7 FineWine? More like FanWhine amirite?
En ik begrijp nog steeds niet dat elke subtiliteit in mijn reacties worden gemist en ik elke keer met dergelijke onzinnige reacties geconfronteerd word...

Als Vega FE representatief blijkt voor RX Vega dan is het een van de, zo niet de slechtste GPU achitectuur ooit. Het hele punt van Vega was om de frontend bottleneck problemen van Fiji op te lossen, en nu presteert Vega FE dus clock voor clock minder dan Fiji, terwijl die veel meer verbruikt. Dat is een behoorlijke fuck up als hier niks veranderd. Vega FE matched niet eens het beste van de concurrent. Dat zou slechter zijn dan Fermi die tenminste nog presteerde ondanks alles wat daar mis ging. Dan kan je nog veel verder terug gaan graven naar zoiets als de FX 5800 Ultra wat een redelijke vergelijking zou zijn met de problemen die AMD gaat krijgen als Vega FE vergelijkbaar is. De FX 5800 Ultra draaide Nvidia bijna de nek om...

Verder ben ik bij lange na niet de enige die twijfels plaatst bij de huidige resultaten. Lijkt me ook niet vreemd aangezien er nu sprake lijkt te zijn van een vermindering van IPC, de GPU in een fallback modus lijkt te draaien, en de meeste features uit lijken te staan. Geen van deze dingen wijst op optimale prestaties...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • chaoscontrol
  • Registratie: Juli 2005
  • Laatst online: 00:33
DaniëlWW2 schreef op woensdag 5 juli 2017 @ 15:44:
[...]

En hoe precies zou €600 voor een speculatieve Ti tegenhanger niet geweldig zijn? Paar onder euro onder de prijs van Nvidia. De Ti, 1080 en 1070 zouden moeten flink zakken in prijs, beter voor iedereen die een dergelijk product wil kopen.

[...]


En ik begrijp nog steeds niet dat elke subtiliteit in mijn reacties worden gemist en ik elke keer met dergelijke onzinnige reacties geconfronteerd word...

Als Vega FE representatief blijkt voor RX Vega dan is het een van de, zo niet de slechtste GPU achitectuur ooit. Het hele punt van Vega was om de frontend bottleneck problemen van Fiji op te lossen, en nu presteert Vega FE dus clock voor clock minder dan Fiji, terwijl die veel meer verbruikt. Dat is een behoorlijke fuck up als hier niks veranderd. Vega FE matched niet eens het beste van de concurrent. Dat zou slechter zijn dan Fermi die tenminste nog presteerde ondanks alles wat daar mis ging. Dan kan je nog veel verder terug gaan graven naar zoiets als de FX 5800 Ultra wat een redelijke vergelijking zou zijn met de problemen die AMD gaat krijgen als Vega FE vergelijkbaar is. De FX 5800 Ultra draaide Nvidia bijna de nek om...

Verder ben ik bij lange na niet de enige die twijfels plaatst bij de huidige resultaten. Lijkt me ook niet vreemd aangezien er nu sprake lijkt te zijn van een vermindering van IPC, de GPU in een fallback modus lijkt te draaien, en de meeste features uit lijken te staan. Geen van deze dingen wijst op optimale prestaties...
Dat is niet goed omdat Nvidia ook niet stil zit en we niet willen dat Vega dadelijk uiteindelijk een keer uitkomt en Nvidia weer countert met een nieuw model welke weer véél sneller zijn. Loopt AMD weer achter de feiten aan en is er niks gewonnen.

Los daarvan moet je echt loslaten dat de prestaties dadelijk wonderbaarlijk ineens 50% beter gaan zijn, dat is gewoon niet zo. Al zou de frontier edition op de Windows Basic Display Adapter draaien zou het verschil met uiteindelijke drivers nog kleiner zijn dan dat.

Als iemand je dat verteld steek je je hoofd weer in het zand en begin je te roepen dat we geen conclusies moeten trekken maar zelf trek je conclusie na aanname over dat er nog van alles kan gebeuren met de prestaties. Dat is misschien zo maar nu hebben we de frontier edition en dat is altijd nog dichterbij (en dus representatiever voor) de Vega dan alle speculaties van (fan)boys hier. Je kan daar prima een conclusie uittrekken en inderdaad, het kan zijn dat dat over een maand met een paar procent verschilt maar echt geen bergen.

Inventaris - Koop mijn meuk!


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

DaniëlWW2 schreef op woensdag 5 juli 2017 @ 15:44:
En hoe precies zou €600 voor een speculatieve Ti tegenhanger niet geweldig zijn? Paar onder euro onder de prijs van Nvidia. De Ti, 1080 en 1070 zouden moeten flink zakken in prijs, beter voor iedereen die een dergelijk product wil kopen.
"Beter laat dan nooit!" :+ Lijkt me een prima plan zo! :P
flessuh schreef op woensdag 5 juli 2017 @ 15:38:
Ik vraag me af wanneer de eerste Vega kaarten te pre-orderen zijn. Heb nog PC in winkelwagentje zitten die braaf wacht tot dat mogelijk is :P
Heerlijk hoe mensen het zichzelf moeilijk maken door te lang te wachten of alleen een bepaald merk willen hebben _O-

[ Voor 31% gewijzigd door nero355 op 05-07-2017 15:52 ]

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Reksho
  • Registratie: Maart 2009
  • Laatst online: 05-09 00:10
nero355 schreef op woensdag 5 juli 2017 @ 15:51:
Heerlijk hoe mensen het zichzelf moeilijk maken door te lang te wachten of alleen een bepaald merk willen hebben _O-
Moest Nvidia Freesync ondersteunen, was ikzelf zo overgestapt :P

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
offtopic:
Is er ook ergens een klagen-over-leveranciers-die-pas-leveren-als-ze-jouw-product-kunnen-inkopen-tegen-een-voor-hen-acceptabele-inkoopsprijs-topic? Beetje slappe hap van amazon..

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • +1 Henk 'm!

Verwijderd

Rezk schreef op woensdag 5 juli 2017 @ 16:01:
[...]


Moest Nvidia Freesync ondersteunen, was ikzelf zo overgestapt :P
Gelukkig voor AMD is Nvidia te koppig en/of trotst om dat in te zien. :)
nero355 schreef op woensdag 5 juli 2017 @ 15:51:
Heerlijk hoe mensen het zichzelf moeilijk maken door te lang te wachten of alleen een bepaald merk willen hebben _O-
Wil jij alsjeblieft niet zo jezelf projecteren op anderen? Jij had er moeite mee om te wachten, dat wil niet zeggen dat andere mensen dat moeilijk vinden.

[ Voor 42% gewijzigd door Verwijderd op 05-07-2017 17:03 ]


Acties:
  • 0 Henk 'm!
Verwijderd schreef op woensdag 5 juli 2017 @ 17:01:
[...]
Gelukkig voor AMD is Nvidia te koppig en/of trotst om dat in te zien. :)
Want een paar willekeurige forumgangers kunnen beter bepalen wat goed is voor de cijfers dan de analysten van het bedrijf zelf...

Afbeeldingslocatie: https://i.imgur.com/SGSDsvj.png

Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op woensdag 5 juli 2017 @ 17:17:
[...]

Want een paar willekeurige forumgangers kunnen beter bepalen wat goed is voor de cijfers dan de analysten van het bedrijf zelf...

[afbeelding]
Dat wil zeggen dat de verkoopcijfers niet nog beter zouden zijn als ze wel FreeSync zouden ondersteunen? :?
Meer support is beter, het maakt de kaarten enkel aantrekkelijker. Dat de omzet flink is gestegen is nogal wiedes aangezien ze een jaar lang een monopolie hebben gehad op high midend en hoger.

[ Voor 18% gewijzigd door Verwijderd op 05-07-2017 17:25 ]


Acties:
  • 0 Henk 'm!
Verwijderd schreef op woensdag 5 juli 2017 @ 17:24:
[...]

Dat wil zeggen dat de verkoopcijfers niet nog beter zouden zijn als ze wel FreeSync zouden ondersteunen? :?
Schijnbaar zou het negatieve gevolgen hebben voor het totaalplaatje. Anders hadden ze het wel gedaan. Iets met licentiekosten, marktaandeel enz.
te koppig en/of trotst
Dat je überhaupt durft te stellen dat een miljarden bedrijf op basis van deze eigenschappen een strategie gaat bepalen en je jezelf daarin serieus neemt...

[ Voor 8% gewijzigd door Paprika op 05-07-2017 17:28 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op woensdag 5 juli 2017 @ 17:25:
Dat je stelt dat een miljarden bedrijf op basis van deze eigenschappen een strategie gaat bepalen
Verklaar jij maar eens waarom het goed zou zijn voor Nvidia om MINDER functionaliteit te bieden. Omdat ze een paar extra G-Sync modules verkopen?

[ Voor 7% gewijzigd door Verwijderd op 05-07-2017 17:30 ]


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
Verwijderd schreef op woensdag 5 juli 2017 @ 17:30:
[...]

Verklaar jij maar eens waarom het goed zou zijn voor Nvidia om MINDER functionaliteit te bieden. Omdat ze een paar extra G-Sync modules verkopen?
Dan staat er AMD freesync op de doos en zien mensen dat er nog een GPU producent bestaat, willen ze niet. :p

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Paprika schreef op woensdag 5 juli 2017 @ 17:17:
[...]

Want een paar willekeurige forumgangers kunnen beter bepalen wat goed is voor de cijfers dan de analysten van het bedrijf zelf...

[afbeelding]
Ja, daar komt het dipje in de koers ook vandaan. Weet je toch. :+
Alle gekheid op een stokje. Het zou leuk zijn als Nvidia ook gewoon Freesync zou ondersteunen maar ze zijn overduidelijk vrij in om het niet te doen. Ze komen er overduidelijk mee weg dus waarom zouden ze? De meeste mensen zullen toch nog een 1080p/60hz scherm hebben, en dat zal niet snel veranderen denk ik dus echt de standaard pushen is zinloos voor Nvidia. Liever marge pakken in combinatie met een Ti en een Gsync scherm. Freesync kan altijd nog. AMD moet wel omdat ze door jaren aan wanbeleid en de gevolgen hiervan nu de uitdager op de GPU markt zijn, en niet meer een van de twee grote spelers, en ze iets bijzonders moeten bieden. :)

En bij gebrek aan leverbare AMD GPU's, of mystieke producten die ooit eens uitgebracht worden en dan hopelijk presteren blijft er weinig anders over dan Freesync. :Y)

edit:
Paprika schreef op woensdag 5 juli 2017 @ 17:40:
[...]

Hoezo bieden ze minder functionaliteit? AMD ondersteunt toch ook geen G-SYNC? Beide standaarden trachten hetzelfde te bereiken. Het enige verschil is dat AMD een open standaard volgt, terwijl Nvidia een vendor-lockin oplossing heeft gekozen.

Vendor-lockin klinkt in mijn oren als een verwachtte keuze als je een groot percentage van de markt bezit. Zeker als je de markt beperkt tot de audience van G-SYNC, namelijk gamers. In de gamers wereld staat Nvidia er immers erg sterk voor. De low-end heeft Nvidia al lang losgelaten (zo is hun goedkoopste variant nu de GTX 1050) dus die markt is niet eens meer interessant. Dan kun je al (bijna) iedere thuis-office en work-office computer al overslaan. Die markt wordt immers goed bediend door AMD en Intel vanuit een iGPU perspectief. Dat zorgt ervoor dat je audience (voor de GeForce producten) eigenlijk in z'n geheel beperkt is tot gamers (al wordt CUDA nog wel breder ingezet, denk aan 3D bewerking, maar die willen helemaal geen variabele refreshrate). Die markt lijkt relatief nog best open te staan voor het kopen van een G-SYNC monitor en als ze dat nou eenmaal hebben gedaan dan is de kans groot dat hun volgende monitor weer een Nvidia kaart wordt, immers wil je toch je variabele refreshrates behouden. Ah kijk, precies de reden waarom sommigen nu geen Nvidia kaart kopen, immers zitten ze nu vendor-locked aan AMD... maar dat geldt dus ook de andere kant op.
Dat ook. :)

[ Voor 39% gewijzigd door DaniëlWW2 op 05-07-2017 18:16 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!
Verwijderd schreef op woensdag 5 juli 2017 @ 17:30:
[...]
Verklaar jij maar eens waarom het goed zou zijn voor Nvidia om MINDER functionaliteit te bieden. Omdat ze een paar extra G-Sync modules verkopen?
Hoezo bieden ze minder functionaliteit? AMD ondersteunt toch ook geen G-SYNC? Beide standaarden trachten hetzelfde te bereiken. Het enige verschil is dat AMD een open standaard volgt, terwijl Nvidia een vendor-lockin oplossing heeft gekozen.

Vendor-lockin klinkt in mijn oren als een verwachtte keuze als je een groot percentage van de markt bezit. Zeker als je de markt beperkt tot de audience van G-SYNC, namelijk gamers. In de gamers wereld staat Nvidia er immers erg sterk voor. De low-end heeft Nvidia al lang losgelaten (zo is hun goedkoopste variant nu de GTX 1050) dus die markt is niet eens meer interessant. Dan kun je al (bijna) iedere thuis-office en work-office computer al overslaan. Die markt wordt immers goed bediend door AMD en Intel vanuit een iGPU perspectief. Dat zorgt ervoor dat je audience (voor de GeForce producten) eigenlijk in z'n geheel beperkt is tot gamers (al wordt CUDA nog wel breder ingezet, denk aan 3D bewerking, maar die willen helemaal geen variabele refreshrate). Die markt lijkt relatief nog best open te staan voor het kopen van een G-SYNC monitor en als ze dat nou eenmaal hebben gedaan dan is de kans groot dat hun volgende monitor weer een Nvidia kaart wordt, immers wil je toch je variabele refreshrates behouden. Ah kijk, precies de reden waarom sommigen nu geen Nvidia kaart kopen, immers zitten ze nu vendor-locked aan AMD... maar dat geldt dus ook de andere kant op.

Van mij hoef je geen Nvidia kaart of G-SYNC monitor te kopen. Ik bezit geen aandelen (had het geen slechte keuze gevonden deze te kopen in 2016, zowel AMD als Nvidia overigens), maar jouw stelling is een behoorlijk rood gekleurde verklaring die gedreven is door emotie en weinig te maken heeft met de realiteit. Je bent geen fan van Nvidia producten en wacht graag op een AMD product. Prima, het is immers ook jouw geld...

Welke monitoren staan bovenaan in de pricewatch (meest bekeken)? Monitoren met zowel geen FreeSync als geen G-SYNC :+.

[ Voor 27% gewijzigd door Paprika op 05-07-2017 17:54 ]


Acties:
  • +1 Henk 'm!
Nature schreef op woensdag 5 juli 2017 @ 17:37:
[...]


Dan staat er AMD freesync op de doos en zien mensen dat er nog een GPU producent bestaat, willen ze niet. :p
Nee, want ze zouden er dan gewoon "NEW! Supports VESA Adaptive Sync!" op plakken :+

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:43
Hdmi 2.1 heeft vrr en hdr in de spec schijnt, maar dat duurt nog even.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Verwijderd schreef op woensdag 5 juli 2017 @ 17:01:
Wil jij alsjeblieft niet zo jezelf projecteren op anderen? Jij had er moeite mee om te wachten, dat wil niet zeggen dat andere mensen dat moeilijk vinden.
Iets met een pot en een ketel geloof ik... :P

Maar ehh... die kaart gaat net zo snel weg als VEGA interessant blijkt te zijn. Maak je daar maar geen zorgen over!
Ik wil namelijk zo relax mogelijk gamen en welk merk mij die kaart levert boeit me niet zo heel erg, maar wil dat wel NU kunnen en zonder allerlei irritante performance drops. Dat is de enige reden dat ik ineens een groene i.p.v. een rode kaart had.Met een niet zo handige Eyefinity tegenhanger wat betreft de software...
Hoewel... ook een beetje dankzij de miners ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +2 Henk 'm!

Verwijderd


Het bekijken waard, vooral vanaf rond de 17de minuut.
Gaming/3DMark.-prestaties ongeveer gelijk voor FuryX en Vega op dezelfde klokfrequentie, andere prestaties fors hoger. Voorzichtige conclusie: Vega-FE is duidelijk getuned voor niet-gaming applicaties.

[ Voor 49% gewijzigd door Verwijderd op 05-07-2017 18:39 ]


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 13:27

flessuh

Set sail for fail!

Rezk schreef op woensdag 5 juli 2017 @ 16:01:
[...]


Moest Nvidia Freesync ondersteunen, was ikzelf zo overgestapt :P
Dit inderdaad :+ Dan was die PC er al geweest met een 1080 er in.
Gelukkig kan ik nu straks direct een Freesync 2 monitor er nog bij pakken. Plus Ryzen lekker future-proof gok ik

Mijn laatste Nvidia kaart was een GTX280 die zichzelf opstookte door een driver-fout van Nvidia :(

[ Voor 30% gewijzigd door flessuh op 05-07-2017 18:43 ]

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Paprika schreef op woensdag 5 juli 2017 @ 17:40:
[...]

Hoezo bieden ze minder functionaliteit? AMD ondersteunt toch ook geen G-SYNC? Beide standaarden trachten hetzelfde te bereiken. Het enige verschil is dat AMD een open standaard volgt, terwijl Nvidia een vendor-lockin oplossing heeft gekozen.
Bespaar je zelf de moeite, dit heeft niks met argumenten te maken maar met afkeer tegen Nvidia, het is als geloof, je kan er niet van winnen met argumenten, redelijkheid en feiten.
Nvidia heeft simpelweg een betere bedrijfsstrategie gekozen dan AMD, nvidia heeft een aantal keer achter gelopen op AMD(ati dan), Nvidia loopt nu bijna twee generaties voor op nV.

AMD is open source simpelweg omdat ze niet anders kunnen, als jij zo'n klein markt aandeel hebt, heb je weinig in te brengen. Zoals je zelf aangeeft: AMD ondersteunt geen G-sync of SLI, nee AMD toentertijd was nog bezig markt baasje te worden en heeft toen SLI verworpen en gekozen voor crossfirex..
Je weet wel die SLI die ze gekocht hadden met de aankoop van 3dfx..
(krekels....tumbleweed)
Hoor je niks over, alleen hoe goed AMD is als open source en hoe slecht nV is die niet mee werkt met AMD, hoe nV bedrijven opkoopt op de die kapot te maken en de tech vast te houden. Bedrijf gonna bedrijf, care, move on. :+
Zie het fimpje: poor vega, pagina 16. my kind of guy (ik hou wel van feiten en doordachte argumenten).

[ Voor 3% gewijzigd door D0gtag op 05-07-2017 19:06 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 11-09 10:26
D0gtag schreef op woensdag 5 juli 2017 @ 19:03:
[...]

Bespaar je zelf de moeite, dit heeft niks met argumenten te maken maar met afkeer tegen Nvidia, het is als geloof, je kan er niet van winnen met argumenten, redelijkheid en feiten.
Nvidia heeft simpelweg een betere bedrijfsstrategie gekozen dan AMD, nvidia heeft een aantal keer achter gelopen op AMD(ati dan), Nvidia loopt nu bijna twee generaties voor op nV.

AMD is open source simpelweg omdat ze niet anders kunnen, als jij zo'n klein markt aandeel hebt, heb je weinig in te brengen. Zoals je zelf aangeeft: AMD ondersteunt geen G-sync of SLI, nee AMD toentertijd was nog bezig markt baasje te worden en heeft toen SLI verworpen en gekozen voor crossfirex..
Je weet wel die SLI die ze gekocht hadden met de aankoop van 3dfx..
(krekels....tumbleweed)
Hoor je niks over, alleen hoe goed AMD is als open source en hoe slecht nV is die niet mee werkt met AMD, hoe nV bedrijven opkoopt op de die kapot te maken en de tech vast te houden. Bedrijf gonna bedrijf, care, move on. :+
Zie het fimpje: poor vega, pagina 16. my kind of guy (ik hou wel van feiten en doordachte argumenten).
Grappig die laatste regel, adored werd altijd beschouwd als t1 amd fanboy :)

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
aminam schreef op woensdag 5 juli 2017 @ 19:25:
[...]


Grappig die laatste regel, adored werd altijd beschouwd als t1 amd fanboy :)
Ik vind het niet erg als je ergens voor of tegen bent, maar kom wel met goede argumenten.
En dat doet hij gewoon ook. Je mening veranderen is iets gezonds.

Fimpje gezien van gamers nexus, vanaf 17:00 komt hij met CAD software perf. en 19:00 zijn conclusie.
CAD software performance is redelijk makkelijk te verklaren: Zie 1080 vs p5000.
1080 snx score =8.04 p5000 = 198.58
De drivers zijn geoptimaliseerd voor CAD applicaties dat was inmiddels al duidelijk, drivers fury X zijn game optimized.
Maar een p6000 vs titan X (pascal) is de quadro p6000 sneller _/-\o_
Over drivers 20:10,
Be vary careful about how much you're expecting.
Be careful what you are expecting.
Natuurlijk komen er driver updates voor vega die prestaties verbeteren, maar geen 20%+.

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13:37
Ik krijg steeds meer het vermoeden dat ze gewoon zitten te sandbaggen. Als de RX uitkomt is er ook een betere, lees echte, game driver voor de FE en dan krijg je een totaal ander plaatje. Een beetje poker spelen. De watjes gaan over naar het groene kamp en de echte kerels blijven over.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +1 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
winwiz schreef op woensdag 5 juli 2017 @ 19:47:
Ik krijg steeds meer het vermoeden dat ze gewoon zitten te sandbaggen. Als de RX uitkomt is er ook een betere, lees echte, game driver voor de FE en dan krijg je een totaal ander plaatje. Een beetje poker spelen. De watjes gaan over naar het groene kamp en de echte kerels blijven over.
Echte kerels hebben een vriendin en kiezen geen kamp.

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-09 07:14

SG

SG surft naar info hardewaren

AMD is CPU en GPU.
Markt CPU>>GPU.
CPU liep vele jaren achter , met vele jaren verlies.
ATI zou grotere weestand bieden , maar onder AMD zal er kwa omzet winst R&D onderling geschoven zijn.
Nu AMD betere periodes tegemoet gaat kan er in 2018 ook de GPU tak mee.

Je kan zo zien AMD ramp jaren 32nm heeft de GPU tak mogelijk ook deels bedrijf drijvende gehouden.
En daarmee ook onderuit gehaald.
Het is niet nV die AMD markt aandeel heeft genomen. Het is de AMD CPU tak die mogelijk te zware last is geweest.

Verbaast mij dus niet dat AMD kwa GPU even de handoek in de ring gooid. Maar die periode is mogelijk voorbij met Vega RX.
En ik kan wachten en wil ook wachten en doe er toch zeker 2 maanden bij.

Als terug herleid waar de schuld is kom je bij de foundry die AMD te lang aan 32nm gehouden heeft.
Waar inderect GPU gebeuren last van heeft.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 11-09 10:26
winwiz schreef op woensdag 5 juli 2017 @ 19:47:
Ik krijg steeds meer het vermoeden dat ze gewoon zitten te sandbaggen. Als de RX uitkomt is er ook een betere, lees echte, game driver voor de FE en dan krijg je een totaal ander plaatje. Een beetje poker spelen. De watjes gaan over naar het groene kamp en de echte kerels blijven over.
Niet de meest overtuigende bedrijfsstrategie ooit, aan de andere kant heeft amd deze versie van vega nooit in schijnwerpers gezet dus het kan inderdaad wel. Maar ik hoop toch dat de rx vega wel een stuk betere prestaties neerzet anders had de release nooit zo lang mogen duren en zou het weer betekenen dat nvidia king of the hill blijft. Nvidia kaarten gamen prima, heb de laatste 3 weken 2 gtx 980's gekocht puur omdat er toch geen amd kaarten beschikbaar zijn. Maar ik wil iedereen graag weer legit amd kunnen aansmeren puur omdat ik nvidia's bedrijfsstrategie niet aangenaam vindt :)

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13:37
Ik heb mijn upgrade toch voor na de vakantie gepland. De 480 is een placeholder. Ik heb er wel vertrouwen in en als het echt super tegenvalt..... het zou mijn eerste niet AMD kaart in heeeeel veel jaren of de prijs moet gigantisch meevallen dan.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

Verwijderd

D0gtag schreef op woensdag 5 juli 2017 @ 19:48:
[...]

Echte kerels hebben een vriendin en kiezen geen kamp.
Dat is nogal een bekrompen gedachtegang

Ontopic:

Ik verwacht dat "fine wine" echt van toepassing gaat zijn voor Vega. AMD grapte er ook al mee.
dus wellicht tussen de 1080 en 1080ti op "launch day" en het de maanden na launch continu verbeteringen ?

Mocht dat zo zijn dan wordt het zowel voor klanten en voor Nvidia lastig om de waarde in te schatten van Vega.

[ Voor 43% gewijzigd door Verwijderd op 05-07-2017 20:07 ]


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Verwijderd schreef op woensdag 5 juli 2017 @ 20:02:
[...]


Dat is nogal een bekrompen gedachtegang
Krijg je al snel in dit draadje >:)

Ik ga me leven beteren en gewoon weer ontopic reageren O-)

[ Voor 13% gewijzigd door D0gtag op 05-07-2017 20:04 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
Qua gaming zit het AMD niet zo mee nu AMD wilt RX 580 met R9 390x-ish perf voor €250 verkopen maar met de mining is het nu evengoed meer dan €350 R9 390x prij niveau. Ik heb mijn GTX 1070 weggedaan en een R9 290 met freesync monitor gekocht maar ik knijp hem nu wel een beetje want ik rekende wel op een mooie Vega kaart (doe ik nog steeds).
Ik ben tevreden met tussen1070 en 1080 niveau voor €400 er zouden toch meerdere RX Vega kaarten komen?

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Je zou bijna gaan denken dat Vega FE workstation drivers heeft, en geen game drivers. :+

Oke, een deel zal verklaard kunnen worden door hoge Vram vereisten van dergelijke, zeer intensieve programma's, maar kom op zeg. De verschillen zijn enorm tussen een Fury X met gaming drivers, en een Vega FE met whatever die op draait.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • BNieuwenhuizen
  • Registratie: Februari 2011
  • Laatst online: 21-03-2023
[b]Toettoetdaan schreef op woensdag 5 juli 2017 @ 09:45:
Het enige wat er voor zorgt dat ik als een mogelijkheid zie is dat er in de Linux drivers een functie zit met een gerelateerde comment:
code:
1
2
3
4
5
6
7
8
9
10
    if (adev->firmware.load_type != AMDGPU_FW_LOAD_PSP) {
        /* legacy firmware loading */
        r = gfx_v9_0_cp_gfx_load_microcode(adev);
        if (r)
            return r;

        r = gfx_v9_0_cp_compute_load_microcode(adev);
        if (r)
            return r;
    }

Maar volgens mij is dit een fallback voor als de firmware niet gecertificeert is.
code:
1
2
MODULE_PARM_DESC(fw_load_type, "firmware loading type (0 = direct, 1 = SMU, 2 = PSP, -1 = auto)");
module_param_named(fw_load_type, amdgpu_fw_load_type, int, 0444);


Als je verder de PSP code leest lijkt het er op dat ze nu de PSP de rest van de firmware laten laden, in plaats van de de driver het direct met een memcpy doet (wat de legacy manier is zoals op de oudere generaties).

Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
Toettoetdaan schreef op woensdag 5 juli 2017 @ 10:37:
Maar maar maar... 25 dagen!!!

EDIT: Leuk, Vega RX? @1630MHz / 8GB: http://www.3dmark.com/3dm11/12256169
EDIT: Uitleg van videocardz: https://videocardz.com/70...vega-3dmark11-performance
Ik wacht nog gewoon even op de benchmarks. In 3 maanden 15% performance, dus wie weet wat er nog in de trukendoos van Raja zit. Sowieso is dit een synthetic benchmark en ik speel games, geen benchmarks. Bij Ryzen riepen de cynici onder ons ook voortdurend dat het "maar Cinenbench" was, dus ik ga dat nu ook even doen.

Van de andere kant temper ik mijn verwachtingen. Ik zit nu na te denken of ik voor een 1080 ga met gewoon een hoog refresh scherm, of dat FreeSync het waard is, maar dan zo'n Vega die 300W aan hete lucht in mijn PC blaast voor magere performance. Als AMD de prijs interessant maakt, wil ik het wel overwegen, maar dan moet het toch echt 1070 prijs voor 1080 performance zijn en geen cent meer. Over de kosten van de GPU voor AMD maak ik me minder zorgen, aangezien met Ryzen ook het verhaal maar bleef dat ze nooit een 8 kern CPU zouden kunnen maken voor minder dan $800.

Kan ook gewoon wachten op Volta, maar ik verwacht dat NVidia weer een geweldige GPU neerzet en dat die krengen maanden uitverkocht zijn.

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 13:27

flessuh

Set sail for fail!

Och, ik zit nu met een 280x, en een scherm van 1680x1050. Mijn upgrade idee was naar 1440p en Vega. Ook al komt Vega met een iets betere performance dan de FE zit ik alsnog wel goed. Dan is het alleen wat sneller upgraden later :P

Volgens mij heeft Raja trouwens juist gezegd dat ze van het FineWine af wilden, dus ik ben heel erg benieuwd naar de eerste benches.. en vooral wat de patch notes worden voor de eerste drivers

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
D0gtag schreef op woensdag 5 juli 2017 @ 20:03:
[...]

Krijg je al snel in dit draadje >:)

Ik ga me leven beteren en gewoon weer ontopic reageren O-)
De ondertoon in je laatste paar reacties vind ik persoonlijk op het randje, zelfs als je vind dat mensen oogkleppen op hebben, dan mag je ze prima proberen te overtuigen van jouw visie, maar dat moet wel met respect gaan, nu lijkt je mensen op een minachtende manier weg te zetten.

Sowieso zou iedereen, ongeacht zijn/haar voorkeur moeten hopen dat AMD presteert, concurentie is uiteindelijk goed voor ons allemaal :)
MrCharming schreef op woensdag 5 juli 2017 @ 21:02:
[...]
Kan ook gewoon wachten op Volta, maar ik verwacht dat NVidia weer een geweldige GPU neerzet en dat die krengen maanden uitverkocht zijn.
Het eerste geruchten over Volta voor games is dat die er niet komt. Nvidia lijkt weer terug te gaan naar hun oude strategie van twee productlijnen en Volta is dus niet gemaakt voor games. In plaats daarvan zullen ze Pascall optimaliseeren en overzetten op 12nm: http://www.fudzilla.com/n...force-will-be-incremental
Kan net zo goed een stap worden die vergelijkbaar is met Maxwell -> Pascall, maar Pasall is al erg goed en het 16nm procede waar het op zit ook, dus het is nog even afwachten hoeveel ze verbeteren met deze stap.

Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
Naja, whatever de 2xxx serie gaat zijn, dat ding, hoe het ook gaan heten.

Acties:
  • 0 Henk 'm!
haarbal schreef op woensdag 5 juli 2017 @ 17:53:
Hdmi 2.1 heeft vrr en hdr in de spec schijnt, maar dat duurt nog even.
Voor HDMI standaarden zijn ze uitzonderlijk snel deze keer. En wat nog veel enger is, het ziet er naar uit dat voor het eerst HDMI daadwerkelijk voor gaat lopen op DP. Neemt niet weg dat we op z'n vroegst over een jaar producten met HDMI 2.1 op de markt zullen zien verschijnen, als ze al zo snel verschijnen.

Er van uitgaande dat de mafia erachter de spec eindelijk vrij geeft, wat eigenlijk gepland stond voor vorige maand.
D0gtag schreef op woensdag 5 juli 2017 @ 19:03:
AMD is open source simpelweg omdat ze niet anders kunnen, als jij zo'n klein markt aandeel hebt, heb je weinig in te brengen.
Echter deed ATI dit ook toen ze marktleider waren. Zelfs in het 2D tijdperk al.

Het heeft weinig met marktaandeel te maken, het is gewoon altijd al onderdeel van hun visie geweest en met de overname door AMD is dat niet veranderd.
Zoals je zelf aangeeft: AMD ondersteunt geen G-sync of SLI, nee AMD toentertijd was nog bezig markt baasje te worden en heeft toen SLI verworpen en gekozen voor crossfirex..
Je weet wel die SLI die ze gekocht hadden met de aankoop van 3dfx..
...wat?

#1: ik hoop dat je verwoording hier gewoon slecht is en dat je bedoelt dat Nvidia de SLI van 3DFX verworpen heeft, aangezien zij 3DFX (inclusief SLI) hebben opgekocht en niet ATI

#2: 3DFX SLI (Scan-Line Interleave) en Nvidia SLI (Scalable Link Interface) zijn twee radicaal verschillende technologiën. 3DFX renderde scanlines om en om. Nvidia heeft dat nooit gedaan met hun SLI. SLI is vanaf het begin SFR en AFR geweest. Ze hebben nooit en te nimmer iets gedaan met 3DFX' SLI. De brug tussen kaarten bij 3DFX werd ook gebruikt voor synchronisatie, dat werd bij Nvidia vanaf dag 1 via de PCI-e bus gedaan. De bridge zijn er alleen om het uiteindelijke frame "door te lussen" zodat je niet achter op de PC nog een kabeltje hebt lopen. Meer niet.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 12-09 01:17

edward2

Schieten op de beesten

Verwijderd schreef op woensdag 5 juli 2017 @ 18:37:
[video]
Het bekijken waard, vooral vanaf rond de 17de minuut.
Gaming/3DMark.-prestaties ongeveer gelijk voor FuryX en Vega op dezelfde klokfrequentie, andere prestaties fors hoger. Voorzichtige conclusie: Vega-FE is duidelijk getuned voor niet-gaming applicaties.
Soms schaalt de perf. totaal niet (linear) met de kloksnelheid. Verre van optimaal kwa drivers dus. Dit biedt hoop.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 12-09 01:17

edward2

Schieten op de beesten

D0gtag schreef op woensdag 5 juli 2017 @ 19:46:
[...]


Natuurlijk komen er driver updates voor vega die prestaties verbeteren, maar geen 20%+.
Hoewel ik ook niet de wijsheid in pacht heb, is 20% winst uit drivers in dit stadium niks. Bovendien zo'n situatie (workstation vs game GPU) als nu hebben we nog nooit gehad (bij AMD). Maar het blijft voor mij ook gissen, maar uitgaande van minimaal dezelfde IPC als Fiji, en een kloksnelheid die 50-60% hoger ligt, de primitive shader, matched de huidige game perf. van de FE niet met de op die basis te verwachte RX perf. Natuurlijk kan er een andere bottleneck zijn, who knows, maar wat ik tot nu tu zie, is een tegenstrijdig perf. karakter (niet schalen met frequentie bv.)

Niet op voorraad.


Acties:
  • +1 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Werelds schreef op woensdag 5 juli 2017 @ 21:22:
[...]

Voor HDMI standaarden zijn ze uitzonderlijk snel deze keer. En wat nog veel enger is, het ziet er naar uit dat voor het eerst HDMI daadwerkelijk voor gaat lopen op DP. Neemt niet weg dat we op z'n vroegst over een jaar producten met HDMI 2.1 op de markt zullen zien verschijnen, als ze al zo snel verschijnen.

Er van uitgaande dat de mafia erachter de spec eindelijk vrij geeft, wat eigenlijk gepland stond voor vorige maand.


[...]

Echter deed ATI dit ook toen ze marktleider waren. Zelfs in het 2D tijdperk al.

Het heeft weinig met marktaandeel te maken, het is gewoon altijd al onderdeel van hun visie geweest en met de overname door AMD is dat niet veranderd.


[...]

...wat?

#1: ik hoop dat je verwoording hier gewoon slecht is en dat je bedoelt dat Nvidia de SLI van 3DFX verworpen heeft, aangezien zij 3DFX (inclusief SLI) hebben opgekocht en niet ATI

#2: 3DFX SLI (Scan-Line Interleave) en Nvidia SLI (Scalable Link Interface) zijn twee radicaal verschillende technologiën. 3DFX renderde scanlines om en om. Nvidia heeft dat nooit gedaan met hun SLI. SLI is vanaf het begin SFR en AFR geweest. Ze hebben nooit en te nimmer iets gedaan met 3DFX' SLI. De brug tussen kaarten bij 3DFX werd ook gebruikt voor synchronisatie, dat werd bij Nvidia vanaf dag 1 via de PCI-e bus gedaan. De bridge zijn er alleen om het uiteindelijke frame "door te lussen" zodat je niet achter op de PC nog een kabeltje hebt lopen. Meer niet.
Ik vond AMD en ATi ook goed bij elkaar passen, ook al was het logo van AMD vroeger groen :P
Maar AMD is nooit lang marktleider geweest.
2004/2005 hoger dan Nvidia, (intel tel ik niet mee want dat is overduidelijk de igp's en crappy intel gpu's die samen met je centrino kwam)
2010/12 Alle andere jaren was Nvidia de marktleider.
Dus ati was eigenlijk altijd wel de underdog en dat was/is AMD nog steeds.
Ryzen is een uitstekend product en mijn volgende systeem, maar:
I fear all we have done is to awaken a sleeping giant and fill him with a terrible resolve.
Isoroku Yamamoto (heeft hij nooit gezegd, maar was wel een mooie film quote)
Ik denk dat je wel snapt wie die slapende reus is :)


1 Ja Nvidia natuurlijk, ik had het anders moeten verwoorden. :)
2 Nvidia kocht 3dfx die Scan line had uitgebracht voor voodoo2 (98 of 99), de interface zelf hebben ze niks mee gedaan maar uit dat idee is Scalable Link Interface ontstaan, ik weet niet exact hoe de naam SLI tot stand gekomen is maar ik denk dat het expres gedaan is als Scan line interface reference/homage (misschien om een heel andere reden). Dit was begin 2004 dat SLI op de markt kwam, ze hebben natuurlijk niet de zelfde techniek gebruikt, wel het idee en toegepast op de toen hightech pci express. _/-\o_
Toettoetdaan schreef op woensdag 5 juli 2017 @ 21:19:
[...]

De ondertoon in je laatste paar reacties vind ik persoonlijk op het randje, zelfs als je vind dat mensen oogkleppen op hebben, dan mag je ze prima proberen te overtuigen van jouw visie, maar dat moet wel met respect gaan, nu lijkt je mensen op een minachtende manier weg te zetten.

Sowieso zou iedereen, ongeacht zijn/haar voorkeur moeten hopen dat AMD presteert, concurentie is uiteindelijk goed voor ons allemaal :)
.
Ja het is wel op het randje, dat geef ik toe :P Ik zal me zelf proberen niet meer te verlagen. Hoe dan ook ik kan het niet serieus nemen dat iemand denkt dat een beursgenoteerd bedrijf als AMD die al jaren actief is als underdog het kan permitteren om bepaalde klanten niet te winnen. En dit gebrek aan nieuws als een soort van marketing proberen te gebruiken om 'mensen naar team groen te verleiden' om 'echte mannen' te houden die hun product kopen. Volgens mij gaat AMD alles op alles zetten om iedereen die in de markt is voor een gpu binnen te halen, door of een lage prijs of een hoge performance of beiden. Maar stilte is meestal geen goed teken. Als vega een dijk van een kaart was had je allaaaaaaaaang iets gehoord of gezien. (zie ryzen hiervoor en threadripper nu, de een na andere engineering sample die getest word door media. threadripper en epyc zijn ook gewoon beesten, dat was al snel duidelijk.
Enige wat je steeds hoort is uitstel uitstel en uitstel. Nu hebben we over een kleine maand de introductie ik ben er bang voor dat dit gewoon een papieren launch gaat worden.
Maar ... we zullen zien :)

Geloof me als ik zeg dat ik het liefst een kaart zie die gelijk als de 1080ti presteert voor een lagere prijs (met iets hoger TDP, maar die prijs :P ) Maar op dit punt ben ik er wel zeker van dat dit in ieder geval niet de1080ti evenaart en ik ben bang dat de prijs ook hoger gaat uitvallen dan de meesten hadden gehoopt.
HMB is gewoon duur en ze halen kennelijk lage yields anders was de vega allang op de markt.

Ik zat er nog wel aan te denken dat de duurste vega misschien twee cores krijgt aangezien vega de eerste GPU is die ook de infinity fabric heeft als ryzen en nvidia van plan is om het zelfde te gaan doen in de toekomst (en nvidia mogelijk uitstekende bedrijfsspionage heeft toegepast).
Maar technisch gezien is dat een dubbele gpu maar als de prijs goed is (ben alleen heel bang voor het vermogen).
Er waren als samples gezien met 8GB HMB2 dus dat zou best de vega kunnen zijn die tegen de 1070 aanhinkt. en dat de duurste kaart 2xvega heeft met elk 8GB.
De link is 12 uur oud maar is van WCCF at your own risk. Volgens hun dus:
AMD Radeon RX Vega Specs Confirmed – 1630MHz GPU Clock Speed, 8GB HBM2 @945MHz & 484GB/s Of Memory Bandwidth
Grote korrel zout:
Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2017/07/AMD-RX-Vega-GTX-1080-Ti-GTX-1080-GTX-1070-3DMark-Performance-Wccftech.jpg

Prijs voor een 1080 is 550€ dus hopelijk komt de vega onder deze prijs (komt de 1080ti ook lager in prijs :) )

[ Voor 35% gewijzigd door D0gtag op 05-07-2017 23:04 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!
Zo te zien ook hele dikke scaling problemen. Soms is 1600 Mhz amper sneller. Dus iets anders is dan duidelijk de bottelnek. Wellicht toch iets van drawcalls via de drivers?
Want nVidia scoort daar hoger.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Precies wat ik hier aangaf.
Verwijderd schreef op woensdag 5 juli 2017 @ 18:37:
[video]
Het bekijken waard, vooral vanaf rond de 17de minuut.
Gaming/3DMark.-prestaties ongeveer gelijk voor FuryX en Vega op dezelfde klokfrequentie, andere prestaties fors hoger. Voorzichtige conclusie: Vega-FE is duidelijk getuned voor niet-gaming applicaties.
'
aminam schreef op woensdag 5 juli 2017 @ 19:25:
[...]


Grappig die laatste regel, adored werd altijd beschouwd als t1 amd fanboy :)
Door sommige mensen misschien maar hij is nooit - sinds dat hij video's uploadt op Youtube - een fanboy geweest van eender welk bedrijf. Wel heeft hij meer sympathie voor AMD. Hij geeft gewoon zijn kritische blik. Ik denk dat het nuchter is om te verwachten dat RX Vega voor DX11 ergens tussen de 1080 en de 1080 ti in valt. Prima, als de prijs er naar is dan maakt dat geen drol uit. Niet voor AMD en niet voor 99,9% van de gamers.
edward2 schreef op woensdag 5 juli 2017 @ 21:33:
[...]


Soms schaalt de perf. totaal niet (linear) met de kloksnelheid. Verre van optimaal kwa drivers dus. Dit biedt hoop.
Correct, dat werd vorige week direct duidelijk toen die jongen TW3 en Doom testte. Voor alle min of meer recente AMD-kaarten zie je een veel hogere FPS dan bij de equivalente Nvidia-kaarten en toch was het gat tussen de Vega-FE en de 1080 (ti) voor Doom even groot als voor TW3.
Nature schreef op woensdag 5 juli 2017 @ 20:15:
Ik ben tevreden met tussen1070 en 1080 niveau voor €400 er zouden toch meerdere RX Vega kaarten komen?
Of tussen 1080 en 1080 ti voor €450-500?

[ Voor 50% gewijzigd door Verwijderd op 06-07-2017 00:11 ]


Acties:
  • 0 Henk 'm!
D0gtag schreef op woensdag 5 juli 2017 @ 22:33:
[...]


Ik vond AMD en ATi ook goed bij elkaar passen, ook al was het logo van AMD vroeger groen :P
Maar AMD is nooit lang marktleider geweest.
2004/2005 hoger dan Nvidia, (intel tel ik niet mee want dat is overduidelijk de igp's en crappy intel gpu's die samen met je centrino kwam)
2010/12 Alle andere jaren was Nvidia de marktleider.
Dus ati was eigenlijk altijd wel de underdog en dat was/is AMD nog steeds.
Ik heb het over nog veel eerder ;)

In 2001/2002 zal het ook bijna 50/50 geweest zijn. Daarvoor hadden we ook nog 3DFX.

Maar zelfs voordat Nvidia überhaupt bestond werkte ATI al aan allerlei open standaarden mee. Ze hebben nooit zoals 3DFX een eigen API proberen te pushen; zelfs Mantle hebben ze niet echt gepusht. Dat was vooral om een signaal af te geven. Ze waren ook al heel vroeg bij OGL en D3D betrokken bijvoorbeeld.
1 Ja Nvidia natuurlijk, ik had het anders moeten verwoorden. :)
2 Nvidia kocht 3dfx die Scan line had uitgebracht voor voodoo2 (98 of 99), de interface zelf hebben ze niks mee gedaan maar uit dat idee is Scalable Link Interface ontstaan, ik weet niet exact hoe de naam SLI tot stand gekomen is maar ik denk dat het expres gedaan is als Scan line interface reference/homage (misschien om een heel andere reden). Dit was begin 2004 dat SLI op de markt kwam, ze hebben natuurlijk niet de zelfde techniek gebruikt, wel het idee en toegepast op de toen hightech pci express. _/-\o_
Ze hebben SLI als afkorting opnieuw gebruikt voor bekendheid, meer niet :P

Als je SLI nu en 3DFX SLI vergelijkt is er echt maar bar weinig dat overeenkomt, behalve dat het enigzins betrekking heeft op meerdere GPU's samen laten werken. Echter bestond dat mid jaren 90 al; sterker nog, 3DFX is zo begonnen, je moest een 2D accelerator (want zo noemden we dat :+) ernaast hebben.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik snap AMD echt niet meer, iemand van AMD zegt nu het volgende;
The "Fiji fallback driver" or "Fiji drivers" meme needs to stop. That's not how it works or should be described. Otherwise you should start calling Volta drivers Pascal drivers Maxwell drivers. There is obviously commonality -- that's just how software engineering needs to work for a GPU -- but calling it a Fiji driver or Fiji fallback is wrong.
Terwijl ze zelf de hele kreet fiji drivers of fallback drivers de wereld in hebben geholpen

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 13:27

flessuh

Set sail for fail!

Verwijderd schreef op donderdag 6 juli 2017 @ 08:41:
Ik snap AMD echt niet meer, iemand van AMD zegt nu het volgende;


[...]


Terwijl ze zelf de hele kreet fiji drivers of fallback drivers de wereld in hebben geholpen
Ja, dit doet weer veel stof opwaaien aangezien het ook geïnterpreteerd kan worden als "het ligt niet aan de driver, de kaart is gewoon ruk" volgens een aantal mensen :P

Volgens mij heeft Raja dat zelf bij de presentatie gezegd van de FE dat hij (toen in ieder geval) op Fiji fallback drivers draaide. Denk dat het daardoor is blijven hangen

https://www.dutchsolarboat.com


Acties:
  • +1 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Werelds schreef op donderdag 6 juli 2017 @ 00:44:
[...]

Ik heb het over nog veel eerder ;)

In 2001/2002 zal het ook bijna 50/50 geweest zijn. Daarvoor hadden we ook nog 3DFX.

Maar zelfs voordat Nvidia überhaupt bestond werkte ATI al aan allerlei open standaarden mee. Ze hebben nooit zoals 3DFX een eigen API proberen te pushen; zelfs Mantle hebben ze niet echt gepusht. Dat was vooral om een signaal af te geven. Ze waren ook al heel vroeg bij OGL en D3D betrokken bijvoorbeeld.


[...]

Ze hebben SLI als afkorting opnieuw gebruikt voor bekendheid, meer niet :P

Als je SLI nu en 3DFX SLI vergelijkt is er echt maar bar weinig dat overeenkomt, behalve dat het enigzins betrekking heeft op meerdere GPU's samen laten werken. Echter bestond dat mid jaren 90 al; sterker nog, 3DFX is zo begonnen, je moest een 2D accelerator (want zo noemden we dat :+) ernaast hebben.
Ik heb even gekeken hoever terug ati opensource was, voor de rage series (94) en radeon (2000) waren ze absoluut niet opensource aangezien ze een kaart hadden speciaal voor win 3.11, eerste artikel dat ik vind over opensource en ATI komt uit 1999 (cnn, in dit geval geen fake news)
In its quest to become "the graphics company of choice among Linux users," ATI has contracted development company Precision Insight to develop 2D and 3D open source drivers for the Rage 128. The source code is expected to be freely available in the second quarter of next year.
In die tijd was linux nog een platform waar van men dacht dat het de pc markt zou kunnen overnemen, het was dus gewoon een zakelijk besluit en opzicht een goed besluit. Maar meer dan een zakelijk besluit is het niet geweest, AMD deed dit om niks anders dan inkomsten te genereren (nu nog steeds).
nV kiest daar simpelweg niet voor, open source klinkt heel nobel maar het is en blijft een beursgenoteerd bedrijf en de oude bezitters waren ook gewoon bezig met vermogen op te bouwen.
Linux is ook heel groot geworden alleen niet op de PC.
Open/closed heeft zijn voor/nadelen dat is een andere discussie maar voor mij bied opensource helemaal geen voordelen, de keren dat ik linux gebruik kom ik sowieso niet verder dan de terminal af en toe een gui als ubuntu maar meer dan de basic drivers heb ik niet nodig.

Ik moet je zeggen dat ik bar weinig kan herinneren van de voodoo dagen, verder dan: ik had geen geld voor zo'n dure kaart, kom ik niet. Ik had net een p75 gekocht voor heel wat guldens, ik weet nog dat ik 3dstudiomax draaide en vrienden de voodoo kochten en toen dacht ik ga echt niet dat geld neerleggen voor zo'n kaart. En nu leg je 1600€ neer voor een aantal gpu's :+
Maar 3dfx is niet voor niks failliet gegaan, ze waren te duur boden goede 3d prestaties maar je kon inderdaad je eigen 2d kaart gebruiken, maar nV en Ati boden al snel alles in een chip/kaart.
De oude SLI idee was niks anders dan gedeelde werklast, de nieuwe sli doet feitelijk het zelfde alleen beiden compleet andere techniek, wat ze ook beiden deden/doen is het 'doorlussen' van data kanalen in dat opzicht is SLI een betere aanpak dan crossfire, alleen het maakt de kaarten duurder dan een crossfire variant. (kennelijk staat in het patent iets over data delen en fysieke koppeling, aangezien crossfire gewoon het zelfde is zonder de directe koppeling)

Maar we gaan over het punt heen dat AMD geen SLI ondersteunde en voor zijn eigen variant ging :)
De zelfde reden dat nV voor Gsync ging, gewoon een zakelijk besluit.

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13:37
Met dat verschil dat je voor Nv technologie vaak licentiekosten moet betalen, inderdaad gewoon zakelijk voor de eigen portemonnee
- SLI op moederborden
- Cuda = Nv only
- Gsync = Nv only

- OpenCL = open source
- Freesync = open source
- Mantle gedeeld met MS en grotendeels opgenomen in DX12

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +1 Henk 'm!
D0gtag schreef op donderdag 6 juli 2017 @ 10:38:
Ik heb even gekeken hoever terug ati opensource was, voor de rage series (94) en radeon (2000) waren ze absoluut niet opensource aangezien ze een kaart hadden speciaal voor win 3.11, eerste artikel dat ik vind over opensource en ATI komt uit 1999 (cnn, in dit geval geen fake news)
Ik had het over open standaarden, niet per se open source ;)
nV kiest daar simpelweg niet voor, open source klinkt heel nobel maar het is en blijft een beursgenoteerd bedrijf en de oude bezitters waren ook gewoon bezig met vermogen op te bouwen.
Linux is ook heel groot geworden alleen niet op de PC.
Open/closed heeft zijn voor/nadelen dat is een andere discussie maar voor mij bied opensource helemaal geen voordelen, de keren dat ik linux gebruik kom ik sowieso niet verder dan de terminal af en toe een gui als ubuntu maar meer dan de basic drivers heb ik niet nodig.
Even los van open/closed source zijn open standaarden juist wel wat je wil als consument. G-Sync is een misselijkmakend product omdat je als consument daarmee niet alleen vast zit aan Nvidia's GPU's, maar ook nog eens aan alléén hun partners qua beeldschermen én hun matige FPGA in die beeldschermen.

Dat is waar het verschil tussen Nvidia's "visie" en de rest zit. Nvidia probeert iedereen hun ecosysteem in te forceren net zoals 3DFX dat probeerde. Vooralsnog geeft dat geen problemen, maar als al je concurrenten wel gewoon dingen als DisplayPort, Adaptive Sync, OpenCL fatsoenlijk ondersteunen gaat dat op een gegeven moment toch fout. Tenzij de rest om valt natuurlijk ;)
Ik moet je zeggen dat ik bar weinig kan herinneren van de voodoo dagen, verder dan: ik had geen geld voor zo'n dure kaart, kom ik niet. Ik had net een p75 gekocht voor heel wat guldens, ik weet nog dat ik 3dstudiomax draaide en vrienden de voodoo kochten en toen dacht ik ga echt niet dat geld neerleggen voor zo'n kaart. En nu leg je 1600€ neer voor een aantal gpu's :+
offtopic:
Ik heb heel lang gespaard om samen met m'n broertje een P1 133 + 24 MB RAM + Voodoo (Mach64 had ik al) aan te schaffen. Dat was het ook wel waard, aangezien die combinatie het idioot lang heeft uitgehouden. Vrienden hadden later een P2 333 tot 450 met wel 64 MB RAM en dan een Rage of Riva er naast. En toch liepen HL en UT beter op mijn bescheiden bakje dankzij de Voodoo :+
Maar 3dfx is niet voor niks failliet gegaan, ze waren te duur boden goede 3d prestaties maar je kon inderdaad je eigen 2d kaart gebruiken, maar nV en Ati boden al snel alles in een chip/kaart.
De oude SLI idee was niks anders dan gedeelde werklast, de nieuwe sli doet feitelijk het zelfde alleen beiden compleet andere techniek, wat ze ook beiden deden/doen is het 'doorlussen' van data kanalen in dat opzicht is SLI een betere aanpak dan crossfire, alleen het maakt de kaarten duurder dan een crossfire variant. (kennelijk staat in het patent iets over data delen en fysieke koppeling, aangezien crossfire gewoon het zelfde is zonder de directe koppeling)
Nee, de verschillen gaan veel verder dan dat.

Bij 3DFX SLI:
- Geen master/slave
- Al het verkeer gaat over de "brug"
- De kaarten werken samen aan exact dezelfde payload
- De kaarten synchroniseren met elkaar om er voor te zorgen dat alle data gelijk loopt

Bij Nvidia SLI:
- Master/slave
- Al het verkeer gaat over de PCI-e bus...
- ...behalve de uiteindelijke frames, die gaan over de brug naar de display outputs van de master
- 0,0 synchronisatie, elke GPU werkt volledig onafhankelijk
- Payload kan verschillen per kaart

Zoals ik al zei, SLI en SLI zijn twee heel verschillende dingen. Nvidia heeft alleen de afkorting hergebruikt voor marketing redenen :)
Maar we gaan over het punt heen dat AMD geen SLI ondersteunde en voor zijn eigen variant ging :)
De zelfde reden dat nV voor Gsync ging, gewoon een zakelijk besluit.
AMD kon SLI helemaal niet ondersteunen? Geen van beide SLI's is een open standaard geweest, hoe kunnen ze het dan ondersteunen? Zelfde geldt voor G-Sync ;)

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
(Maar omgekeerd kan nvidia er op elk moment voor kiezen om naast GSync ook driversupport voor Free-Sync toe te voegen.)

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
foppe-jan schreef op donderdag 6 juli 2017 @ 12:10:
(Maar omgekeerd kan nvidia er op elk moment voor kiezen om naast GSync ook driversupport voor Free-Sync toe te voegen.)
Van de ene kant lijkt me dat onwaarschijnlijk. Ze hebben zoveel voordelen aan GSync enkel te ondersteunen. Je locked iemand in jouw ecosysteem, zodat die alleen maar NVIDIA kaarten gaat kopen (monitor doe je toch al gauw 5 jaar mee, dus dat is een nieuwe kaart iedere 2-3 jaar voor de echte fanaat). Daarnaast zie ik niet in waarom NVidia AMD zou helpen. Gratis "reclame" voor AMD kaarten, minder reden om NVidia kaart te kopen, etc.

Van de andere kant, misschien dat NVIDIA over een paar jaar genoeg GSync monitoren heeft verkocht. Kan me voorstellen dat bij een bepaalde marktverzadiging het geld van FreeSyncers die naar een NVidia kaart overstappen meer waard is. Onwaarschijnlijk lijkt me, maar je weet het nooit.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Oh, ik zeg niet dat het waarschijnlijk is, mijn punt is slechts dat er geen hardwarematige reden is waarom ze het niet zouden kunnen ondersteunen.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 11-09 22:09
Denk dat mensen toch geen G-sync monitor kopen als het niet echt nodig is. Overigens is het andersom ook waar natuurlijk dat iemand met een Freesync monitor niet snel een NV kaart koopt..

Acties:
  • +1 Henk 'm!
foppe-jan schreef op donderdag 6 juli 2017 @ 12:10:
(Maar omgekeerd kan nvidia er op elk moment voor kiezen om naast GSync ook driversupport voor Free-Sync Adaptive Sync toe te voegen.)
Fixed ;)
MrCharming schreef op donderdag 6 juli 2017 @ 12:21:
Van de ene kant lijkt me dat onwaarschijnlijk. Ze hebben zoveel voordelen aan GSync enkel te ondersteunen. Je locked iemand in jouw ecosysteem, zodat die alleen maar NVIDIA kaarten gaat kopen (monitor doe je toch al gauw 5 jaar mee, dus dat is een nieuwe kaart iedere 2-3 jaar voor de echte fanaat). Daarnaast zie ik niet in waarom NVidia AMD zou helpen. Gratis "reclame" voor AMD kaarten, minder reden om NVidia kaart te kopen, etc.

Van de andere kant, misschien dat NVIDIA over een paar jaar genoeg GSync monitoren heeft verkocht. Kan me voorstellen dat bij een bepaalde marktverzadiging het geld van FreeSyncers die naar een NVidia kaart overstappen meer waard is. Onwaarschijnlijk lijkt me, maar je weet het nooit.
Gezien het feit dat Adaptive Sync (vooralsnog met enkel het FreeSync label voor marketing) een grote opmars heeft gemaakt en veel makkelijker + goedkoper te krijgen is, alsmede het feit dat HDMI 2.1 VRR ingebakken gaat krijgen, zal G-Sync toch echt gaan verdwijnen. Ik zie niet hoe Nvidia er aan vast kan houden.

Wellicht dat ze het wel blijven voeren, maar ze zullen echt niet om HDMI 2.1 VRR heen kunnen :)

Acties:
  • 0 Henk 'm!

  • Dijksman
  • Registratie: Juni 2012
  • Laatst online: 22-05 15:48
Werelds schreef op donderdag 6 juli 2017 @ 11:24:
Nee, de verschillen gaan veel verder dan dat.

Bij 3DFX SLI:
- Geen master/slave
- Al het verkeer gaat over de "brug"
- De kaarten werken samen aan exact dezelfde payload
- De kaarten synchroniseren met elkaar om er voor te zorgen dat alle data gelijk loopt
Bij 3Dfx was het ook gewoon een master/slave systeem, dat heb je ook nodig bij het synchroniseren.
Voor de rest zit er nog een verschil tussen de Voodoo 1/2 generatie en die van de Vooodoo 4/5 (VSA100), die was te schalen tot wel 32 chips (Quantum3d Aalchemy series).

Acties:
  • 0 Henk 'm!
Dijksman schreef op donderdag 6 juli 2017 @ 13:05:
[...]


Bij 3Dfx was het ook gewoon een master/slave systeem, dat heb je ook nodig bij het synchroniseren.
Voor de rest zit er nog een verschil tussen de Voodoo 1/2 generatie en die van de Vooodoo 4/5 (VSA100), die was te schalen tot wel 32 chips (Quantum3d Aalchemy series).
Correct, maar master/slave is in deze context niet helemaal de correcte benaming. Ik kon echter niet op een betere benaming komen :P

Bij 3DFX was de "master" verantwoordelijk voor de output en moest de slave (of slaves) zich aan de timing daarvan houden. Verder werken ze echter samen.

Bij Nvidia is de master echt de meester. De master is de maatstaf voor de scheduler; de tweede GPU wordt als tweede viool ingezet, terwijl het bij 3DFX een duet was. Graphics renderen is maar een deel van het verhaal tegenwoordig en dat is waar het probleem zit. Ook al geef je in het control panel aan dat de tweede GPU als "compute" GPU gebruikt moet worden, dat geldt voor slechts een deel van de workload. Er valt meer onder "compute" dan velen denken en dat wordt gewoon naar de primaire GPU gestuurd. Tegelijkertijd is er ook een hoop "compute" dat door beide GPU's gedaan moet worden omdat het in beide frames nodig is.

Hetzelfde geldt overigens voor CFX. Dat is ook meteen waarom SLI/CFX soms zo slecht schalen. In sommige games zijn de workloads niet 50/50 te verdelen en krijgt de master meer te verduren. Tegelijkertijd krijg je dan met sommige GameWorks gerelateerde workloads een contragewicht op de slave waardoor het weer meer in balans komt voor een deel van de frames.

De echte master is tegenwoordig de driver. Bij 3DFX regelden de GPU's het onderling, nu beslist de driver welke GPU wat mag doen.

Misschien had ik het dus master/slave bij 3DFX en slave/slave bij Nvidia (en AMD) moeten noemen? :P

[ Voor 3% gewijzigd door Werelds op 06-07-2017 14:04 ]


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Werelds schreef op donderdag 6 juli 2017 @ 11:24:
[...]

Ik had het over open standaarden, niet per se open source ;)


[...]

Even los van open/closed source zijn open standaarden juist wel wat je wil als consument. G-Sync is een misselijkmakend product omdat je als consument daarmee niet alleen vast zit aan Nvidia's GPU's, maar ook nog eens aan alléén hun partners qua beeldschermen én hun matige FPGA in die beeldschermen.

Dat is waar het verschil tussen Nvidia's "visie" en de rest zit. Nvidia probeert iedereen hun ecosysteem in te forceren net zoals 3DFX dat probeerde. Vooralsnog geeft dat geen problemen, maar als al je concurrenten wel gewoon dingen als DisplayPort, Adaptive Sync, OpenCL fatsoenlijk ondersteunen gaat dat op een gegeven moment toch fout. Tenzij de rest om valt natuurlijk ;)


[...]

offtopic:
Ik heb heel lang gespaard om samen met m'n broertje een P1 133 + 24 MB RAM + Voodoo (Mach64 had ik al) aan te schaffen. Dat was het ook wel waard, aangezien die combinatie het idioot lang heeft uitgehouden. Vrienden hadden later een P2 333 tot 450 met wel 64 MB RAM en dan een Rage of Riva er naast. En toch liepen HL en UT beter op mijn bescheiden bakje dankzij de Voodoo :+



[...]

Nee, de verschillen gaan veel verder dan dat.

Bij 3DFX SLI:
- Geen master/slave
- Al het verkeer gaat over de "brug"
- De kaarten werken samen aan exact dezelfde payload
- De kaarten synchroniseren met elkaar om er voor te zorgen dat alle data gelijk loopt

Bij Nvidia SLI:
- Master/slave
- Al het verkeer gaat over de PCI-e bus...
- ...behalve de uiteindelijke frames, die gaan over de brug naar de display outputs van de master
- 0,0 synchronisatie, elke GPU werkt volledig onafhankelijk
- Payload kan verschillen per kaart

Zoals ik al zei, SLI en SLI zijn twee heel verschillende dingen. Nvidia heeft alleen de afkorting hergebruikt voor marketing redenen :)


[...]

AMD kon SLI helemaal niet ondersteunen? Geen van beide SLI's is een open standaard geweest, hoe kunnen ze het dan ondersteunen? Zelfde geldt voor G-Sync ;)
Je hamert steeds op de verschillen in technieken, waar wij geen menings- vershil over hebben. Het idee is het enige wat overeenkomt, zoals ik al eerder had geschreven, het verdelen van de workload over meerdere kaarten met een vorm van sync brug. Het idee heeft nV gewoon gekopieerd van 3dfx en de uitvoering aangepast aan de technische/financieele mogelijkheden die toen voorhanden was.
nV had ook voor een andere naam kunnen kiezen want de meesten die de term sli kennen weten echt niet dat het van 3dfx komt. Maar 3dfx ging failliet en nV kocht de restanten op, hebben de techniek toegepast van dit bedrijf. nV heeft 3dfx niet gekocht en kapot gemaakt zoals anderen beweren.

SLI is geen open standaard maar dat zijn bijna 90% van de technieken niet, daarvoor nemen ze licentie rechten. Zoals AMD die de 286tm486 onder licentie verkocht en als licenties te duur worden of meer zeggenschap willen kopen ze het betreffende bedrijf op. Zoals koning apple(die het verloor van softbank).
Hoe dan ook een bedrijf kan dan de keuze maken tussen licentie geld betalen of niet, baten kosten analyse.
Open source/open standard het gaat om het open gedeelte mijn voorbeeld was van opensource drivers maar openstadaard freesync vs gsync is voor mij het zelfde verhaal. Ik maak er geen gebruik van en mensen die het een wereld van verschil vinden en de meeste keuze (in schermen) willen moeten voor AMD gaan.

Ik zie het niet in mijn(consument) voordeel als bedrijven alleen maar elkaars open standaarden gaan gebruiken, als iedereen elkaar kopieert heb je al snel geen differentiatie meer en gaan de prijzen alleen maar omhoog en is er geen enkele innovatie meer. Het klinkt allemaal ideaal maar in de praktijk is dat gewoon niet, bedrijven zijn nu nog bezig om zich zelf een competitief voordeel te bezorgen en hun produten te kunnen verkopen met een USP. Het is de reden waarom AMD bestaat, wees blij dat ze niet elkaars producten kopiëren.

Maar ik ben wel benieuwd waarom jij denkt dat openstandaard (buiten de overheid om) een beter idee is.
Natuurlijk kan je gevallen benoemen zoals internet en wifi (zodat je koelkast met je telefoon kan chatten), maar tussen twee rivalen die de zelfde markt aanboren...

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
Werelds schreef op donderdag 6 juli 2017 @ 13:02:
Gezien het feit dat Adaptive Sync (vooralsnog met enkel het FreeSync label voor marketing) een grote opmars heeft gemaakt en veel makkelijker + goedkoper te krijgen is, alsmede het feit dat HDMI 2.1 VRR ingebakken gaat krijgen, zal G-Sync toch echt gaan verdwijnen. Ik zie niet hoe Nvidia er aan vast kan houden.

Wellicht dat ze het wel blijven voeren, maar ze zullen echt niet om HDMI 2.1 VRR heen kunnen :)
Omdat er geen AMD kaarten zijn in de high performance groep. Als NVidia zonder concurrentie zit boven de RX580 of zelfs GTX 1070, kunnen ze rustig doorgaan met hun G-Sync. Als jij op dit moment 1080p/144Hz of 1440p/144Hz wilt met adaptive sync, moet je NVidia kopen. De RX580 Nitro+, waarschijnlijk een van de snelste kaarten van AMD op 't moment, wordt vernietigd door een GTX1070. (Ik laat CrossFire even buiten beschouwing omdat het bagger is.)

FreeSync is goedkoper te krijgen, juist omdat NVidia er een flinke prijskaart op plakt bij G-Sync. Als ze willen, maken ze het 100 euro goedkoper per scherm na een paar jaar. Dat is nog altijd duurder dan gratis, maar toch een heel ander verhaal dan nu (200 euro ofzo?).

Het VR argument is inderdaad waar, maar VR en schermen zijn toch twee verschillende dingen, plus dat VR nog verder weg is dan 1440p voor iedereen.

Misschien dat NVidia het ooit wel ondersteund, maar de komende jaren zeker niet.

Acties:
  • +1 Henk 'm!
MrCharming schreef op donderdag 6 juli 2017 @ 16:13:
[...]
Het VR argument is inderdaad waar, maar VR en schermen zijn toch twee verschillende dingen, plus dat VR nog verder weg is dan 1440p voor iedereen.
VRR staat niet voor Virtual Reality, maar voor Variable Refresh Rate...

Acties:
  • 0 Henk 'm!
D0gtag schreef op donderdag 6 juli 2017 @ 14:26:
SLI is geen open standaard maar dat zijn bijna 90% van de technieken niet, daarvoor nemen ze licentie rechten. Zoals AMD die de 286tm486 onder licentie verkocht en als licenties te duur worden of meer zeggenschap willen kopen ze het betreffende bedrijf op. Zoals koning apple(die het verloor van softbank).
Hoe dan ook een bedrijf kan dan de keuze maken tussen licentie geld betalen of niet, baten kosten analyse.
Open source/open standard het gaat om het open gedeelte mijn voorbeeld was van opensource drivers maar openstadaard freesync vs gsync is voor mij het zelfde verhaal. Ik maak er geen gebruik van en mensen die het een wereld van verschil vinden en de meeste keuze (in schermen) willen moeten voor AMD gaan.
Echter is SLI nooit opengesteld om een licentie op te nemen. G-Sync ook niet. PhysX ook niet. En met die laatste weet ik dat AMD/ATI daar 10 jaar geleden wel een implementatie voor had gemaakt als Nvidia het toe had gelaten; nu niet meer ;)

Wederom, dat is een verschil in visie. Nvidia wil de consument alleen op hun platform hebben en dat is waar het voor hen eindigt. Intel, AMD/ATI en anderen bestaan al zo veel langer en werken ook al veel langer samen aan allerlei standaarden; of dat nu met licenties gepaard gaat of niet. In x86 zit tegenwoordig even veel van AMD als er van Intel in x64 zit. Het zijn aartsrivalen, maar ze zijn er allebei bij gebaat de meest gebruikte technologie eigen te maken en daar eventueel aan bij te dragen. Tegelijkertijd is het verkopen van licenties van je eigen techniek een extra bron van inkomsten en verzeker je jezelf er zo van dat deze nóg meer gebruikt wordt, waarna je (hopelijk) in een vicieuze cirkel terecht komt.

Dat laatste kan echter alleen als je marktleider bent. Een 60/40 split in eender welke richting is niet genoeg om anderen jouw spul aan te smeren. AMD kan Nvidia nu weinig aansmeren, maar andersom had wel gekund.
Maar ik ben wel benieuwd waarom jij denkt dat openstandaard (buiten de overheid om) een beter idee is.
Natuurlijk kan je gevallen benoemen zoals internet en wifi (zodat je koelkast met je telefoon kan chatten), maar tussen twee rivalen die de zelfde markt aanboren...
"Open" standaarden worden over het algemeen breder geaccepteerd en gebruikt - of dat nu met licenties gepaard gaat of niet. DirectX, OpenGL, VGA, DVI, HDMI, DisplayPort, USB - noem ze maar op. Stuk voor stuk zijn ze wijd geaccepteerd. De prijs van de licenties is daarbij uiteraard vaak bepalend voor welke technologie het wint van een andere; Apple vroeg te veel voor FireWire met als gevolg dat USB veel breder werd gebruikt. En uiteindelijk heeft dat er toe geleid dat FireWire nu verdwenen is.

Uitzonderingen zijn er natuurlijk. x86 is geworden wat het is doordat Intel via IBM een gigantisch marktaandeel kreeg - AMD was echter eerder met x64 en dus hebben ze dat uiteindelijk gewonnen, ondanks de beste pogingen van Intel :P

HDMI is geworden wat het is doordat het 4 jaar eerder dan DP bestond. Maar in beide gevallen hebben ze het overleefd doordat iedereen ze kon implementeren (na het afnemen van een licentie). Als HDMI beperkt was gebleven tot Hitachi, Philips, Sony en die andere paar bedrijven, dan was het keihard geflopt.

Nogmaals: jij neemt het woord "open" te letterlijk. Ik heb het niet alleen over open source en gratis (!) standaarden. Ik heb het over standaarden die toegankelijk zijn voor iedereen, ongeacht of er betaling aan te pas komt of niet. Heel weinig van Nvidia's technieken zijn dat, waardoor ze niet zo breed gebruikt worden als ze graag zouden willen. En dat heeft er toe geleidt dat er inmiddels delen van GameWorks weldegelijk open source worden ;)

Als Nvidia G-Sync open had gesteld en niet zo idioot duur had gemaakt dan had AMD het wellicht geïmplementeerd (+$$$ voor Nvidia van de licenties en een grotere userbase) en dan hadden ook meer (zoniet alle) monitor fabrikanten het in hun repertoire zitten, in plaats van dat halve handje vol.
MrCharming schreef op donderdag 6 juli 2017 @ 16:13:
Misschien dat NVidia het ooit wel ondersteund, maar de komende jaren zeker niet.
Ik had het zoals Vipeax aan geeft inderdaad over Variable Refresh Rate in HDMI. Dat is precies wat G-Sync en Adaptive Sync/FreeSync zijn.

Zodra Nvidia HDMI 2.1 met VRR gaat ondersteunen -wat vrijwel zeker is-, bestaat de keuze voor TV's en monitors uit 500 modellen met HDMI 2.1 + VRR, Adaptive Sync (in het geval van monitors) die werken met je AMD GPU, PS5, Xbox One X (en wie weet wat nog meer)..tegenover 5-10 stuks met G-Sync die alleen met Nvidia GPU's werken en niet gemaakt worden door de "grote" merken die bekend staan om hun kwaliteit.

Op dat moment heeft G-Sync geen enkele meerwaarde voor de consument, hoe goed Nvidia (of hoe slecht) AMD op dat moment ook is. Waarom zou je een monitor/TV met het G-Sync labeltje aanschaffen als dat alleen met Nvidia werkt en verder geen meerwaarde biedt, terwijl al die andere modellen met al je andere apparaten werken? ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Eerst en vooral, mijn 'conclusie' dat Nvidia geen FreeSync ondersteunt omdat het te trots en/of te koppig is trok ik veel te snel, jouw reactie erop was echter onnodig fel en persoonlijk. Ik neig ernaar om Nvidia het nadeel van de twijfel te geven gezien allerlei gedrag in het verleden, denk ook aan het feit dat Nvidia haar uiterste best doet om PCIe-passthrough te blokkeren, als je dat wil doen dan moet je de vrituele machine laten 'liegen' tegen de Nvidia driver (doen alsof het niet een virtuele machine maar gewoon de OS is). Soms lijkt de ratio ver te zoeken, misschien is die er wel maar ik zie het niet in dit specifieke geval (PCIe-passthrough blokkeren).
Paprika schreef op woensdag 5 juli 2017 @ 17:40:
[...]

Hoezo bieden ze minder functionaliteit?
Niet minder dan AMD, minder dan wat gemakkelijk geboden kan worden! Het kost Nvidia erg weinig, ze hoeven enkel wat code te schrijven. Dat is voor Nvidia een verwaarloosbaar kleine investering maar ze zouden er wel veel van hun klanten een plezier mee doen.
Vendor-lockin klinkt in mijn oren als een verwachtte keuze als je een groot percentage van de markt bezit. Zeker als je de markt beperkt tot de audience van G-SYNC, namelijk gamers.
Het probleem hierbij is dat slechts een zeer klein percentage van alle Nvidia-klanten een G-Sync monitor koopt. Typisch zijn dat de klanten die minstens een *80 kaart of hoger kopen. Die paar klanten die dat doen sluit je misschien op in het Nvidia ecosysteem: "ik heb X euro betaald voor deze G-Sync monitor, laat ik maar weer een Nvidia-kaart kopen". Hier staat tegenover dat je andere klanten richting AMD jaagt: "Ik heb een FreeSync monitor, Nvidia weigert om dat te ondersteunen dus laat ik de nu maar een AMD-kaart kiezen aaangezien het tijd is voor een upgrade en die van AMD niet slechter zijn voor dezelfde prijs."
Nvidia speculeert blijkbaar dat die laatste groep klanten dermate merktrouw is dat ze bij Nvidia blijven ondanks deze - voor hen - gebrekkige service.
Los hiervan: als je klanten moet houden door hen te dwingen op zo'n manier (pushen om een G-Sync monitor te kopen zodat ze maar bij Nvidia blijven omdat het anders zo zonde is van de investering) dan vind ik dat nogal bedenkelijk, behoud liever de klanten door steeds weer een beter product te leveren, richt daar je energie op. Misschien vind jij dat idealistisch en naïef geredeneerd maar er zijn meerdere strategieën om een goede omzet te krijgen, je hoeft niet dat soort ongein uit te halen.

Tot slot nog even dit. Miljardenbedrijf of niet, de harde keuzes moeten worden gemaakt door mensen , ze hebben niet voor alles perfecte algoritmes die hen vertellen wat precies de gevolgen zijn (X euro meer/minder omzet...) bij elke beslissing. Voor een deel zijn de beslissingen op subjectieve gronden gebaseerd en voor een deel moet er zelfs worden gegokt, bijvoorbeeld over hoe de technologie en software zich ontwikkelen of hoe klanten reageren op bepaaalde beslissingen omtrent het product. Het niet ondersteunen van FreeSync lijkt mij typisch zo'n beslissing waarbij verschillende managers verschillend gokken hoe het uitpakt voor de omzet op de lange termijn als je aanneemt dat al die managers de hoogste prioriteit geven aan die omzet op de lange termijn.

[ Voor 22% gewijzigd door Verwijderd op 06-07-2017 17:49 ]


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Werelds schreef op donderdag 6 juli 2017 @ 17:30:
[...]

Echter is SLI nooit opengesteld om een licentie op te nemen. G-Sync ook niet. PhysX ook niet. En met die laatste weet ik dat AMD/ATI daar 10 jaar geleden wel een implementatie voor had gemaakt als Nvidia het toe had gelaten; nu niet meer ;)

Wederom, dat is een verschil in visie. Nvidia wil de consument alleen op hun platform hebben en dat is waar het voor hen eindigt. Intel, AMD/ATI en anderen bestaan al zo veel langer en werken ook al veel langer samen aan allerlei standaarden; of dat nu met licenties gepaard gaat of niet. In x86 zit tegenwoordig even veel van AMD als er van Intel in x64 zit. Het zijn aartsrivalen, maar ze zijn er allebei bij gebaat de meest gebruikte technologie eigen te maken en daar eventueel aan bij te dragen. Tegelijkertijd is het verkopen van licenties van je eigen techniek een extra bron van inkomsten en verzeker je jezelf er zo van dat deze nóg meer gebruikt wordt, waarna je (hopelijk) in een vicieuze cirkel terecht komt.

Dat laatste kan echter alleen als je marktleider bent. Een 60/40 split in eender welke richting is niet genoeg om anderen jouw spul aan te smeren. AMD kan Nvidia nu weinig aansmeren, maar andersom had wel gekund.


[...]

"Open" standaarden worden over het algemeen breder geaccepteerd en gebruikt - of dat nu met licenties gepaard gaat of niet. DirectX, OpenGL, VGA, DVI, HDMI, DisplayPort, USB - noem ze maar op. Stuk voor stuk zijn ze wijd geaccepteerd. De prijs van de licenties is daarbij uiteraard vaak bepalend voor welke technologie het wint van een andere; Apple vroeg te veel voor FireWire met als gevolg dat USB veel breder werd gebruikt. En uiteindelijk heeft dat er toe geleid dat FireWire nu verdwenen is.

Uitzonderingen zijn er natuurlijk. x86 is geworden wat het is doordat Intel via IBM een gigantisch marktaandeel kreeg - AMD was echter eerder met x64 en dus hebben ze dat uiteindelijk gewonnen, ondanks de beste pogingen van Intel :P

HDMI is geworden wat het is doordat het 4 jaar eerder dan DP bestond. Maar in beide gevallen hebben ze het overleefd doordat iedereen ze kon implementeren (na het afnemen van een licentie). Als HDMI beperkt was gebleven tot Hitachi, Philips, Sony en die andere paar bedrijven, dan was het keihard geflopt.

Nogmaals: jij neemt het woord "open" te letterlijk. Ik heb het niet alleen over open source en gratis (!) standaarden. Ik heb het over standaarden die toegankelijk zijn voor iedereen, ongeacht of er betaling aan te pas komt of niet. Heel weinig van Nvidia's technieken zijn dat, waardoor ze niet zo breed gebruikt worden als ze graag zouden willen. En dat heeft er toe geleidt dat er inmiddels delen van GameWorks weldegelijk open source worden ;)

Als Nvidia G-Sync open had gesteld en niet zo idioot duur had gemaakt dan had AMD het wellicht geïmplementeerd (+$$$ voor Nvidia van de licenties en een grotere userbase) en dan hadden ook meer (zoniet alle) monitor fabrikanten het in hun repertoire zitten, in plaats van dat halve handje vol.


[...]

Ik had het zoals Vipeax aan geeft inderdaad over Variable Refresh Rate in HDMI. Dat is precies wat G-Sync en Adaptive Sync/FreeSync zijn.

Zodra Nvidia HDMI 2.1 met VRR gaat ondersteunen -wat vrijwel zeker is-, bestaat de keuze voor TV's en monitors uit 500 modellen met HDMI 2.1 + VRR, Adaptive Sync (in het geval van monitors) die werken met je AMD GPU, PS5, Xbox One X (en wie weet wat nog meer)..tegenover 5-10 stuks met G-Sync die alleen met Nvidia GPU's werken en niet gemaakt worden door de "grote" merken die bekend staan om hun kwaliteit.

Op dat moment heeft G-Sync geen enkele meerwaarde voor de consument, hoe goed Nvidia (of hoe slecht) AMD op dat moment ook is. Waarom zou je een monitor/TV met het G-Sync labeltje aanschaffen als dat alleen met Nvidia werkt en verder geen meerwaarde biedt, terwijl al die andere modellen met al je andere apparaten werken? ;)
Het eerste is niet waar, SLI is wel degelijk open gesteld en AMD heeft het nu ook in licentie genomen (2008) voor mobo's met resultaat dat de x370 chipset sli ondersteund.
Bedrijven moeten ook tegen redelijke vergoeding hun technologie kunnen aanbieden en ter beschikking stellen iets wat bij wet geregeld is.

Zoals wat nV met intel heeft gedaan. Met deze regeling konden beide bedrijven elkaars technologieën toepassen, dit is overigens niet goed afgelopen en de laatste geruchten zijn dat intel toch wel is nV zou kunnen opkopen.
Dit is een redelijk extreem geval en dit kan alleen tussen bedrijven die elkaar iets gelijkwaardig te bieden hebben.

Tot op heden werkt freesync niet met nV dus het zelfde geld voor freesync, nV heeft aangegeven dat gsync inderdaad duurder is maar dat zij het als een premium verkopen en dat de systemen met G-sync altijd hoogwaardige producten zijn (wat je ook ziet aan de prijs en specificaties, volgens mij zijn er geen Gsyncs met 1080p) Dat is hun keuze, je kan veel zeggen maar de afgelopen jaren pakken beter uit voor nV dan voor AMD(ati).
Het enige verschil tussen g-sync en freesync is de prijs.
On the whole, the biggest benefit to enjoying FreeSync gaming is cost. As things stand, you'll spend less on a current generation graphics card and less on a PC monitor to use it with. You may sacrifice some ultra power and things like 4K gaming, but you'll have silky smooth, crisp graphics and money in your pocket.

If your gaming tastes are for the bleeding edge, the latest, greatest, most powerful of everything, then you're going to get a NVIDIA card. You're already going to spend more on that, and then you'll spend more on a G-Sync monitor to go with it.

The end experience between the two systems is very similar, but how much you've spent to get there could be very different.
Vraag aan apple hoe hun overpriced strategie werkt.

Je hebt het over hoe breed nV zou willen dat hun producten gebruikt worden maar momenteel is nV ruim de marktleider in discrete graphics.
Nogmaals: jij neemt het woord "open" te letterlijk. Ik heb het niet alleen over open source en gratis (!) standaarden. Ik heb het over standaarden die toegankelijk zijn voor iedereen, ongeacht of er betaling aan te pas komt of niet
Voor mij is open.. open ik heb niks over gratis gezegd. Open platformen zijn gewoon bedoeld om ze toegankelijk te maken voor vele partijen, dat is handig als je samen kan profiteren van een bepaalde technologie. Maar nogmaals als er maar twee partijen zijn en kapers voor de kust als intel & qualcomm heeft open platform alleen maar als gevolg minder innovativiteit/stagnatie in techniek en stabiele prijzen.
Nogmaals ik zegt niks over gratis of dat ze gratis technologie moeten krijgen uit open platformen.
nV had nooit geld geïnvesteerd in g-sync, had AMD nooit geld geïnvesteerd in een k5 (athlon --> ryzen) als iedereen in een open standaard was blijven hangen.
Waarom zou je nog de moeite doen om geld in r&d te steken, als je een ander het werk kan laten doen.

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36
D0gtag schreef op donderdag 6 juli 2017 @ 18:32:
[...]


Het eerste is niet waar, SLI is wel degelijk open gesteld en AMD heeft het nu ook in licentie genomen (2008) voor mobo's met resultaat dat de x370 chipset sli ondersteund.
Bedrijven moeten ook tegen redelijke vergoeding hun technologie kunnen aanbieden en ter beschikking stellen iets wat bij wet geregeld is.
Het artikel betreft met name de chipset licenties voor SLI, dit heeft geen betrekking op de SLI techniek zelf. Deze is nooit opgensteld en AMD zal deze ook niet hebben gebruikt voor Crossfire. AMD pakt het ook weer iets anders aan dan Nvidia, zonder bridge met de XDMA techniek.

Helaas ondersteunt de x370 chipset SLI, je hebt er geen barst aan en het kost mij als consument geld wat ik geef aan een bedrijf waar ik het liever niet aan geef. Lowend kaarten van Nvidia ondersteunen geen SLI en het wordt in steeds minder spellen ondersteunt. Met de komst van DX12 en Vulkan is SLI ook niet meer nodig omdat het in de handen van de ontwikkelaars ligt, die licentie heb je ook niet nodig om in DX12 twee Nvidia kaarten naast elkaar te zetten.
De SLI licentie voor moederborden is niks meer dan gebakken lucht.

Om het wat meer te onderbouwen, vroeger had je een Nvidia chipset nodig om SLI werkend te krijgen. Na een tijd werden south en north bridges steeds meer op de cpu geintegreerd en moest Nvidia SLI wel licenseren aan Intel en AMD omdat niemand hun chipsets meer nodig had.

[ Voor 20% gewijzigd door Sp3ci3s8472 op 06-07-2017 20:44 . Reden: Stomme reactie weggehaalt.... ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:43
Sp3ci3s8472 schreef op donderdag 6 juli 2017 @ 19:10:
Helaas ondersteunt de x370 chipset SLI, je hebt er geen barst aan en het kost mij als consument geld wat ik geef aan een bedrijf waar ik het liever niet aan geef.
De chipset hoeft alleen maar 2 kaarten op x8 pci-e breedte te kunnen, lastig om de chipset niet ondersteund te laten zijn.

Er zijn idd weinig borden die de sli achterwege laten, maar biostar lijkt speciaal voor jou een paar borden te hebben die toch in x8 x8 kunnen en geen sli certificaat. :P

http://www.biostar.com.tw...hp?S_ID=874#specification

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
poof.. gewist

[ Voor 98% gewijzigd door D0gtag op 06-07-2017 21:08 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
@Sp3ci3s8472 nee, de meeste X370 bordjes hebben SLI, maar het geen onderdeel van X370.
Bordjes zoals deze twee hebben geen SLI. Nu moet ik toegeven dat het Gigabyte bordje niet echt aan te raden valt vanwege de matige VRM, bij X370 wil je wel wat beters, maar die van Asus is een leuk instapbordje. Eigenlijk het B350 bordje met de X370 chipset. ;)

pricewatch: Asus Prime X370-A
pricewatch: Gigabyte GA-AX370-Gaming K3

En ja, verreweg de meeste ondersteunen wel SLI, en ja dat is vrij onzinnig want SLI zelf is vrij zinloos geworden. Het is alleen niet zo dat je altijd een SLI licentie moet nemen bij een X370 bordje. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:43
Gigabyte bord heeft de slots in x16 x4 staan, ook niet optimaal voor multigpu.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
haarbal schreef op donderdag 6 juli 2017 @ 20:31:
Gigabyte bord heeft de slots in x16 x4 staan, ook niet optimaal voor multigpu.
Ja, ik zit even behoorlijk niet op te letten. Asus plankje is ook de tweede x4. 8)7

[ Voor 6% gewijzigd door DaniëlWW2 op 06-07-2017 20:38 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36
D0gtag schreef op donderdag 6 juli 2017 @ 20:19:
[...]


[...]

Gefeliciteerd, ik heb steeds meer het idee dat ik hier een AA meeting bijwoon.
Wat een wrok om he-le-maal niks. Het gaat om videokaarten, we hebben het hier niet over zedendelinquenten. I'm out.
Reactie was overtrokken en dat was niet de bedoeling, reactie ondertussen aangepast.

Reden is o.a. al dat nu al al tig pagina's een minder nuttige discussie. Soms gewoon niet geinformeerde reacties waarin je aangeeft dat Maxwell maar 10% is opgeschoten met tiled rasterization.

Dit is een AMD topic en soms worden er gelijkingen getrokken met Nvidia, alleen hoeven we niet de zoveelste discussie hier te hebben waarin we in dit geval jou ervan proberen te overtuigen dat Nvidia in ons (niet iedereen) perspecief gewoon niet positief is voor de consument of game markt. Die discussie is hier al vaak genoeg gevoerd.
Als we dat achterwege kunnen laten dan is een discussie wat betreft andere zaken natuurlijk welkom.

offtopic:
Andere reden is dat ik vandaag klote nieuws had wat betreft naasten en ik had dus niet zo moeten reageren, over het algemeen probeer ik iets constructiever te zijn met mijn reacties....

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36
DaniëlWW2 schreef op donderdag 6 juli 2017 @ 20:24:
@Sp3ci3s8472 nee, de meeste X370 bordjes hebben SLI, maar het geen onderdeel van X370.
Bordjes zoals deze twee hebben geen SLI. Nu moet ik toegeven dat het Gigabyte bordje niet echt aan te raden valt vanwege de matige VRM, bij X370 wil je wel wat beters, maar die van Asus is een leuk instapbordje. Eigenlijk het B350 bordje met de X370 chipset. ;)

pricewatch: Asus Prime X370-A
pricewatch: Gigabyte GA-AX370-Gaming K3

En ja, verreweg de meeste ondersteunen wel SLI, en ja dat is vrij onzinnig want SLI zelf is vrij zinloos geworden. Het is alleen niet zo dat je altijd een SLI licentie moet nemen bij een X370 bordje. :)
Keuze is erg beperkt als je geen SLI wilt. Vroeger vond ik het een valide reden om voor een bepaalt bord wel of niet te gaan, maar de techniek is haast "dood".

Overigens bedankt, maar ik heb al een bord :p.

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 00:01
Lekker, al dat gepraat over Nvidia's SLI in het AMD topic. B)

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Sp3ci3s8472 schreef op donderdag 6 juli 2017 @ 20:42:
[...]


Reactie was overtrokken en dat was niet de bedoeling, reactie ondertussen aangepast.

Reden is o.a. al dat nu al al tig pagina's een minder nuttige discussie. Soms gewoon niet geinformeerde reacties waarin je aangeeft dat Maxwell maar 10% is opgeschoten met tiled rasterization.

Dit is een AMD topic en soms worden er gelijkingen getrokken met Nvidia, alleen hoeven we niet de zoveelste discussie hier te hebben waarin we in dit geval jou ervan proberen te overtuigen dat Nvidia in ons (niet iedereen) perspecief gewoon niet positief is voor de consument of game markt. Die discussie is hier al vaak genoeg gevoerd.
Als we dat achterwege kunnen laten dan is een discussie wat betreft andere zaken natuurlijk welkom.

offtopic:
Andere reden is dat ik vandaag klote nieuws had wat betreft naasten en ik had dus niet zo moeten reageren, over het algemeen probeer ik iets constructiever te zijn met mijn reacties....
offtopic:
Vervelend om te horen, begrijpelijk, alles wat hier geschreven is verder irrelevant, we laten het rusten


Iedereen is hier met het zelfde doel, informatie verkrijgen (nu voornamelijk van vega). Voor mij is er geen kamp of partij, een beter dan de andere. Als vega bevalt heb ik een AMD kaart met een AMD cpu. Als hij niet bevalt is het een nV kaart met AMD cpu.
We maken allemaal fouten, including me, ik doe dit ook maar parttime :P maar feiten en rationaliteit moeten de boventoon voeren, niet emotie en oud zeer. Daar hebben vooral mensen die informatie zoeken helemaal niks aan. Sommige drijven veel te veel hun standpunten terwijl er geen goed of fout is alleen keuzes.
Ik zal wel het boetekleed aantrekken, ik ben ook wel een agitator als er zulke extremen langskomen, O+
NitroX infinity schreef op donderdag 6 juli 2017 @ 21:06:
Lekker, al dat gepraat over Nvidia's SLI in het AMD topic. B)
Ja het is nu meer een prive chat geworden dus ik hou er over op, als het om vega aangaat denk ik gewoon dat nV erbij gehaald dient te worden omdat veel van de prestaties gericht zijn om dat bedrijf te overtreffen.
En dus in dat licht kunnen kijken wat AMD van plan is.

[ Voor 10% gewijzigd door D0gtag op 06-07-2017 21:12 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • +1 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 12-09 01:17

edward2

Schieten op de beesten

Sp3ci3s8472 schreef op donderdag 6 juli 2017 @ 20:46:
[...]


maar de techniek is haast "dood".
offtopic:
Er zitten een paar vervelende engines bij, maar met inspector heb ik toch heel wat titels, onofficieel, aan SLI geholpen. UE4-games bv. Maar ook de "nieuwe" Skyrim .

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Is de RX Vega al uit? B)

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 12-09 01:17

edward2

Schieten op de beesten

Waarschijnlijk wordt die eind van de maand achter gesloten deuren gedemonstreerd :P

Niet op voorraad.


Acties:
  • +1 Henk 'm!

Verwijderd

Voor die paar mensen hier die de geschiedenis van PhysX niet kennen. Dit was aanvankelijk een aparte kaart die in combinatie met meerdere merken grafische kaarten werd gebruikt. Nvidia kocht dat bedrijf, zette de productie en verkoop van aparte PhysX kaarten stop en integreerde het in Nvidia-kaarten zodat enkel Nvidia-klanten het zouden kunnen gebruiken. Aanvankelijk waren er mensen die een AMD-kaart combineerden met een lowend Nvidia-kaart puur voor de PhysX. Nvidia blokkeerde softwarematig PhysX. Eveneens blokkeerde Nvidia later softwarematig PhysX wanneer de 2 Nvidia kaarten 'te veel' verschilden. Je kan die PhysX-effecten die gebruikt worden ook prima op een andere manier draaien als je ietwat fatsoenlijke hardware hebt, zo niet in het jaar waarin he spel uitkomt dan wel X jaar later, maar dan moet de developer het wel ondersteunen. Borderlands 2 is een goed voorbeeld, als je een ietwat fatsoenlijke CPU hebt dan kan je PhysX op normaal of hoog draaien door het bestandje met de waardes voor allerlei variabelen lichtjes te wijzigen.
Bijna, nog maar 4 weekjes wachten. Het lijkt Sinterklaas wel. :)
En dan maar hopen dat de kaart zuigt voor cryptomining of dat de koers van die crypto'munten' flink is gekelderd.
edward2 schreef op donderdag 6 juli 2017 @ 21:54:
[...]


Waarschijnlijk wordt die eind van de maand achter gesloten deuren gedemonstreerd :P
Het zou direct na de presentatie beschikbaar komen, het achter gesloten deuren demonstreren heeft weinig zin. Normaal gesproken geeft AMD 1 week van tevoren een sample aan allerlei mediafiguren en reviewers, over een weekje of 3 zien we waarschijnlijk wat relevante benchmarks verschijnen.

[ Voor 28% gewijzigd door Verwijderd op 06-07-2017 22:03 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Verwijderd schreef op donderdag 6 juli 2017 @ 21:58:
Bijna, nog maar 4 weekjes wachten. Het lijkt Sinterklaas wel. :)
En dan maar hopen dat de kaart zuigt voor cryptomining of dat de koers van die crypto'munten' flink is gekelderd.
Tja, het is allang bekent dat ETH slecht omgaat met niet GDDR5 geheugen waardoor dergelijke GPU's niet interessant zijn voor mining. Vega zal geen mining kaart worden, al is het maar vanwege het verbruik. Dat is overigens wel een voordeel zo. :+

[ Voor 3% gewijzigd door DaniëlWW2 op 06-07-2017 22:10 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Ben alleen beetje bang;
-Hoe groot is de stock of moet je pre-orderen? (kan dat überhaupt...)
-Moeten we wachten tot de "echte" benchmarks (zelfs na de presentatie) of ben je dan al te laat (cryptominers ...)
-Stroom verbruik... }:O

En stel je wilt daarna alsnog Nvidia dan moet je ook snel zijn aangezien het GDDR5(X) geheugen opeens schaars aan het worden is /hoofdpijn... en zit nog steeds met deze snail-HD6850 opgescheept |:(

[ Voor 3% gewijzigd door ArcticWolf op 06-07-2017 22:11 ]


Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 11-09 22:09
Net de volgende mail gehad van AMD:

Join us on July 30 to experience:

our fieriest additions to the cutting-edge Radeon™ “Vega” architecture
the deliciously disruptive combinations of EPYC™, Ryzen™, and Radeon offerings to which our partners are giving rave reviews
how AMD is breaking the mould, remixing content pipelines in gaming, entertainment, manufacturing, engineering and more for this new era of passion, precision and performance

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Dat is de tweede keer dat AMD nu vermeld dat ze ook marktverstorend willen zijn met Vega. De eerste keer was een tijdje terug.

https://seekingalpha.com/...7-technology-internet-and

En aangezien de site moeilijk doet met bekijken ook even zo.
YouTube: Poor Vega

Het lijkt er in ieder geval op dat onafhankelijk van de prestaties, AMD wel neigt naar een flinke price undercut van Nvidia. Dat is tenminste iets. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 12-09 01:17

edward2

Schieten op de beesten

Verwijderd schreef op donderdag 6 juli 2017 @ 21:58:

[...]

Het zou direct na de presentatie beschikbaar komen, het achter gesloten deuren demonstreren heeft weinig zin. Normaal gesproken geeft AMD 1 week van tevoren een sample aan allerlei mediafiguren en reviewers, over een weekje of 3 zien we waarschijnlijk wat relevante benchmarks verschijnen.
Dat was sarcasme, omdat we al zoveel behind closed doors/presentaties ed. hebben gezien sinds de bekendmaking van Vega. Ik hoop op een hardlaunch, maar ik heb er (nog) niet veel vertrouwen in.
Vega FE is momenteel ook zo goed als non existent.

Niet op voorraad.


Acties:
  • +1 Henk 'm!

Verwijderd

ArcticWolf schreef op donderdag 6 juli 2017 @ 22:10:
Ben alleen beetje bang;
-Hoe groot is de stock of moet je pre-orderen? (kan dat überhaupt...)
-Moeten we wachten tot de "echte" benchmarks (zelfs na de presentatie) of ben je dan al te laat (cryptominers ...)
-Stroom verbruik... }:O

En stel je wilt daarna alsnog Nvidia dan moet je ook snel zijn aangezien het GDDR5(X) geheugen opeens schaars aan het worden is /hoofdpijn... en zit nog steeds met deze snail-HD6850 opgescheept |:(
Het hangt van de prijs en de performance af of dat preorderen te overwegen is. Even rustig afwachten.
Duidelijk is in ieder geval dat de Vega-FE voor van alles beter presteert dan de FuryX bij dezelfde klokfrequentie behalve bij gaming. Dat wijst erop dat de hardware en/of de software sterk is getuned voor die andere toepassingen (wat logisch is :)), dat roept bij mij de vraag op of dat ze het ook zo sterk kunnen tunen voor games of dat Vega meer is gemaakt voor de 'professionele' markt en dat van daaruit wordt bekeken wat er voor gamers nog uit gehaald kan worden.
Ik heb geen goed gevoel bij de uitspraak van die AMD-medewerker die ageert tegen de stelling dat Fiji-drivers worden gebruikt. Ik kan er nog niet mijn vinger op leggen wat er precies aan de hand is.
Verwijderd schreef op donderdag 6 juli 2017 @ 08:41:
The "Fiji fallback driver" or "Fiji drivers" meme needs to stop. That's not how it works or should be described. Otherwise you should start calling Volta drivers Pascal drivers Maxwell drivers. There is obviously commonality -- that's just how software engineering needs to work for a GPU -- but calling it a Fiji driver or Fiji fallback is wrong.
About the driver comment: it's normal and completely expected for there to be common code in a GPU driver that applies to some or all of the GPUs a driver supports, alongside the specifics for the GPU being driven. That's hopefully just a given. So it was just a guiding hand to not conflate any commonality with it running the driver for a different ASIC, and then reading things into that.

I'd have said that regardless of working for AMD or not, since the above is true for all GPU vendors.

I want to talk about Vega and RX here as much as everyone else since I'm a GPU enthusiast, but that's not in my wheelhouse (unless you're an NDA'd developer of course!), so I can't go into specifics.
DaniëlWW2 schreef op donderdag 6 juli 2017 @ 20:24:
@Sp3ci3s8472 nee, de meeste X370 bordjes hebben SLI, maar het geen onderdeel van X370.
Bordjes zoals deze twee hebben geen SLI. Nu moet ik toegeven dat het Gigabyte bordje niet echt aan te raden valt vanwege de matige VRM, bij X370 wil je wel wat beters, maar die van Asus is een leuk instapbordje. Eigenlijk het B350 bordje met de X370 chipset. ;)

pricewatch: Asus Prime X370-A
pricewatch: Gigabyte GA-AX370-Gaming K3

En ja, verreweg de meeste ondersteunen wel SLI, en ja dat is vrij onzinnig want SLI zelf is vrij zinloos geworden. Het is alleen niet zo dat je altijd een SLI licentie moet nemen bij een X370 bordje. :)
Voor virtualisatie (Windows in een container onder Linux) wordt echter ASRock Taichi of een Gigabyte (Gaming 5?) aangeraden, met SLI dus. Nu is Taichi een prima moederbord en goed geprijsd, maar helaas niet in Nederland. Het kan veranderen met toekomstige EFI-updates, het gaat erom dat je andere apparaten zoals je muis en toetsenbord (USB) moet kunnen passthoughen naar de virtuele machine om extra inputlag te voorkomen. Ik zou het fijn vinden als ik Windows enkel nog in een virtuele machine zou hoeven te gebruiken. ;)
Je kan momenteel trouwens niet W10 in de virtuele machine draaien voor dit doeleinde, W7 werkt wel prima. Een kwestie van tijd natuurlijk maar als je per se DX12 wil gebruiken...
DaniëlWW2 schreef op donderdag 6 juli 2017 @ 22:40:
Dat is de tweede keer dat AMD nu vermeld dat ze ook marktverstorend willen zijn met Vega. De eerste keer was een tijdje terug.

https://seekingalpha.com/...7-technology-internet-and

En aangezien de site moeilijk doet met bekijken ook even zo.
YouTube: Poor Vega

Het lijkt er in ieder geval op dat onafhankelijk van de prestaties, AMD wel neigt naar een flinke price undercut van Nvidia. Dat is tenminste iets. :)
Ik vermoed dat AMD dit ook graag had gewild voor Polaris maar dat je in dat segment niet de ruimte hebt om het te doen (veel lagere marges).

[ Voor 62% gewijzigd door Verwijderd op 07-07-2017 20:38 ]


Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
D0gtag schreef op donderdag 6 juli 2017 @ 21:08:
[...]
We maken allemaal fouten, including me, ik doe dit ook maar parttime :P maar feiten en rationaliteit moeten de boventoon voeren, niet emotie en oud zeer. Daar hebben vooral mensen die informatie zoeken helemaal niks aan. Sommige drijven veel te veel hun standpunten terwijl er geen goed of fout is alleen keuzes.
Ben ik mee oneens. Het feit dat NVidia al die streken uitgehaald heeft is voor mij een reden hen niet te supporten. Wat iemand in het verleden geflikt heeft bepaald bij mij weldegelijk hoe ik hem behandel. Was het niet voor mensen die 'oud zeer' ophalen en deze feiten openbaren, had ik het niet geweten. Maar ik ben blij dat dat wel gedaan is.
Vanwege dat feit zal ik meer geneigd zijn AMD te kopen dan Nvidia of Intel.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 23:19

Damic

Tijd voor Jasmijn thee

@edward2 Vega FE was dan ook aangekondigd als limited run.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • Sandwalker
  • Registratie: Juli 2011
  • Laatst online: 11-09 09:25
DaniëlWW2 schreef op donderdag 6 juli 2017 @ 22:10:

Tja, het is allang bekent dat ETH slecht omgaat met niet GDDR5 geheugen waardoor dergelijke GPU's niet interessant zijn voor mining. Vega zal geen mining kaart worden, al is het maar vanwege het verbruik. Dat is overigens wel een voordeel zo. :+
Dat snap ik niet. Weet jij waarom dat HBM2 een kaart minder geschikt maakt?
Zo op het eerste gezicht klinkt het raar. Zowel nV als RTG brengen compute kaarten uit met HBM2 en dan zou een specifiek algoritme daar slechter op draaien. Het klinkt mij meer in de oren als een implementatieprobleem.

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Volgens mij is men druk bezig om Claymore (of andere) miners aan te passen zodat het ook goed draait met HBM2 geheugen, dus waarschijnlijk is het een kwestie van tijd.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-09 07:14

SG

SG surft naar info hardewaren

Verwijderd schreef op donderdag 6 juli 2017 @ 21:58:
Voor die paar mensen hier die de geschiedenis van PhysX niet kennen. Dit was aanvankelijk een aparte kaart die in combinatie met meerdere merken grafische kaarten werd gebruikt. Nvidia kocht dat bedrijf, zette de productie en verkoop van aparte PhysX kaarten stop en integreerde het in Nvidia-kaarten zodat enkel Nvidia-klanten het zouden kunnen gebruiken. Aanvankelijk waren er mensen die een AMD-kaart combineerden met een lowend Nvidia-kaart puur voor de PhysX. Nvidia blokkeerde softwarematig PhysX. Eveneens blokkeerde Nvidia later softwarematig PhysX wanneer de 2 Nvidia kaarten 'te veel' verschilden. Je kan die PhysX-effecten die gebruikt worden ook prima op een andere manier draaien als je ietwat fatsoenlijke hardware hebt, zo niet in het jaar waarin he spel uitkomt dan wel X jaar later, maar dan moet de developer het wel ondersteunen. Borderlands 2 is een goed voorbeeld, als je een ietwat fatsoenlijke CPU hebt dan kan je PhysX op normaal of hoog draaien door het bestandje met de waardes voor allerlei variabelen lichtjes te wijzigen.
Ondanks mijn antiephatie tegen nV
Is het niet zozeer overname van Ageia , maar kiezen voor Cuda ipv Cuda based OpenCL.
De overname is reactie van nV in GPGPU WAR tegen iNtel van hun Havok overname in de pre Larabee tijdperk.
En killen van HavokFX module de gpgpu voor merk onafhankelijke physics.
PHysX en Havok soap , is dus voorbeeld van zwaar anti gamers beleid van beide nV en iNtel.

Om dit te omzijlen zouden game dev zelf hun Physics engine moeten implementeren op compute task. DX compute shaders of OpenCL. Eventueel higherlevel met C++AMP
Tijd voor derde grote Physics SDK. Bullit of newton.
PhysX was ooit NovodexSDK

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Sandwalker schreef op vrijdag 7 juli 2017 @ 07:45:
[...]


Dat snap ik niet. Weet jij waarom dat HBM2 een kaart minder geschikt maakt?
Zo op het eerste gezicht klinkt het raar. Zowel nV als RTG brengen compute kaarten uit met HBM2 en dan zou een specifiek algoritme daar slechter op draaien. Het klinkt mij meer in de oren als een implementatieprobleem.
Van wat ik ervan begrijp is ETH mining zeer afhankelijk van veel vram, en dan GDRR5. Compute power is minder belangrijk, daarom werkt Pascal ook redelijk. Binnenkort zullen door de hype de 4GB vram kaarten niet meer afdoende zijn, en zullen deze massaal gedumpt gaan worden. Dan zullen de 6 en 8GB kaarten snel volgen. Dan kan je wel algoritmes aanpassen voor Vega, maar zelfs met andere efficiëntere drivers, features aan en minder stroomverbruik vanwege die extra features zal het een kaart blijven die simpelweg te veel stroom gebruikt om echt rendabel te zijn. Verder zijn alleen de hoogst gepositioneerde, professionele Tesla GPU's van Nvidia met HBM2 uitgerust. Niemand gaat minen op die dingen. :+


Oh en om het dode paard nog even na te trappen. Nee, gaming mode op Vega FE doet dus werkelijk helemaal niks. :P
YouTube: Vega FE Gaming Mode vs. Pro Mode Benchmarks

[ Voor 9% gewijzigd door DaniëlWW2 op 07-07-2017 08:54 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 23:19

Damic

Tijd voor Jasmijn thee

@DaniëlWW2 gaming mode laat je toe om je vega te "overclocken", mag niet in pro mode :+ en wat betrefd ETH is het zo dat ze volgens mij voor Fury en Fega het geheugen anders moeten aanspreken, maar als ik zo even door de source blader kan het niet anders.

[ Voor 48% gewijzigd door Damic op 07-07-2017 09:04 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Damic schreef op vrijdag 7 juli 2017 @ 09:02:
@DaniëlWW2 gaming mode laat je toe om je vega te "overclocken", mag niet in pro mode :+
Dat is dus volslagen zinloos, al is het maar omdat Wattman op het moment je HBM2 downclocked naar 500mhz bij elke overclock. :+

En de DX12 feature set van Vega. Deze zijn ook niet misstaand. Nu nog een GPU en driver waarmee ze werken. :P
https://www.overclock3d.n...ral_directx_12_features/1

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 23:19

Damic

Tijd voor Jasmijn thee

Tja je moet dan ook niet over de 1.6GHz gaan, zolang je daar blijft, blijft het geheugen op 995MHz draaien (volgens Wattman).

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Damic schreef op vrijdag 7 juli 2017 @ 09:07:
Tja je moet dan ook niet over de 1.6GHz gaan, zolang je daar blijft, blijft het geheugen op 995MHz draaien (volgens Wattman).
Uh, volgens mij is alles boven de 1,6ghz een overclock dus. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

niet emotie en oud zeer.
Het heeft geen drol met emotie en oud zeer te maken, het is een kwestie van dat jij als klant goedkeuring of afkeuring geeft aan antigaminggedrag en anticompetitief gedrag door een product wel of niet te kopen. De klant stuurt het gedrag van deze bedrijven. Wil je bepaald gedrag niet, laat dat merken met je aankopen. Daarnaast mag jij blij zijn dat er mensen zijn die voor een AMD-kaart kiezen aangezien jij veel meer gaat betalen voor dezelfde grafische kaart als enkel Nvidia overblijft.

Daarnaast zijn voor de meeste gamers (tenzij je een OEM-bak met een slechte voeding hebt) de 580 en 570 een betere keuze dan de 1060 en 1050 ti, als ze fatsoenlijk verkrijgbaar zijn voor de normale prijs.

[ Voor 16% gewijzigd door Verwijderd op 07-07-2017 10:09 ]


Acties:
  • 0 Henk 'm!

Verwijderd

@DaniëlWW2
Dit is veel interessanter: YouTube: HW News: Vega Expectation Reminder, QLC NAND, Ryzen Pro
Blender crasht bij bepaalde workloads. Een aanwijzing dat de drivers nogal onafgewerkt zijn? Het zou mij momenteel niet verbazen als AMD bewust allerlei features uitschakelde omdat het de enige manier was om de drivers uberhaupt werkende te krijgen. Bij programmeren is het vaak alles of niets, ofwel werkt het zoals je wil dat het werkt ofwel crasht het of geeft het 'rare' resultaten.
SG schreef op vrijdag 7 juli 2017 @ 07:52:
[...]

Ondanks mijn antiephatie tegen nV
Is het niet zozeer overname van Ageia , maar kiezen voor Cuda ipv Cuda based OpenCL.
De overname is reactie van nV in GPGPU WAR tegen iNtel van hun Havok overname in de pre Larabee tijdperk.
En killen van HavokFX module de gpgpu voor merk onafhankelijke physics.
PHysX en Havok soap , is dus voorbeeld van zwaar anti gamers beleid van beide nV en iNtel.

Om dit te omzijlen zouden game dev zelf hun Physics engine moeten implementeren op compute task. DX compute shaders of OpenCL. Eventueel higherlevel met C++AMP
Havok is ook zo'n voorbeeld. Ooit een mooi onafhankelijk Iers bedrijf, nu in handen van MS die het in theorie kan gebruiken als leverage om onder Windows of met DX (i.p.v. het platformonafhankelijke Vulkan) te draaien. Het is zonde dat PhysX ons werd afgepakt omdat een bedrijf het speeltje ontoegankelijk wou maken voor de mensen die een product van een ander bedrijf kochten. Nu is PhysX nog weinig goed gebruikt maar je kan er mooie dingen mee doen.
Tijd voor derde grote Physics SDK. Bullit of newton
Inderdaad. Al kan dat natuurlijk ook een onderdeel van een groter pakket zoals OpenCL of Vulkan zijn.
Damic schreef op vrijdag 7 juli 2017 @ 09:02:
@DaniëlWW2 gaming mode laat je toe om je vega te "overclocken", mag niet in pro mode :+ en wat betrefd ETH is het zo dat ze volgens mij voor Fury en Fega het geheugen anders moeten aanspreken, maar als ik zo even door de source blader kan het niet anders.
Ik zou het niet weten maar ik kan me niet voorstellen dat Vega slechts een overklokte FuryX is voor gaming gezien alle veranderingen aan de architectuur en de grote diesize (niet evenredig kleiner geworden met het kleiner worden van de node). Nog even rustig afwachten. :)

[ Voor 40% gewijzigd door Verwijderd op 07-07-2017 10:26 ]

Pagina: 1 ... 5 ... 17 Laatste

Dit topic is gesloten.