Acties:
  • +1 Henk 'm!
Derby schreef op zaterdag 25 augustus 2018 @ 19:14:
[...]


Bekritiseer je nu Koduri omdat AMD kiest producten uit te brengen die eigenlijk niet ontworpen zijn voor de taak waarvoor ze in de markt gezet worden. Polaris was voor de consoles, en daar functioneert het prima. En AMD kiest er dan voor ook desktop kaarten uit te brengen. VEGA precies hetzelfde, ontwikkeld voor Apple en de compute markt en dan brengen ze dat ding ook uit voor de desktop.
Ryzen is ook alleen maar ontwikkeld voor de datacenter markt. Toevallig werkt dat dan wel aardig. AMD lijkt er een handje van te hebben om producten op de markt te brengen die eigenlijk niet voor het beoogde doel geschikt zijn.

Ik ben allang blij dat AMD nog producten uitbrengt voor de desktop en ik ben hartstikke tevreden met mijn VEGA kaart.
Nee, ik bekritiseer hoe er door interne fouten bij AMD, hun producten onnodig niet als competitief worden gezien door reviewers die zelf te belazerd zijn om meer dan vijf minuten na te denken over wat ze nou testen. Verder dan wat getalletjes verzamelen en in balkjes op grafieken zetten komen ze namelijk meestal niet. Als het daar al misgaat, dan hoef je niet te rekenen op de gewone gamer die een videokaart wil. Die heeft geen zin in undervolting zodat de kaart geen opstijgende straaljager is en beter gaat presteren. Die kopen dus massaal de GeForce in hun prijsklasse, ongeacht of deze kaart nu beter is dan de AMD tegenhanger. :/

Verder heb ik ook gewoon een RX Vega 56 en heb ik nu al meerdere malen aangeven dat ik er zelf ook hardstikke tevreden mee ben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • RmanX
  • Registratie: Juni 2001
  • Laatst online: 10-03-2023

RmanX

Mario pizza!

Na een minder positieve ervaring met de Fury's in Crossfire op het gebied van ondersteuning en warmteproductie (8)7) toch maar besloten om te investeren in een RX Vega 64 Nitro+ van Sapphire. Kon mooi mijn 10-jarig jubileum van de switch naar Radeon GPU's gebruiken als verantwoording. ;)

Vega 64 Nitro+ vs Fury Nitro
Vrijwel net zo lang als de Fury, maar wel hoger en wat zwaarder..

Ook een mooi moment om het overzichtje van GPU's die ik in mijn bezit heb gehad bij te werken. De rood gekleurde cellen in de tabel geven het prestatieniveau weer ten opzichte van de Vega 64 afgerond op 5%.
Tot nu toe een aanzienlijke verbetering in spel ervaring op 4K. Hoewel dit met de Fury en zorgvuldig tweaken van instellingen ook al goed mogelijk was. _/-\o_

AMD GPU Generations Comparison
Voor het gemiddelde prestatieniveau ben ik uitgegaan van Techpowerup relatieve prestatiescores (alle resoluties of 1920x1080) en deze benchmarks op HardOCP welke weer zijn gecorrigeerd voor de klokfrequentie van de Nitro+ en de relatieve prestaties van de Fury t.o.v. de Fury X (95%) van TPU.

AMD Ryzen 9 3900X | 16 GB DDR4 3200 MHz | AMD Radeon RX Vega 64 | 2 x SSD | 2 x 5400 RPM HDD | LG 16X DVD RW | LG BD | LG 27" 4K


Acties:
  • 0 Henk 'm!

Verwijderd

Derby schreef op zaterdag 25 augustus 2018 @ 19:14:
[...]


Bekritiseer je nu Koduri omdat AMD kiest producten uit te brengen die eigenlijk niet ontworpen zijn voor de taak waarvoor ze in de markt gezet worde?. Polaris was voor de consoles, en daar functioneert het prima. En AMD kiest er dan voor ook desktop kaarten uit te brengen. VEGA precies hetzelfde, ontwikkeld voor Apple en de compute markt en dan brengen ze dat ding ook uit voor de desktop. Niet heel gek dat het dan niet 100% voldoet aan de verwachtingen.
Ryzen is ook alleen maar ontwikkeld voor de datacenter markt. Toevallig werkt dat dan wel aardig. AMD lijkt er een handje van te hebben om producten op de markt te brengen die eigenlijk niet voor het beoogde doel geschikt zijn.

Ik ben allang blij dat AMD nog producten uitbrengt voor de desktop en ik ben hartstikke tevreden met mijn VEGA kaart.
Beperkt budget. Nvidia doet het ook. Intel doet het ook. Nvidia's 2080 series is ook gewoon een aftakking van de professionele kaart, volta / Titan-V. Het verschil zit 'm in de compute mogelijkheden die bij de gamers kaarten worden afgeknepen tot 1:64 van het oorspronkelijke compute-power.

M.a.w je kunt dus niet bij Nvidia een gamers kaart aanschaffen en deze inzetten voor professionele doeleinden. Vroeger kon je kaarten nog wel eens softmodden van Geforce naar Quaddro maar dat is ook al niet meer.

Vega is op papier een hele mooie chip maar het heeft een slag meer transistors en vermogen nodig om hetzelfde als de 1080 te moeten bereiken. De 7nm series zou ansich een hele verbetering moeten zijn maar het is gewoon afwachten, want er zijn presentaties dat het ding 20TFlop aan zou kunnen met een verbruik van 400W in professionele markt.

Dat is altijd beter dan de huidige generatie Vega, maar het blijft een pro kaart die straks ook ingezet wordt voor gaming. Echter omdat AMD al een behoorlijke eco system met de PS4/Xbox heeft zullen steeds meer en meer games 'beter' draaien op een Vega dan voorheen. AMD is gewoon goede wijn dat naar mate het ouder wordt steeds beter zal gaan smaken.

Maar Intel doet het ook; top end CPU's afknijpen tot budget modellen. Er gaat gewoon niet veel verloren bij het uitsnijden van chips van een wafer. De niet volledig werkende onderdelen worden geskimpt en verkocht als wat goedkopere modellen t.o.v premium.

De Polaris 30 komt er hoogstwaarschijnlijk ook nog eens aan op een fijner procede. Hogere kloksnelheden, meer geheugenbandbreedte (GDDR6) en dankzij besparing naar kleiner formaat blijft de power ook binnen de perken. De RX580 piekt gewoon op 1300 ~ 1400MHz en alles daarboven komt gewoon met een explosief stroomverbruik. De winst die je eruit haalt is gewoon heel laag.

Acties:
  • +1 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 21-09 19:33
RmanX schreef op zondag 26 augustus 2018 @ 10:11:
Na een minder positieve ervaring met de Fury's in Crossfire op het gebied van ondersteuning en warmteproductie (8)7) toch maar besloten om te investeren in een RX Vega 64 Nitro+ van Sapphire. Kon mooi mijn 10-jarig jubileum van de switch naar Radeon GPU's gebruiken als verantwoording. ;)

[afbeelding]
Vrijwel net zo lang als de Fury, maar wel hoger en wat zwaarder..

Ook een mooi moment om het overzichtje van GPU's die ik in mijn bezit heb gehad bij te werken. De rood gekleurde cellen in de tabel geven het prestatieniveau weer ten opzichte van de Vega 64 afgerond op 5%.
Tot nu toe een aanzienlijke verbetering in spel ervaring op 4K. Hoewel dit met de Fury en zorgvuldig tweaken van instellingen ook al goed mogelijk was. _/-\o_

[afbeelding]
Voor het gemiddelde prestatieniveau ben ik uitgegaan van Techpowerup relatieve prestatiescores (alle resoluties of 1920x1080) en deze benchmarks op HardOCP welke weer zijn gecorrigeerd voor de klokfrequentie van de Nitro+ en de relatieve prestaties van de Fury t.o.v. de Fury X (95%) van TPU.
Mooi overzichtje en congrats me je RX Vega!
Kon het niet laten een foto te maken van een van mijn oude vlammen ;)
Afbeeldingslocatie: https://i.imgur.com/eJjC4fe.jpg

De Sapphire R9 280X heb ik ook gehad, heerlijke kaart ook!

Acties:
  • 0 Henk 'm!

  • RmanX
  • Registratie: Juni 2001
  • Laatst online: 10-03-2023

RmanX

Mario pizza!

Lord_Dain schreef op zondag 26 augustus 2018 @ 10:44:
[...]


Mooi overzichtje en congrats me je RX Vega!
Kon het niet laten een foto te maken van een van mijn oude vlammen ;)
[afbeelding]

De Sapphire R9 280X heb ik ook gehad, heerlijke kaart ook!
Mooie kaart die 5870. Hoogtijdagen van AMD :9

AMD Ryzen 9 3900X | 16 GB DDR4 3200 MHz | AMD Radeon RX Vega 64 | 2 x SSD | 2 x 5400 RPM HDD | LG 16X DVD RW | LG BD | LG 27" 4K


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

5870 :> <3

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

RmanX schreef op zondag 26 augustus 2018 @ 10:11:
Na een minder positieve ervaring met de Fury's in Crossfire op het gebied van ondersteuning en warmteproductie (8)7) toch maar besloten om te investeren in een RX Vega 64 Nitro+ van Sapphire. Kon mooi mijn 10-jarig jubileum van de switch naar Radeon GPU's gebruiken als verantwoording. ;)
Die kaart ziet er goed uit, nietwaar? :9~
Veel plezier ermee!
Voor wie geïnteresseerd is: de Vega64 Sapphire Nitro kost momenteel €579 bij Caseking, €589.65 inclusief BTW-verrekening (2 procentpunt uit mijn hoofd) en verzendkosten (naar Nederland uiteraard).
De Vega56 is ook nog steeds afgesprijsd: ongeveer €110 minder dan de Vega64 voor hetzelfde model.

Acties:
  • 0 Henk 'm!

Verwijderd

Als je de Vega 56 flasht met een 64 bios, en OC'ed, ligt het dan gelijk met een Vega 64?

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 26 augustus 2018 @ 15:41:
Als je de Vega 56 flasht met een 64 bios, en OC'ed, ligt het dan gelijk met een Vega 64?
Natuurlijk niet! Je hebt minder CU's. Wat je doet is de kaart nogal agressief overklokken maar dan by default in plaats van via MSI Afterburner of zo. Zelf zou ik het niet doen. Tenzij je daadwerkelijk 64 CU's zou hebben omdat AMD de 8 resterende CU's niet hardwarematig (overload) heeft uitgeschakeld en je geluk hebt met je sample (meer dies met 64 CU's dan dat ze kunnen verkopen en daarom verkocht voor een Vega56). Ik heb er nog niet van gehoord, i.t.t. de Ryzen CPU's waarbij je een klein kansje hierop hebt.

@RmanX
Hier een artikel wat interessant is voor jou: https://www.tomshardware....-radeon-r9-fury,4425.html
Met de kaart zelf was weinig mis maar je moest het ondervolten. Het probleem was dat de meeste eigenaars dit niet wisten, en dat AMD zoals Daniël graag opmerkt de slechte gewoonte heeft om de GPU's met een te hoge spanning en te hoge klokfrequentie de deur uit te doen.
Ondervolt die Fury een beetje en je hebt geen lawaaierig heethoofd maar je verliest geen of weinig performance.
Heb jij die kaart nog steeds?

[ Voor 68% gewijzigd door Verwijderd op 26-08-2018 16:23 ]


Acties:
  • 0 Henk 'm!

  • RmanX
  • Registratie: Juni 2001
  • Laatst online: 10-03-2023

RmanX

Mario pizza!

Verwijderd schreef op zondag 26 augustus 2018 @ 15:49:
[...]
@RmanX
Hier een artikel wat interessant is voor jou: https://www.tomshardware....-radeon-r9-fury,4425.html
Met de kaart zelf was weinig mis maar je moest het ondervolten. Het probleem was dat de meeste eigenaars dit niet wisten, en dat AMD zoals Daniël graag opmerkt de slechte gewoonte heeft om de GPU's met een te hoge spanning en te hoge klokfrequentie de deur uit te doen.
Ondervolt die Fury een beetje en je hebt geen lawaaierig heethoofd maar je verliest geen of weinig performance.
Heb jij die kaart nog steeds?
Ik heb de kaarten ondertussen beide verkocht om de Vega mee te financieren. Ik was op de hoogte van dit artikel en heb inderdaad beide kaarten in de P6 en P7 powerstates met ca. 50 mV kunnen undervolten waarmee ik ca. 100 Watt aan stroom kon besparen. Ondanks mijn grote oude kast was het alsnog lastig om ca. 500 Watt aan videokaart warmte kwijt te raken zonder dat de processor boven 62 °C kwam. Die Fury's blazen namelijk ook nog eens alle warme lucht rechtstreeks de processorkoeler in waarmee je lekker koele videokaarten krijgt, maar wel een warme processor :X. De hele zomer kon ik hierdoor praktisch gezien maar één kaart gebruiken. Dankzij die undervolt werd die ene kaart wel heel erg stil moet ik zeggen :+

AMD Ryzen 9 3900X | 16 GB DDR4 3200 MHz | AMD Radeon RX Vega 64 | 2 x SSD | 2 x 5400 RPM HDD | LG 16X DVD RW | LG BD | LG 27" 4K


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 26 augustus 2018 @ 15:49:
[...]

Natuurlijk niet! Je hebt minder CU's. Wat je doet is de kaart nogal agressief overklokken maar dan by default in plaats van via MSI Afterburner of zo. Zelf zou ik het niet doen. Tenzij je daadwerkelijk 64 CU's zou hebben omdat AMD de 8 resterende CU's niet hardwarematig (overload) heeft uitgeschakeld en je geluk hebt met je sample (meer dies met 64 CU's dan dat ze kunnen verkopen en daarom verkocht voor een Vega56). Ik heb er nog niet van gehoord, i.t.t. de Ryzen CPU's waarbij je een klein kansje hierop hebt.
Maar die paar CU's maken toch verder niet zoveel meer uit? Net zoiets als van een X800Pro naar X800XT flashen (4 meer CU's) wat nauwelijks uitmaakte.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 26 augustus 2018 @ 18:04:
[...]


Maar die paar CU's maken toch verder niet zoveel meer uit? Net zoiets als van een X800Pro naar X800XT flashen (4 meer CU's) wat nauwelijks uitmaakte.
Het ligt eraan wat je ermee wil doen. :)
Bij sommige spellen maakt het inderdaad niets uit, bij andere spellen wel en buiten gaming maakt het evenredig veel verschil (1/7de).
Maar goed, om terug te komen op jouw vraag, waarom zou je die Vega56 flashen met de BIOS van de Vega64? Waarom niet gewoon handmatig overklokken? Tenzij er een of andere harde begrenzer is die je enkel zo kan omzeilen maar dat zou ik enkel proberen als je weet dat de PCB hier geschikt voor is.
RmanX schreef op zondag 26 augustus 2018 @ 16:29:
Die Fury's blazen namelijk ook nog eens alle warme lucht rechtstreeks de processorkoeler in waarmee je lekker koele videokaarten krijgt, maar wel een warme processor :X. De hele zomer kon ik hierdoor praktisch gezien maar één kaart gebruiken. Dankzij die undervolt werd die ene kaart wel heel erg stil moet ik zeggen :+
Voor zo'n setup zou een blowerkoeler een betere uitkomst zijn. Bij mij komt het er niet in (lawaaierig, geef mij maar een grotere en beter gekoelde kast en desnoods flinke ondervolting en onderklokking of 1 grafische kaart) maar in dat geval helpt het wel, alle warme luch direct de kast uit.

[ Voor 32% gewijzigd door Verwijderd op 26-08-2018 18:15 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Omdat het flashen van een Vega 64 bios in een 56 zorgt voor een iets hoger voltage voor het HBM2 geheugen zodat je deze hoger kunt klokken dan dat de Vega 56 je toelaat B)

De bios was locked geloof ik; dus meer dan dit lukt qua mods ook niet.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 26 augustus 2018 @ 19:34:
Omdat het flashen van een Vega 64 bios in een 56 zorgt voor een iets hoger voltage voor het HBM2 geheugen zodat je deze hoger kunt klokken dan dat de Vega 56 je toelaat B)

De bios was locked geloof ik; dus meer dan dit lukt qua mods ook niet.
Bij de referentie-kaarten wel, ik weet niet of dat het ook voor de aftermarket-kaarten geldt.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Verwijderd schreef op zondag 26 augustus 2018 @ 23:46:
[...]

Bij de referentie-kaarten wel, ik weet niet of dat het ook voor de aftermarket-kaarten geldt.
Voor de Asus iig wel. :)

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 22-09 23:46
Ik zou em zeker flashen. HBM2 snelheid maakt soms netzoveel uit als de extra CU's.
Undervolt erbij en je kan redelijk in de buurt van een 64 komen.

Zelf toch voor de Nitro 64 gegaan, omdat ik op 3440x1440@100hz elke FPS kan gebruiken.
Erg benieuwd, als het goed is komt ie morgen.

Acties:
  • 0 Henk 'm!
DoubleYouPee schreef op maandag 27 augustus 2018 @ 10:51:
Ik zou em zeker flashen. HBM2 snelheid maakt soms netzoveel uit als de extra CU's.
Undervolt erbij en je kan redelijk in de buurt van een 64 komen.

Zelf toch voor de Nitro 64 gegaan, omdat ik op 3440x1440@100hz elke FPS kan gebruiken.
Erg benieuwd, als het goed is komt ie morgen.
800 MHz was wel erg laag ja. Maar Vega 64 LC is nog steeds sneller met hogere core clocks ondanks dezelfde HBM clock.
Die LC die ik heb wil helaas niet hoger dan 1000 HBM had gehoopt nu eindelijk een keer 1050 of 1100 te kunnen halen :P Maar goed de prestatie schaalt nog steeds prima. Hij draait nu mooi op 1650Mhz effectief met 1000mv.

Deze wil ook niet lager dan 1000mv waar die air kaarten ook nog naar 900mv konden. Ook al stel ik dat zo in blijft hij toch 1000mv geven.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 22-09 23:46
Astennu schreef op maandag 27 augustus 2018 @ 11:28:
[...]


800 MHz was wel erg laag ja. Maar Vega 64 LC is nog steeds sneller met hogere core clocks ondanks dezelfde HBM clock.
Die LC die ik heb wil helaas niet hoger dan 1000 HBM had gehoopt nu eindelijk een keer 1050 of 1100 te kunnen halen :P Maar goed de prestatie schaalt nog steeds prima. Hij draait nu mooi op 1650Mhz effectief met 1000mv.

Deze wil ook niet lager dan 1000mv waar die air kaarten ook nog naar 900mv konden. Ook al stel ik dat zo in blijft hij toch 1000mv geven.
Niet Wattman gebruiken :) of je hebt je HBM op 1000mv, volgens mij geldt dat in Wattman als minimum voltage voor alles... (van wat ik gelezen heb)

Acties:
  • 0 Henk 'm!
DoubleYouPee schreef op maandag 27 augustus 2018 @ 11:31:
[...]

Niet Wattman gebruiken :) of je hebt je HBM op 1000mv, volgens mij geldt dat in Wattman als minimum voltage voor alles... (van wat ik gelezen heb)
Dat is niet het HBM voltage (want die zou iets van 1.35v moeten zijn volgens mij heeft dat meer iets met de memory controller te maken) Maar natuurlijk heb ik die aangepast. Ik was een van de eerste met Vega in NL dus kwam daar toen vrij snel achter dat dat nodig was om lager te kunnen dan 1050mv.
Wattman werkt gewoon het mooiste. alleen deze Vega LC lockt blijkbaar op 1000mv.
Misschien probeer ik wel een keer wat met afterburner aan de andere kant 1000mv is best netjes en om met deze ook 900mv te draaien is wel een beetje zonde want het potentieel van de kaart want qua koeling kan hij het makkelijk aan.

[ Voor 6% gewijzigd door Astennu op 27-08-2018 11:40 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Mannekino
  • Registratie: Maart 2001
  • Laatst online: 24-03 21:12
Ik heb sinds zaterdag een Sapphire Nitro+ Vega 56, hiervoor had ik een RX 580. Sinds ik de Vega in mijn PC heb geprikt heb ik 3-4 keer last gehad van een spontane reboot. Ik heb dit ook al in een andere topic geplaatst (voeding advies) en schijnt een probleem te zijn met de Seasonic Focus Plus Gold 550. Ik krijg morgen of woensdag mijn nieuwe voeding.

Wat raden jullie aan om eventueel nog te doen qua optimalisaties voor deze videokaart. Ik heb begrepen dat undervolten aan te raden is? Een zetje in de goede richting zou ik op prijs stellen. Graag ontvang ik was leesvoer. Dit is de kaart die ik nu heb: http://sapphirenitro.sapphiretech.com/en/Vega56.html

Nog een laatste vraag: op de website van Sapphire lijkt het erop dat er ook LED-verlichting bij de ventilatoren zou moeten zijn maar ik heb het alleen op de achterkant en zijkant. Klopt dit? Kon er niets over vinden bij de specs.

[ Voor 29% gewijzigd door Mannekino op 27-08-2018 11:54 ]


Acties:
  • 0 Henk 'm!

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 08:40

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

Mannekino schreef op maandag 27 augustus 2018 @ 11:51:
Ik heb sinds zaterdag een Sapphire Nitro+ Vega 56, hiervoor had ik een RX 580. Sinds ik de Vega in mijn PC heb geprikt heb ik 3-4 keer last gehad van een spontane reboot. Ik heb dit ook al in een andere topic geplaatst (voeding advies) en schijnt een probleem te zijn met de Seasonic Focus Plus Gold 550. Ik krijg morgen of woensdag mijn nieuwe voeding.

Wat raden jullie aan om eventueel nog te doen qua optimalisaties voor deze videokaart. Ik heb begrepen dat undervolten aan te raden is? Een zetje in de goede richting zou ik op prijs stellen. Graag ontvang ik was leesvoer. Dit is de kaart die ik nu heb: http://sapphirenitro.sapphiretech.com/en/Vega56.html

Nog een laatste vraag: op de website van Sapphire lijkt het erop dat er ook LED-verlichting bij de ventilatoren zou moeten zijn maar ik heb het alleen op de achterkant en zijkant. Klopt dit? Kon er niets over vinden bij de specs.
Lees eens de laatste paar pagina's van dit topic zou ik zeggen. :)

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


Acties:
  • 0 Henk 'm!

  • Mannekino
  • Registratie: Maart 2001
  • Laatst online: 24-03 21:12
_Dune_ schreef op maandag 27 augustus 2018 @ 12:05:
[...]


Lees eens de laatste paar pagina's van dit topic zou ik zeggen. :)
Thanks, ga ik dat vanavond even doen (y)

Acties:
  • +2 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Laatst online: 01:01

dion_b

Moderator Harde Waren

say Baah

Modbreak:Let even op, dit is de nieuwsdiscussietopic, geen aankoopadvies- of ervaringentopic.

Voor dat laatste hebben we: AMD RX Vega Ervaringen topic

Hou het on-topic, is het niet nieuwswaardig - en dat is je persoonlijke setup per definitie niet - dan hoort het hier niet thuis :o

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:33
DaniëlWW2 schreef op zaterdag 25 augustus 2018 @ 11:39:
[...]
Ik heb zelf nu al bijna een jaar een Vega en die kaart blijft totdat AMD met iets beters komt.
Gevaarlijke uitspraken in de huidige tijd.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
sdk1985 schreef op maandag 27 augustus 2018 @ 17:45:
[...]

Gevaarlijke uitspraken in de huidige tijd.
Op de brandstapel!

Ik denk er hetzelfde over. Geen zin om een kaart bij een bedrijf te kopen waar ik als consument niet achter sta. Zeker niet voor de huidige prijzen :z (ik gun ze die marge niet, want qua geld kan het er makkelijk van af...). Ik koop uiteindelijk nog liever een Intel kaart dan een Nvidia kaart (hoewel die twee niet ver van elkaar zitten).

Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op maandag 27 augustus 2018 @ 17:45:
[...]

Gevaarlijke uitspraken in de huidige tijd.
Niet bepaald! Het heeft er alle schijn van dat na Navi AMD weer met een volle line-up komt en met een nieuwe architectuur. Het is zeker dat AMD tijdelijk minder investeerde in RTG wegens financiële nood - in belangrijke mate maar niet uitsluitend door competitiemijdend gedrag van Intel en Nvidia (hier offtopic en een bekend verhaal, daarom laat ik het bij deze korte kanttekening) - en dat de investeringen nu weer zijn toegenomen. Dat heeft Su zelf immers aangegeven en ook is aangegeven dat bepaalde medewerkers die aan Ryzen werkte op de GPU zijn gezet. AMD komt wel weer terug, ze weten verdomd goed wat ze doen. Of in ieder geval weet Su verdomd goed wat ze doet. Het is wel spijtig dat twee belangrijke medewerkers (de Jim's) zijn vertrokken van de CPU-afdeling en dat Koduri weg is.

Verder voor mij hetzelfde sentiment als voor Sp3ci3s8472 en Astennu, geen Nvidia meer sinds GPP. Daarvoor was het al lastig maar nu overweeg ik het niet eens. Daarmee gingen ze een paar stappen te ver.

[ Voor 9% gewijzigd door Verwijderd op 28-08-2018 22:53 ]


Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:33
Verwijderd schreef op dinsdag 28 augustus 2018 @ 22:51:
[...]

Niet bepaald! Het heeft er alle schijn van dat na Navi AMD weer met een volle line-up komt en met een nieuwe architectuur. Het is zeker dat AMD tijdelijk minder investeerde in RTG wegens financiële nood - in belangrijke mate maar niet uitsluitend door competitiemijdend gedrag van Intel en Nvidia (hier offtopic en een bekend verhaal, daarom laat ik het bij deze korte kanttekening) - en dat de investeringen nu weer zijn toegenomen. Dat heeft Su zelf immers aangegeven en ook is aangegeven dat bepaalde medewerkers die aan Ryzen werkte op de GPU zijn gezet. AMD komt wel weer terug, ze weten verdomd goed wat ze doen. Of in ieder geval weet Su verdomd goed wat ze doet. Het is wel spijtig dat twee belangrijke medewerkers (de Jim's) zijn vertrokken van de CPU-afdeling en dat Koduri weg is.
Volledige line-up? Ik heb nog geen concrete aanwijzingen voorbij zien komen om terug te komen op mijn voorspelling.

Je moet oppassen dat je niet steeds jezelf gek maakt door bij elke tegenvaller te grijpen naar de volgende stro halm. Eerst zou de overstap van 28nm de grote redding van Radeon zijn en werken als equalizer. Daarna zou de omarming van DX12 de redding van Radeon worden, want AMD liep achter op DX12. Toen zou het toch Vega worden. [insert Mantle, A-sync compute, Vulkan, enz] Nu dan maar weer alle eieren op Navi inzetten? Het optimisme moet een keer ophouden toch :o ? Een eerst zien dan geloven mentaliteit lijkt me een stuk zinniger.

Zo ver ik heb begrepen was AMD er vrij duidelijk in dat de 7nm Vega alleen voor bedrijven uitkomt. Dat kan betekenen dat of Navi heel dichtbij is en het dus geen nut heeft om die 7nm voor gaming uit te brengen. Echter in dat geval zou je die prosumer Vega 7nm ook niet hoeven uitbrengen. Dus de logischer verklaring is dat Vega nog altijd te duur is om te maken al dat niet gecombineerd met gebrek aan geld om een hele line-up te lanceren.

Ik vrees persoonlijk nog steeds dat AMD uberhaupt nooit een high-end concurrent voor de Geforce 2xxx zal lanceren (dwz tegen de tijd dat AMD wel met iets komt zit GeForce alweer een serie verder, 2020/2021). Persoonlijk heb ik zo mijn vraagtekens of navi uberhaupt q1 2019 al komt (zie je weleens voorbij komen) maar als dat al zo is dan verwacht ik mid-range. Alles daarboven is zeker welkom maar wat mij betreft niet reëel. De geruchten gingen juist dat Navi tegenviel. De totale leegloop bij AMD lijkt mij ook geen goed teken...

Het staat je vrij een andere inschatting te maken, doe dat ook vooral. Alleen nogmaals; ik zie geen aanleiding tot optimisme.
Verder voor mij hetzelfde sentiment als voor Sp3ci3s8472 en Astennu, geen Nvidia meer sinds GPP. Daarvoor was het al lastig maar nu overweeg ik het niet eens. Daarmee gingen ze een paar stappen te ver.
Voor GPP kochten jij en Astennu ook geen Nvidia kaarten toch :*) ? Mijn laatste AMD was brazos 8) . De RX480 had ik bijna gekocht, maar ik was aan het wachten op custom kaarten. Maar toen die er eindelijk kwamen was het augustus 2018 en had ik 2 maanden daarvoor al een 1070 gekocht. Een blower kaart komt er bij mij echt niet in. Mijn systeem is bij wijze van spreken 0 dB. Met een Scythe PCGH kun je zelfs renderen zonder hoorbare koeling.. Ik heb nog een betaalbare upgrade voor mijn 2e game pc nodig. Dat kan wel tot 2019 wachten :P . Zou ik het nu via V&A doen dan kom je op een 1060 voor 150 euro of een 1070 voor 250 euro. De 580 is nog wat te duur (en het zijn er weinig!).

[ Voor 16% gewijzigd door sdk1985 op 29-08-2018 01:20 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Er zijn een aantal ontwikkelingen geweest de afgelopen jaren die wat hoop gaven maar die zijn intussen uitgespeeld zonder dat ze veel gebracht hebben.

Voorlopig (1 a 2jr) zie ik helaas ook weinig kans op successen voor de AMD high end (gaming).

Gelukkig zijn er een paar kleine lichtpuntjes:
- Mocht Zen succesvol blijven dan komt er waarschijnlijk meer geld beschikbaar.
- De CPU medewerkers die naar GPU zijn overgeplaatst om te helpen en ervaring over te dragen..
- Spoedige 7nm Vega rollout. Levert weer ervaring op.

En hopelijk zijn er achter de schermen wel al levensbatbare nieuwe architecturen uitgedacht.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op dinsdag 28 augustus 2018 @ 14:25:
[...]


Op de brandstapel!

Ik denk er hetzelfde over. Geen zin om een kaart bij een bedrijf te kopen waar ik als consument niet achter sta. Zeker niet voor de huidige prijzen :z (ik gun ze die marge niet, want qua geld kan het er makkelijk van af...). Ik koop uiteindelijk nog liever een Intel kaart dan een Nvidia kaart (hoewel die twee niet ver van elkaar zitten).
Same here. Maar heb nu een Vega 64 Liquid die is toch weer een stukje sneller dan de Air versie.
En op 1440P zijn de prestaties prima. Desnoods ga ik wel op high gamen ipv Ultra zo'n kaart kan dan prima 3 jaar mee. Al verwacht ik dat er ook wel een Navi komt die wat sneller is als Vega. Hopelijk een heel stuk sneller maar dat durf ik nu nog niet te hopen.

Clock voor clock is Fiji volgens mij iets sneller als Vega (Als je beide bv op 1100 MHz laat draaien). Ik zou het zelf een keer kunnen testen met een Fury Nano die ik heb. Maar er is dus nog wel ruimte voor verbetering lijkt mij zo :)
Verwijderd schreef op dinsdag 28 augustus 2018 @ 22:51:
[...]

Niet bepaald! Het heeft er alle schijn van dat na Navi AMD weer met een volle line-up komt en met een nieuwe architectuur. Het is zeker dat AMD tijdelijk minder investeerde in RTG wegens financiële nood - in belangrijke mate maar niet uitsluitend door competitiemijdend gedrag van Intel en Nvidia (hier offtopic en een bekend verhaal, daarom laat ik het bij deze korte kanttekening) - en dat de investeringen nu weer zijn toegenomen. Dat heeft Su zelf immers aangegeven en ook is aangegeven dat bepaalde medewerkers die aan Ryzen werkte op de GPU zijn gezet. AMD komt wel weer terug, ze weten verdomd goed wat ze doen. Of in ieder geval weet Su verdomd goed wat ze doet. Het is wel spijtig dat twee belangrijke medewerkers (de Jim's) zijn vertrokken van de CPU-afdeling en dat Koduri weg is.

Verder voor mij hetzelfde sentiment als voor Sp3ci3s8472 en Astennu, geen Nvidia meer sinds GPP. Daarvoor was het al lastig maar nu overweeg ik het niet eens. Daarmee gingen ze een paar stappen te ver.
Ach ja soms is een frisse wind door het bedrijf heen ook wel goed. Dus wie weet is de switch in managment niet verkeerd. Koduri had wel echt de pech dat hij zo weinig budget had want hij is wel heel fanatiek en enthusiast over GFX.
sdk1985 schreef op woensdag 29 augustus 2018 @ 01:07:


Voor GPP kochten jij en Astennu ook geen Nvidia kaarten toch :*) ? Mijn laatste AMD was brazos 8) . De RX480 had ik bijna gekocht, maar ik was aan het wachten op custom kaarten. Maar toen die er eindelijk kwamen was het augustus 2018 en had ik 2 maanden daarvoor al een 1070 gekocht. Een blower kaart komt er bij mij echt niet in. Mijn systeem is bij wijze van spreken 0 dB. Met een Scythe PCGH kun je zelfs renderen zonder hoorbare koeling.. Ik heb nog een betaalbare upgrade voor mijn 2e game pc nodig. Dat kan wel tot 2019 wachten :P . Zou ik het nu via V&A doen dan kom je op een 1060 voor 150 euro of een 1070 voor 250 euro. De 580 is nog wat te duur (en het zijn er weinig!).
Jawel ik heb een even een 980, 970 , 980 Ti en 1080 Ti gehad. Maar vrij snel weer terug switched naar AMD omdat ik dat toch prettiger vond en dat het qua prijs prestatie voordeliger was de Geforce weer te verkopen.

Er komen nu wel steeds meer Radeon kaarten terug op de markt nu de mining in stort 4GB kaartjes zijn al goedkoop te krijgen voor 160 maar de 8GB zijn nog duurder (rond de 200 geloof ik) en die zie je minder.

[ Voor 20% gewijzigd door Astennu op 29-08-2018 10:13 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op woensdag 29 augustus 2018 @ 09:03:
Gelukkig zijn er een paar kleine lichtpuntjes:
- Mocht Zen succesvol blijven dan komt er waarschijnlijk meer geld beschikbaar.
- De CPU medewerkers die naar GPU zijn overgeplaatst om te helpen en ervaring over te dragen..
- Spoedige 7nm Vega rollout. Levert weer ervaring op.
Volgens mij heeft AMD reeds meer geld beschikbaar gesteld voor RTG. AMD gaf dit eerder in het jaar aan bij de presentatie waarin de 7 nm. Vega werd aangekondigd (voor niet-gaming).
Persoonlijk heb ik zo mijn vraagtekens of navi uberhaupt q1 2019 al komt (zie je weleens voorbij komen) maar als dat al zo is dan verwacht ik mid-range.
Ja, maar midrange op 7 nm. Rond vega64 of iets beter maar voor een aanzienlijk lagere prijs dan de Vega56.
Volgens mij verwacht niemand hier q1 2019, zelf verwacht ik Navi rond augustus/september.
Zou ik het nu via V&A doen dan kom je op een 1060 voor 150 euro of een 1070 voor 250 euro. De 580 is nog wat te duur (en het zijn er weinig!).
Het zit nu op 60-70% van de nieuwprijs.

[ Voor 33% gewijzigd door Verwijderd op 29-08-2018 13:36 ]


Acties:
  • 0 Henk 'm!

  • Skybullet
  • Registratie: April 2008
  • Laatst online: 22-09 23:52
sdk1985 schreef op woensdag 29 augustus 2018 @ 01:07:

Eerst zou de overstap van 28nm de grote redding van Radeon zijn en werken als equalizer. Daarna zou de omarming van DX12 de redding van Radeon worden, want AMD liep achter op DX12. Toen zou het toch Vega worden. [insert Mantle, A-sync compute, Vulkan, enz] Nu dan maar weer alle eieren op Navi inzetten? Het optimisme moet een keer ophouden toch :o ? Een eerst zien dan geloven mentaliteit lijkt me een stuk zinniger.
Precies dit ! mij maakt het oprecht niet uit welk merk component er in mijn computer zit. ik kijk gewoon welke prestaties ik op dat moment van aankoop kan krijgen voor mijn geld en kom gewoon nooit op amd uit. Elke keer weer als ik op het punt stond van aanschaf van "weer " een nvidia product, waren er de topics en posts op websites zoals onder andere deze met

Mantle gaat nvidia hun koppositie kosten .. Dx12 gaat amd weer aan de top brengen.... Wacht maar op vega want die gaat nvidia vernietigen...

En elke keer weer was het diep teleurstellend, op gebied van prestaties zekere gekeken naar verbruik, hitteproductie en ook simpelweg beschikbaarheid en driverondersteuning

Ik ben bang dat tegen de tijd amd weer mee gaat doen op de gpu markt dat nvidia al weer een 30xx serie bijna uit heeft.

Hopelijk kan intel wel zorgen voor wat meer concurrentie en diversiteit in de markt over een paar jaar.

Acties:
  • 0 Henk 'm!
Ik vraag mij af of het nog wel belangrijk is om de snelste kaart te hebben. Ja tuurlijk voor de marketing is het heel goed.
Maar wie koopt tegenwoordig nog het topmodel? In de tijd van de Radeon 9700 Pro had je die kaart voor 430 euro. Was het snelste van het snelste. Nu betaal je 1200-3000 euro voor het topmodel van nVidia.

Ook als er wel concurrentie was zag je de prijzen langzaam stijgen. Er zijn markt segmenten bij gekomen dat zie je ook bij moederborden. Eerst was 150-200 euro voor een moederbord echt veel nu heb je er genoeg van 500+ euro.

Je ziet het ook bij telefoons die over de 1000 euro heen gaan. Ook bij CPU's en dus ook bij GPU's.

Als AMD goede snelle kaarten heeft voor 100,200 en 350-400 euro en de nVidia tegenhangers kunnen verslaan is het denk ik ook al goed. Want daar shoppen de meeste mensen. Dan kan je in ieder geval een stuk marktaandeel behouden.

De 775mm2 grote 2080 Ti verslaan gaat gewoon erg lastig worden. Of je moet zelf ook een giga chip bouwen wat ik weer niet snel zie gebeuren.

Polaris deed het niet slecht maar had net wat stiller en zuiniger moeten zijn met dezelfde prestaties (was waarschijnlijk grotendeels gelukt als ze hem bij TSMC hadden gemaakt ipv gloflo)

Als ze dat met Navi beter kunnen doen en qua prestaties tussen de 2070-2080 uit kunnen komen vind ik het al niet verkeerd. En dan wat modellen omlaag en vooral twee goede rond de 150-250 euro.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:33
@Astennu
Toen Ati nog zelfstandig was kwam het grootste deel van het volume van low-end, mid-range beste marge en high-end was leuk voor de naam.

Tegenwoordig werkt dat helemaal anders. Low-end is verdwenen door de introductie van de APU/IGP (bedankt AMD). Daardoor is het veel lastiger geworden het volume te halen om je kosten een beetje netjes te spreiden. Tegelijkertijd is Nvidia erin geslaagd om vrijwel elke gamer aan een GTX 970 te krijgen. Een groter marktaandeel van een enkele kaart heb ik in 10 jaar nog nooit op de steamcharts gezien. Dit is knap want die GTX 970 $329 waarmee de nieuwe modus dus voortaan boven de 300 dollar ligt. Met de Pascal serie is het Nvidia niet gelukt dit nog verder op te hogen en is vooral de GTX 1060 populair (5.5x meer dan 1070). Echter zijn de volumes in high-end, zeker gezien de hoge prijzen, ongekend groot.

Toch is het voor AMD in theorie prima mogelijk om flinke winsten te behalen met een concurrent van de x60. Daar zit immers het grote volume. Dus als je daar een kaart kunt bouwen met een marge van 30%+ dan die ook nog aan slaat dan zit je goed..

Sterker nog als AMD Polaris 50 dollar duurder had gemaakt dan hadden ze hoogst waarschijnlijk aan deze eisen kunnen voldoen. Echter in de praktijk lijkt AMD niet de know-how te hebben om dit voor elkaar te krijgen. De underdog mentaliteit zorgt voor producten met lage marges. Zonder topkaart wordt die underdog mentaliteit er echt niet beter op. We gaan het zien...

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
sdk1985 schreef op woensdag 29 augustus 2018 @ 01:07:
[...]
Voor GPP kochten jij en Astennu ook geen Nvidia kaarten toch :*) ? Mijn laatste AMD was brazos 8) . De RX480 had ik bijna gekocht, maar ik was aan het wachten op custom kaarten. Maar toen die er eindelijk kwamen was het augustus 2018 en had ik 2 maanden daarvoor al een 1070 gekocht. Een blower kaart komt er bij mij echt niet in. Mijn systeem is bij wijze van spreken 0 dB. Met een Scythe PCGH kun je zelfs renderen zonder hoorbare koeling.. Ik heb nog een betaalbare upgrade voor mijn 2e game pc nodig. Dat kan wel tot 2019 wachten :P . Zou ik het nu via V&A doen dan kom je op een 1060 voor 150 euro of een 1070 voor 250 euro. De 580 is nog wat te duur (en het zijn er weinig!).
Ik heb best wat Nvidia kaarten gehad :p. Het is wel een tijdje terug voor de desktop kaarten, dat waren een 7800GS (AGP! en heb ik nog liggen) en daarnaast 6600GT in SLI. Daarna AMD met HD4870x2 (verkocht), HD5870 (verkocht), R9 290 (verkocht), RX 480 (verkocht).
In mijn laptop zit een GTXx960m, maar dat is minder mijn eigen keuze.

Voor mijn HTPC / tweede gamepc wil ik nog een kaart, maar dat wordt waarschijnlijk 2ehands of iets dergelijks. Brazos begint toch echt te traag te worden, zelfs Doom in Linux heeft moeite.

Acties:
  • +1 Henk 'm!

Verwijderd

Skybullet schreef op woensdag 29 augustus 2018 @ 14:10:
[...]


Precies dit ! mij maakt het oprecht niet uit welk merk component er in mijn computer zit.
Totdat jij over 5-10 jaar €450 moet betalen voor een *60 kaar omdat Nvidia geen concurrent meer heeft. Misschien dat jij dan consisent gaat zijn (misschien niet, ik weet het niet) maar ik weet dat het voor veel mensen niet geldt. Kijk maar eens naar hoeveel mensen klaagden over de hoge prijzen van de 2070, 2080 en 2080 Ti. Dat is een belangrijke reden dat wij moeite hebben met sommige manipulatieve concurrentiemijdende tactieven van Nvidia zoals GPP, Gameworks (aanvankelijk gelosten software en 100% aangepast op de specifieke architectuur van Nvidia) en PhysX. Het is belangrijk dat er een gezonde concurrentie is. Als AMD/ATI hierbij minder presteert dan is het prima dat ze minder verkopen maar het is ook vaak geweest dat ze de betere hardware hadden en dat dan toch 70% van de gamers Nvidia koopt.

Dat is echter slechts 1 aspect van het verhaal, er zijn ook technische redenen dat sommige mensen hier de voorkeur geven aan AMD. Denk bijvoorbeeld aan FreeSync, het feit dat ze meer streven naar open code (ongeacht de motieven) en dat ze meer streven naar modernere software-oplossingen zoals Vulkan. Voor sommige mensen zal de veel hogere performance bij taken zoals rendering meespelen (voor mijzelf echter geen issue hoewel ik het wel interessant zou vinden om dat ooit nog eens te leren).

Vega bevat tal van features die AMD een streep voor kunnen geven maar developers weigeren om die te ondersteunen terwijl diezelfde developers wel direct Nvidia hun nieuwe trucjes ondersteunen (RTX). Mantle, Vulkan en DX12 zijn inderdaad prima software voor AMD maar ook hiervoor geldt, het wordt nog weinig goed gebruikt. De meeste zogenaamde DX12-spellen gebruiken slechts een DX12-wrapper. Ik heb overigens eveneens Nvidia-kaarten gehad, soms onvrijwillig (OEM-systemen) en 1 keer vrijwillig.

[ Voor 14% gewijzigd door Verwijderd op 29-08-2018 18:49 ]


Acties:
  • +1 Henk 'm!

  • Skybullet
  • Registratie: April 2008
  • Laatst online: 22-09 23:52
Verwijderd schreef op woensdag 29 augustus 2018 @ 18:39:
[...]

Dat is een belangrijke reden dat wij moeite hebben met sommige manipulatieve concurrentiemijdende tactieven van Nvidia zoals GPP, Gameworks (aanvankelijk gelosten software en 100% aangepast op de specifieke architectuur van Nvidia) en PhysX.
Dan weet ik ook nog een leuk filmpje over hoe amd radeon er alles aan heeft gedaan om reviews over de vega frontier edition te beinvloeden of publicatie tegen te gaan. Linus tech tips heeft daar onder andere nog een youtube film over

Feit blijft dat elk bedrijf in elke sector twijfelachtige praktijken er op na gaat houden om hun product beter er uit te laten zien dan de concurrentie en om meer te verkopen.

Voor de rest ben ik het zeker met je eens. Ongeacht of je nu hardnekkig voor 1 kamp bent ( wat ik totaal niet kan begrijpen maargoed, wie kiest er nu moedwillig voor een slechter product voor een merk ) of net als ik gewoon iemand die op dat moment de beste optie kiest, met hardware, met een auto, met eigenlijk alles.. voor iedereen is het beter om concurrentie te hebben. laten we hopen dat dat snel terug komt in de gpu markt.

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 11:22

vectormatic

Warlock of the doorlock

Verwijderd schreef op woensdag 29 augustus 2018 @ 18:39:
[...]

Totdat jij over 5-10 jaar €450 moet betalen voor een *60 kaar omdat Nvidia geen concurrent meer heeft. Misschien dat jij dan consisent gaat zijn (misschien niet, ik weet het niet) maar ik weet dat het voor veel mensen niet geldt. Kijk maar eens naar hoeveel mensen klaagden over de hoge prijzen van de 2070, 2080 en 2080 Ti.
We zijn al half-way there. een 6600GT was gewoon €200 destijds, nu mag je €300 voor een 1060 6gb betalen, en destijds had je in diezelfde price range ook nog kaarten als een 6800LE/XT

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

vectormatic schreef op donderdag 30 augustus 2018 @ 09:30:
[...]


We zijn al half-way there. een 6600GT was gewoon €200 destijds, nu mag je €300 voor een 1060 6gb betalen, en destijds had je in diezelfde price range ook nog kaarten als een 6800LE/XT
Vergeet je de inflatie van de euro niet mee te nemen? 200,- toen is nu ongeveer 270,- dus zoveel ontloopt het elkaar niet.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Verwijderd

Skybullet schreef op donderdag 30 augustus 2018 @ 09:12:
[...]


Dan weet ik ook nog een leuk filmpje over hoe amd radeon er alles aan heeft gedaan om reviews over de vega frontier edition te beinvloeden of publicatie tegen te gaan. Linus tech tips heeft daar onder andere nog een youtube film over

Feit blijft dat elk bedrijf in elke sector twijfelachtige praktijken er op na gaat houden om hun product beter er uit te laten zien dan de concurrentie en om meer te verkopen.
"elk bedrijf in elke sector" gaat waarschijnlijk wat te ver maar ik ben het zeker met jou eens dat AMD ook hier en daar heeft geprobeerd om reviews in positieve zin te beïnvloeden. ATI haalde ook streken uit en heeft net als Nvidia valsgespeeld met benchmarks (2004 en eerder, zoek maar eens op), AMD is hier overigens niet op betrapt. In hoeverre dat problematisch is moet je per geval bekijken. Soms waren er goede redenen voor, soms vond ik het twijfelachtig.
Het punt is hier dat er een groot verschil is tussen je eigen product er beter te laten uitzien en de concurrent geen kans geven om mee te doen. Voor veel andere mensen zijn dit oude koeien (@vaste volgers hier, sla het over!) maar om het toe te lichten voor jou hier een kleine uiteenzetting.

Nvidia kocht in het verleden PhysX (toen anders genoemd) om het van de markt te halen en ervoor te zorgen dat gamers die een AMD-kaart gebruikten geen physX konden gebruiken.
Daar hoort een iets langer verhaal bij, voor sake of brievity geef ik hier de beknopte versie. ATI had overigens de kans om PhysX te kopen voordat Nvidia het deed, ATI besloot om het niet te doen wat achteraf gezien een grote fout was.
Ja kan er dan nog over discussiëren of dat dit wel of niet fair game is als je de concurrenten toestaat om het op de voor hen optimale manier te renderen. Het probleem hierbij was dat Nvidia het renderen van physX via de CPU op een niet-optimale manier deed waardoor de CPU-load meer dan dubbel zo hoog werd dan wat nodig was.
Hier het gedetailleerde verhaal van een van de meest deskundige mensen in dit tech-journalisme wereldje: https://www.realworldtech.com/physx87/4/
Hier de samenvatting: https://www.tomshardware....ck-amd-radeon,2764-4.html
Het kan dat Nvidia blunderde maar bij Nvidia werken veel slimme mensen...

ATI had als eerste tesellation ingebouwd in hun hardware. Nvidia deed dat vervolgens ook maar meer en liet developers flink wat proprietary (geheime code, niet te lezen door andere bedrijven) code gebruiken om voor allerlei effecten tessellation met een belachelijke hoge stand te gebruiken. Zo hoog dat er geen positief verschil zichtbaar is (volgens andere mensne hier zelfs een negatief effect doordat het er te nep uitzag) maar het wel de performance om zeep helpt voor zowel de concurrenten als vorige generaties kaarten van Nvidia. Dit was als het ware een van de voorlopers van Gameworks. In die tijd pushte Nvidia ook hevig hun rookeffect wat zeer inefficiënt was uitgewerkt en een zware performancehit gaf in verhouding tot het visuele effect. Nu is dat minder een probleem als je in het spel de optie hebt om het effect uit te zetten maar die ontbrak vaak. Mijn stokpaardje hierbij is Assassin's Creed. AC2 Revelations geeft enorme stutter door het rookeffect (niet eens zichtbaar met een AMD kaart maar wel een gigantische performance hit) en AC3 en AC4 waren in het begin onspeelbaar op elke AMD kaart. De Batman-spellen hadden misschien nog wel het meest dit probleem.

Later kwam Gameworks. Toeval of niet, veel van die effecten belastten op zo'n manier de hardware dat ze enkel op de hardware van Nvidia goed werkten. Wederom ging het aanvankelijk om geheime code waardoor het voor AMD onmogelijk was om ervoor te optimaliseren. Op een bepaald punt (bijvoorbeeld tessellation maar het kan ook iets anders zijn) was de belasting teveel voor de AMD-kaarten waardoor de rest van de kaart werd opgehouden en de FPS gigantisch zakte. Je moet immers alles voor 1 frame hebben gerenderd voordat je verder kan gaan met de volgende frame aangezien de input van de speler bepaalt wat er voor de volgende frame moet worden gerenderd. Later publiceerde Nvidia een deel van de Gameworkscode maar tot nu toe voor zo ver ik het weet hoofzakelijk nadat het een tijdlang geheim was. Zie bijvoorbeeld Rise of the Tomb Raider.
Tegenwoordig halen AMD-kaarten ongeveer dezelfde FPS als Nvidia-kaarten, de eerste 1-2 jaar was er een groot FPS-verschil, in die tijd was de Gameworks-code die voor dit spel werd gebruikt geheim, ondertussen werd die code gedeeld (wat overigens niet automatisch wil zeggen dat het open source is, om een misverstand te voorkomen)
Er zijn veel populaire spellen die via Gameworks Nvidia een groot voordeel geven, waaronder GTA5, de laatste Final Fantasy en de meeste spellen die de Unreal Engine 4 gebruiken.

Tenslotte de GPP waarbij Nvidia de bedrijven ASUS, Gigabyte en MSI verbood om dezelfde modelnaam (ASUS ROG, MSI GamingX, Gigabyte Aorus) te gebruiken voor AMD als voor Nvidia. Waarom is dat een probleem? De klanten zijn gewend aan die merknaam en zien dit (in mijn ogen vaak onterecht) als een A-product. Als bij de AMD-varianten een andere naam erop staat dan ontstaat de indruk dat dit een minder goed product moet zijn.

Van The Way It Is Meant To Be Played (marketing die je vaak bij de reclame-schermen in het begin van een spel zag en die niet overgeslagen kon worden) kan je nog stellen dat het slimme marketing is. Dat is toegestaan, voor mij werkt het op mijn zenuwen maar het is geen oneerlijke competitie. Van die andere punten kan je stellen dat het niet een faire vorm van competitie is. Daar heb ik moeite mee. Het belangrijkste is echter het punt dat ik graag de underdog steun omdat we over een paar jaar geen concurrent meer hebben, dat en FreeSync zolang Nvidia dat niet steunt. ;)

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 11:22

vectormatic

Warlock of the doorlock

Blaat schreef op donderdag 30 augustus 2018 @ 09:44:
[...]


Vergeet je de inflatie van de euro niet mee te nemen? 200,- toen is nu ongeveer 270,- dus zoveel ontloopt het elkaar niet.
Vind ik een moeilijke, destijds betaalde je diezelfde €200 voor een x2 3800, wat kwa markt positionering voor mij hetzelfde is als een 2600(x), die €150-200 kost, niet een 2700(x), daar gaat inflatie wat mij betreft dus compleet niet op.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

vectormatic schreef op donderdag 30 augustus 2018 @ 09:53:
[...]


Vind ik een moeilijke, destijds betaalde je diezelfde €200 voor een x2 3800, wat kwa markt positionering voor mij hetzelfde is als een 2600(x), die €150-200 kost, niet een 2700(x), daar gaat inflatie wat mij betreft dus compleet niet op.
Zo moeilijk is het niet imo. Er is nu sterkere concurrentie op CPU gebied dus zijn de prijzen iets beter dan toen.

Op GPU gebied is minder concurrentie dus zijn de prijzen iets slechter dan toen. Beetje kortaf natuurlijk want de kosten voor geheugen zijn flink gestegen + de exponentieel stijgende kosten voor kleinere nodes. De kostprijzen van hardware (met name videokaarten want GDDR) zijn dus ook hoger.

Vanuit dat perspectief vind ik 300,- voor mid range niet gek t.o.v. de 200,- van toen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Vroeger kostte PCs duizenden guldens.. en had je geen 3D, audio, netwerk en ODD. ;)
Blaat schreef op donderdag 30 augustus 2018 @ 09:57:
[...]


Zo moeilijk is het niet imo. Er is nu sterkere concurrentie op CPU gebied dus zijn de prijzen iets beter dan toen.

Op GPU gebied is minder concurrentie dus zijn de prijzen iets slechter dan toen. Beetje kortaf natuurlijk want de kosten voor geheugen zijn flink gestegen + de exponentieel stijgende kosten voor kleinere nodes. De kostprijzen van hardware (met name videokaarten want GDDR) zijn dus ook hoger.

Vanuit dat perspectief vind ik 300,- voor mid range niet gek t.o.v. de 200,- van toen.
Salaris is helaas niet in die orde van grote gestegen....
Altijd leuk die inflatie berekeningen maar salarissen gaan zo ver ik heb gezien niet in die orde van grote omhoog. Of je moet actief gaan job hoppen ect. Maar dan zit je niet meer in dezelfde functie.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Als we eerlijk de prijzen van toen en nu willen vergelijken is het dan niet het handigste om je te richten op de diesizes en de kosten van het geheugen toen en nu (kosten van het geheugen eraf trekken en op die manier de prijzen normaliseren). Verder uiteraard rekening houden met de inflatie maar dat spreekt voor zich.
Wikipedia: List of Nvidia graphics processing units
Wikipedia: List of AMD graphics processing units
Voor wie zich eraan waagt, ik wens je veel succes om alle diesizes en geheugen-kosten te vinden, dat wordt flink googlen.
Olaf van der Spek schreef op donderdag 30 augustus 2018 @ 10:00:
Vroeger kostte PCs duizenden guldens.. en had je geen 3D, audio, netwerk en ODD. ;)
offtopic:
De XT/AT en voorgangers. Een duizend gulden kostende monochrome monitor met een 360p-resolutie of lager (volgens mij lager, ik moet er niet aan denken) op een meer dan duizend gulden kostende desktop-computer met een harde schijf die zo klein was dat je floppy's moest wisselen om programma's te laden en waar vaak een matrix-printer op was aangesloten waarbij je moest vechten met het papier om netjes te printen. Ondertussen moest je hopen dat je de commando's voor de CLI kende of op zijn minst het help-commando had ontdekt (waarbij het twijfelachtig was of dat je er wijs uit kwam als je niet de folderstructuur begreep). De goede oude tijd, maar niet voor technologie ondanks dat het geromantiseerd wordt. :p

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Verwijderd schreef op donderdag 30 augustus 2018 @ 10:10:
Als we eerlijk de prijzen van toen en nu willen vergelijken is het dan niet het handigste om je te richten op de diesizes en de kosten van het geheugen toen en nu (kosten van het geheugen eraf trekken en op die manier de prijzen normaliseren). Verder uiteraard rekening houden met de inflatie maar dat spreekt voor zich.
Hardware en software R&D kost nu ook veel meer dan vroeger.

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Astennu schreef op donderdag 30 augustus 2018 @ 10:08:
[...]


Salaris is helaas niet in die orde van grote gestegen....
Altijd leuk die inflatie berekeningen maar salarissen gaan zo ver ik heb gezien niet in die orde van grote omhoog. Of je moet actief gaan job hoppen ect. Maar dan zit je niet meer in dezelfde functie.
Waar baseer je dat op? Als ik naar mezelf kijk krijg ik elk jaar een CAO verhoging die al hoger is dan de inflatie en dan heb ik het nog niet eens over de verhoging die ik krijg t.g.v. mijn beoordeling.

Ben ik dan zo bovengemiddeld?

Ik kan me voorstellen dat de echt lage inkomens dat niet hebben maar gemiddeld gezien geloof ik niet dat de salarissen niet zouden groeien met de inflatie. In dat geval zou er ook sprake moeten zijn van economische krimp en daar is t.o.v. 2004 geen sprake van.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.

Blaat schreef op donderdag 30 augustus 2018 @ 10:31:
[...]


Waar baseer je dat op? Als ik naar mezelf kijk krijg ik elk jaar een CAO verhoging die al hoger is dan de inflatie en dan heb ik het nog niet eens over de verhoging die ik krijg t.g.v. mijn beoordeling.

Ben ik dan zo bovengemiddeld?

Ik kan me voorstellen dat de echt lage inkomens dat niet hebben maar gemiddeld gezien geloof ik niet dat de salarissen niet zouden groeien met de inflatie. In dat geval zou er ook sprake moeten zijn van economische krimp en daar is t.o.v. 2004 geen sprake van.
Tja die heb ik niet genoeg jaren er niets bij gehad dan weer een keer wat meer. Maar ik ben zelf 33. Collega's die ouder zijn gaan niet zo maar meer omhoog. Ik heb er wel meer dan de onderstaande 22,79% bij gekregen in de afgelopen 14 jaar. Maar ik groei ook nog qua functie (bv van junior naar medior dus niet helemaal vergelijkbaar) Als je aan het dak van je schaal zit is het wellicht anders en sta je wel degelijk stil. (zal niet overal zo zijn maar bij ons kan dat gebeuren echter zijn dat wel bedragen die imo hoog genoeg zijn dat ik mij daar dan niet direct druk om zou maken al zullen sommige 4500-5000 bruto weinig vinden ik vind dat best veel).

De 6600GT is een kaart uit 2004. Dat is +- 14 jaar terug. x 1.627857% inflatie is 22,79% (over de afgelopen 14 jaar heb het even opgezocht en uitgerekend)
200 x 1.22.79 = 245.56 euro. Dus de prijzen zijn nu wel inflatie x2 voor hetzelfde segment.

[ Voor 6% gewijzigd door Astennu op 30-08-2018 10:48 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Olaf van der Spek schreef op donderdag 30 augustus 2018 @ 10:15:
[...]

Hardware en software R&D kost nu ook veel meer dan vroeger.
Dat is waar, daarvoor zou je ook moeten compenseren.

Verwijderd

Het is nogal offtopic maar aangezien salarissen werd aangehaald door @Astennu. Denk hier even over na: in de jaren 80 kon 1 werknemer gemakkelijk een gezin onderhouden: huis, vakantie(s), hobbies...allemaal geen probleem. HIervoor hoefde je geen goede baan te hebben.
Succes om dat in 2018 te doen met het modale salaris.

[ Voor 48% gewijzigd door Verwijderd op 30-08-2018 11:34 ]

Verwijderd schreef op donderdag 30 augustus 2018 @ 11:31:
Het is nogal offtopic maar aangezien salarissen werd aangehaald door @Astennu. Denk hier even over na: in de jaren 80 kon 1 werknemer gemakkelijk een gezin onderhouden: huis, vakantie(s), hobbies...allemaal geen probleem. HIervoor hoefde je geen goede baan te hebben.
Succes om dat in 2018 te doen met het modale salaris.
Lukt je inderdaad niet meer nu moeten beide werken of een iemand moet een hele goede baan hebben.
Dingen zijn echt wel duurder geworden Maar we hebben ook wel steeds meer luxe in ons leven. Opzich heb je natuurlijk geen 1080 Ti of Vega 64 nodig om een spelletje te spelen. Kan ook met goedkoper spul :) spelletjes spelen is sowieso al luxe.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Astennu schreef op donderdag 30 augustus 2018 @ 10:46:
[...]


Tja die heb ik niet genoeg jaren er niets bij gehad dan weer een keer wat meer. Maar ik ben zelf 33. Collega's die ouder zijn gaan niet zo maar meer omhoog. Ik heb er wel meer dan de onderstaande 22,79% bij gekregen in de afgelopen 14 jaar. Maar ik groei ook nog qua functie (bv van junior naar medior dus niet helemaal vergelijkbaar) Als je aan het dak van je schaal zit is het wellicht anders en sta je wel degelijk stil. (zal niet overal zo zijn maar bij ons kan dat gebeuren echter zijn dat wel bedragen die imo hoog genoeg zijn dat ik mij daar dan niet direct druk om zou maken al zullen sommige 4500-5000 bruto weinig vinden ik vind dat best veel).
Nog eventjes hierop inhaken. Op zich is het prima dat anciënniteit is verminderd/afgeschaft maar je moet dan wel compenseren bij het startsalaris of het salaris wanneer je aan het plafond zit in een functie. Ik ben het overigens met je eens dat 4500-5000 bruto een prima salaris is, daarmee kom je gewoon rond en kan je een normale woning en leuke hobby's financieren zonder zuinig te hoeven zijn op andere vlakken.
Verwijderd schreef op donderdag 30 augustus 2018 @ 11:36:
[...]

Nog eventjes hierop inhaken. Op zich is het prima dat anciënniteit is verminderd/afgeschaft maar je moet dan wel compenseren bij het startsalaris of het salaris wanneer je aan het plafond zit in een functie. Ik ben het overigens met je eens dat 4500-5000 bruto een prima salaris is, daarmee kom je gewoon rond en kan je een normale woning en leuke hobby's financieren zonder zuinig te hoeven zijn op andere vlakken.
Ik zou willen dat ik zo'n salaris had dan hoor je mij echt niet meer ^^
Ik weet niet exact wat de regels zijn zou daar eens in moeten duiken. Ik steek die tijd eigenlijk meer in het lezen over nieuwe hardware vind ik leuker :$

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Astennu schreef op donderdag 30 augustus 2018 @ 11:33:
Lukt je inderdaad niet meer nu moeten beide werken of een iemand moet een hele goede baan hebben.
Dingen zijn echt wel duurder geworden Maar we hebben ook wel steeds meer luxe in ons leven. Opzich heb je natuurlijk geen 1080 Ti of Vega 64 nodig om een spelletje te spelen. Kan ook met goedkoper spul :) spelletjes spelen is sowieso al luxe.
Ja, maar die luxe kost nu ook weer niet zoveel dat dat in relevante mate compenseert! Een volledige computer waar je goed mee kan gamen kost €1000-1500. 1 of 2 monitors, een muis en toetsenbord en je mag er misschien nog zo'n €1000 bijtellen. Afschrijftijd, ergens tussen de 5 (CPU, moederbord, grafische kaart, RAM) en 15 (voeding, kast, koeler, monitor, toetsenbord, muis hopelijk) jaar afhankelijk van de componenten. Een paar honderd € per jaar dus, exclusief spellen (die je meestal sterk afgeprijsd kan kopen als je een beetje geduld hebt).
Verwijderd schreef op donderdag 30 augustus 2018 @ 11:43:
[...]

Ja, maar die luxe kost nu ook weer niet zoveel dat dat ook in relevante mate compenseert! Een volledige computer waar je goed mee kan gamen kost €1000-1500. 1 of 2 monitors, een muis en toetsenbord en je mag er misschien nog zo'n €100 bijtellen. Afschrijftijd, ergens tussen de 5 (CPU, moederbord, grafische kaart, RAM) en 15 (voeding, kast, koeler, monitor, toetsenbord, muis hopelijk) jaar afhankelijk van de componenten. Een paar honderd € per jaar dus, exclusief spellen (die je meestal sterk afgeprijsd kan kopen als je een beetje geduld hebt).
Klopt. Ik weet nog wel toen ik begon met gamen dat je voor 1500 gulden zo'n beetje het beste van het beste had qua CPU, ram en Videokaart.

Dat is nu wel even wat anders. Voor dat geld heb je nu nog niet eens de snelste videokaart. Want die kosten tegenwoordig 1200-3000 euro. (Titan V en RTX 2080 Ti) :'(

Aan dat soort prijzen ga ik ook niet meer mee doen. Ik vond 600-700 euro al erg veel voor het snelste van het snelste. Zelfde bij telefoon's ik vind 700 duur genoeg verder ga ik niet. Dan maar niet het laatste top model.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +2 Henk 'm!
Verwijderd schreef op donderdag 30 augustus 2018 @ 09:52:
ATI had als eerste tesellation ingebouwd in hun hardware. Nvidia deed dat vervolgens ook maar meer en liet developers flink wat proprietary (geheime code, niet te lezen door andere bedrijven) code gebruiken om voor allerlei effecten tessellation met een belachelijke hoge stand te gebruiken.
Je slaat hier enkele stappen over.

ATI had eigenlijk al sinds 2001 (!) tessellation. Toen heette het nog TruForm. Uiteraard nooit echt van de grond gekomen omdat het proprietary was en zij nooit zo gepusht hebben als Nvidia dat doet.

Vervolgens zou Tessellation in DX10 (of 10.1, weet ik even niet meer) komen. Mag je één keer raden waarom dat dat naar DX11 werd doorgeschoven.

Dat is ook waar het verschil tussen AMD en Nvidia zit. Elk bedrijf zal proberen reviews te beïnvloeden en om in zo'n gunstig mogelijk daglicht te staan. Beide bedrijven (en ook Intel of vroeger bijvoorbeeld 3DFX) hebben vaak zat rare review guidelines gepresenteerd, twijfelachtige "optimalisaties" in hun drivers gestopt (voor diegenen die nog niet zo lang mee draaien: Google "Quack 3 ATI" maar eens; dat is geen typo ;)) en dat soort ongein. Wat ATI en nu AMD echter nooit hebben gedaan, is de concurrentie gewoon keihard de markt uit proberen te rammen. Dat is wat Nvidia wel doet. Er zit wat mij betreft een groot verschil tussen louche marketing trucjes, en je concurrentie letterlijk buiten spel zetten.

Vergeet niet dat ATI lang geleden (jaren '90) de markt ook keihard in hun greep had - vooral op 2D gebied was de Mach serie gewoon dé kaart bij uitstek. Ik heb ook veel meer Rage's gezien dan Riva's. En begin deze eeuw zijn er ook enkele jaren geweest waar zij in de positie zaten waar Nvidia nu in zit. Vooral rond de 9700 en iets later toen Nvidia hun stofzuigers uit bracht, had ATI juist de markt in handen. Is natuurlijk niet helemaal vergelijkbaar met het heden, want de markt was toen ook veel kleiner en market share kon bij elke release volledig omslaan (en dat gebeurde ook met de FX serie van Nvidia). Tegenwoordig is de markt veel groter, waarbij het merendeel van het publiek er geen sodemieter vanaf weet. Nvidia's macht is in die zin dus nog veel groter dan die van ATI toen.


Edit: overigens weerhoudt het er mij persoonlijk niet van een Nvidia product te kopen als er geen directe concurrentie is. Ik zit nu gewoon op een 1080 Ti. Je zult mij echter geen onzin als een Titan, 2080 (Ti) of zo'n ondermaats G-Sync product zien kopen.
Blaat schreef op donderdag 30 augustus 2018 @ 10:31:
Waar baseer je dat op? Als ik naar mezelf kijk krijg ik elk jaar een CAO verhoging die al hoger is dan de inflatie en dan heb ik het nog niet eens over de verhoging die ik krijg t.g.v. mijn beoordeling.
offtopic:
Even drie lettertjes vet gedrukt. Niet iedereen heeft dat - en dat maakt soms heel veel uit ;)

Hoe vaak ik m'n ma wel al niet heb horen vloeken omdat iemand zegt dat ze "wettelijk" recht ergens op heeft...behalve dat dat niet zo is, omdat accountants geen CAO hebben en die "rechten" waar de ander het over heeft uit een CAO komen.

Als zelfstandige heb je ook helemaal niets, dan ben je afhankelijk van marktwerking. In mijn geval is dat nou niet bepaald een probleem, maar ik ken er ook die het niet zo lekker doen.

[ Voor 21% gewijzigd door Werelds op 30-08-2018 12:58 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Astennu schreef op woensdag 29 augustus 2018 @ 15:18:
Maar wie koopt tegenwoordig nog het topmodel? In de tijd van de Radeon 9700 Pro had je die kaart voor 430 euro. Was het snelste van het snelste. Nu betaal je 1200-3000 euro voor het topmodel van nVidia.
Maar een jaar later betaalde je alweer 499 euro voor de Radeon 9800 Pro. Maar ook voor de Radeon 9700 Pro had je dure videokaarten hoor: de GeForce 3 had in 2001 een introductieprijs van $500. Omgerekend betaalde je € 600 euro voor zo'n kaart in de Benelux. Dat weet ik nog goed, want ik was een early adopter van de GeForce 3 en had een Hercules 3D Prophet III.

De goeie ouwe tijd van de Hercules 3D Prophet videokaarten :p

March of the Eagles


  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 22-09 14:34
Bij my com kocht ik een GeForce 2 gts 32 mb voor 1000 gulden toen de tijd van asus.
Toen had je nog harde schijven in retail verpakking .
Later overgegaan naar een 9800 xt

[ Voor 12% gewijzigd door Beaudog op 30-08-2018 13:03 ]


Verwijderd

Astennu schreef op donderdag 30 augustus 2018 @ 11:49:
[...]


Klopt. Ik weet nog wel toen ik begon met gamen dat je voor 1500 gulden zo'n beetje het beste van het beste had qua CPU, ram en Videokaart.

Dat is nu wel even wat anders. Voor dat geld heb je nu nog niet eens de snelste videokaart. Want die kosten tegenwoordig 1200-3000 euro. (Titan V en RTX 2080 Ti) :'(

Aan dat soort prijzen ga ik ook niet meer mee doen. Ik vond 600-700 euro al erg veel voor het snelste van het snelste. Zelfde bij telefoon's ik vind 700 duur genoeg verder ga ik niet. Dan maar niet het laatste top model.
Vanzelfsprekend was er een 0 weggevallen in mijn reactie voor de monitor, het toetsenbord en de muis. Ik dacht concreet aan een 1440p- (gaming) en eventueel 4k-monitor (televisie) en een mechanische toetsenbord en een goede gaming-muis.

Ja, helaas is het niet meer zo dat je voor 1500 gulden het beste hebt, ook met compensatie voor inflatie kom je daar niet bij in de buurt, 1500 gulden is ongeveer €675, sinds 1998 hadden we pak hem beet 52% inflatie. Laten we zeggen dat het nu €1030-1035 zou zijn. Anderzijds was Quake met een hoge FPS toen high-end gaming, dan heb ik toch liever de graphics van nu. De gameplay, tja, dat kan vaak beter maar in ieder geval hebben we een brede waaier aan spellen en zitten er ook spellen tussen die wel een goede gameplay hebben. Geluid is ook veel beter dan toen. Dat neemt natuurlijk niet weg dat er ook hele leuke oude spelletjes waren (Lost Vikings, Loadrunner, Monkey Island, Supaplex, Commander Keen...) en dat sommige van de spelletjes die het beste van toen (goede 2d gameplay) met het beste van nu (graphics en geluid) combineren (Cuphead bijvoorbeeld) heel erg leuk zijn.

Met een telefoon ben ik veel gieriger dan jij, ik ben tevreden met een domme telefoon zolang je er een kaart (OpenStreetMaps of offline Google Maps) op kan opslaan en je die soepel kan gebruiken. Ik heb geen behoefte aan internet op mijn telefoon. Ja, soms is het handig om dat te hebben (direct je e-mail kunnen bekijken, Whatsapp) maar ik denk dat ik gelukkiger ben zonder de hele tijd die afleiding te hebben wanneer ik buiten de deur ben. Het scheelt weer een verslaving en het scheelt veel kosten, zowel voor de telefoon als dat je geen abonnement nodig hebt. :*)
Mijn mobiele telefoon blijft meestal binnen.
Ik besteed dan weer graag geld aan goede speakers, muziekinstrumenten...
Ik weet niet exact wat de regels zijn zou daar eens in moeten duiken. Ik steek die tijd eigenlijk meer in het lezen over nieuwe hardware vind ik leuker :$
Terecht hoor, het leven is soms zwaar genoeg, buiten je werk mag je het leuk maken voor jezelf. ;)

Ontopic weer, voor mij ligt de bovengrens in principe op €400-500 voor de grafische kaart. Ik kijk heel erg naar waarde/€ en hoelang het meegaat met de eisen die ik heb (resolutie, FPS, kwaliteit graphics). Je merkt dat Nvidia heel erg pusht om de duurdere modellen te kopen, ze geven relatief meer waarde/€ aan de duurste modellen en het valt me al even op dat de *80 ti, *80 en *70 aanzienlijk meer vooruitgang maken dan de *60, *50 ti, *50 en *30. De lowend-kaarten geven helaas relatief weinig waarde per €. Zo'n *60 gaat nog maar een *70 geeft meer waarde en eerlijk gezegd zijn de 1080 en de 1080 ti binnen het groene kamp geen slechte aankoop. Bij AMD kan je nu de Vega-kaarten voor €450-€510 kopen (Duitse winkels) terwijl je hier voor een RX 580 €300-350 betaalt. Duidelijk meer waarde per €, zeker als je in ogenschouw neemt dat de laatste je nog een paar jaar 1440p gaming met 100 FPS biedt (desnoods met medium instellingen op een gegeven moment) terwijl de eerste te licht is voor 1440p gaming voor de komende paar jaar.

[ Voor 22% gewijzigd door Verwijderd op 30-08-2018 14:56 ]


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Verwijderd schreef op donderdag 30 augustus 2018 @ 14:36:
Anderzijds was Quake met een hoge FPS toen high-end gaming, dan heb ik toch liever de graphics van nu. De gameplay, tja, dat kan vaak beter maar in ieder geval hebben we een brede waaier aan spellen en zitten er ook spellen tussen die wel een goede gameplay hebben. Geluid is ook veel beter dan toen. Dat neemt natuurlijk niet weg dat er ook hele leuke oude spelletjes waren (Lost Vikings, Loadrunner, Monkey Island, Supaplex, Commander Keen...) en dat sommige van de spelletjes die het beste van toen (goede 2d gameplay) met het beste van nu (graphics en geluid) combineren (Cuphead bijvoorbeeld) heel erg leuk zijn.
Heb het idee dat er vroeger veel meer verschillende games en soorten games waren. Is ook niet zo vreemd omdat ontwikkeltijd en budget vele malen lager waren.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:33
Astennu schreef op donderdag 30 augustus 2018 @ 11:49:
[...]


Klopt. Ik weet nog wel toen ik begon met gamen dat je voor 1500 gulden zo'n beetje het beste van het beste had qua CPU, ram en Videokaart.

Dat is nu wel even wat anders. Voor dat geld heb je nu nog niet eens de snelste videokaart. Want die kosten tegenwoordig 1200-3000 euro. (Titan V en RTX 2080 Ti) :'(

Aan dat soort prijzen ga ik ook niet meer mee doen. Ik vond 600-700 euro al erg veel voor het snelste van het snelste. Zelfde bij telefoon's ik vind 700 duur genoeg verder ga ik niet. Dan maar niet het laatste top model.
Gulden zijn euro's geworden en voor 1500 bouw je een heel mooi systeem. Maar ik deel het sentiment, mijn GTX260 was 140 euro nieuw en de 460 Hawk was 165 euro. Daarna is het allemaal toch een stuk extremer geworden.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

sdk1985 schreef op donderdag 30 augustus 2018 @ 17:54:
Maar ik deel het sentiment, mijn GTX260 was 140 euro nieuw en de 460 Hawk was 165 euro.
Dan heb jij die ofwel op een andere planeet gekocht, ofwel veel later, nadat de refreshes uit waren en ze dus niet "nieuw" meer waren ;)

Een 260 kostte toch echt ruim over de €300 nieuw (meestal zelfs richting de €400) - hoe jij in god's naam aan €140 komt begrijp ik echt niet, dat ding is *nooit* zo goedkoop geweest. Dat is het prijspunt waar je een GTS 250 of misschien net de 4850 kon vinden.

De GTX 460 768 MB zat niet ver van die €165 vandaan, maar wel hoger dan dat (€180 ofzo). De Hawk was echter een 1 GB model en die zaten allemaal ruim boven de €200 :)

Edit: m'n eigen GTX 460 factuur even opgezocht, €205,95 voor de Gigabyte op 6-9-2010 :)

[ Voor 5% gewijzigd door Werelds op 30-08-2018 19:20 ]


  • Full of Lag
  • Registratie: Januari 2011
  • Laatst online: 29-08 19:02
Inderdaad, ik had dezelfde kaart gekocht (Gigabyte GTX460) en dat was iets meer dan €200. Eigenlijk wilde ik een 5850 kopen, maar die waren toen veel duurder of zelfs nauwelijks beschikbaar.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Misschien niet helemaal de plek om het te plaatsen, maar holy shit, dat Toms hardware kan je toch niet serieus meer nemen?
YouTube: Response to Tom's Hardware's Insane "Just Buy It" ...

Acties:
  • 0 Henk 'm!

Verwijderd

spNk schreef op vrijdag 31 augustus 2018 @ 00:00:
Misschien niet helemaal de plek om het te plaatsen, maar holy shit, dat Toms hardware kan je toch niet serieus meer nemen?
YouTube: Response to Tom's Hardware's Insane "Just Buy It" ...
De kwaliteit van Tomshardware is in de laatste 5 jaar hard achteruit gegaan. Sommige reviews zijn echt steengoed hoor, daar niet van, maar de richting van de website is puur het drijven van affiliate inkomsten en daarom dat overal affiliate links worden rondgestrooid. Het is niet ongewoon meer om met zoveel mogelijk adblockers die site te bezoeken.

Ze waren vroeger authoriteit, maar dat is niet meer. Het is een commercieele bende geworden. En het zou me niets verbazen als juist in dat artikel verwezen wordt met affiliate links naar sites waar je een Nvidia kaart kunt kopen. De marges die uitgekeerd worden zullen ongetwijfeld hoog zijn.

[ Voor 9% gewijzigd door Verwijderd op 31-08-2018 01:04 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:33
Werelds schreef op donderdag 30 augustus 2018 @ 19:17:
[...]

Dan heb jij die ofwel op een andere planeet gekocht, ofwel veel later, nadat de refreshes uit waren en ze dus niet "nieuw" meer waren ;)

Een 260 kostte toch echt ruim over de €300 nieuw (meestal zelfs richting de €400) - hoe jij in god's naam aan €140 komt begrijp ik echt niet, dat ding is *nooit* zo goedkoop geweest. Dat is het prijspunt waar je een GTS 250 of misschien net de 4850 kon vinden.

De GTX 460 768 MB zat niet ver van die €165 vandaan, maar wel hoger dan dat (€180 ofzo). De Hawk was echter een 1 GB model en die zaten allemaal ruim boven de €200 :)

Edit: m'n eigen GTX 460 factuur even opgezocht, €205,95 voor de Gigabyte op 6-9-2010 :)
De 216core was al uit toen uit en mijn 260 was het oude model. pricewatch: EVGA GeForce GTX 260 896MB Doet het nog steeds trouwens :). Daarvoor had ik de 8800 GTS 640MB dus het verschil was niet mega groot (die had ik voor de prijs van 320MB kort na launch bij de dollarshop, volgens mij is dat een foutje geweest :P). Die kon ik echter nog voor 100 euro kwijt aan een man met een groene ribbroek (zo ging dat toen :+ ) dus netto was mijn GTX260 maar 40 euro...

De 460 Hawk was vrij snel betaalbaar: pricewatch: MSI N460GTX Hawk. Denk paar maandjes na launch. Overigens bizarre kaart, deed toen 950 Mhz waar hij met factory oc iets van 720-780 deed en spec was richting de 650. Kun je nagaan dat het ding uit de fabriek als 20% sneller was dan de GTX 460 768MB die jij had.

Dat is dus precies het punt, toen had je nog voor een leuk bedrag koopjes. Waren bovendien kaarten waarmee je elke game op de hoogste details kon spelen. (De tijden van 1280x1024 en 1680x1050 :P). Nu lijken de meeste kaarten gewoon te verdwijnen. Tegenwoordig kun je dus eigenlijk beter een paar weken naar de launch kopen. Anders zit je 2 jaar te wachten op een daling die niet echt komt.

[ Voor 33% gewijzigd door sdk1985 op 31-08-2018 02:48 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Vlizzjeffrey
  • Registratie: Oktober 2013
  • Laatst online: 19-09 16:57
Tijden van de 7970 kon je idd nog highend gamen met een systeem van 900 euro, dat is wel voorbij ja.

Acties:
  • 0 Henk 'm!

  • Erkel
  • Registratie: Mei 2006
  • Laatst online: 19-09 11:11
Elke keer zie ik hier nieuwe reacties, en in de hoop dat er wat nieuws is toch even kijken, maar helaas, er is al zo lang niets uitgekomen van AMD dat er zelfs producten van weet ik veel hoe lang geleden besproken worden. 8)7 :+

C2D E6600 - 2048MB Kingston - Sapphire HD2900XT - 200Gb Samsung - Asus P5B-E


Acties:
  • 0 Henk 'm!
sdk1985 schreef op vrijdag 31 augustus 2018 @ 02:32:
De 216core was al uit toen uit en mijn 260 was het oude model. pricewatch: EVGA GeForce GTX 260 896MB
Ook toen niet joh. Die is pas dusdanig gezakt op het moment dat ze met de 55nm refreshes kwamen, dus ergens rond april 2009. Zie je ook in je prijs grafiek.

En die kwamen heel goedkoop op de markt om AMD dwars te zitten; de 275 werd plotseling op papier gelaunched, weken voordat het ding daadwerkelijk op de markt had moeten komen - heel toevallig net rond de tijd dat de 4890 uit kwam ;)
De 460 Hawk was vrij snel betaalbaar: pricewatch: MSI N460GTX Hawk. Denk paar maandjes na launch.
Wel meer dan een paar, zal eerder 6-7 maanden geweest zijn. Volgende de PW grafiek zit de laagste prijs in april 2011 pas net op die €165 van jou - en dat zal wel een zaak als Max-ICT geweest zijn ;)
Kun je nagaan dat het ding uit de fabriek als 20% sneller was dan de GTX 460 768MB die jij had.
Ik had een 1 GB versie van Gigabyte ;)
Dat is dus precies het punt, toen had je nog voor een leuk bedrag koopjes. Waren bovendien kaarten waarmee je elke game op de hoogste details kon spelen. (De tijden van 1280x1024 en 1680x1050 :P). Nu lijken de meeste kaarten gewoon te verdwijnen. Tegenwoordig kun je dus eigenlijk beter een paar weken naar de launch kopen. Anders zit je 2 jaar te wachten op een daling die niet echt komt.
Dat heeft vooral te maken met het feit dat we de tick-tock cadence kwijt zijn. Toen kregen we nog het ene jaar een nieuwe chip, het volgende jaar een shrink daarvan. De 460 was ook een moetje voor Nvidia, die moest relatief goedkoop in de markt gezet worden om hun verliezen te drukken. 2009 en 2010 waren geen goede jaren voor hen.

Acties:
  • 0 Henk 'm!

Verwijderd

Erkel schreef op vrijdag 31 augustus 2018 @ 10:51:
Elke keer zie ik hier nieuwe reacties, en in de hoop dat er wat nieuws is toch even kijken, maar helaas, er is al zo lang niets uitgekomen van AMD dat er zelfs producten van weet ik veel hoe lang geleden besproken worden. 8)7 :+
Houd er maar rekening mee dat Navi de eerstvolgende nieuwe grafische kaart is en dat het ongeveer een jaar duurt voordat die uitkomt, geef en neem een paar maanden.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sebastiaandebru
  • Registratie: November 2009
  • Laatst online: 11-09 20:51
https://wccftech.com/amd-...-cards-launching-in-2018/

Wie had dat gedacht, ook nog even met een sterke zet komen op de GPU markt in 2018.

Acties:
  • 0 Henk 'm!

Verwijderd

Sebastiaandebru schreef op zondag 2 september 2018 @ 10:05:
https://wccftech.com/amd-...-cards-launching-in-2018/

Wie had dat gedacht, ook nog even met een sterke zet komen op de GPU markt in 2018.
Polaris 20. Beetje richting 1070Ti niveau, zou heel erg mooi zijn. :)

Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 22-09 23:46
Sebastiaandebru schreef op zondag 2 september 2018 @ 10:05:
https://wccftech.com/amd-...-cards-launching-in-2018/

Wie had dat gedacht, ook nog even met een sterke zet komen op de GPU markt in 2018.
Dat is of Vega 20 (niet mid-ragen) of de 7nm vega voor compute, lijkt me.
Helaas nog geen opvolger van Vega 64. Nouja, gelukkig maar want heb net een Vega gekocht :+

Acties:
  • 0 Henk 'm!

  • Brilsmurfffje
  • Registratie: December 2007
  • Niet online

Brilsmurfffje

Parttime Prutser

Sebastiaandebru schreef op zondag 2 september 2018 @ 10:05:
https://wccftech.com/amd-...-cards-launching-in-2018/

Wie had dat gedacht, ook nog even met een sterke zet komen op de GPU markt in 2018.
Zitten ze bij Nvidia allemaal te kijken naar lichtstraaltjes, trekt AMD even 20TFLOPs uit een GPU. :)

Het is alleen jammer dat je vrij weinig hebt aan AMD kaarten voor zaken als machine learning, dat draait hoofdzakelijk op CUDA cores..

Acties:
  • 0 Henk 'm!
Brilsmurfffje schreef op zondag 2 september 2018 @ 12:07:
[...]


Zitten ze bij Nvidia allemaal te kijken naar lichtstraaltjes, trekt AMD even 20TFLOPs uit een GPU. :)

Het is alleen jammer dat je vrij weinig hebt aan AMD kaarten voor zaken als machine learning, dat draait hoofdzakelijk op CUDA cores..
20TFLOPS FP32 hé. Het is Vega dus 40TFLOPS FP16 omdat Vega halve precision kan doen. ;)
Met een Vega 10 zou je al zeer basale realtime ray tracing moeten kunnen draaien, dus met Vega 20 kan je het zeker. Het probleem is dat Nvidia claimt dat ze 10TFLOPS FP16 per GigaRay/sec gebruiken, en de RTX2070 al zes Gigarays per seconde doet. De RTX2080 doet dan acht en de RTX2080Ti tien.

Niet dat het uitmaakt omdat Vega 20 geen gaming chip is. Ik verwacht eerder dat Navi in H1/2019 lanceert dan Vega 20 als gaming chip. Polaris 30 verwacht ik al helemaal niet.

Verder is AMD al jaren bezig met CUDA te porten naar C++ zodat het ook allemaal werkt op AMD. Er lijken klanten voor te zijn voor Vega, maar dat zal nog wel jaren gaan duren voordat AMD echt meedoet.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Dit wordt 'gewoon' een Radeon Instinct. Er zullen waarschijnlijk dus niet eens uitgangen aan zitten voor een display.

Acties:
  • 0 Henk 'm!
Paprika schreef op zondag 2 september 2018 @ 13:02:
Dit wordt 'gewoon' een Radeon Instinct. Er zullen waarschijnlijk dus niet eens uitgangen aan zitten voor een display.
Waarschijnlijk komt er wel een WX variant en die zal wel wat aansluitingen hebben. Kost dan alsnog dik €2000 omdat Vega 20 boven de WX9100 geplaatst zal worden en die beginnen al bij €1750. :)
Neemt niet weg dat het licht uit de pricerange van de gemiddelde gamer zal liggen. :P

[ Voor 9% gewijzigd door DaniëlWW2 op 02-09-2018 14:00 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Brilsmurfffje
  • Registratie: December 2007
  • Niet online

Brilsmurfffje

Parttime Prutser

https://www.forbes.com/si...ega-7nm-gpu/#62a1fede7ba7

Mooi om te zien dat hier ook PyTorch op staat, veel researchers die ik ken hebben een 1080Ti onder hun bureau staan. Draait het straks ook allemaal op VEGA dan is het speelveld weer gelijkelijk verdeeld tussen groen en rood.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Als het een gaming kaart wordt vraag ik me nog steeds af of ze de bottlenecks in het ontwerp hebben opgelost. Geheugen bottleneck zal er in ieder geval niet zijn met 1.28TB/Second; dat is mooi want Vega64 lijkt daar wel last van te hebben.

Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op zondag 2 september 2018 @ 13:59:
[...]


Waarschijnlijk komt er wel een WX variant en die zal wel wat aansluitingen hebben. Kost dan alsnog dik €2000 omdat Vega 20 boven de WX9100 geplaatst zal worden en die beginnen al bij €1750. :)
Neemt niet weg dat het licht uit de pricerange van de gemiddelde gamer zal liggen. :P
Ik heb zo mijn twijfels dat je een dergelijke variant dit jaar zou gaan zien. De realiteit is en blijft dat AMD relatief maar een beperkte aanhang heeft in de professionele desktop markt. Juist in deep-machine learning maken ze veel kans door de $/prestatie van hun chips.

[ Voor 16% gewijzigd door Paprika op 02-09-2018 18:33 ]


Acties:
  • 0 Henk 'm!
Paprika schreef op zondag 2 september 2018 @ 18:31:
[...]

Ik heb zo mijn twijfels dat je een dergelijke variant dit jaar zou gaan zien. De realiteit is en blijft dat AMD relatief maar een beperkte aanhang heeft in de professionele desktop markt. Juist in deep-machine learning maken ze veel kans door de $/prestatie van hun chips.
Misschien niet dit jaar, maar ik denk wel dat ze er gaan komen. Eigenlijk voorzie ik drie mogelijke markten voor Vega 20: :)
-Instinct (dus server)
-WX (dus workstation)
-De nieuwe Mac Pro die eraan zit te komen.

Het is een 7nm chip en de tape-out alleen zal AMD waarschijnlijk enkele honderden miljoenen dollars kosten aangezien 7nm zo extreem duur is. Er moet gewoon een groot volume worden gedraaid en de winsten per chip moeten er zijn. Voor Vega 20 kunnen ze nog wat meer halen uit winsten per chip, maar er zal alsnog fors volume gedraaid moeten worden om de kosten eruit te halen. Navi gaat helemaal leuk worden. AMD zal die echt in enorme aantallen moeten produceren want gigantische winsten per chip zitten er waarschijnlijk niet in.

Zie ook: :)
https://semiengineering.com/10nm-versus-7nm/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Geef je hiermee niet zelf al aan dat de komst van Navi onwaarschijnlijk is en er ook game varianten komen van Vega 20? Er moet immers volume gedraaid worden. Daarnaast kent Navi geen variant met hoge marges en Vega 20 wel. Waarom Vega 20 dan niet ook als game variant naar de markt brengen, immers meer volume. Kannibaliserend voor Instinct, WX en de nieuwe Mac Pro kan het niet zijn.

Of is het dan Vega 10 all over again? :+

Acties:
  • +1 Henk 'm!
madmaxnl schreef op zondag 2 september 2018 @ 19:34:
Geef je hiermee niet zelf al aan dat de komst van Navi onwaarschijnlijk is en er ook game varianten komen van Vega 20? Er moet immers volume gedraaid worden. Daarnaast kent Navi geen variant met hoge marges en Vega 20 wel. Waarom Vega 20 dan niet ook als game variant naar de markt brengen, immers meer volume. Kannibaliserend voor Instinct, WX en de nieuwe Mac Pro kan het niet zijn.

Of is het dan Vega 10 all over again? :+
Ik weet eerlijk gezegd echt niet wat Navi zal zijn. Het enige dat we min of meer wel kunnen raden is dat de chip gebruik zal maken van GDDR6. Of het is een GCN architectuur met de verbeteringen van Vega of het is geen GCN meer maar iets beters, geen idee. Uiteraard hoop ik op het tweede gezien mijn recent geuite bezwaren tegenover GCN, maar ik vermoed het eerste.

Vanaf hier is het speculatief:
Dan kijk je waarschijnlijk naar een chip die kleiner zal zijn dan 300mm2 en hoger clocked dan Vega zonder dat de kaart veranderd in de "RX Vlammenwerper". Dat maakt het een volumeproduct en daar is ATi/AMD vaak erg succesvol mee geweest.

Stel dat de tape-out $300 miljoen is. Videokaart volume lag de afgelopen kwartalen op circa 15 miljoen door de miners. De verdeling lijkt ongeveer 1/3 en 2/3 te zijn, uiteraard meer voor Nvidia. Dat kan je afleiden aan de groei van Radeon en het marktaandeel van rond de 30%. Het zal dus ongeveer 5 van de 15 miljoen zijn, anders kan je de groei in marktaandeel niet verklaren. De verkopen zullen nu weer inzakken naar onder de 15 miljoen. Houdt AMD dan nog iets van 4 miljoen per kwartaal aan dan kan je gaan rekenen hoe lang AMD die kaarten moet verkopen om de tape-out te betalen.

Afbeeldingslocatie: https://www.techpowerup.com/img/eNFeZD2EYt4SG13r.jpg

Afbeeldingslocatie: https://www.3dcenter.org/dateien/abbildungen/Add-in-Board-GPU-Market-Share-2002-to-Q1-2018.png

Stel dat AMD op een prijs van $100 per chip uitkomt. Deze chip verkopen ze aan een AIB voor $130 en het zijn er 3 miljoen per kwartaal omdat niet alles Navi is. Dan is je investering per kwartaal $300 miljoen, je omzet $390 miljoen en de verdiensten $90 miljoen. De tape-out kan je dan in iets meer dan drie kwartalen betalen. Natuurlijk komt er dan nog R&D bij. Daarom is het misschien maar goed dat Ryzen en Radeon onder dezelfde financiële afdeling vallen. Valt het minder op als de RTG de investering nauwelijks terugverdient tussen het Zen 2 geweld. :P

Verder heeft Nvidia besloten om iedereen een poot uit te draaien met Turing. Verder zijn die chips enorm dus een flinke verlaging van de prijzen zit er niet zomaar in. Navi kan door het voordeel in productieproces zomaar competitief zijn met de GTX2060, zowel in prestaties als verbruik. Potentieel ook de RTX2070. Daarmee zou het al beter kunnen zijn dan Polaris 10 vs. GP106 en dat zal de verkoopmarges natuurlijk verbeteren. AMD is geen filantropische instelling. Natuurlijk moeten we het nog zien, en de benchmarks van Turing afwachten. :)

[ Voor 36% gewijzigd door DaniëlWW2 op 02-09-2018 20:46 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 22-09 20:13
In oude(re) slides van AMD staat dat Navi de 6e iteratie van GCN is. Ik denk niet dat het anders zal zijn.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!
NitroX infinity schreef op zondag 2 september 2018 @ 20:01:
In oude(re) slides van AMD staat dat Navi de 6e iteratie van GCN is. Ik denk niet dat het anders zal zijn.
En dat zit mij dus juist zo dwars. :)
Roadmaps veranderen, zeker bij AMD. Vega was een mislukking, Koduri moest weg, het leiderschap van de RTG veranderde en er werd vers technisch personeel en R&D budget aangevoerd voor de RTG. Dat kan zomaar een impact hebben gehad op de roadmap van 2019/2020. Ergens in mijn achterhoofd hou ik dus rekening dat de oorspronkelijke Navi wel eens geschrapt kan zijn, dat de ontwikkeling van "Next Gen" is versnelt en nu Navi heet. Dat zou zeker voor AMD niet zo vreemd hun gezien de geschiedenis van geheimhouding en deceptie. ;)

Verder hintte de roadmaps al langer op een release voor 2020 voor "Next Gen". Twee aparte generaties in een jaar zou beteken dat Navi er al in januari moet zijn, en Next Gen in december. Wederom twijfels over de haalbaarheid of de zakelijke afwegingen. Kan het zomaar mis hebben, maar ik heb deze vermoedens en ze gaan maar niet weg uit mijn hoofd. :)
Afbeeldingslocatie: https://content.hwigroup.net/images/editorial/1920/014911_gpuroadmap.jpg

Afbeeldingslocatie: https://gpumag.com/wp-content/uploads/2018/04/AMD-GPU-roadmap.png

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Of zowel Navi als Next Gen zijn opgeschoven naar de toekomst omdat de geldkraan dicht moest en de opdracht voor de PS5 en de nieuwe computers van Apple later kwam dan wat werd verwacht. Ik verwacht in ieder geval dat Navi nog GCN gebruikt en dat pas de generatie daarna de opvolger komt.

Waarom zou Navi "potentieel" competitief zijn met de 2070? We moeten de benchmarks nog aflaten maar he tlijkt erop dat de 2070 niet veel beter zal presteren dan de 1080 en Navi zou ook ook dat niveau moeten uitkomen voor gaming.

[ Voor 10% gewijzigd door Verwijderd op 03-09-2018 16:40 ]


Acties:
  • 0 Henk 'm!
Verwijderd schreef op maandag 3 september 2018 @ 16:39:
Of zowel Navi als Next Gen zijn opgeschoven naar de toekomst omdat de geldkraan dicht moest en de opdracht voor de PS5 en de nieuwe computers van Apple later kwam dan wat werd verwacht. Ik verwacht in ieder geval dat Navi nog GCN gebruikt en dat pas de generatie daarna de opvolger komt.

Waarom zou Navi "potentieel" competitief zijn met de 2070? We moeten de benchmarks nog aflaten maar he tlijkt erop dat de 2070 niet veel beter zal presteren dan de 1080 en Navi zou ook ook dat niveau moeten uitkomen voor gaming.
Nja opzich geen issue als ze het probleem met de max 64CU's oplossen.
Daarom ben ik wel erg nieuwsgierig naar Vega 20. Wat zit er allemaal in die chip. Zijn het nog steeds 64CU's met 4096 shaders die versterkt zijn? of zitten er nu meer in?

Om Navi echt sneller te maken zou het wel mooi zijn als ze alles wat breder kunnen maken.
Aan de andere kant met 64CU's, dingen die niet nodig zijn er uit gooien en dan hogere clock speeds kun je opzich ook een kaart maken die een stuk sneller is als Vega 64. Maar daar ga je de 2080 Ti niet mee verslaan.

AMD heeft nu wel de kans om de 2080 Ti te verslaan in normale games met een kleinere die. Omdat ze die RT en Tensor cores niet hebben. Echter als reviews met DLSS gaan testen. Of Ray tracing zal de AMD kaart compleet nat gaan. Misschien niet zo erg als de Pascal kaarten maar goed gaan ze het vast niet doen.
En reken maar dat nVidia gaat pushen dat sites dat moeten gaan doen. En dat gamers die weinig verstand van zaken hebben zien dat nVidia 6x sneller is dus moet het wel de kaart zijn die je moet hebben :'(

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Hoezo zou je niet met DLSS testen?

Acties:
  • 0 Henk 'm!
Paprika schreef op maandag 3 september 2018 @ 17:21:
Hoezo zou je niet met DLSS testen?
Tja het is een beetje appels met peren vergelijken.
DLSS gebruiken is prima. Maar dan moet je denk ik niet een super zware AA mode er tegen over zetten die niemand in de praktijk gebruikt.

Ik ben benieuwd wat reviewers er mee gaan doen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
@Astennu Ik denk dus niet dat er een 64CU limiet is. GCN is in principe beperkt tot vier pijplijnen. Wil je dus meer rekenkracht toevoegen, dan moet je de architectuur dieper maken, niet breder. Vervolgens lukt het gewoon niet om alle vier de pijplijnen systematisch te voorzien van berekeningen. Voor Vega was het helemaal hopeloos omdat GCN je beeldscherm gewoon in vier stukken op hakte. Was een van die stukken wat grafisch intensiever, dan deden de andere drie pijplijnen gewoon minder terwijl de vierde de bottleneck verwerkte. Vega heeft tenminste een betere scheduling waardoor dat niet zomaar meer gebeurd.

Zelfs dan lukt het gewoon niet om alle 64CU's van instructies te voor zien, als al deze instructies van een CPU core moeten komen. Dat is het scenario in DX11. Gaan we naar DX12 of Vulkan die deze beperking niet hebben, dan zie je alle GCN's een sprong in prestaties maken, en Vega maakt met gemak de grootste sprong. 20% of meer zie je vaak genoeg. Dat geeft ook aan dat rasterization niet zozeer de bottleneck is voor Vega met een DX11 titel. Met een DX12 titel waarschijnlijk wel.

Meer dan 16CU's per pijplijn is dan ook zinloos omdat die 16CU's al niet belast worden in de meeste gevallen. Was elke game DX12, dan zou je het kunnen overwegen als je dan ook je rasterization kan uitbreiden, meer ROPs dus.

Dan Navi. Tja, dat zou wel eens "Hawaï" met de Polaris en wat van de Vega verbeteringen kunnen zijn. Een 48CU ontwerp waar ze gewoon de clockspeeds flink omhoog gooien, puur omdat het een 7nm chip zal zijn. Vanuit technisch oogpunt zou het uiterst teleurstellend zijn, maar waarschijnlijk zal zo'n videokaart niet minder presteren dan Vega 10 nu doet in DX11 titels. In DX12 zal er waarschijnlijk wel een klein gat ontstaan, afhankelijk van hoeveel extra clockspeed behaald kan worden. Verder hou ik er gezien Nvidia haar zeer beperkte informatie over Turing rekening mee dat die videokaarten nauwelijks sneller zullen zijn dan de voorgangers in de meerderheid van de titels. Dan is de RTX2070 opeens vergelijkbaar met de beide RX Vega's en dat zou Navi moeten kunnen matchen.

Maar dit is weer meer dan genoeg speculatie. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Astennu schreef op maandag 3 september 2018 @ 17:22:
[...]
Tja het is een beetje appels met peren vergelijken.
DLSS gebruiken is prima. Maar dan moet je denk ik niet een super zware AA mode er tegen over zetten die niemand in de praktijk gebruikt.
Volgens die logica is praktisch alles appels met peren vergelijken. Ik kan mij niet voorstellen dat de beschikbaarheid van DLSS als een negatieve eigenschap kan worden toegekent aan een "RTX" kaart. Als ik dezelfde game met weinig tot geen AA op 60 FPS kan spelen op kaart X en met dezelfde instellingen ook nog eens sterke AA i.c.m. 60 FPS kan hebben op kaart Y dan is dat best een relevante overweging.

Acties:
  • +1 Henk 'm!
Paprika schreef op maandag 3 september 2018 @ 17:44:
[...]

Volgens die logica is praktisch alles appels met peren vergelijken. Ik kan mij niet voorstellen dat de beschikbaarheid van DLSS als een negatieve eigenschap kan worden toegekent aan een "RTX" kaart. Als ik dezelfde game met weinig tot geen AA op 60 FPS kan spelen op kaart X en met dezelfde instellingen ook nog eens sterke AA i.c.m. 60 FPS kan hebben op kaart Y dan is dat best een relevante overweging.
SSAA zonder dat het je framerate halveert? Ik wil wel hebben hoor. :+
DLSS vind ik persoonlijk interessanter dan real time ray tracing. Eerst maar eens zien of je ray tracing wel kan draaien zonder dat je framerate instort. DLSS zou je in principe veel betere anti aliasing moeten geven voor een gering prestatieverlies, uiteraard als Nvidia het implementeert en die implementatie deugt.

* DaniëlWW2 speelt veel met aparte profielen per game en forceert nog wel eens SSAA als het kan. DaniëlWW2 is dan ook een beetje een "graphics fanboy" die alles ultra wil draaien en dan nog niet tevreden is. :+

[ Voor 3% gewijzigd door DaniëlWW2 op 03-09-2018 17:58 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Paprika schreef op maandag 3 september 2018 @ 17:44:
[...]

Volgens die logica is praktisch alles appels met peren vergelijken. Ik kan mij niet voorstellen dat de beschikbaarheid van DLSS als een negatieve eigenschap kan worden toegekent aan een "RTX" kaart. Als ik dezelfde game met weinig tot geen AA op 60 FPS kan spelen op kaart X en met dezelfde instellingen ook nog eens sterke AA i.c.m. 60 FPS kan hebben op kaart Y dan is dat best een relevante overweging.
Ik zeg toch nergens dat DLSS negatief is?
Dat is imo het enige echt nuttige nieuwe aan de hele nieuwe serie van nVidia. RT kan je niet eens op 1080p gebruiken omdat het te zwaar is. (onder de 60fps is voor mij een no go).
Dus goede AA is zeker een voordeel maar ik heb zelf liever een hoge FPS met een beetje AA dan super goede AA en shitty FPS dus SSAA gebruik ik bv nooit.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Astennu schreef op maandag 3 september 2018 @ 18:08:
[...]


Ik zeg toch nergens dat DLSS negatief is?
Dat is imo het enige echt nuttige nieuwe aan de hele nieuwe serie van nVidia. RT kan je niet eens op 1080p gebruiken omdat het te zwaar is. (onder de 60fps is voor mij een no go).
Dus goede AA is zeker een voordeel maar ik heb zelf liever een hoge FPS met een beetje AA dan super goede AA en shitty FPS dus SSAA gebruik ik bv nooit.
Wat jammer is dat ik nog geen goede vergelijking heb gezien van DLSS (dan bedoel ik geen shaky cam filmpjes, of blurry screenshots). Google helpt ook niet, nee ik heb geen interesse in de performance of RT.... maar google denkt van wel :/
Ben benieuwd hoe het zich verhoudt met TAA of iets dergelijks.

[ Voor 4% gewijzigd door Sp3ci3s8472 op 03-09-2018 20:05 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op maandag 3 september 2018 @ 17:14:
AMD heeft nu wel de kans om de 2080 Ti te verslaan in normale games met een kleinere die. Omdat ze die RT en Tensor cores niet hebben. Echter als reviews met DLSS gaan testen. Of Ray tracing zal de AMD kaart compleet nat gaan. Misschien niet zo erg als de Pascal kaarten maar goed gaan ze het vast niet doen.
Een reviewer die dat routinematig gaat testen verliest veel geloofwaardigheid. Ik hoorde dat Gordon Ung (PC World), Steve (GamersNexus) en de andere Steve (Hardware Unboxed en Techspot) ook in de gaten hebben dat raytracing voor Turing nog weinig relevant is voor spellen. Het veelbesproken verhaal, het is een leuke innovatie maar praktisch gezien heb je er voorlopig weinig aan omdat weinig spellen het zullen ondersteunen en de FPS veel te laag wordt wanneer je het aan zet als het al wordt ondersteund.
En reken maar dat nVidia gaat pushen dat sites dat moeten gaan doen. En dat gamers die weinig verstand van zaken hebben zien dat nVidia 6x sneller is dus moet het wel de kaart zijn die je moet hebben :'(
Geen twijfel over mogelijk. Ik zie het als een goed middel om het kaf van het korten te scheiden bij de reviewers (en mensen die erop reageren :p).

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:58
Verwijderd schreef op maandag 3 september 2018 @ 22:58:
[...]

Een reviewer die dat routinematig gaat testen verliest veel geloofwaardigheid. Ik hoorde dat Gordon Ung (PC World), Steve (GamersNexus) en de andere Steve (Hardware Unboxed en Techspot) ook in de gaten hebben dat raytracing voor Turing nog weinig relevant is voor spellen. Het veelbesproken verhaal, het is een leuke innovatie maar praktisch gezien heb je er voorlopig weinig aan omdat weinig spellen het zullen ondersteunen en de FPS veel te laag wordt wanneer je het aan zet als het al wordt ondersteund.
Ik denk dat het juist verkeerd is wanneer je dit niet test in je standaard benchmark suites, juist om te duiden wat de performance hit al dan niet is. Het zal inderdaad naar verwachting zeker nog niet breed ondersteund gaan worden, maar ik zou toch zeker in reviews willen zien of het aanzetten van DLSS opf Raytracing een spel met ondersteuning nog steeds speelbaar laat zijn of niet.

Acties:
  • 0 Henk 'm!

Verwijderd

Dennism schreef op dinsdag 4 september 2018 @ 10:22:
[...]


Ik denk dat het juist verkeerd is wanneer je dit niet test in je standaard benchmark suites, juist om te duiden wat de performance hit al dan niet is. Het zal inderdaad naar verwachting zeker nog niet breed ondersteund gaan worden, maar ik zou toch zeker in reviews willen zien of het aanzetten van DLSS opf Raytracing een spel met ondersteuning nog steeds speelbaar laat zijn of niet.
Ik stelde niet dat het niet getest zou moeten worden, ik stelde dat het geen zin heeft om dat elke keer weer ("routinematig") te testen. Je test het af en toe (Nvidia vs. Nvidia) om de performancehit vast te stellen (akkoord) en ik zie weinig reden om te verwachten dat die performancehit in relevante mate verandert (je kan rustig een half jaar wachten vordat je het weer test) maar bij Nvidia vs. AMD test je het gewoon zonder features die enkel de Nvidia/AMD hardware heeft. Die raytracing zou voor de AMD kaarten een nog grotere performancehit geven (omwille van hardware maar waarschijnlijk ook omwille van software, het is immers weer Gameworks) en voor DLSS zullen we nog moeten afwachten of dat het wel goed werkt. De benchmarks die Nvidia etaleerde lieten zien dat met DLSS De FPS bij 4k aanzienlijk hoger is dan zonder DLSS bij de spellen die het ondersteunen. Dat wekte bij mij de suggestie dat DLSS o.a. gebruikt wordt voor upscaling naar een hogere resolutie en dat hierbij de waarde van de tussenliggende pixels wordt 'gegokt' (met die nieuwe hardware). Ik ben benieuwd in welke mate je visuele defecten gaat zien.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:58
Verwijderd schreef op dinsdag 4 september 2018 @ 13:47:
[...]

maar bij Nvidia vs. AMD test je het gewoon zonder features die enkel de Nvidia/AMD hardware heeft. Die raytracing zou voor de AMD kaarten een nog grotere performancehit geven (omwille van hardware maar waarschijnlijk ook omwille van software,
Dat iets wel of niet een performance hit of verbetering kan geven en of iets nu wel of niet door beide kampen in de hardware zit vind ik nu niet direct iets om het dan maar niet te testen in een directe vergelijking (ik heb bijvoorbeeld ook geen oproepen gezien om toen Vega uitkwam alle Vega exclusieve features uit te zetten of niet te testen). In plaats van het niet te testen zou ik dan juist eerder beide scenario's testen (aan en uit, liever meer informatie dan minder). Benchmarks / reviews zouden juist de realworld verschillen moeten laten zien, niet een zo krampachtig mogelijk artificieel vast gestelde situatie waarbij alles zo veel mogelijk gelijk is, daar heeft niemand wat aan.

Niemand wint erbij als Benchmark suites zo worden opgezet dat vendor A of Vendor B automatisch ruim "wint" of dat juist op papier A en B heel dicht op elkaar zitten, maar dan later blijkt dat dit in de praktijk niet zo is bijvoorbeeld. Imho moet een review zoveel mogelijk van de op dat moment populairste games bevatten. En als dat toevallig allemaal titels zijn die gunstig zijn voor AMD dan is dat zo, zijn het titels die overwegend gunstig voor Nvidia ook. Je wil immers benchmarks hebben waar een koper wat aan heeft, niet het artificieel zo spannend (of juist niet) mogelijk maken.

Als Henk een nieuwe kaart wil kopen om Game A te spelen optioneel met Raytracing is het juist handig om te zien voor Henk wat de performance waarden zijn voor Nvidia en AMD bij Raytracing, diezelfde waarden zonder Raytracing zodat Henk kan bepalen of hij een AMD of Nvidia kaart wil, maar ook dat Henk weet dat als hij Raytracing aanzet hij X% aan performance zal verliezen.

[ Voor 17% gewijzigd door Dennism op 04-09-2018 14:25 ]


Acties:
  • 0 Henk 'm!

Verwijderd

@Dennism
Bij Vega werd bij mijn weten slechts 1 unieke feature gebruikt (Wolfenstein2 en Far Cry 5) die een relevant verschil gaf: Rapid Packed Math. Dit is een feature die een betere performance, betere graphics of beide (maar minder sterk voor elk van de twee) kan geven bij toepassingen (niet enkel spellen). Immers krijg je bijvoorbeeld meer haren met een iets lagere nauwkeurigheid waarbij de lagere accuracie geen probleem is. Jij maakt een goed punt dat bij Vega vs. de 1070/1080 RPM aanstond en dat het consistent zou zijn om dan ook DLSS en raytracing aan te zetten maar bij raytracing (waar mijn reactie van twee reacties geleden om ging, dat bleek niet zo duidelijk uit het citaat) heb ik daar moeite mee aangezien het spel dan naar mijn mening onspeelbaar wordt (laat Nvidia eerst maar eens de FPS boven de 60 krijgen en dan is er nog de voorwaarde dat het er met raytracing beter uit moet zien, we zagen nogal wat defecten) en bij DLSS wil ik eerst afwachten of dat het wel of niet grafische defecten geeft. Als en slechts dan als DLSS geen grafische defecten geeft bij upscaling is het fair om Nvidia met DLSS te testen vs. AMD zonder.
In het kort: die features mogen naar mijn mening standaard aan zijn als je grafisch dezelfde of betere performance hebt en de FPS speelbaar is.

Inmiddels speculeer ik dat Nvidia die DLSS ook wil gebruiken om met een lagere resolutie AA toe te passen en dat dan met die 'AI' te upscalen naar een hogere resoltuie (dat ligt in lijn met dat Nvidia en AMD al een tijdje te optie geven om bij kleinere figuren (afstand) de resolutie voor AA te verlagen), dat is Prima als het goed werkt maar dat wacht ik eerst nog even af, op dit moment hebben we enkel de cijfers die Nvidia gaf, geen plaatjes.

Nogmaals, ik ben het met jou eens dat alles getest moet worden maar het is onrealistisch dat ze elke keer alles testen. Jij schetst het plaatje dat het beter is dat alles wordt getest dan dat niet alles wordt getest (uiteraard) maar in de praktijk willen de reviewers/techtubers snel een nieuw artikeltje/videootje hebben om weer clicks te krijgen en testen ze daarom of het een of het ander. Ik zou uiteraard veel liever zien dat ze drie keer zoveel tijd nemen voordat ze weer een artikeltje plaatsen of een videootje uploaden en dat die veel meer volledig is.

[ Voor 27% gewijzigd door Verwijderd op 04-09-2018 15:33 ]


Acties:
  • 0 Henk 'm!
Dennism schreef op dinsdag 4 september 2018 @ 14:13:
[...]


Dat iets wel of niet een performance hit of verbetering kan geven en of iets nu wel of niet door beide kampen in de hardware zit vind ik nu niet direct iets om het dan maar niet te testen in een directe vergelijking (ik heb bijvoorbeeld ook geen oproepen gezien om toen Vega uitkwam alle Vega exclusieve features uit te zetten of niet te testen). In plaats van het niet te testen zou ik dan juist eerder beide scenario's testen (aan en uit, liever meer informatie dan minder). Benchmarks / reviews zouden juist de realworld verschillen moeten laten zien, niet een zo krampachtig mogelijk artificieel vast gestelde situatie waarbij alles zo veel mogelijk gelijk is, daar heeft niemand wat aan.

Niemand wint erbij als Benchmark suites zo worden opgezet dat vendor A of Vendor B automatisch ruim "wint" of dat juist op papier A en B heel dicht op elkaar zitten, maar dan later blijkt dat dit in de praktijk niet zo is bijvoorbeeld. Imho moet een review zoveel mogelijk van de op dat moment populairste games bevatten. En als dat toevallig allemaal titels zijn die gunstig zijn voor AMD dan is dat zo, zijn het titels die overwegend gunstig voor Nvidia ook. Je wil immers benchmarks hebben waar een koper wat aan heeft, niet het artificieel zo spannend (of juist niet) mogelijk maken.

Als Henk een nieuwe kaart wil kopen om Game A te spelen optioneel met Raytracing is het juist handig om te zien voor Henk wat de performance waarden zijn voor Nvidia en AMD bij Raytracing, diezelfde waarden zonder Raytracing zodat Henk kan bepalen of hij een AMD of Nvidia kaart wil, maar ook dat Henk weet dat als hij Raytracing aanzet hij X% aan performance zal verliezen.
De Features van Vega hebben niets met effecten in games te maken. Maar meer met dingen efficiënter kunnen doen mits de engine het gebruikt. Als het voor Vega aan staat draaien nVidia kaarten nog net zo goed als voorheen.
nVidia komt na genoeg altijd met features waarbij hun oude kaarten en die van de concurrentie vervolgens super slecht draaien zodat mensen dan maar de nieuwe hardware moeten kopen.
Zie bv hoe slecht de 780 kaarten het in sommige games doen terwijl ze qua specs prima met de 970/980 mee zouden moeten kunnen. Soms is het niet eens nodig maar dat is gewoon hoe nVidia te werk gaat.

RT gaat voorlopig niet nuttig zijn. kan je lekker van 4K terug naar 1080p en heb je nog geen 60fps. Dus voorlopig alleen een gimmik en niet nuttig voor gamers. Dit is vooral voor de dev's zodat ze kennis kunnen maken.

DLSS zou wel nuttig kunnen zijn. Maar dan zou je het of als extra moeten zien. Want het is een speciaal effect wat alle andere kaarten niet kunnen dus je kan het ook niet vergelijken.
En als je al andere AA Modi gaat gebruiken die misschien hetzelfde er uit zien zijn ze op de oudere hardware heel inefficient en zou je eigenlijk qua IQ vs performance niet die AA mode gebruiken.
Ik denk dat je dan eerder DLSS vs SMAA moet gaan testen omdat SMAA of een andere shader based AA die bijna geen performance impact heeft qua performance nog acceptabel is sommige andere variant hebben geen native game support en geven een veel grotere performance hit en worden daardoor ook amper gebruikt. MSAA zou opzich ook nog kunnen maar heeft al meer impact.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Pagina: 1 ... 29 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.