Acties:
  • 0 Henk 'm!

  • NLKornolio
  • Registratie: Februari 2010
  • Laatst online: 12-09 21:14

NLKornolio

BF3/BF4: NLKornolio

Net als rond Maart toen Ryzen uitkwam goodie Intell en Nvidea de prijzen omlaag om snel nog wat kopers naar hun kamp te krijgen.

Het kan zijn dat AMD weet dat ze een goede kaart in handen hebben en daarom hun mond houden.
Daarnaast is het niet heel gek dat ze stil zijn over een release. Er komt meestal heel erg weinig info vrij.

Acties:
  • +1 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16:53

edward2

Schieten op de beesten

Fredi schreef op dinsdag 25 juli 2017 @ 23:07:
Kyle Bennett hoopt woensdag de review online te hebben. Ben benieuwd! *O*
Volgens mij wordt dat een review gefocust op smootness en worden er geen pure perf. resultaten gepubliceerd. Dit doet mij ook een beetje de laatste hoop verliezen op Ti perf....Hopelijk zit ik er naast en/of scoren games relatief beter of...was dit niet de snelste Vega......

[ Voor 11% gewijzigd door edward2 op 25-07-2017 23:42 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
unfor schreef op dinsdag 25 juli 2017 @ 21:59:
[...]

Ga er maar gerust van uit dat de gelekte firestrike benchmarks de meest optimale stock situatie is.
Hoe vaak komt het voor dat een gelekte benchmark totaal afwijkt van de release..
Of die legitiem is blijft de vraag. Dan is er nog of het representatief is, en voor welke SKU.

Er klopt gewoon iets niet. Het hele punt van Vega is om alle frontend bottlenecks die Fiji had op te lossen, zonder in te leveren op GPGPU prestaties zodat het een breed inzetpaar product is. Naast al die frontend bottlenecks ging AMD verder met de HBCC en een tile based rasterisation implementatie waarbij zeker die tweede voor flinke besparingen in verbruik, en geheugenbandbreedte moet zorgen. Hebben we het nog niet gehad over Raja Koduri die bij Apple nota bene tile based rasterisation introduceerde voor hun GPU's.

Dit alles bij elkaar zou moeten resulteren in een GPU die qua IPC vergelijkbaar is met de behoorlijk gebottleneckte Fury X als we naar de benchmarks kijken. Er klopt niks van. Of dit is echt een van de grootste f*ck ups ooit qua GPU achitectuur, erger dan Fermi en misschien wel naar FX5800 niveau, of AMD is echt keihard aan het sandbaggen...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

ArcticWolf schreef op dinsdag 25 juli 2017 @ 18:20:
[...]

Uh.. volgens mij begrijp je me verkeerd? Anders snap ik je reactie niet... Maar mijn strekking was; ik ga geen nieuwe kaart kopen om hem daarna nog te gaan tweaken, daar ben ik tegenwoordig wel klaar mee...
Ieder zijn keuze, het is een hele simpele en snelle tweak waar je kaart veel beter mee draait.
Wat? Ik had goed onthouden dat jij de stock koeler gebruikt. :)
Ik weet alleen niet of dat jij intussen veranderd bent. Hoor jij duidelijk die koeler met normaal gebruik? Indien jij het geluid van jouw Wraith en de PSU kan onderscheiden.
Ik heb het vaker gezegd, ik zou liever zien dat AMD de 1700 zonder koeler zou verkopen en dat de prijs €15-20 lager ligt, afhankelijk van hoeveel die koeler kost (AMD betaalt er een bepaald bedrag voor per koeler en dat betalen wij nu aan AMD). Het is zo zonde dat je die koppelverkoop hebt en hierdoor een koeler moet kopen die je misschien helemaal niet wil gebruiken omdat je een stiltefreak bent. Ik begrijp echter wel waarom AMD hiervoor kiest maar ze zouden het niet moeten doen, wie een simpel koelertje wil koopt zo'n 212 en is er klaar mee.

[ Voor 55% gewijzigd door Verwijderd op 25-07-2017 23:53 ]


Acties:
  • 0 Henk 'm!
Had, het was voor een test van een dag. Is een vlugge blind test tussen RX Vega met FreeSync en GTX 1080 Ti met G-sync. Hij verwacht de reviewkaart tegelijk met de andere reviewers te krijgen en dan komt dus ook de gewone review.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Verwijderd schreef op dinsdag 25 juli 2017 @ 23:34:
[...]

Ieder zijn keuze, het is een hele simpele en snelle tweak waar je kaart veel beter mee draait.


[...]

[small]Wat? Ik had goed onthouden dat jij de stock koeler gebruikt. :)
Ik weet alleen niet of dat jij intussen veranderd bent. Hoor jij duidelijk die koeler met normaal gebruik? Indien jij het geluid van jouw Wraith en de PSU kan onderscheiden.
Ik heb het vaker gezegd, ik zou liever zien dat AMD de 1700 zonder koeler zou verkopen en dat de prijs €15-20 lager ligt, afhankelijk van hoeveel die koeler kost (AMD betaalt er een bepaald bedrag voor per koeler en dat betalen wij nu aan AMD). Het is zo zonde dat je die koppelverkoop hebt en hierdoor een koeler moet kopen die je misschien helemaal niet wil gebruiken omdat je een stiltefreak bent. Ik begrijp echter wel waarom AMD hiervoor kiest maar ze zouden het niet moeten doen, wie een simpel koelertje wil koopt zo'n 212 en is er klaar mee.
Het enige dat ik hoor zijn mijn casefans. :')
Je onderschat die stock koeler echt enorm, perfect in staat om een R7 1700 @3,6ghz koel te houden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

@DaniëlWW2Ik mik op 3,8-3,9 GHz, afhankelijk van hoeveel geluk/pech ik ga hebben. ;)
-The_Mask- schreef op dinsdag 25 juli 2017 @ 22:28:
Huh wat? Je verlaagt de spanning van de GPU en dat wordt vaak ondervolt/undervolt genoemd, maar dat is het niet? Wat is het dan volgens jou?
Jij mist het punt Mask. Jij kan helemaal niet die spanning direct sturen omdat er nog hardware/software tussen komt.

Wouldn't it be great if you could simply adjust the GPU voltage? Well, PowerTune wouldn't be PowerTune if it made things that easy. Instead, it plays the arbitrator of the GPU's continued health by closely managing all things electric. This is probably one of the reasons that AMD had such a hard time with its decision to finally make the voltage target adjustable.
Afbeeldingslocatie: https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9NL1EvNTUxNjE4L29yaWdpbmFsL1ZvbHRhZ2UucG5n
Taking a closer look at the voltage, the first thing we see is what appears to be a giant contradiction. Comparing the red curve, which represents the results at the default target, to the blue curve, which represents the results for the adjusted target, we see that the average voltage (VDDC) of 1.10V actually increases slightly to 1.12V! However, the 1.2V peaks drop to 1.1375V—extreme fluctuations in both directions are much smaller and the curve as a whole is smoother.

De schrijver is hier een beetje slordig, waar hij over average spreekt bedoelt hij de modus maar dat terzijde. De modus verhoogt, de gemiddelde afwijking ervan vermindert en gemiddeld wordt de spanning lager maar als je kijkt naar wat ik nu vrijblijvend de baseline noem dan blijkt die juist wat omhoog te schuiven terwijl jij een lagere spanning instelt, omdat die Powertune ertussen komt. Wat jij direct in de software zelf doet is het verlagen van de spanning, vanuit dat perspectief noemen we het 'undervolten' maar aangezien Powertune jou dat niet zomaar even laat doen is het niet echt undervolten.

[ Voor 11% gewijzigd door Verwijderd op 25-07-2017 23:53 ]


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op dinsdag 25 juli 2017 @ 23:47:
Ik mis niks, volgens mij snap je nog steeds niet hoe het werkt.
Nou, leg dan maar eens uit wat er niet klopt aan het vetgedrukte. Jij stelt een lagere spanning in en Powertune zorgt ervoor dat de baseline verhoogt en jij bent van mening dat de baseline verlaagt of dat je het toch ondervolten mag noemen ondanks dat Powertune juist de baseline verhoogt terwijl jij een lagere spanning ingeeft? Fascinerend. :?
Ik denk trouwens dat niemand van ons begrijpt hoe Powertune precies werkt aangezien AMD hier niet zoveel informatie over heeft gegeven.

[ Voor 47% gewijzigd door Verwijderd op 25-07-2017 23:51 ]


Acties:
  • 0 Henk 'm!
Je kunt de spanning gewoon aanpassen, maar als je vervolgens het verbruik beperkt zal de kaart onderklokken om het verbruik binnen de perken te houden. Met die lagere kloksnelheid gaat ook de GPU spanning omlaag en dat is wat je ziet. Verlaag je echter de spanning van de GPU dan zakt het verbruik en als je het verbruik zo ver verlaagt dat die onder belasting de maximale klok kan vasthouden dan blijft die dus continue op de hoogste frequentie werken. Dat is wat je ziet en dat is wat er gebeurt. Het werkt echt simpel.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

@-The_Mask-
Dank je voor de uitleg.
NLKornolio schreef op dinsdag 25 juli 2017 @ 23:19:
Net als rond Maart toen Ryzen uitkwam goodie Intell en Nvidea de prijzen omlaag om snel nog wat kopers naar hun kamp te krijgen.
Wat heeft de prijsverlaging van Nvidia voor de 1080 te maken met dat Ryzen uitkomt? Nvidia is juist bezig met Ryzen te promoten. Nvidia vindt Ryzen prima, meer keuze voor highend CPU's helpt Nvidia om meer highendkaarten te kopen (4k en 1440p gaming).
Het is even wennen dat Nvidia AMD niet in de weg ligt al is het niet een historisch unicum, lang geleden werden er AMD CPU's met Nvidia graphics verkocht. :)
Verder geen goed woord voor Nvidia maar dat is ee nandere kwestie.

Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op dinsdag 25 juli 2017 @ 23:31:
[...]


Of die legitiem is blijft de vraag. Dan is er nog of het representatief is, en voor welke SKU.

Er klopt gewoon iets niet. Het hele punt van Vega is om alle frontend bottlenecks die Fiji had op te lossen, zonder in te leveren op GPGPU prestaties zodat het een breed inzetpaar product is. Naast al die frontend bottlenecks ging AMD verder met de HBCC en een tile based rasterisation implementatie waarbij zeker die tweede voor flinke besparingen in verbruik, en geheugenbandbreedte moet zorgen. Hebben we het nog niet gehad over Raja Koduri die bij Apple nota bene tile based rasterisation introduceerde voor hun GPU's.

Dit alles bij elkaar zou moeten resulteren in een GPU die qua IPC vergelijkbaar is met de behoorlijk gebottleneckte Fury X als we naar de benchmarks kijken. Er klopt niks van. Of dit is echt een van de grootste f*ck ups ooit qua GPU achitectuur, erger dan Fermi en misschien wel naar FX5800 niveau, of AMD is echt keihard aan het sandbaggen...
Niet noodzakelijk sandbaggen, het is ook best mogelijk dat de in game prestaties beter zijn dan wat de scores voor synthetische benchmarks doen vermoeden omdat voor het laatste bepaalde optimalisaties niet zijn gebruikt die dadelijk ingame wel zijn gebruikt. Mocht AMD bepaalde functionaliteit nog niet hebben geactiveerd (drivers) dan hoeft dat niet noodzakelijk te zijn om Nvidia voor de gek te houden, het kan ook gewoon zijn omdat ze nog hard aan de drivers aan het werken zijn. Voor wie nu roept dat die af horen te zijn blablabla, zo werkt het niet, dat is zelden of nooit helemaal af, er valt altijd nog wat aan te verbeteren en ook nadat zo'n kaart uitkomt werken ze eraaan. Misschien wil AMD nog wat laatste tweaks maken.

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13:58
De kaart zelf nog niet gepost? Zag ik ook al online.

Acties:
  • 0 Henk 'm!

Verwijderd

Deze?
Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2017/05/AMD-Radeon-RX-Vega-Feature-wccftech.jpg

[ Voor 4% gewijzigd door Verwijderd op 26-07-2017 00:04 ]


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13:58
Yup. Jammer imho van het design.


^^^ja had liever dat design gezien.
Maar ja. Misschien nog een last minute verrassing... (geen hint)

[ Voor 62% gewijzigd door The Source op 26-07-2017 00:08 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Verwijderd schreef op woensdag 26 juli 2017 @ 00:02:
[...]

Niet noodzakelijk sandbaggen, het is ook best mogelijk dat de in game prestaties beter zijn dan wat de scores voor synthetische benchmarks doen vermoeden omdat voor het laatste bepaalde optimalisaties niet zijn gebruikt die dadelijk ingame wel zijn gebruikt. Mocht AMD bepaalde functionaliteit nog niet hebben geactiveerd (drivers) dan hoeft dat niet noodzakelijk te zijn om Nvidia voor de gek te houden, het kan ook gewoon zijn omdat ze nog hard aan de drivers aan het werken zijn. Voor wie nu roept dat die af horen te zijn blablabla, zo werkt het niet, dat is zelden of nooit helemaal af, er valt altijd nog wat aan te verbeteren en ook nadat zo'n kaart uitkomt werken ze eraaan. Misschien wil AMD nog wat laatste tweaks maken.
Lijkt me toch op zijn zachts gezegd opvallend als de drivers voor games klaar zijn, maar 3D mark niet.
The Source schreef op woensdag 26 juli 2017 @ 00:02:
De kaart zelf nog niet gepost? Zag ik ook al online.
Al langs geweest ja. Lijkt op een grote reference Polaris. Mis alleen de vlammen die uit de achterkant komen. Misschien maar een goed teken. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

The Source schreef op woensdag 26 juli 2017 @ 00:04:
Yup. Jammer imho van het design.
Leg uit? :)
Ik vind het natuurlijk vooral jammer dat er weer een blower koeler op zit, dat is naar mijn mening een slechte keuze voor een >=300W kaart. Prima als iemand dat in een mini-ITX kastje wil stoppen maar deze kaart komt pas echt tot zijn recht met een stevige heatsink en meerdere goede open koelers en casefans die vervolgens de warmte lucht naar buiten de kast verplaatsen. ;)

[ Voor 58% gewijzigd door Verwijderd op 26-07-2017 00:06 ]


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13:58
http://cryptomining-blog....ight-not-actually-happen/

Dit is geen quote van mij :)

“Vega is … hot. In stock it takes about 400-450W in dual, 300-350W in ETH-only mode at about 33MH/s. And it’s throttling like hell. It’s very good in dual mining mode, but it’s too hot.”

Acties:
  • 0 Henk 'm!

Verwijderd

[b]-The_Mask- schreef op woensdag 26 juli 2017 @ 00:06:
Frontier is veel mooier natuurlijk.
Eens. Al zou ik het nog wat mooier vinden met een iets donkerdere kleur blauw.

Acties:
  • 0 Henk 'm!

  • Fredi
  • Registratie: Februari 2011
  • Laatst online: 09-06 04:29
The Source schreef op woensdag 26 juli 2017 @ 00:02:
De kaart zelf nog niet gepost? Zag ik ook al online.
Niet veel bijzonders aan te zien. Zelfde koeler als hun vorige kaarten. @The Source Is ditcde definitieve reference koeler of is dit gewoon een engineering sample en komt er nog een andere koeler op(of is deze informatie nda? :))

Acties:
  • 0 Henk 'm!

Verwijderd

The Source schreef op woensdag 26 juli 2017 @ 00:06:
http://cryptomining-blog....ight-not-actually-happen/

Dit is geen quote van mij :)

“Vega is … hot. In stock it takes about 400-450W in dual, 300-350W in ETH-only mode at about 33MH/s. And it’s throttling like hell. It’s very good in dual mining mode, but it’s too hot.”
Van wie het ook komt, ik heb graag dat de kaart een slechte reputatie krijgt bij miners. :)

Acties:
  • +1 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13:58
Fredi schreef op woensdag 26 juli 2017 @ 00:08:
[...]

Niet veel bijzonders aan te zien. Zelfde koeler als hun vorige kaarten. @The Source Is ditcde definitieve reference koeler of is dit gewoon een engineering sample en komt er nog een andere koeler op(of is deze informatie nda? :))
Vrees final. Anders moet onze colorbox weer gewijzigd worden.
Maar ja... niet de eerste keer dat wij last moment een verrassing krijgen.

Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op woensdag 26 juli 2017 @ 00:05:
[...]

Lijkt me toch op zijn zachts gezegd opvallend als de drivers voor games klaar zijn, maar 3D mark niet.
Klaar zijn wil niet zeggen dat AMD ze activeerde. Ik geloof in ieder geval niet dat AMD sandbagt, ik zou het geweldig vinden als AMD dat wel doet maar ik geloof er niets van. Ik denk dat deze kaart qua hardware rond 1080-niveau zit en dat wat trucjes ervoor kunnen zorgen dat de kaart onder de juiste omstandigheden aanzienlijk dichter bij de 1080 ti komt te liggen en in een extreem geval (Vulkan/DX12) er misschien overheen kan.
Ach ja, als de prijs ernaar is dan maakt het voor verreweg de meeste gamers geen drol uit en zolang de prijs nog hoog genoeg is dat AMD uit de kosten geraakt en R&D kan blijven bekostigen is het prima.

Acties:
  • 0 Henk 'm!
The Source schreef op woensdag 26 juli 2017 @ 00:06:

“Vega is … hot. In stock it takes about 400-450W in dual, 300-350W in ETH-only mode at about 33MH/s. And it’s throttling like hell. It’s very good in dual mining mode, but it’s too hot.”
Als miner doe je er sowieso slim aan om de videokaart flink te tweaken en niet op standaard spanning en frequenties te laten lopen.
Fredi schreef op woensdag 26 juli 2017 @ 00:08:
[...]

Niet veel bijzonders aan te zien. Zelfde koeler als hun vorige kaarten. @The Source Is ditcde definitieve reference koeler of is dit gewoon een engineering sample en komt er nog een andere koeler op(of is deze informatie nda? :))
De kaart zoals zichtbaar op HardOCP is de reference versie van RX Vega. Fabrikanten als MSI e.d. zijn bezig met hun eigen custom versie maar die zou ik ongeveer een maand later verwachten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +4 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13:58
-The_Mask- schreef op woensdag 26 juli 2017 @ 00:13:
De kaart zoals zichtbaar op HardOCP is de reference versie van RX Vega. Fabrikanten als MSI e.d. zijn bezig met hun eigen custom versie maar die zou ik ongeveer een maand later verwachten.
Sept.
Maar... rest vertel ik je na de launch.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
The Source schreef op woensdag 26 juli 2017 @ 00:16:
[...]

Sept.
Maar... rest vertel ik je na de launch.
Houden we je aan. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Fredi
  • Registratie: Februari 2011
  • Laatst online: 09-06 04:29
Fredi schreef op dinsdag 25 juli 2017 @ 23:07:
Kyle Bennett hoopt woensdag de review online te hebben. Ben benieuwd! *O*

Ah shit, niet goed gelezen, weer zo'n onnozele blind gaming test zonder fps counter. Serieus, waar is AMD mee bezig. |:( Wel ja, nu hebben we toch al een foto van RX Vega gezien.

AMD wil steeds een vergelijking ts Freesync en Gsync maken, het totaalpakket dus. Aangezien een Gsync-monitor €200-300 duurder is dan een Freesync-monitor voorspelt dit niet veel goeds over de prijs van RX Vega, zou wel eens hoger dan GTX1080 kunnen zijn voor dezelfde prestaties en veel hoger verbruik. Dan kan AMD het wel schudden.
Post aangepast. :)
The Source schreef op woensdag 26 juli 2017 @ 00:16:
[...]

Sept.
Maar... rest vertel ik je na de launch.
September? Had eerder gedacht aan eind augustus. Zeer spijtig dit.

[ Voor 13% gewijzigd door Fredi op 26-07-2017 00:23 ]


Acties:
  • 0 Henk 'm!

Verwijderd

The Source schreef op woensdag 26 juli 2017 @ 00:16:
[...]

Sept.
Maar... rest vertel ik je na de launch.
Ik hoop dat MSI deze keer een kaart met een goede passieve en actieve koeling levert. Voor de RX 580 viel dat tegen (hoge noiselevel bij slechts 3 graden lagere temperaturen onder stevige load en hogere temperaturen bij idle in vergelijking met concurrenten), hoe meer bedrijven een goede kaart leveren hoe beter dat voor de klanten is dus laat MSI maar aanschuiven deze ronde. ;)

Acties:
  • 0 Henk 'm!
AMD wilde de vergelijking met de GTX 1080 is omdat de RX Vega daar mee zal concurren. Met een prijs die vergelijkbaar is heb je dan alsnog een betere prijs op het totaalplaatje met scherm.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Verwijderd schreef op woensdag 26 juli 2017 @ 00:12:
[...]
Ach ja, als de prijs ernaar is dan maakt het voor verreweg de meeste gamers geen drol uit en zolang de prijs nog hoog genoeg is dat AMD uit de kosten geraakt en R&D kan blijven bekostigen is het prima.
Vooral dat laatste stuk ben ik toch wel benieuwd naar. Nvidia heeft de R&D kosten er al lang uit, heeft een goedkopere GPU, goedkoper geheugen en genoeg voorraad. Ze kunnen waarschijnlijk onder de kostprijs van AMD gaan zitten...

Inmiddels alweer 13 maanden geleden dat ik mijn GTX 1080 kocht. Zoals het er nu voor staat valt de afschrijving toch nog wel mee. De grootste afschrijver blijft dan toch de release van de GTX 1080 Ti.

[ Voor 3% gewijzigd door Paprika op 26-07-2017 00:22 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Fredi schreef op woensdag 26 juli 2017 @ 00:18:
[...]


Post aangepast. :)

September? Had eerder gedacht aan eind augustus. Zeer spijtig.
Een maand later is toch gebruikelijk? Niet verrassend. Vervolgens moet je met wat pech nog even wachten totdat de early-adoption-fee (dat gebeurde bij de RX 480 nooit, of die was er niet, bij Ryzen en AM4-moederborden was die er wel) is verdwenen.

Acties:
  • 0 Henk 'm!

  • NLKornolio
  • Registratie: Februari 2010
  • Laatst online: 12-09 21:14

NLKornolio

BF3/BF4: NLKornolio

Verwijderd schreef op dinsdag 25 juli 2017 @ 23:57:

[...]

Wat heeft de prijsverlaging van Nvidia voor de 1080 te maken met dat Ryzen uitkomt? Nvidia is juist bezig met Ryzen te promoten. Nvidia vindt Ryzen prima, meer keuze voor highend CPU's helpt Nvidia om meer highendkaarten te kopen (4k en 1440p gaming).
Het is even wennen dat Nvidia AMD niet in de weg ligt al is het niet een historisch unicum, lang geleden werden er AMD CPU's met Nvidia graphics verkocht. :)
Verder geen goed woord voor Nvidia maar dat is ee nandere kwestie.
Volgens mij had iedereen nog de verwachting dat vega niet veel later ging uitkomen dan Ryzen.

@The Source
Gaat er een watergekoelde versie van jullie uitkomen ? Kwam er nou ook een silvergrijze versie uit ?

Acties:
  • 0 Henk 'm!

Verwijderd

Reken maar op watergekoelde versies aangezien dit voor deze generatie het beste van AMD is en daarvoor waterkoeling interessant is, immers kan je bij het op een na beste beter een tier hoger gaan in plaats van een watergekoelde kaart te kopen aangezien het waterkoelen nogal wat kost. ;)
Ik durf rustig te speculeren dat @The Source hier nog niets over mag zeggen.
Paprika schreef op woensdag 26 juli 2017 @ 00:22:
[...]

Vooral dat laatste stuk ben ik toch wel benieuwd naar. Nvidia heeft de R&D kosten er al lang uit, heeft een goedkopere GPU, goedkoper geheugen en genoeg voorraad. Ze kunnen waarschijnlijk onder de kostprijs van AMD gaan zitten...
Ik ben er ook benieuwd naar, helaas komen we dat niet gemakkelijk te weten. We kunnen er kort over zijn dat Nvidia het financieel veel beter doet met Pascal dan AMD met Polaris en Vega.
Ja, Nvidia kan waarscijnlijk onder de kostprijs van AMD gaan zitten, of dat ze het ook doen zullen we moeten afwachten. Dat hangt ook af van hoeveel marktaandeel ze verliezen als ze onder die kostprijs gaan zitten. Wat marktaandeel verliezen hoeft niet erg te zijn als je aanzienlijk meer winst per verkochte GPU maakt per kaart die wel wordt verkocht.

[ Voor 17% gewijzigd door Verwijderd op 26-07-2017 00:32 ]


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13:58
NLKornolio schreef op woensdag 26 juli 2017 @ 00:27:
[...]


Volgens mij had iedereen nog de verwachting dat vega niet veel later ging uitkomen dan Ryzen.

@The Source
Gaat er een watergekoelde versie van jullie uitkomen ? Kwam er nou ook een silvergrijze versie uit ?
Sorry NDA.

Acties:
  • 0 Henk 'm!

  • Fredi
  • Registratie: Februari 2011
  • Laatst online: 09-06 04:29
-The_Mask- schreef op woensdag 26 juli 2017 @ 00:22:
[...]

AMD wilde de vergelijking met de GTX 1080 is omdat de RX Vega daar mee zal concurren. Met een prijs die vergelijkbaar is heb je dan alsnog een betere prijs op het totaalplaatje met scherm.
In mijn post staat duidelijk dat ik denk dat RX Vega duurder zal zijn dan de GTX1080 aangezien AMD met die domme testopstellingen komt de laatste tijd en ons blind laat raden welke opstelling het vloeiends loopt en daarbij duidelijk de nadruk legt op Freesync en Gsync. Waarom zouden ze Freesync en Gsync erbij betrekken denk je? Omdat het totaalpakket van AMD goedkoper is maar RX Vega afzonderlijk duurder zou kunnen zijn dan de GTX1080. En dan kan AMD het schudden. Maar dit is juist een theorie. ;)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Verwijderd schreef op woensdag 26 juli 2017 @ 00:30:
Wat marktaandeel verliezen hoeft niet erg te zijn als je aanzienlijk meer winst per verkochte GPU maakt per kaart die wel wordt verkocht.
Ik verwacht eigenlijk, mits wat we nu weten ook de werkelijkheid zal blijken bij de reviews, dat het marktaandeel weinig zal verschuiven. Een deel van de Nvidia eigenaren zal naar AMD overstappen (bv wegens FreeSync support), maar er zal eveneens een groep zijn die wellicht alsnog de GTX1080Ti overwegen. Uiteindelijk zullen beide partijen een piek(je) in de sales gaan zien. De komende dagen zal blijken voor wie die piek groter gaat zijn...

On another note:

AMD Radeon Software 17.7.2 brings Enhanced Sync

[ Voor 17% gewijzigd door Paprika op 26-07-2017 00:39 ]


Acties:
  • 0 Henk 'm!

  • NLKornolio
  • Registratie: Februari 2010
  • Laatst online: 12-09 21:14

NLKornolio

BF3/BF4: NLKornolio

Ah ok geen probleem, dacht misschien kan je dat al zeggen aangezien we al weten dat er een water versie komt.

Acties:
  • +3 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 12-09 21:16
Verwijderd schreef op woensdag 26 juli 2017 @ 00:12:
[...]

Klaar zijn wil niet zeggen dat AMD ze activeerde. Ik geloof in ieder geval niet dat AMD sandbagt, ik zou het geweldig vinden als AMD dat wel doet maar ik geloof er niets van. Ik denk dat deze kaart qua hardware rond 1080-niveau zit en dat wat trucjes ervoor kunnen zorgen dat de kaart onder de juiste omstandigheden aanzienlijk dichter bij de 1080 ti komt te liggen en in een extreem geval (Vulkan/DX12) er misschien overheen kan.
Even realistisch worden nou. Als ze nu nog steeds zaken niet activeren is zorgt dan voor enkel imago schade. De laatste weken laat iedereen Vega al droppen als TI alternatief. Als het echt veel beter was dan we nu voorbij zien komen, hadden ze al lang een benchmark gelekt die dat laat zien.
En van rond 1080 niveau gaan naar beter dan 1080ti is een heel groot verschil van 40 tot 45%. Dat lijkt me zeer onwaarschijnlijk. Doom op 328 ipv 294 fps is ook geen argument meer ;)
Ach ja, als de prijs ernaar is dan maakt het voor verreweg de meeste gamers geen drol uit en zolang de prijs nog hoog genoeg is dat AMD uit de kosten geraakt en R&D kan blijven bekostigen is het prima.
Die mening deel ik niet. Een 1080 met 180 watt tdp of een Vega met ruim 300 watt is een wereld van verschil in warmte en herrie. Dat is een flinke CPU aan verbruik verschil in het voordeel van nVidia! Dat maakt een potentiële koper in dit segment echt wel uit. Dit soort kaarten verkoop je doorgaans enkel aan kenners/fans en die weten precies wat ze kopen en wat ze dan krijgen.

Alleen als ze de TI structureel voorbij gaan gamers warmte en herrie accepteren, want specs en bragging rights.

Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op woensdag 26 juli 2017 @ 00:36:
[...]

Ik verwacht eigenlijk, mits wat we nu weten ook de werkelijkheid zal blijken bij de reviews, dat het marktaandeel weinig zal verschuiven. Een deel van de Nvidia eigenaren zal naar AMD overstappen (bv wegens FreeSync support), maar er zal eveneens een groep zijn die wellicht alsnog de GTX1080Ti overwegen. Uiteindelijk zullen beide partijen een piek(je) in de sales gaan zien. De komende dagen zal blijken voor wie die piek groter gaat zijn...
+ dat Nvidia het voor elkaar gekregen dat veel van haar klanten een enorme merktrouw hebben.
sjekneck schreef op woensdag 26 juli 2017 @ 00:44:
[...]

Even realistisch worden nou.
Ik gaf niet aan wat ik denk dat het geval is, ik gaf mogelijke scenario's aan. We weten het simpelweg niet. Mijn verwachting kan jij ook lezen:
- in het slechtste geval rond 1080 niveau
- bij de juiste spellen die gebruik maken van bepaaalde troeven van Vega een stuk daarboven maar meestal ruim onder 1080 ti niveau
- bij een grote uitzondering (Vulkan en DX12) rond 1080 ti niveau en misschien er zelfs overheen

Dat is m.i. de realistische verwachting. We weten echter nog bijna niets. Alles wat we weten is data RX Vega zoals het toen draaide rond 1080 niveau presteerde. Of dat dit wel of niet met alle functionaliteit was weten we niet en of dat FireStrike uberhaupt al die functionaliteit kan gebruiken die bij bepaalde spellen wel kan worden gebruikt, vooral nieuwe spellen waarbij AMD samenwerkt met de developer, weten we ook niet. We kunnen enkel speculeren en we weten dat de baseline rond 1080 niveau ligt.
Die mening deel ik niet. Een 1080 met 180 watt tdp of een Vega met ruim 300 watt is een wereld van verschil in warmte en herrie.
Als je ondervolt dan komt het vermogen al wat lager uit. Als je wil kan je ook 50% van het vermogen hebben met 90% van de prestaties als het meezit, of misschien 85% van de prestaties. Het is maar net wat je ermee doet. We zien het wel. Zelf zou ik starten met het met 0,1 V ondervolten en de standaard instellingen voor de klokfrequentie en van daaruit zie je wel verder.
Je mag een kaart met de standaard instellingen gebruiken, het moet gelukkig niet. :)
Nu ja, bij Nvidia moet het misschien wel.

[ Voor 60% gewijzigd door Verwijderd op 26-07-2017 00:52 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Je kunt Pascal kaarten ook gewoon undervolten, maar veel modellen hebben een koeler die voor bijna het dubbele aan TDP zijn ontworpen. Ik verwacht geen hogere boost klok, maar efficiënter kun je ze zeker wel maken.

[ Voor 37% gewijzigd door Paprika op 26-07-2017 01:24 ]


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
De RX vega lijkt qua rekenkernen erg veel op de FuryX. Beide hebben 4096 kernen. Een groot verschil is natuurlijk de clocksnelheid, 1050mhz tegenover 1600mhz. Ik kan me niet voorstellen dat de RX vega het slechter doet als een FuryX op 1600mhz. IPC gaan er natuurlijk niet op achteruit. Zoals de meeste van jullie weten heeft gamersnexus een clock for clock vergelijking gedaan met de FuryX. Echter hebben we het daar niet over de RX editie maar de FE editie. Het liefst zou ik dus een FuryX op 1600mhz zien draaien om de minimale prestaties van RX vega goed te kunnen inschatten. Omdat de FuryX dit niet red kijken we naar de second best option. Een Fury unlocked naar een FuryX en overgeclockt op LN2 met een clocksnelheid van 1450mhz.
https://www.pcper.com/image/view/60278?return=node%2F63587
Resultaat? Een graphicsscore van 11511 op firestrike extreme.
Dit is in lijn met de 1080gtx afhankelijk van de versie. De reference versie van de 1080gtx scoorde bij launch zelfs lager met een graphics score van 10293.
http://www.guru3d.com/art...e-gtx-1080-review,28.html
Het lijkt erop dat vega sowieso 150mhz snelelr loopt dan deze fury@1450mhz. Dit is een worst case scenario waarbij vega niet meer is dan een FuryX gebakken op 14nm en overgeclockt naar 1600mhz. We hebben hier nog geen rekening gehouden met architecturele verbeteringen en nieuwe futures die zorgen voor een betere optimalisatie. Ik ga hier niet lopen verkondigen dat ik denk dat RX vega het beter gaat lopen doen dan de 1080ti. Maar ik kan me gewoon niet goed voorstellen dat RX vega het vergelijkbaar doet dan een Fury op dergelijke kloksnelheden. Na 2 jaar innovatie verwacht ik sowieso een betere IPC. Hiermee zou de Vega chip toch richting de 1080ti moeten gaan! We wachten nog maar eventjes af. Wou vooral mijn theorie even delen en ben benieuwd naar jullie kijk hierop.

Acties:
  • 0 Henk 'm!
Kloksnelheid schaalt niet lineair met performance, net als toevoegen van rekenenkernen dat ook niet doet bij een videokaart. Vergelijken met LN2 resultaten heeft ook geen enkele zin want daar is natuurlijk ook genoeg aan getweaked om zo hoog te komen, iets wat nooit wordt gedaan met een standaard run. Daarnaast moet je er ook rekening mee houden dat het HBM geheugen een 100% overklok heeft waardoor de bandbreedte verdubbeld tegenover Fury X en Vega RX.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
-The_Mask- schreef op woensdag 26 juli 2017 @ 09:19:
Kloksnelheid schaalt niet lineair met performance, net als toevoegen van rekenenkernen dat ook niet doet bij een videokaart. Vergelijken met LN2 resultaten heeft ook geen enkele zin want daar is natuurlijk ook genoeg aan getweaked om zo hoog te komen, iets wat nooit wordt gedaan met een standaard run. Daarnaast moet je er ook rekening mee houden dat het HBM geheugen een 100% overklok heeft waardoor de bandbreedte verdubbeld tegenover Fury X en Vega RX.
Een Vega @ 1450mhz met 4096 kernen is toch prima te vergelijken met een Fury @ 1450mhz met 4096 kernen lijkt me.... Wat betreft de geheugen overclock heb je een goed punt. Maar ik kan je vertellen dat de geheugensnelheid weinig extra toevoegd. Ik heb hier zelf een FuryX die ik van 500mhz naar 750mhz kan overclocken. Hoger krijg ik hem niet omdat de sapphire trixx software dit niet ondersteunt. Het verschil in prestaties is minimaal. Daarnaast heeft de Vega chip natuurlijk HBM 2.0 en ook nog eens de dubbele hoeveelheid. Dus als we het geheugen even buiten beschouwing laten dan kun je toch gewoon stellen dat Vega minder efficient is als fiji als de prestaties niet boven de 1080gtx uitkomen.

Acties:
  • 0 Henk 'm!
Heb jij dan één of meerdere vergelijkingen tussen beide op 1450MHz waar ook het verschil in geheugen wordt getest? 3DMark onder LN2 is zoals gezegd geen vergelijking omdat daar veel software tweaking mee wordt gedaan.

http://www.gamersnexus.ne...fury-x-at-same-clocks-ipc bij games dus stuivertje wisselen en professionele toepassingen een duidelijke voorsprong voor Vega.

[ Voor 29% gewijzigd door -The_Mask- op 26-07-2017 09:42 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
sjekneck schreef op woensdag 26 juli 2017 @ 00:44:
[...]

Die mening deel ik niet. Een 1080 met 180 watt tdp of een Vega met ruim 300 watt is een wereld van verschil in warmte en herrie. Dat is een flinke CPU aan verbruik verschil in het voordeel van nVidia! Dat maakt een potentiële koper in dit segment echt wel uit. Dit soort kaarten verkoop je doorgaans enkel aan kenners/fans en die weten precies wat ze kopen en wat ze dan krijgen.

Alleen als ze de TI structureel voorbij gaan gamers warmte en herrie accepteren, want specs en bragging rights.
^Dit

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
sjekneck schreef op dinsdag 25 juli 2017 @ 23:03:
[...]

Wat gaat de prijs veranderen, serieus? 50 euro minder (just a number) maakt het niet opeens een veel betere kaart. Met alle nadelen moet hij echt royaal onder de 1080 komen. Dat maakt de kaart economisch een ramp voor AMD. Duurder om te produceren en voor minder moeten verkopen. Die willen ze asap gaan vervangen. Mocht het allemaal onterecht zijn neem ik ook rustig mijn woorden terug, ik ben alleen bang dat we het stadium 'hopen op' voorbij zijn met lekjes van vandaag.
Nee, 50€ minder maakt het niet een betere kaart voor 50€ meer, koopt iedereen vega en koopt niemand de 580, wat AMD een product geeft wat niemand koopt en dus onnodig wordt zo kort na launch (dure grap).
Het verschil tussen de 570 en 580 was 100€ bij launch (prijzen nu zijn niet goed vergelijkbaar), ik verwacht ook dat vega 100€ meer gaat zijn dan de 580 ~450€ is een significant verschil met een 1080 ~600€.
ALS het deze prijs is (wat ik dus denk) is dat goed voor AMD, want niemand die dan nog een 1080 koopt of een 1070 aangezien vega beter of gelijk presteert dan beiden alleen lager in prijs dan een 1070.
maaarrrr.....
Aan de andere kant heb je dan nV die iets moet doen, deze gaat zijn prijzen verlagen en komt eind dit jaar met een opvolger, ze houden wel de prestatie kroon ruim in handen. Maar een bedrijf als nV merkt het wel als hun midden segment aangetast word. Als gamer zou ik geen nV kopen als in op zoek ben naar een 1070/1080 met een hoger budget kijk je niet naar vega maar het aantal kopers van een 1080ti is vrij klein.
Zie steam survey voor gebruikte hardware, meeste mensen gebruiken nV maar de eerste gpu's zijn in deze volgorde:
1060-1070-1050(ti)-1080....... (naar beneden scrollen).... 1080ti (0.42%)
Als de prijzen gelijk zijn, kijken mensen naar de spec's en zien dan tdp en lezen de reviews: komen dan uit bij geluid en powerdraw....

Opvolger nV zou volgens de geruchten geen volta zijn maar een pascal refresh, van 16nm naar 12nm (realistisch gezien zal het wel gewoon het zelfde 16nm zijn alleen andere node size :+ ),
En pas in 2018 komt er een volta (high end) maar realistisch zou het ook dit jaar kunnen komen, aangezien nV volta al wel in productie heeft (p100) en uitgeeft.
Hoe dan ook: win voor ons de consument of je nou voor nV of AMD gaat.

(steam survey laat nog iets anders interessants zien, niemand die een 570/580 koopt voor gaming, want deze komt niet eens in de dx12 lijst voor.... jezus)
The Source schreef op woensdag 26 juli 2017 @ 00:06:
http://cryptomining-blog....ight-not-actually-happen/

Dit is geen quote van mij :)

“Vega is … hot. In stock it takes about 400-450W in dual, 300-350W in ETH-only mode at about 33MH/s. And it’s throttling like hell. It’s very good in dual mining mode, but it’s too hot.”
400-450W in dual..... HOLY SHIT, leuk als je van flightsims houdt en graag doet alsof je naast een turbine staat.
sjekneck schreef op woensdag 26 juli 2017 @ 00:44:
Die mening deel ik niet. Een 1080 met 180 watt tdp of een Vega met ruim 300 watt is een wereld van verschil in warmte en herrie. Dat is een flinke CPU aan verbruik verschil in het voordeel van nVidia! Dat maakt een potentiële koper in dit segment echt wel uit. Dit soort kaarten verkoop je doorgaans enkel aan kenners/fans en die weten precies wat ze kopen en wat ze dan krijgen.

Alleen als ze de TI structureel voorbij gaan gamers warmte en herrie accepteren, want specs en bragging rights.
Same, als nV de prijzen gelijk trekt of iets hoger doet dan die van AMD: Op eerste plaats staat voor de meesten: prijs/performance verhouding (voornamelijk prijs), daarna verbruik -->geluid en warmte productie.
Het aantal mensen dat undervolt of überhaupt under/overvolt is vrij klein, mensen zitten echt niet te wachten op een kaart die ze 'moeten' undervolten met 90% prestaties te hebben met lager verbruik. Koop je gewoon een 1080...(dan met de) zelfde prijs maar die dan altijd beter presteert met gelijk verbruik als een undervolted vega.
Structureel een Ti voorbijgaan, zie ik niet snel gebeuren, eigenlijk helemaal niet.
j0ppie schreef op woensdag 26 juli 2017 @ 09:10:
Na 2 jaar innovatie verwacht ik sowieso een betere IPC. Hiermee zou de Vega chip toch richting de 1080ti moeten gaan! We wachten nog maar eventjes af. Wou vooral mijn theorie even delen en ben benieuwd naar jullie kijk hierop.
Zie het verhaal van bulldozer vs Thuban, lower ipc. Misschien hebben ze met vega te veel gekeken naar infinity fabric en de toekomst. who knows, laten we wachten tot de 31ste. :)
Ik neem met liefde alles terug als blijkt dat vega de 1080ti evenaart of verslaat.

(Bulldozer vs Thuban: bulldozer was nieuwe architectuur en had een lager ipc dan zijn voorganger, het uitgangs punt bij bulldozer was meer gericht op meer cores, wat in die periode enorme faal was, maar waar ze nu de vruchten van plukken met ryzen--> waarbij ze wel gekeken hebben naar een substantieel ipc verbetering tav bulldozer en on par with intel).

[ Voor 10% gewijzigd door D0gtag op 26-07-2017 11:02 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
-The_Mask- schreef op woensdag 26 juli 2017 @ 09:37:
Heb jij dan één of meerdere vergelijkingen tussen beide op 1450MHz waar ook het verschil in geheugen wordt getest? 3DMark onder LN2 is zoals gezegd geen vergelijking omdat daar veel software tweaking mee wordt gedaan.
Nee, maar ik heb wel even 500mhz geheugen vs 750mhz geheugen getest. Het verschil is letterlijk 6 punten.
500mhz http://www.3dmark.com/3dm/21231895?
750mhz http://www.3dmark.com/3dm/21231985?
Het geheugen is dus totaal geen bottleneck meer bij de FuryX icm Firestrike extreme. De 100% overclock heeft dus weinig tot geen effect. Daarnaast staat in het artikel van de unlocked Fury het volgende:

"The performance goes up from 6237 points at default to 6756 after unlocking the CUs, then 8121 points after overclock on air cooling, to eventually end up at 9634 points when fully unleashed with liquid nitrogen."

Apparently they were able to push the card even further, ending up with a whopping 10033 score in 3DMark Fire Strike Extreme.

Zonder software tweaking komt er dus al een score van 9634 punten. Vega zou hier dus al niet onder moge scoren, sterker nog, met 2 jaar innovatie zou het er ruim boven moeten liggen.

Dus of vega is nauwelijks een verbetering ten opzichte van fiji als het gaat om gaming performance. De chip is vooral bedoeld voor professioneel gebruik. Of AMD heeft nog wat achter de hand, iets wat ik niet verwacht. Neem hierbij het stroomverbruik en Vega is de slechtste GPU lineup sinds tijden! :X

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41
DaniëlWW2 schreef op woensdag 26 juli 2017 @ 00:05:
[...]

Lijkt me toch op zijn zachts gezegd opvallend als de drivers voor games klaar zijn, maar 3D mark niet.


[...]


Al langs geweest ja. Lijkt op een grote reference Polaris. Mis alleen de vlammen die uit de achterkant komen. Misschien maar een goed teken. :+
AMD kaarten zijn altijd sterker geweest in 3dMark dan Nvidia, ingame hadden ze te veel last van de DX11 Api. Het kan zijn dat de rollen een keer zijn omgedraait?

Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
Sp3ci3s8472 schreef op woensdag 26 juli 2017 @ 11:06:
[...]


AMD kaarten zijn altijd sterker geweest in 3dMark dan Nvidia, ingame hadden ze te veel last van de DX11 Api. Het kan zijn dat de rollen een keer zijn omgedraait?
LoL, dat zou hilarisch zijn! Dan lezen we starks overal zeker dat GTA V een benchmark is die in het voordeel van AMD is xD.

Acties:
  • 0 Henk 'm!
-The_Mask- schreef op woensdag 26 juli 2017 @ 09:37:
Heb jij dan één of meerdere vergelijkingen tussen beide op 1450MHz waar ook het verschil in geheugen wordt getest? 3DMark onder LN2 is zoals gezegd geen vergelijking omdat daar veel software tweaking mee wordt gedaan.

http://www.gamersnexus.ne...fury-x-at-same-clocks-ipc bij games dus stuivertje wisselen en professionele toepassingen een duidelijke voorsprong voor Vega.
In de meeste gevallen was de 1050MHz Vega in games trager.
Of er is iets extreem fout gegaan bij het ontwerpen van de GPU en de IPC is er op achteruit gegaan en ze hebben eigenlijk een chip gemaakt voor de professionele markt die niet echt bruikbaar is voor gamers.

Of deze drivers zijn alles behalve optimaal en er zit zo nog 10-20% extra performance in als niet meer.
Tot dat ik de reviews zelf gezien heb ga ik gewoon van het laatste uit.

Als de IPC ondanks alle aanpassingen die AMD gedaan heeft nog steeds maar rond Fury X level zit ligt AMD volledig uit de race voor de komende 2 jaar. En hadden ze beter 2x polaris aan elkaar kunnen plakken op een die en die uit kunnen brengen. Had je betere prestaties gehad. (ik snap dat dit heel makkelijk gezegd is en het in praktijk niet zal kunnen. GCN architectuur kon niet verder schalen dan het aantal ROP's wat Fiji had. Fiji was het maximaal haalbare zonder redesign)

Maar mag toch hopen dat NCU dan wel meer kan dan GCN. GCN gaat immers al heel wat jaren mee en het was tijd voor iets nieuws. Sneller, zuiniger en de mogelijkheid om meer ROP's en shaders te gaan gebruiken. Ik geef AMD nog steeds het voordeel van de twijfel.

Dus ik ga net als afgelopen weken rustig afwachten tot de kaart echt uit is.
j0ppie schreef op woensdag 26 juli 2017 @ 10:56:
[...]


Nee, maar ik heb wel even 500mhz geheugen vs 750mhz geheugen getest. Het verschil is letterlijk 6 punten.
500mhz http://www.3dmark.com/3dm/21231895?
750mhz http://www.3dmark.com/3dm/21231985?
Het geheugen is dus totaal geen bottleneck meer bij de FuryX icm Firestrike extreme. De 100% overclock heeft dus weinig tot geen effect. Daarnaast staat in het artikel van de unlocked Fury het volgende:

"The performance goes up from 6237 points at default to 6756 after unlocking the CUs, then 8121 points after overclock on air cooling, to eventually end up at 9634 points when fully unleashed with liquid nitrogen."

Apparently they were able to push the card even further, ending up with a whopping 10033 score in 3DMark Fire Strike Extreme.

Zonder software tweaking komt er dus al een score van 9634 punten. Vega zou hier dus al niet onder moge scoren, sterker nog, met 2 jaar innovatie zou het er ruim boven moeten liggen.

Dus of vega is nauwelijks een verbetering ten opzichte van fiji als het gaat om gaming performance. De chip is vooral bedoeld voor professioneel gebruik. Of AMD heeft nog wat achter de hand, iets wat ik niet verwacht. Neem hierbij het stroomverbruik en Vega is de slechtste GPU lineup sinds tijden! :X
Maar jou kaart draait geen 1450 MHz maar slechts 1175. dus je weet niet of die bottelnek er bij 1450 wel is.
Daarnaast is het geheugen van Fury X overclocken niet zo makkelijk soms heb je het idee dat het wel werkt maar werkt het niet. Of krijg je just lagere prestaties omdat het toch niet stabiel is. Ik vind 750 MHz erg hoog heb dat nooit kunnen behalen.

Dus zou dan wel eerst tests willen zien dat jij echt meer banbreedte haalt bij 750 MHz dan stock. Er zijn tools voor waar je dat mee kan testen.
Sp3ci3s8472 schreef op woensdag 26 juli 2017 @ 11:06:
[...]


AMD kaarten zijn altijd sterker geweest in 3dMark dan Nvidia, ingame hadden ze te veel last van de DX11 Api. Het kan zijn dat de rollen een keer zijn omgedraait?
Die kans acht ik zeer klein. Als ik AMD was zou ik geen moeite meer steken in het herschrijven van DX10 en 11 drivers. Gezien hoe AMD al jaren in zet op Mantle/Vulcan en DX12 lijken ze dit ook niet te doen.
Dus oude games zullen beter blijven draaien op nVidia hardware. Maar goed die games deden het ook al goed genoeg op een 480/Fury X. Persoonlijk vind ik de DX11 performance minder interessant.

[ Voor 43% gewijzigd door Astennu op 26-07-2017 11:51 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 20:17
PC Perspective had toch aangetoond dat tile based rendering nog niet werkte op Vega FE? Dat zou toch ook een aardige prestatiewinst moeten geven wanneer het wel werkt?

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Astennu schreef op woensdag 26 juli 2017 @ 11:44:
In de meeste gevallen was de 1050MHz Vega in games trager.
Of er is iets extreem fout gegaan bij het ontwerpen van de GPU en de IPC is er op achteruit gegaan en ze hebben eigenlijk een chip gemaakt voor de professionele markt die niet echt bruikbaar is voor gamers.

Of deze drivers zijn alles behalve optimaal en er zit zo nog 10-20% extra performance in als niet meer.
Tot dat ik de reviews zelf gezien heb ga ik gewoon van het laatste uit.

Als de IPC ondanks alle aanpassingen die AMD gedaan heeft nog steeds maar rond Fury X level zit ligt AMD volledig uit de race voor de komende 2 jaar. En hadden ze beter 2x polaris aan elkaar kunnen plakken op een die en die uit kunnen brengen. Had je betere prestaties gehad. (ik snap dat dit heel makkelijk gezegd is en het in praktijk niet zal kunnen. GCN architectuur kon niet verder schalen dan het aantal ROP's wat Fiji had. Fiji was het maximaal haalbare zonder redesign)

Maar mag toch hopen dat NCU dan wel meer kan dan GCN. GCN gaat immers al heel wat jaren mee en het was tijd voor iets nieuws. Sneller, zuiniger en de mogelijkheid om meer ROP's en shaders te gaan gebruiken. Ik geef AMD nog steeds het voordeel van de twijfel.

Dus ik ga net als afgelopen weken rustig afwachten tot de kaart echt uit is.
En dat is dus het gestoorde. GCN is al een goede GPGPU achitectuur. Dat blijkt wel uit de relaunch van Fiji als de Instinct M18. Wil je een pure GPGPU kaart, kom dan met Fiji op 14nm, hogere clocks, HBM2 en klaar.

AMD heeft alleen heel andere dingen gedaan. De complete frontend is omgegooid, kennelijk nu acht shader pipelines zodat die bottleneck ook zou verdwijnen en de ROPS eens wat gaan doen. Het zijn er kennelijk nog steeds 64 en dat zou een probleem kunnen worden. Dan is er nog tile based rendering om de bottleneck tenminste te verminderen bij de ROPS. Het resultaat zou zijn dat Vega IPC verliest tegenover de gebottleneckte Fiji, terwijl Vega die bottlenecks zou moeten oplossen voor gaming. 8)7

Sandbagging of een totale flop, dat zijn de twee opties hier. :/
Die kans acht ik zeer klein. Als ik AMD was zou ik geen moeite meer steken in het herschrijven van DX10 en 11 drivers. Gezien hoe AMD al jaren in zet op Mantle/Vulcan en DX12 lijken ze dit ook niet te doen.
Dus oude games zullen beter blijven draaien op nVidia hardware. Maar goed die games deden het ook al goed genoeg op een 480/Fury X. Persoonlijk vind ik de DX11 performance minder interessant.
Ik denk dat ze ze nog wel maken omdat ze geen keuze hebben. Simpelweg veel te weinig marktaandeel om het niet te doen, en nog te weinig DX12 titels. Het ligt eraan wat dit najaar gaat doen qua DX12/Vulkan. Ook zou ik een verklaring willen zien waarom BF1 DX12 tussen de GTX1080 en de Ti inzat bij de Vega FE, en wat daar nog inzit met features aan. Qua driver optimalisaties krijg je noppes want DX12.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!
Ze maken vast een DX11 driver. Maar ze gaan die niet alsnog een overhaul geven om te concurreren met nVidia. nVidia heeft namelijk een multi core offloading er in zitten. Bij AMD wordt er vooral 1 cpu thread gebruikt soms een klein stukje van een 2e. Waar nVidia drivers bij DX10 en 11 games wel 2 cores kunnen gebruiken. En dat zorgt voor hogere framerates. Dat is niet iets wat je even fixt. Anders had AMD dat jaren terug al gedaan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
Astennu schreef op woensdag 26 juli 2017 @ 12:29:
Ze maken vast een DX11 driver. Maar ze gaan die niet alsnog een overhaul geven om te concurreren met nVidia. nVidia heeft namelijk een multi core offloading er in zitten. Bij AMD wordt er vooral 1 cpu thread gebruikt soms een klein stukje van een 2e. Waar nVidia drivers bij DX10 en 11 games wel 2 cores kunnen gebruiken. En dat zorgt voor hogere framerates. Dat is niet iets wat je even fixt. Anders had AMD dat jaren terug al gedaan.
Ik weet het. Het zal ook uitermate lastig zijn, als het al kan, om dit softwarematig te regelen met een hardware scheduler voor Vega. Dat is een punt waar denk ik geen enkele twijfel over bestaat. AMD zal dus driveroverhead moeten minimaliseren. Verder heb ik dit een tijdje geleden al aangestipt als een mogelijk probleem. Vega lijk acht shader pipelines te hebben, die in staat zouden moeten zijn om alle CU's van werk te voorzien, in ieder geval heel wat beter dan Fiji. Hoe gaat dat in zijn werk qua CPU load en gaat dat niet een behoorlijke bottleneck zijn? :/

Als je ziet wat een GTX1080 al nodig heeft bij 1080P aan CPU rekenkracht, eigenlijk gewoon een 7700k @5ghz en dan gaat een deel van de load nog naar andere cores. Het is een stomme test om deze combinatie te testen, maar wel eentje die steevast wordt gedaan. Vega 1440P prestaties, en zeker DX12/BF1/4K gaat zeer interessant worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
1080p is zo 2014.
Ik game al 8 jaar op 2560x1600 en nu sinds 1 jaar op 2560x1440p 144Hz

1080p scores interesseren mij al jaren niet meer. Ik weet dat dit voor de meeste mensen anders is. Maar de hardware is snel genoeg voor 1080p. Alleen extreme gevallen waar mensen 240Hz schermen hebben moet je goed kijken naar wat voor een hardware je nodig hebt om dat te halen. Echter moet je dan eigenlijk wel naar nVidia. Vaak gaat het hier om oude games zoals CS GO en dan heeft nVida's driver regelmatig een voordeel. Bij DX12 is het omgekeerd maar daar heeft nVidia de afgelopen tijd het voordeel van de snellere hardware zodat ze ook daar winnen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
Astennu schreef op woensdag 26 juli 2017 @ 11:44:
[...]
Dus zou dan wel eerst tests willen zien dat jij echt meer banbreedte haalt bij 750 MHz dan stock. Er zijn tools voor waar je dat mee kan testen.
[...]
Bedoel je met MSI AB of sapphire trixx?

Acties:
  • 0 Henk 'm!
j0ppie schreef op woensdag 26 juli 2017 @ 13:34:
[...]

Bedoel je met MSI AB of sapphire trixx?
Volgens mij kunnen die beide OC tools geen HBM overclocken.
De enige manier die ik weet is een bios mod.

Het tooltje dat ik bedoel heet oclmembensh
Kan je hier vinden: http://www.overclock.net/...ings-patch-for-hynix-vram
je moet volgens mij wel een account aanmaken om het te downloaden.

Ik heb de banbreedte van mijn Fury kaarten via bios mods wel iets hoger gekregen maar het ging al snel mis als je te hoog ging en dan ging de bandbreedte weer achteruit.

Op dat forum is ook een Fiji OC thread met meer info. Maar ik zou niet zo maar met bios mods aan de gang gaan als je er geen verstand van hebt.
Ga je zelf dan eerst heel goed inlezen. Gelukkig hebben veel kaarten een bios switch zodat als hij niet goed werkt je terug kan wisselen naar de goede. Maar het kan natuurlijk ook een keer echt mis gaan als je iets doet wat niet de bedoeling is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
Astennu schreef op woensdag 26 juli 2017 @ 13:42:
[...]
Volgens mij kunnen die beide OC tools geen HBM overclocken.
Ik zal even een korte toelichting geven. In het begin kon ik de FuryX niet OCen op geheugen, later kon dit wel. Via zowel AB (max 650mhz) en trixx (max 750mhz). Mijn vorige FuryX kon ik maximaal op 550mhz krijgen, maar ik heb die na een tijd RMA gestuurd vanwege problemen met de pomp. Uitiendelijke is mijn kaart helemaal terug naar Hongkong gegaan ivm de afwezigheid van de FuryX in NL. Ik heb nu een andere kaart gekregen en krijg deze via de trixx tool op 750mhz. Ik zal eens proberen om met het door jou gesuggereerde programma wat te testen.

Acties:
  • 0 Henk 'm!
j0ppie schreef op woensdag 26 juli 2017 @ 13:54:
[...]

Ik zal even een korte toelichting geven. In het begin kon ik de FuryX niet OCen op geheugen, later kon dit wel. Via zowel AB (max 650mhz) en trixx (max 750mhz). Mijn vorige FuryX kon ik maximaal op 550mhz krijgen, maar ik heb die na een tijd RMA gestuurd vanwege problemen met de pomp. Uitiendelijke is mijn kaart helemaal terug naar Hongkong gegaan ivm de afwezigheid van de FuryX in NL. Ik heb nu een andere kaart gekregen en krijg deze via de trixx tool op 750mhz. Ik zal eens proberen om met het door jou gesuggereerde programma wat te testen.
Wat ik er van heb gelezen is dat het via software tools niet werkt. Of dat moet inmiddels opgelost zijn.
Maar dat simplele tooltje meet heel snel wat de bandbreedte is op die manier weet je zeker of het werkt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • j0ppie
  • Registratie: Mei 2002
  • Niet online
Afbeeldingslocatie: http://i67.tinypic.com/2expusn.jpg

Het kon eerst ook niet, maar dat is al wel een tijdje geleden opgelost. Ik weet niet hoelang geleden jij je furyX hebt weg gedaan, maar een paar maanden naar de launch hebben ze het gefixt. Maar je hebt wel gelijk dat 750mhz erg hoog is! Ik heb een beetje een vage editie uit HK gekregen, ik denk dat deze cherry pickt is.

[ Voor 21% gewijzigd door j0ppie op 26-07-2017 14:02 ]


Acties:
  • 0 Henk 'm!
j0ppie schreef op woensdag 26 juli 2017 @ 14:02:
[afbeelding]

Het kon eerst ook niet, maar dat is al wel een tijdje geleden opgelost. Ik weet niet hoelang geleden jij je furyX hebt weg gedaan, maar een paar maanden naar de launch hebben ze het gefixt. Maar je hebt wel gelijk dat 750mhz erg hoog is! Ik heb een beetje een vage editie uit HK gekregen, ik denk dat deze cherry pickt is.
Dat is een paar maanden terug.
Sowieso ben ik meer van het bios modden dan met software tools rommelen. Als instellingen goed zijn heb ik ze het liefste er vast in staan.

Maar goed draai het tooltje maar met 500 en 750 MHz en laat maar eens weten hoeveel bandbreedte je hebt.
Gezien je clocks zou je rond de 600GB/s moeten zitten.
Stock was geloof ik +- 400.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +2 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Vega Cube: O+
Afbeeldingslocatie: https://s29.postimg.org/wmcxqjhyf/Capture111.png

HD3850X3
Afbeeldingslocatie: https://images.bit-tech.net/news_images/2008/03/asus_shows_off_its_hd_3850_x3_trinity/card2-8.jpg
Afbeeldingslocatie: https://www.techpowerup.com/gpudb/images/b1030.jpg
Afbeeldingslocatie: https://www.arenait.net/files/0000/asus_hd_3850_x3_bottom.jpg

Zou AMD dit nuttig kunnen maken met IF? O-) (Het lijkt me zo vet en valt helemaal in het Epyc straatje!)

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Hahah

Dan koopt er toch helemaal niemand zo'n kaart? (behalve een paar reviewers, die geen sample krijgen van een AIB) }:O }:O }:O

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Voor de halve prijs zou ik er nog eens over nadenken, echter alleen als vega mijn 1080 kan passeren.
Gezien de leaks is ook dat niet het geval.

Acties:
  • +1 Henk 'm!

  • gerreh
  • Registratie: Maart 2014
  • Laatst online: 28-11-2024

gerreh

shit happens

OF, vega verbaast alles en iedereen en is de prijs volledig gerechtvaardigd. Let op, tot nu toe is alles nog maar een gerucht en speculatie. Zodra we de echte reviews krijgen weten we of het top of flop is!

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
gerreh schreef op woensdag 26 juli 2017 @ 17:28:
OF, vega verbaast alles en iedereen en is de prijs volledig gerechtvaardigd. Let op, tot nu toe is alles nog maar een gerucht en speculatie. Zodra we de echte reviews krijgen weten we of het top of flop is!
Volgens mij zegt dit genoeg:
https://bitcointalk.org/i...5.msg20308063#msg20308063

https://videocardz.com/71...k-fire-strike-performance

Maar we gaan het zien, ik denk dat het een flinke domper wordt.

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
gerreh schreef op woensdag 26 juli 2017 @ 17:28:
OF, vega verbaast alles en iedereen en is de prijs volledig gerechtvaardigd. Let op, tot nu toe is alles nog maar een gerucht en speculatie. Zodra we de echte reviews krijgen weten we of het top of flop is!
Vega FE is al gereleased en performed tussen de 1070 en 1080 in.
RX zal net iets hoger liggen, veel hoger verwachten is niet realistisch.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Dit lijkt me niet noodzakelijkerwijs het meest geloofwaardige stukje "nieuws", ook al is het een stuk minder kwalijk dan dat zwarte gat genaamd "Russiagate" dat de media nu al een jaartje pushen. Misschien met een korrel zout nemen?

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Natuurlijk, je moet alles wat pre-release in het nieuws komt met een flinke korrel zout nemen.
Maar dat spreekt toch voor zich?

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Dit kan niet aangezien AMD al heeft aangegeven dat hij goedkoop en snel gaat zijn (fast and cheap like ryzen) das geen cheap, tenzij het een AIO cooler versie is, dan koopt alsnog niemand die versie.
(bij reddit comments)
3) prices in Sweden are very different. For example, 1080 is around 6500 SEK = $790
Als er wel een kaart komt die de 1080ti overtreft, draag ik een Raja T-shirt in de sportschool.

[ Voor 17% gewijzigd door D0gtag op 26-07-2017 18:15 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Wat als ze een dual gpu uitbrengen?

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Paprika schreef op woensdag 26 juli 2017 @ 18:21:
Wat als ze een dual gpu uitbrengen?
dan heb je sowieso een 1400W voeding nodig.

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
D0gtag schreef op woensdag 26 juli 2017 @ 18:01:
[...]

Dit kan niet aangezien AMD al heeft aangegeven dat hij goedkoop en snel gaat zijn (fast and cheap like ryzen) das geen cheap, tenzij het een AIO cooler versie is, dan koopt alsnog niemand die versie.
(bij reddit comments)

[...]


Als er wel een kaart komt die de 1080ti overtreft, draag ik een Raja T-shirt in de sportschool.
Zoveel scheelt die prijs ook weer niet vergeleken met Nederland:
pricewatch: MSI GeForce GTX 1080 GAMING X 8G

653 euro = ca. 760 dollar.

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
ArcticWolf schreef op woensdag 26 juli 2017 @ 18:31:
[...]

Zoveel scheelt die prijs ook weer niet vergeleken met Nederland:
pricewatch: MSI GeForce GTX 1080 GAMING X 8G

653 euro = ca. 760 dollar.
Zijn de prijzen zo hoog in NL voor een 1080? in De is de goedkoopste 539 in NL is deze ...70 euro duurder :F
Goedkoopste is in NL 564 = ~660usd. Toch 130usd verschil.

[ Voor 6% gewijzigd door D0gtag op 26-07-2017 18:40 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
D0gtag schreef op woensdag 26 juli 2017 @ 18:39:
[...]

Zijn de prijzen zo hoog in NL voor een 1080? in De is de goedkoopste 539 in NL is deze ...70 euro duurder :F
Goedkoopste is in NL 564 = ~660usd. Toch 130usd verschil.
Er staat niet bij tov goedkoopste of duurste ;) die MSI zit redelijk in het midden geloof ik.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 11:43

Damic

Tijd voor Jasmijn thee

Paprika schreef op woensdag 26 juli 2017 @ 18:21:
Wat als ze een dual gpu uitbrengen?
Vega Pro Duo :Y de Fiji Pro duo kosten ook +1200€ bij launch

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
ArcticWolf schreef op woensdag 26 juli 2017 @ 18:41:
[...]

Er staat niet bij tov goedkoopste of duurste ;) die MSI zit redelijk in het midden geloof ik.
Hij zegt een 1080 kost 760usd, dan mag ik er vanuit gaan dat het gaat om vanaf prijs, de prijs waarmee je een 1080 hebt (any), niet een random in het midden. of denk je dat hij het gemiddelde heeft berekent :+
Damic schreef op woensdag 26 juli 2017 @ 18:43:
[...]
Vega Pro Duo :Y de Fiji Pro duo kosten ook +1200€ bij launch
600watt power draw en 850€ Ik zou er niet gek van opkijken eerlijk gezegd. :)

[ Voor 23% gewijzigd door D0gtag op 26-07-2017 18:46 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
D0gtag schreef op woensdag 26 juli 2017 @ 18:44:
[...]

Hij zegt een 1080 kost 760usd, dan mag ik er vanuit gaan dat het gaat om vanaf prijs, de prijs waarmee je een 1080 hebt (any), niet een random in het midden. of denk je dat hij het gemiddelde heeft berekent :+
Nog maar een paar dagen speculeren }:O

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
ArcticWolf schreef op woensdag 26 juli 2017 @ 18:30:
[...]

dan heb je sowieso een 1400W voeding nodig.
Dat maakt niet uit voor
Als er wel een kaart komt die de 1080ti overtreft, draag ik een Raja T-shirt in de sportschool.
:+

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Paprika schreef op woensdag 26 juli 2017 @ 19:35:
[...]

Dat maakt niet uit voor
[...]
:+
Net alsof ook maar iemand weet wie Raja is in de sportschool, ik werk bij een bedrijf waar 5000 mensen werken en ik denk dat er zelfs maar een paar bij ICT zijn die hem kennen :P maar challenge accepted (als die beter dan de Ti presteert :+ )


Overigens als ik een eitje wil bakken op m'n GPU koop ik wel een goedkope Fermi.

[ Voor 4% gewijzigd door ArcticWolf op 26-07-2017 19:42 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
ArcticWolf schreef op woensdag 26 juli 2017 @ 18:30:
[...]

dan heb je sowieso een 1400W voeding nodig.
Hoeft niet, dat is afhankelijk van hoe de chip schaalt. Fury Nano liep slechts 100MHz langzamer dan de Fury X, maar had een 100watt lagere TDP.
Dual Fury X zou op 550watt komen, maar dual Nano zou uitkomen op 350watt.

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Toettoetdaan schreef op woensdag 26 juli 2017 @ 19:49:
[...]

Hoeft niet, dat is afhankelijk van hoe de chip schaalt. Fury Nano liep slechts 100MHz langzamer dan de Fury X, maar had een 100watt lagere TDP.
Dual Fury X zou op 550watt komen, maar dual Nano zou uitkomen op 350watt.
Ik denk dat deze de Fury gaat overtreffen kwa verbruik 8)

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16:53

edward2

Schieten op de beesten

Mooi, dan verwacht ik ook die prestaties * het percentage dat AMD gpu's meestal goedkoper zijn tov nVidia's :P

Waar kan ik pinnen, 2 graag, in zilveren heatsink + AIO koeler. Genoeg stroomgroepen hier en desnoods gaat de koelkast even uit bij een potje Battlefront 2.

[ Voor 8% gewijzigd door edward2 op 26-07-2017 20:09 ]

Niet op voorraad.


Acties:
  • +1 Henk 'm!

  • Gravitar
  • Registratie: Juli 2008
  • Niet online
D0gtag schreef op woensdag 26 juli 2017 @ 18:44:
[...]

Hij zegt een 1080 kost 760usd, dan mag ik er vanuit gaan dat het gaat om vanaf prijs, de prijs waarmee je een 1080 hebt (any), niet een random in het midden. of denk je dat hij het gemiddelde heeft berekent :+
Ofwel het is een gemiddelde, ofwel het klopt simpelweg niet. Kort geleden mijn Zweedse vriendin toevallig geholpen met het samenstellen van een nieuwe pc, GTX 1080 is verkrijgbaar voor ~5700SEK bij de grotere webshops die ze ook op vooraad hebben. Sommige preorders duiken daar nog 10/20 euro onder. Dat is zo'n 695 USD, inlusief moms. Trek je die eraf hou je 556 USD over. Overigens vergeten jij en ArcticWolf beiden om onze 21% BTW af te trekken in jullie vergelijk naar USD ;).

Verder zou ik het gewoon rustig afwachten, die site plaatst wel vaker opgeklopt "nieuws". Neem dit artikel. Er wordt een niewsbericht gemaakt waarin op basis van één quote, “Vega performance compared to the Geforce GTX 1080 Ti and the Titan Xp looks really nice.” waarbij de suggestie wordt gewekt dat dit het antwoord is op de vraag hoe de Vega presteert vergeleken met de Titan Xp en 1080Ti.

Echter luidde de vraag waarnaar wordt gerefereerd;
PandaNation: Why are FreeSync monitors so much cheaper than their G-Sync counterparts? I know you won't be able to say much, but how does Vega compare to the Nvidia GeForce GTX 1080 Ti and the Nvidia Titan Xp? Big fan of AMD, thinking of doing a Mini-ITX Ryzen 5 build. Keep up the good work!
DON WOLIGROSKI: FreeSync is cheaper because it's an open standard. In many cases a panel manufacturer can make a FreeSync panel by changing their monitor's firmware and having it meet the spec. For G-Sync, Nvidia charges a licensing fee. Because of this differentiation alone, I think the inevitable future is FreeSync.
(re Vega): It looks really nice.
Die quote zou net zo goed op bijvoorbeeld de Freesync performance ten opzichte van de G sync performance van de andere twee kaarten kunnen slaan. Stevige korrel zout erbij nemen dus ;)

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
D0gtag schreef op woensdag 26 juli 2017 @ 18:39:
[...]

Zijn de prijzen zo hoog in NL voor een 1080? in De is de goedkoopste 539 in NL is deze ...70 euro duurder :F
Goedkoopste is in NL 564 = ~660usd. Toch 130usd verschil.
Zie net pas dat die prijs van Max ICT is :X die prijs klopt toch nooit, dus die kaart kost minimaal 725.

Acties:
  • 0 Henk 'm!

Verwijderd

MaxICT mijd je het beste als de pest. Ach, in ieder geval zijn ze niet failliet of 'failliet' (er wordt ook veel fraude mee gepleegd) gegaan zoals een andere winkel die nog doodleuk geld aannam terwijl ze wisten dat ze niet zouden leveren.
Enkel als je de kaart @300W draait. Dat ga ik niet doen als ik die zou kopen maar ieder zijn keuze. Voor mij is herrie een no go, period.

[ Voor 31% gewijzigd door Verwijderd op 26-07-2017 22:02 ]


Acties:
  • +2 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Nou hij is online...eindelijk zeg.
Wat een onzin, doom (de titel die sowieso vega gelijk maakt met 1080(ti) ) testen met sync monitor leuk en aardig maar ik ga geen gsync of freesync monitor halen.
Geen enkele meerwaarde deze video en een hoog AMD marketing filmpje gehalte (ook al zegt hij van niet).
We moeten dus nog even wachten op onafhankelijke standalone tests.
. I chose to go with DOOM because I knew this was a title that all our game testers would be comfortable with and the fact that I invited primarily FPS players.
Geen enkel woord over hoe het precies de titel is die het best speelt op AMD kaarten, als iemand een game verwacht, die met vega een 1080ti overtreft, zal het Doom zijn.

[ Voor 82% gewijzigd door D0gtag op 26-07-2017 22:32 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
D0gtag schreef op woensdag 26 juli 2017 @ 22:12:
Nou hij is online...eindelijk zeg.
Wat een onzin, doom (de titel die sowieso vega gelijk maakt met 1080(ti) ) testen met sync monitor leuk en aardig maar ik ga geen gsync of freesync monitor halen.
Geen enkele meerwaarde deze video en een hoog AMD marketing filmpje gehalte (ook al zegt hij van niet).
We moeten dus nog even wachten op onafhankelijke standalone tests.
Votes:
1 Nvidia
6 Neutraal
3 AMD

Opmerkelijk commentaar van de AMD kiezers is dat ze zich beter konden focusen op hun targets terwijl ze aan het bewegen waren.

Maargoed het zegt dus vrij weinig, maar in Doom is het dus een prima kaart :)

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
D0gtag schreef op woensdag 26 juli 2017 @ 22:12:
Nou hij is online...eindelijk zeg.
Wat een onzin, doom (de titel die sowieso vega gelijk maakt met 1080(ti) ) testen met sync monitor leuk en aardig maar ik ga geen gsync of freesync monitor halen.
Geen enkele meerwaarde deze video en een hoog AMD marketing filmpje gehalte (ook al zegt hij van niet).
We moeten dus nog even wachten op onafhankelijke standalone tests.


[...]

Geen enkel woord over hoe het precies de titel is die het best speelt op AMD kaarten, als iemand een game verwacht dat vega een 1080ti overtreft zal het met Doom zijn.
Ik heb een Freesync monitor gehaald paar maanden geleden... zucht }:O

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
ArcticWolf schreef op woensdag 26 juli 2017 @ 22:31:
[...]

Ik heb een Freesync monitor gehaald paar maanden geleden... zucht }:O
Ik heb een (jaar geleden) 4k 60hz (low input lagg, 4:4:4) tv gekocht als monitor. BF4 op 100+CM @4k, immersion next lvl (en het is haast cheaten in FPS) :P
Maar het werkt erg relaxt, ik snap niet dat meer bedrijven dat doen _/-\o_
Ook meteen sociale controle, want iedereen ziet of je aan het werk bent of porno aan het kijken bent in de baas zijn tijd, vunzige interne mails behoort tot het verleden :+
So ASUS MX34V FreeSync display ($720) and an ASUS PG348 G-Sync display ($1300). $580 difference. Is Vega really going to be $280 more than a 1080?
Oooh nasty als het toch echt waar is dat vega zo duur gaat worden :+
(Comments bij de test)

[ Voor 17% gewijzigd door D0gtag op 26-07-2017 22:46 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • +1 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 20:31

flessuh

Set sail for fail!

Ik moet nog nieuwe pc halen, met nieuwe schermen.. 4k of 1440p 144hz, geen idee nog welke het gaat worden.. maar hoe dan ook komt er een sync technologie op.
En uiteraard ligt het aan vega of het dan full amd of and/Nvidia wordt.. ben bij beide resoluties bang dat de videokaart het niet het aantal jaren gaat trekken dat ik wil dat die mee gaat..

Het blijft wel jammer dat er zoveel vooral negatief gespeculeerd wordt terwijl we gewoon nog niks weten.. enkel vergelijken met de FE kan, maar daar is duidelijk over gezegd dat die niet voor games geoptimaliseerd is.

[ Voor 11% gewijzigd door flessuh op 26-07-2017 22:47 ]

https://www.dutchsolarboat.com


Acties:
  • +1 Henk 'm!

  • untflanked
  • Registratie: Augustus 2014
  • Laatst online: 15:09
Nou, een review die kant nog wal raakt. Simpelweg een kopie van Budapest. Tot maandag.

Ryzen 7700 | RX 6800 XT | 2x16GB DDR5 | Cooler Master NR200P


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
flessuh schreef op woensdag 26 juli 2017 @ 22:46:
Ik moet nog nieuwe pc halen, met nieuwe schermen.. 4k of 1440p 144hz, geen idee nog welke het gaat worden.. maar hoe dan ook komt er een sync technologie op.
En uiteraard ligt het aan vega of het dan full amd of and/Nvidia wordt.. ben bij beide resoluties bang dat de videokaart het niet het aantal jaren gaat trekken dat ik wil dat die mee gaat..

Het blijft wel jammer dat er zoveel vooral negatief gespeculeerd wordt terwijl we gewoon nog niks weten.. enkel vergelijken met de FE kan, maar daar is duidelijk over gezegd dat die niet voor games geoptimaliseerd is.
Nou we weten wel iets van deze 'shows' als een fabrikant een systeem smoothness showt ipv gpu kracht... dat de gpu kennelijk alleen het beste kan laten zien als alles in zijn voordeel is (f.sync monitor- vulkan titel/doom)
Ze laten niet een vega zien op een monitor zonder f/g.sync potje farcry/witcher/gtaV/BF1. VS een 1080(ti)
Why would that be... :9

Deze negatieve speculatie is door het gebrek aan info, uitstel en de veelte hoog geschepte verwachtingen door AMD.

Als nV morgen besluit om freesync te ondersteunen --> shit hits the fan.
untflanked schreef op woensdag 26 juli 2017 @ 22:47:
Nou, een review die kant nog wal raakt. Simpelweg een kopie van Budapest. Tot maandag.
Morgen is het donderdag 8)

[ Voor 8% gewijzigd door D0gtag op 26-07-2017 23:00 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 12-09 21:16
Wat een bs artikel. Laten we Doom gaan testen, want dat is nou echt een titel die de power van een GPU laat zien :F
Deze test is totaal overbodig. Ik geloof er ook geen snars van dat dit een eigen keuze was van Hocp. Wederom totaal de focus op smoothness in opdracht van AMD. Wat poogt de graphics tak te verbergen met deze stunts?

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
De test laat alleen maar zien dat AMD bang is voor de performance resultaten die binnen enkele dagen zullen uitkomen.
Het lijkt zelfs alsof de gamers een script lezen.
Al deze geheimzinnigheid toont aan dat AMD geen enkel vertrouwen heeft in hun product.

[ Voor 38% gewijzigd door unfor op 26-07-2017 23:55 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41
Wat grappig is is dat er wordt vermeld dat mensen zoveel jaar game ervaring hebben. Nu heeft dat wel waarde maar ik denk dat iemand van 50? minder snel microstuttering gaat opmerken dan iemand die een stuk jonger is, lees middelbare school. Met gamen zal het minder snel opvallen omdat je natuurlijk ervaring opdoet en dat kan blijven gebruiken, maar je zal sowieso trager worden.
Je reflexen nemen iets af als je ouder wordt.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:15
Verwijderd schreef op woensdag 26 juli 2017 @ 22:01:
zoals een andere winkel die nog doodleuk geld aannam terwijl ze wisten dat ze niet zouden leveren.
Daar kan die winkel weinig aan doen, dat is gewoon (helaas) een gevolg van hoe de Nederlandse faillissementswetgeving in elkaar steekt. Als je als ondernemer niet tot het laatst probeert de zaak te redden kun je zelf verantwoordelijk gehouden worden voor het faillissement even simpel uitgelegd. Je kan dus niet zomaar stoppen met het aannemen van orders en betalingen en daarmee de bestaande schuldeisers benadelen (want minder geld in de boedel) tenzij het echt definitief over en sluiten is en het faillissement onafwendbaar is (laatste onderhandelingen geklapt over bijv. herfinanciering), en dat hebben ze ook gewoon netjes gedaan.
Pagina: 1 ... 12 ... 17 Laatste

Dit topic is gesloten.