Acties:
  • 0 Henk 'm!

Anoniem: 444127

nero355 schreef op zondag 25 juni 2017 @ 20:42:
[...]

GTA 1 met de framelimiter uit was onspeelbaar met een K6-2 500 MHz CPU dus ik wil niet weten hoe dat eruit ziet met hedendaagse CPU's :+ :X 7(8)7

/Serieus : Wat een crapgame is dat dan zeg... Zoiets mag een moderne game echt niet overkomen!
De developers mogen zich diep schamen :F
Bethesda (Fallout) heeft dan ook een nogal slechte reputatie op het vlak van hoe de spellen geprogrammeerd zijn. De bugs van Skyrim zijn berucht. Wolfenstein: The New Order heeft ook verplichte VSync (ook bugs als je die uitschakelt maar naar het schijnt hebben slimme jongens daar een niet door Bethesda gesteunde patch voor ontwikkeld en had Bethesda dit zelf kunnen oplossen door een paar instellingen te wijzigen) maar nog erger dan dat, het spel start niet eens op veel computers (zwart scherm, onmiddelijk een crash naar de desktop zonder een foutmelding of een foutcode aan Windows) met Windows 7 en Windows 10 terwijl er met de hardware op die systemen niets mis is. Doordat de installer van het programma niet goed controleert of dat je bepaalde versies van bepaalde andere software hebt? Het beste doe je eerst wat onderzoek naar de performance en problemen bij een spel alvorens je overweegt om een spel van Bethesda te kopen. Het hangt natuurlijk wel af van wie het spel daadwerkelijk hebben gemaakt, de ene studio is de andere niet en Doom werd natuurlijk volledig door ID (op de multiplayer na, naar verluidt) gemaakt.

Rockstar maakte er in het verleden ook een zooitje van maar bij GTA5 is dat flink verbeterd, al heb je bij GTA5 wel nog hinderlijke microstutters: op het Intel platform framerendertijd van meer dan 0,1 s (3 in 2 minuten gameplay bij de test van L1T) en bij AMD ook zulke microstutter maar minder frequent (1 in 2 minuten) en minder extreem. Bij GTA SA (in sommige opzichten een geweldig spel, aan te raden om nog eens te spelen als je het nooit zou hebben gespeeld :)) kon je bepaalde onderdelen van de driving school niet voltooien zonder de Vysnc aan te schakelen en bij LA Noire kan je Vsync niet eens uitschakelen (en wil je dat niet forceren omdat je anders rare bugs krijgt). :')
Het is gemakkelijker om te programmeren als het aantal frames per seconde vast ligt, het is lazy programming.
Niet dat ik de programmeurs dat verwijt, ik denk dat de oorzaak eerder bij de developer ligt die te weinig tijd geeft om het goed uit te werken omdat zo'n spel in eerste instantie voor de consoles wordt gemaakt die meer Vsync gebruiken (niet altijd echter).

[ Voor 4% gewijzigd door Anoniem: 444127 op 26-06-2017 14:36 ]


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@Toettoetdaan @Anoniem: 444127 Laat je niet misleiden door specviewperf scores, pro openGL scores hebben weinig relatie tot de onderliggende hardware, deze worden getuned.

De FE laat hier een solidworks score zien van een WX 7100, en de overige scores vallen wat onder een M6000 / P5000 oid.

Dat heeft dus ook niks met de HBM te maken. Als ze met deze hardware echt de remmen los zouden gooien zou je p6000 / gp100 scores verwachten oid.

specs


Acties:
  • 0 Henk 'm!

Anoniem: 444127

maratropa schreef op maandag 26 juni 2017 @ 15:18:
@Toettoetdaan @Anoniem: 444127 Laat je niet misleiden door specviewperf scores, pro openGL scores hebben weinig relatie tot de onderliggende hardware, deze worden getuned.

De FE laat hier een solidworks score zien van een WX 7100, en de overige scores vallen wat onder een M6000 / P5000 oid.

Dat heeft dus ook niks met de HBM te maken. Als ze met deze hardware echt de remmen los zouden gooien zou je p6000 / gp100 scores verwachten oid.
Ik trek geen enkele conclusie over de performance, over een week zullen we meer weten, binnen een paar dagen nadat de eerste frontier-kaarten verkocht zijn zullen we wel wat benchmarkscores gaan zien, die geven een aardige indicatie wat Vega bij spellen kan leveren.

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Laatst online: 21:55

ArcticWolf

🕐 #team_UTC+1 🕐

Anoniem: 444127 schreef op maandag 26 juni 2017 @ 14:34:
[...]

*knip*

Rockstar maakte er in het verleden ook een zooitje van maar bij GTA5 is dat flink verbeterd, al heb je bij GTA5 wel nog hinderlijke microstutters: op het Intel platform framerendertijd van meer dan 0,1 s (3 in 2 minuten gameplay bij de test van L1T) en bij AMD ook zulke microstutter maar minder frequent (1 in 2 minuten) en minder extreem. Bij GTA SA (in sommige opzichten een geweldig spel, aan te raden om nog eens te spelen als je het nooit zou hebben gespeeld :)) kon je bepaalde onderdelen van de driving school niet voltooien zonder de Vysnc aan te schakelen en bij LA Noire kan je Vsync niet eens uitschakelen (en wil je dat niet forceren omdat je anders rare bugs krijgt). :')
Het is gemakkelijker om te programmeren als het aantal frames per seconde vast ligt, het is lazy programming.
Niet dat ik de programmeurs dat verwijt, ik denk dat de oorzaak eerder bij de developer ligt die te weinig tijd geeft om het goed uit te werken omdat zo'n spel in eerste instantie voor de consoles wordt gemaakt die meer Vsync gebruiken (niet altijd echter).
Echt? Die irritante microstutters waren er al in GTA3, maar die zijn dus nog steeds niet opgelost? :o

Alfa Romeo Giulietta 235pk + 1pk <3


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
maratropa schreef op maandag 26 juni 2017 @ 15:18:
@Toettoetdaan @Anoniem: 444127 Laat je niet misleiden door specviewperf scores, pro openGL scores hebben weinig relatie tot de onderliggende hardware, deze worden getuned.

De FE laat hier een solidworks score zien van een WX 7100, en de overige scores vallen wat onder een M6000 / P5000 oid.

Dat heeft dus ook niks met de HBM te maken. Als ze met deze hardware echt de remmen los zouden gooien zou je p6000 / gp100 scores verwachten oid.
Maar het is wel een heel stuk beter dan Fury X, dus ondanks dat deze scores niets zeggen omdat ze niet met speciale drivers zijn gedraaid, is wel duidelijk dat de bottlenecks van Fiji eruit zijn.

Acties:
  • +1 Henk 'm!

Anoniem: 444127

ArcticWolf schreef op maandag 26 juni 2017 @ 15:35:
[...]

Echt? Die irritante microstutters waren er al in GTA3, maar die zijn dus nog steeds niet opgelost? :o

Toestemming nodig voor bekijken van YouTube

Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.

Bekijk op YouTube
Ryzen Part 3: Gameplay/Frametimes of GTA V on Ryzen & Intel (3/3)

Ook hebben ze bij GTA5 een of ander RAM-management probleempje, als je lang genoeg speelt dan loopt het RAM-gebruik op tot meer dan 8 GB. Om fair te zijn, bij open wereld spellen is het wat lastiger om het allemaal goed te programmeren dan voor de meeste andere genres.

Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Toettoetdaan schreef op maandag 26 juni 2017 @ 16:10:
[...]

Maar het is wel een heel stuk beter dan Fury X, dus ondanks dat deze scores niets zeggen omdat ze niet met speciale drivers zijn gedraaid, is wel duidelijk dat de bottlenecks van Fiji eruit zijn.
het lastige is dat pro open gl bottlenecks vaak bewust er in zitten.. Die Fury was niet gepositioneerd als semi pro en had waarschijnlijk bewust gedrukte pro opengl performance. De FE is dat wel en heeft naar het lijkt wat beter performance via de drivers dan de titan-xp waar hij tegover staat. Beide AMD gpu's zullen niet de pro opengl snelheid geven die de hardware waarschijnlijk zou kunnen. ( en de titan xp al helemaal niet )Maar AMD heeft wat USP's nodig tov de titan xp en dan is betere pro vieuwport performance wel leuk. Want bij nvidia is pro viewport perf + high end compute duurrrrr.

specs


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 444127 schreef op maandag 26 juni 2017 @ 14:14:
[video]
30% meer performance dan de Titanxp voor dit soort CAD-toepassingen. Volgens de AMD-medewerker dankzij de drivers (Nvidia heeft daar gewoon de gamingdrivers op) en de HBM. Gordon probeerde zelf even een spel uit op beide systemen, hij merkte geen verschil, maar het ging wel weer om een AMD-vriendelijk spel dus dat zegt weinig.
Cool. d:)b

Hierbij de tekst van het bijbehorende artikel inclusief gamingimpressie van een aantal games:

http://www.pcworld.com/ar...n-vs-nvidia-titan-xp.html

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09-05 20:08
edward2 schreef op zondag 25 juni 2017 @ 01:16:
Het zou wel eens leuk zijn als iedereen hier een gok zou doen over de perf. van (de snelste) RXVega t.o.v. de 1080Ti.
Ik gok op 4K en hoger met max ingame iq :

-dx11, 1080Ti niveau, met een marge van 10%, meer of minder
-dx12/vulkan (doom), 20% sneller.

Motivatie: 60% hogere clockfrequentie t.o.v. FuryX + IPC en frontend verbeteringen samen goed voor 10-20% extra(?)
Totaal 70-80% sneller dan de FuryX. Volgens de benchmarks op bv. computerbase is de 1080Ti 70% sneller dan de FuryX, natuurlijk afh. van de geteste games.

Natuurlijk is dit een heel simpele benadering, maar meer info en kennis heb ik niet tot m'n beschikking.
Over 5 weken de uitslag :D
Ik zal maar niet meegokken of het staat weer op videocardz :)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Stuur hem een DM met je "gok" en een NDA ;)

In die volgorde :+

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 21:32

Damic

Tijd voor Jasmijn thee

@edward2 +20% boven de 1080ti edit: we praten toch over RX vega?

[ Voor 36% gewijzigd door Damic op 27-06-2017 07:11 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Ik ga ook een gokje wagen: rond 1080 ti niveau. Dat lijkt me een veilige gok, of dat het nu iets eronder of iets erboven zit.
The Source schreef op maandag 26 juni 2017 @ 18:50:
[...]

Ik zal maar niet meegokken of het staat weer op videocardz :)
Jij hebt al gehint dat de performance in verhouding zou kunnen staan tot het vermogen maar dat werd niet opgepikt. :)

Het is trouwens veelzeggend dat mensen zo zeiken over dat vermogen terwijl de 1080 toch ook een hoog vermogen heeft bij een maximale load.

[ Voor 31% gewijzigd door Anoniem: 444127 op 26-06-2017 19:42 ]


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Help!!!! schreef op maandag 26 juni 2017 @ 18:06:
[...]

Cool. d:)b

Hierbij de tekst van het bijbehorende artikel inclusief gamingimpressie van een aantal games:

http://www.pcworld.com/ar...n-vs-nvidia-titan-xp.html
Thanks voor de link; Best wat interessante info. Het geeft ook weer aan hoe lastig dit segment voor AMD is.
With the Frontier Edition machine running an 8K Dell panel, and a second panel at 1080p plus an HTC Vive, AMD opened up a theoretical car design in the Solidworks engineering application. Panning, spinning and moving the car looked reasonably fast, as expected. Once the model was “done” and ready to be examined, it was exported using AMD’s ProRender plug-in to Unreal Engine 4, where it could be viewed using the HTC Vive.

AMD’s director of professional products, Nick Pandher, said it may seem unusual for a game engine to be paired with an engineering app, but many small- to mid-size design firms actually operate this way today. Unlike the proprietary visualization tools that were once all the rage, off-the-shelf tools use game engines such as Unreal Engine and standard VR gear.
Wat ze niet zeggen is dat Solidworks ook een eigen gpu renderer heeft; visualise (vroegah bunkspeed). Alleen, die draait natuurlijk alleen met CUDA.. Zie daar weer het grote probleem bij veel pro apps.

Wat heel erg goed is, is dat AMD zelf Pro Render aan het ontwikkelen en pushen is als tegenhanger van Nvidia iRay, ik zie zelfs dat ze de plugin voor Solidworks aan het ontwikkelen zijn. Dan is het wel weer raar dat ze deze niet gebruikt hebben in de bovenstaande demo.. maar misschien nog te beta..

http://pro.radeon.com/en-...r-solidworks-add-in-beta/

Ik ken ontwikkelen met unreal engine niet heel goed maar voorzover ik weet kun je daar ook prima mee visualiseren in VR zonder aparte renderplugin dus het voelt een beetje omslachtig..
That brings us to the disruptive part of AMD’s push: Although powerful, Titan Xp is limited to consumer drivers. To approach the performance of the Radeon Vega Frontier Edition with an Nvidia product, you’d have to step up to at least a $2,000 Quadro P5000. A P6000 card, which is kind of the professional equivalent of a Titan Xp, is nearly $6,000.
Ze gooien "performance" op 1 hoop, het ligt genuanceerder. Maar voor Solidworks vp performance kun je ook een 700 euro kostende M4000 of WX 7100 halen, die zitten ook rond dat niveau, bijv.

Maar het is de combinatie van de viewport snelheid en compute die zeker leuk is in de FE. mits...
AMD blames these high prices for driving many prosumers to order workstation-class systems with lower-end professional cards so they can replace them with faster consumer GPUs. AMD believes the Frontier Edition can end this madness and give the company a triumphant return to the professional workstation card game.

Note that the Frontier Edition will do so with pro-optimized software support, though the drivers for the Radeon Vega Frontier Edition won’t actually be fully certified.
ze vergeten "nvidia" voor "consumer gpu's" te zetten :) Plus de meeste prosumers gaan waarschijnlijk niet voor een OEM workstation.

Minder pro openGL cap dus en wat andere plussen, maar geen certificatie. Voor de echt dure CAD apps ,zoals CATIA uit de vrijgegeven benchmarks, is het dus waarschijnlijk al geen overweging, je gaat geen risico's lopen als de software alleen al richting de 20k gaat en de werknemer een meervoud daarvan.
AMD contends the new GPU design and the HBM2 memory matter as much as the drivers in making Radeon relevant for workstations again.
Iig zo veel compute kunnen leveren als nvidia is belangrijk, maar CUDA wordt weer niet genoemd. Software support. Ik hoop dat het komt. Bij video zie je dat het wel kan, premiere en resolve draaien bijv. allebij prima op openCL. (maarja daar heb je weer geen workstation card voor nodig, gewoon veel power)

FE is trouwens een heel erg mooi doosje, die titan-x is maar een vormeloos geval ernaast. :)

Alleen die exhaust shroud! Die houdt toch allemaal airflow tegen?

specs


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 21:32

Damic

Tijd voor Jasmijn thee

@-The_Mask- leuke kaartjes maar die prijs :r en de afgelopen 2 weken zijn we van 0.0022btc naar 0.0014btc /dag gezakt (30Mhash/s), ja er is nog winst maar die zakt snel per week.

[ Voor 3% gewijzigd door Damic op 27-06-2017 07:16 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!
Ze zijn zoals eerder al gezegd ook eigenlijk niet bedoeld voor retail verkoop, dan kun je beter gewoon een gaming exemplaar halen. Die kan dan later ook nog als gaming videokaart gebruikt worden. Dit zijn kaarten die je per pallet moet bestellen, met korte garantie dan zal de prijs wel stukken lager liggen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:18
Zoals nu aangekondigd op de FP zie ik het nut nog niet direct. Duurder / vrijwel gelijk in prijs dan vergelijkbare gaming kaarten, echter amper restwaarde door het ontbreken van video uitgangen en ook nog eens een lagere garantie (al zal deze in de EU geen standhouden, tenzij deze kaarten enkel zakelijk verkocht worden).

Ik verwacht toch echt dat deze kaarten flink goedkoper aangeboden moeten worden dan de gaming tegenhangers voordat miners massaal overstappen, vooral vanwege de restwaarde....

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
Dennism schreef op dinsdag 27 juni 2017 @ 09:00:
Zoals nu aangekondigd op de FP zie ik het nut nog niet direct. Duurder / vrijwel gelijk in prijs dan vergelijkbare gaming kaarten, echter amper restwaarde door het ontbreken van video uitgangen en ook nog eens een lagere garantie (al zal deze in de EU geen standhouden, tenzij deze kaarten enkel zakelijk verkocht worden).

Ik verwacht toch echt dat deze kaarten flink goedkoper aangeboden moeten worden dan de gaming tegenhangers voordat miners massaal overstappen, vooral vanwege de restwaarde....
Goedkope crossfire update?

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:18
Dat zou mogelijk kunnen als deze kaarten die optie hebben, nu heb ik nooit Crossfire gebruikt, maar wil je daarvoor niet het liefst dezelfde kaarten hebben met gelijke clockspeeds e.d. ?

Acties:
  • 0 Henk 'm!

  • Kadardar
  • Registratie: Januari 2011
  • Laatst online: 01-05 12:42
Zover ik zie ondersteunen ze gewoon crossfire, dit is natuurlijk mooi om een goedkoop gokje op te wagen :)

[WoW - Kadardh/Daísÿ/Kadarlock @ Draenor]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

The Source schreef op maandag 26 juni 2017 @ 18:50:
[...]

Ik zal maar niet meegokken of het staat weer op videocardz :)
Member only tag? :P

In ander nieuws, de ETH koers is aan het klappen. Kunnen we hopelijk weer GPU's kopen. *O*
https://www.worldcoinindex.com/coin/ethereum

[ Voor 25% gewijzigd door DaniëlWW2 op 27-06-2017 11:44 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09-05 20:08
DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 11:22:
[...]


Member only tag? :P

In ander nieuws, de ETH koers is aan het klappen. Kunnen we hopelijk weer GPU's kopen. *O*
https://www.worldcoinindex.com/coin/ethereum
Korte crash kwam door een vals gerucht dat Vitalik Buterin dood was...

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

The Source schreef op dinsdag 27 juni 2017 @ 11:54:
[...]

Korte crash kwam door een vals gerucht dat Vitalik Buterin dood was...
Uh, het gaat nu al twee dagen zo. :P
Verder zit er een limiet aan ETH mining. Zoals met elke hype worden de blokken veel te snel gehashed, en worden ze steeds moeilijker. Er zat toch al weinig levensduur meer in, dus of die koers nog weer omhoog gaat. Zeker als je nu nog overweegt in te stappen, dan ben je heel dom bezig. Je betaalt te veel voor de GPU's, je moet wachten, en je investering eruit halen gaat moeilijker worden. De restwaarde van je GPU gaat ook laag zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
Vega FE voor 999dollar: https://videocardz.com/pr...-frontier-edition-for-999
AMD’s fastest Radeon VR Ready Creator graphics card ever, Radeon Vega Frontier Edition achieves the maximum possible score in the SteamVR benchmark, up to 21 percent higher than the multi-GPU Radeon™ Pro Duo solution.
SteamVRPerformance Test
Radeon™ Vega Frontier Edition SteamVRPerformance Test Score: 11.
Radeon™ Pro Duo (Polaris) SteamVRPerformance Test Score: 9.1.
Radeon™ Pro WX 7100 SteamVRPerformance Test Score: 6.4.

VRMark
Radeon™ Vega Frontier Edition VRMark–Orange Room Score: 8157.
Radeon™ Pro Duo (Polaris) VRMark–Orange Room Score: 6596.
Radeon™ Pro WX 7100 VRMark–Orange Room Score: 6588.

[ Voor 40% gewijzigd door Toettoetdaan op 27-06-2017 17:06 ]


Acties:
  • 0 Henk 'm!

  • FortyOne
  • Registratie: Juni 2008
  • Laatst online: 20-03 20:24
Ik denk niet dat we vandaag nog reviews gaan zien. Vreemde gang van zaken, voorspelt niet veel goeds (denk ik).

Frontier website met wat extra informatie: http://pro.radeon.com/en-...on-vega-frontier-edition/
Typical Engine Clock (MHz): 1382
Peak Engine Clock (MHz): 1600
Ik denk dat de performance schatting op basis van clock speed dus wat naar beneden bijgesteld kunnen worden :X

[ Voor 15% gewijzigd door FortyOne op 27-06-2017 17:08 ]


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Ze bieden dus verschillende drivers aan, ook gewoon een pure gamedriver trouwens.

Naast de VR test ook een maya test en een nietszeggende rendertest. Volgens mij is maya altijd al k*t geweest op non pro nvidia gpu's. :)
I Am Focused on Compute Workloads
The ROCm driver will be available for users on June 29th.

I Am Focused on Workstation Workloads
If you are a workstation user on a Windows® platform, get your driver here.
If you are a workstation user on a Linux® platform, get your driver here.

I Am Focused on Game Development Workloads
Radeon™ Vega Frontier Edition introduces “Gaming Mode”. This allows you to switch from Radeon™ Pro Settings to Radeon™ Settings where you can access gaming features for playtesting and performance optimization.
If you are focused on game development on a Windows® platform, get your driver here and switch to “Gaming Mode.”

I Just Want to Game
If you want to game on a Windows® platform, get your driver here and switch to “Gaming Mode.”

[ Voor 6% gewijzigd door maratropa op 27-06-2017 17:30 ]

specs


Acties:
  • 0 Henk 'm!
FortyOne schreef op dinsdag 27 juni 2017 @ 17:06:
Ik denk niet dat we vandaag nog reviews gaan zien. Vreemde gang van zaken, voorspelt niet veel goeds (denk ik).
Van welke professionele videokaart heb jij dan wel een review gelezen? Als je als AMD zijnde de videokaart verzend naar de standaard site's zul je toch geen fatsoenlijke review krijgen, dus dat lijkt mij sowieso vrij nutteloos om te doen. Zal denk ik zelfs alleen maar negatief werken.
Ik denk dat de performance schatting op basis van clock speed dus wat naar beneden bijgesteld kunnen worden :X
Nee dat is het exemplaar met een TBP van minder dan 300W. Verbruik houdt AMD dus op een constante waarde om vervolgens de kloksnelheid dynamisch te laten om het verbruik niet boven de 300W te laten komen. Dat is identiek als bij de Fury Nano.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 21:32

Damic

Tijd voor Jasmijn thee

Iemand een linkje waar je kan bestellen :(

Ow ow ow ow ow ow https://www.scan.co.uk/pr...tflops-131-fp32-tflops-3x grmbl komt nog eens x aantal £ bij omdat ze SCAN moeten betalen :r

* Damic bestellen doen :W GNI GNI GNI GNI FRIDAY IT'S VEGA TIME :9

[ Voor 92% gewijzigd door Damic op 27-06-2017 19:23 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@-The_Mask- helaas zie je ook wel een hoop CAD etc georienteerde reviewtjes die niet veel verder komen dan specviewperf. En als OpenGL performance een belangrijke (of enige) aankoopfactor is dan is dat ook best een aardige basis.

En de FE wordt dusdanig divers gepositioneerd dat een meer reguliere review ook heel logisch en gewenst is.

Voor deze prijs zijn gamers ook nog geinteresseerd :)

specs


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Ik verwijs er ook hier maar even naar aangezien een van de belangrijkste toepassingen (zelf ben ik ook verslaafd aan MPC-BE + madVR en moet ik nog wat andere Windows-only software gebruiken) hiervan gaming in Linux is en je daarmee de koppeling met grafische kaarten hebt.

Toestemming nodig voor bekijken van YouTube

Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.

Bekijk op YouTube
GPU Passthrough for Virtualization with Ryzen: Now Working
Daar word ik nog niet enthousiast van. Een dubbele 480 kan bij Doom net een 1080 bijbenen maar bij de meeste DX11-spellen niet. De 1080 ti is 20-25% sterker dan de 1080? Het ligt er natuurlijk maar aan waar de bottleneck zit bij die VR-test.

[ Voor 33% gewijzigd door Anoniem: 444127 op 27-06-2017 21:28 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En er zijn al gaming drivers voor deze GPU dan?
Nee, het zegt allemaal nog steeds helemaal niks, zoals we van AMD gewend zijn geraakt. Zelfs de release van de eerste Vega 10 maakt nog niet duidelijk hoe die nu presteert in games. Dit is echt wel een ander niveau van geheimhouding van AMD hoor. 10/10, would wait voor Vega again. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • SecondGuess
  • Registratie: Augustus 2010
  • Laatst online: 20:22
Volgens mij moeten we allen nog wachten op een degelijke review voor iemand ook maar iets zinnigs kan zeggen over de Vega consumenten kaart.
Amd gaat overduidelijk voor high end segment. Ik denk dat daar de performance vast naar zal zijn.

Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 22:24:
En er zijn al gaming drivers voor deze GPU dan?
Nee, het zegt allemaal nog steeds helemaal niks, zoals we van AMD gewend zijn geraakt. Zelfs de release van de eerste Vega 10 maakt nog niet duidelijk hoe die nu presteert in games. Dit is echt wel een ander niveau van geheimhouding van AMD hoor. 10/10, would wait voor Vega again. :+
Ik vind jouw optimisme bewonderenswaardig. Geen nieuws is slecht nieuws in technologie land, of dat is mijn idee in ieder geval. Ik vind de stilte van AMD en het bijna panische gedrag om reviews van Vega te voorkomen eerder beangstigend dan grappig. De stilte rond dit product is in mijn ogen echt geen goed teken. Zelfs voor FE hebben we geen benches en worden er geen samples rondgestuurd. Uitstel voor executie gedrag lijkt het wel...

Als Vega goed is, waarom hebben we dan niks gehoord? Veel mensen zeggen "de drivers hebben nog veel bugs", maar ze kunnen toch wel minstens één game bench teasen. Ze gaan nu in dat laatste maandje nou ook geen wonderen meer verrichten en opens 30% performance vinden via drivers of alle bugs oplossen...

Ik vind het maar niks. Ik hoop op het beste,, omdat ik een Freesync monitor wil kopen, (beter gezegd, geen GSync wil kopen), maar heb nog weinig hoop. Ik wil echt dat de optimisten onder jullie,"I told you so", tegen mij kunnen zeggen over een maandje, begrijp me niet verkeerd, maar vergelijk dit met de Ryzen release en hoeveel we toen al te zien kregen...

[ Voor 4% gewijzigd door MrCharming op 27-06-2017 22:52 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MrCharming schreef op dinsdag 27 juni 2017 @ 22:51:
Ik vind jouw optimisme bewonderenswaardig. Geen nieuws is slecht nieuws in technologie land, of dat is mijn idee in ieder geval. Ik vind de stilte van AMD en het bijna panische gedrag om reviews van Vega te voorkomen eerder beangstigend dan grappig. De stilte rond dit product is in mijn ogen echt geen goed teken. Zelfs voor FE hebben we geen benches en worden er geen samples rondgestuurd. Uitstel voor executie gedrag lijkt het wel...
Of het is zinloos om dergelijke, dure producten rond te sturen naar sites die er geen fatsoenlijke testen mee uit kunnen voeren.
Als Vega goed is, waarom hebben we dan niks gehoord? Veel mensen zeggen "de drivers hebben nog veel bugs", maar ze kunnen toch wel minstens één game bench teasen. Ze gaan nu in dat laatste maandje nou ook geen wonderen meer verrichten en opens 30% performance vinden via drivers of alle bugs oplossen...
En dan teasen ze een benchmark met vroege, en minder dan optimale drivers en dan is het weer Vega is crap. O-)
Het is drivers, drivers en nog eens drivers nu. De theoretische rekenkracht is er zeker, de bottleneck qua shader engines en CU's is er niet meer, en clocks lijken ook een minder groot gat te zijn met Nvidia. Blijft over drivers. Theoretische FP32 zal beter omgezet moeten worden naar echte prestaties in games, en daar heb je gewoon goede drivers voor nodig. Met minder middelen dan Nvidia, zal AMD daar behoorlijk wat tijd voor nodig hebben. Vega moet alleen meteen presteren, en niet zoals de RX4xx eerst onderpresteren en dan inlopen, wat mensen niet door hebben omdat er tussentijds niet gebenched wordt door grote sites. Dat is hier het dilemma voor AMD.

Het is ook nog eens een compleet nieuwe architectuur, de gehele shader pipeline is veranderd, AMD zou kennelijk in staat zijn om specifieke titels te optimaliseren op een per game basis. Ik maak simpelweg geen illusies over de uitdaging die AMD heeft om na twee jaar afwezigheid, en nog langere afwezigheid van echte innovatie, nu Nvidia in te halen. Intel oke, die zaten te slapen, Nvidia niet, anders zaten ze nu nog op Maxwell of zelfs nog op Kepler.
Ik vind het maar niks. Ik hoop op het beste,, omdat ik een Freesync monitor wil kopen, (beter gezegd, geen GSync wil kopen), maar heb nog weinig hoop.

Vergelijk dit met de Ryzen release en hoeveel we toen al te zien kregen...
Volgens mij ben ik al maanden vrij consistent. Ik zeg al maanden dat het waarschijnlijk meer dan de GTX1080 zal zijn, en dan kan het tussen de 1080 en de Ti invallen, Ti en Xp matchen, of sneller zijn. Dat laatste zou ideaal zijn, maar of het gebeurd zien we over een maand. Gebeurd het ruim verslaan niet, dan is dit eigenlijk in het voordeel van de consument, en niet AMD, omdat AMD dan nog harder onder de prijs van Nvidia zal gaan zitten dan ze waarschijnlijk toch al van plan zijn. Heb er persoonlijk ook helemaal geen belang bij voor AMD. Heb geen aandelen, en heb al gekozen voor de RX580. Ik zie wel of Vega 11 een upgrade zal zijn, over een halfjaar ofzo. Vega 10 ga ik toch niet kopen, totale overkill.

Dan Ryzen. Tja, was het niet juist zo dat AMD meteen al aangaf dat ze Intel niet zouden gaan matchen op IPC? ;)

Verder is Intel log, en konden of wilden ze toch niet correct reageren, en wat ze nu doen is maar zeer matig. Dit terwijl AMD rustig haar eerste HEDT platform aan het voorbereiden is, en de aanval heeft geopend op de oh zo lucratieve servermarkt. Bij Nvidia moet je dit niet proberen. Nvidia had preventief gehandeld en de GTX1080Ti zo geplaatst dat deze meteen een probleem voor Vega zou worden. Verder was Volta zoveel mogelijk naar voren gehaald als dit nodig was. Tegen Nvidia lijkt het mij zeer verstandig om niks naar buiten te brengen, en dit zo lang als mogelijk vol te houden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Ik zou de cut van Vega10 niet overkill noemen. Voor 1080p gaming? Ja, behoorlijk! Ook dat is echter betrekkelijk aangezien je voor dezelfde resolutie over een paar jaar heel wat zwaardere graphics gaat hebben dan nu aangezien het weer wat realistischer zal worden. Bijvoorbeeld doordat we standaard goed bewegend haar en goed bewegende kleding gaan zien, ray-tracing meer gebruikt zal worden, de gezichten weer wat gedetailleerder worden...
Het gaat natuurlijk om bang for the buck en de minimale prestatie die je nu en de komende paar jaar wenst. Hoe dat uitvalt zullen we moeten afwachten.
Zou die kleine Vega-kaart de opvolger van Polaris worden? De volle als 680 en cuts daarvan als 670 etc.?
DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 22:24:
En er zijn al gaming drivers voor deze GPU dan?
Nee, het zegt allemaal nog steeds helemaal niks, zoals we van AMD gewend zijn geraakt. Zelfs de release van de eerste Vega 10 maakt nog niet duidelijk hoe die nu presteert in games. Dit is echt wel een ander niveau van geheimhouding van AMD hoor. 10/10, would wait voor Vega again. :+
Dat klopt, ik gaf alleen aan dat deze cijfers niet indrukwekkend zijn, als minimum performance indicator. Wat daadwerkelijk de performance wordt, daar zullen we over een week een veel beter beeld van hebben zo gauw de eerste synthetische gamebenchmarks bekend worden. Nu weet ik niet precies in welke mate je die kan verbeteren met drivers (ik schat in dat dat zeer beperkt is), het is bekend dat je voor games heel wat meer kan bereiken met drivers aangezien de programmeurs (of eigenlijk developers?) er vaak een zooitje van maken en ze via de drivers per spel allerlei hacks aan- en uitschakelen die gemaakte fouten in de code opvangen.

Ik verwacht dat de volle Vega gewoon de concurrentie aan kan met de 1080ti, misschien iets minder bij DX11 maar dat maken ze dan wel weer goed bij DX12, Vulkan en nieuwere spellen waarvoor AMD het beter lijkt te doen (console-voordeel?). Aangezien wij toch graag speculeren speculeer ik ook nog even over de prijs: $599-699 voor de watergekoelde versie, 499-599 voor volle versie zonder waterkoeling en $399-450 voor de cut. Hiermee voorzien ze alle segmenten van de markt en is de prijs aantrekkelijk genoeg dat mensen overwegen om het te kopen, veronderstellende dat de cut de GTX 1070 verslaat en in de buurt komt van de GTX 1080 terwijl de volle Vega minstens in de buurt komt van de 1080 ti, toch zeker de watergekoelde versie.
Wanneer AMD het allemaal aankondigt mogen jullie deze reactie citeren en dan zullen we eens zien hoe dicht of ver ik er naast zit. Achteraf praten is gemakkelijk, nu staat het zwart op wit. :P
MrCharming schreef op dinsdag 27 juni 2017 @ 22:51:[/Geen nieuws is slecht nieuws in technologie land
Dat is wel erg gegeneraliseerd. Dat AMD met 52% de zogenaamde ICP voor Ryzen verbeterde t.o.v. de laatste architectuur van AMD in plaats van de geambiëerde 40% kondigde AMD pas weken later aan nadat het via de wandelgangen al bekend was geworden, mogelijk omdat AMD dit graag bewaarde voor het persevenement. Sowieso waren ze bij Ryzen best voozichtig om niet meer te beloven dan wat het zou leveren, ze merkten pas laat op dat de klokfrequenties best meevallen en dergelijke, ze lieten niet weten - ook dit lekte via de wandelgangen - dat de eerder gedemonstreerde klokfrequentie slechts lager lag doordat ze nog een softwarebug aan het oplossen waren...
AMD heeft in het verleden de fout gemaakt om meer te beloven dan wat het kon leveren, de huidige leiders bij AMD begrijpen blijkbaar dat AMD op dit vlak met argensogen wordt gevolgd door veel mensen en dat ze beter minder kunnen beloven dan wat ze waarmaken dan dat ze minder beloven dan wat ze waarmaken.
Nu kan iemand flauw beginnen over te grote gamingbeloftes maar AMD beloofde nooit dat het met Ryzen een hogere FPS zou halen dan de 7700k bij 1080p, het wekte slechts de indruk dat Ryzen geschikt is voor 4k gaming, wat waar bleek te zijn (hier en daar is een patch noodzakelijk of gewenst maar in het algemeen klopt het).

Wat ik verwacht kan je hierboven lezen. Optimisme? Nee, ik denk dat het realistisch is gezien de veranderingen in de architectuur, het feit dat ze lang hebben kunnen werken aan de implementatie en de drivers en dat de AMD-medewerkers ongetwijfeld de druk voelen om er alles aan te doen om Vega op dit niveau te laten presteren, o.a. omdat het PR-technisch slecht is als je een jaar later niet de concurrentie aan kan met Nvidia voor die generatie en omdat je toch graag de kosten (HBM) eruit wil halen met de verkoop van de kaarten. We zullen het de komende maanden wel gaan zien.

[ Voor 75% gewijzigd door Anoniem: 444127 op 28-06-2017 00:16 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Anoniem: 444127 schreef op dinsdag 27 juni 2017 @ 23:45:
Ik zou de cut van Vega10 niet overkill noemen. Voor 1080p gaming? Ja, behoorlijk!
Je vergeet effe al die 144Hz eigenaren die graag zoveel mogelijk fps willen : Ook op zo'n (ondertussen) lage resolutie :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Anoniem: 444127

nero355 schreef op woensdag 28 juni 2017 @ 00:51:
[...]

Je vergeet effe al die 144Hz eigenaren die graag zoveel mogelijk fps willen : Ook op zo'n (ondertussen) lage resolutie :)
Niet vergeten, bewust ervoor gekozen om dat niet als uitzondering te benoemen omdat ik erover twijfel of dat het wel een uitzondering is. Voor die spellen waarbij het er echt toe doet (Overwatch, CS Go...) kom je ook wel ruim boven de 100 met hoge/zeer hoge instellingen met de volle kleine Vega of een cut van de grote Vega. Bij andere spellen (TW3, GTA5...) betwijfel ik dat je ook maar enig verschil merkt tussen FPS=100 en hoger. Verder is het natuurlijk onzinnig om met ultra instellingen te spelen bij dit soort spellen, je ziet echt niet het verschil terwijl je gamet. Ik ben zelf een graphics-hoer zoals ze dat noemen, voor mij hoog/zeer hoog, afhankelijk van het spel. Op een uitzondering na (bijv. textures).

[ Voor 10% gewijzigd door Anoniem: 444127 op 28-06-2017 02:43 ]


Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 23:18:
[...]

Of het is zinloos om dergelijke, dure producten rond te sturen naar sites die er geen fatsoenlijke testen mee uit kunnen voeren.

[...]

En dan teasen ze een benchmark met vroege, en minder dan optimale drivers en dan is het weer Vega is crap. O-)
Als ze één maand voor release nog geen enkele game hebben waar de boel fatsoenlijk werkt, dan hebben ze serieuze problemen. Ik verwacht niet dat we mooie bar charts krijgen voor 30 games met 144FPS in 4K, maar als AMD nu nog niks produceren kan, dan loopt er echt wat mis. Vergeet bijvoorbeeld niet dat we bij Ryzen al teasers hadden waar een Blender test werd gebruikt, waar de kloksnelheden hetzelfde waren. Dat gaf niet alles weg, maar men had wel een idee.

Ik heb het idee dat de launch keer op keer verschoven wordt, onder het mom van meer performance met drivers en dat is prima. Ik wil niet nog een Polaris release. Ik denk echter niet dat AMD nu nog in een paar weken zoveel winst kan boeken. Dat voelt een beetje aan als je scriptie indienen om 23:59 als die om 00:00 binnen moet zijn :p

Overigens zijn er ook review sites die niet enkel games doen hè. Anandtech reviewt gewoon hardware, ook smartphones bijvoorbeeld. Er zijn ook andere sites die meer workstation of HEDT gericht zijn. Daarbij komt ook nog eens kijken dat het gewoon slecht staat, naar mijn mening. Die reviews komen er toch wel, want er is een iemand die $1000 op tafel legt voor die kaart en 'm vervolgens gaat reviewen. Dat komt dan op reddit met 3k upvotes, hier, videocardz, overal en dan is de kat uit de zak. Dat AMD zo angstig de kaarten op de borst drukt staat enkel slecht, in mijn ogen. Daar verschillen we dan van mening over (ook leuk ;) ), maar ik vind het een slechte zet.
Volgens mij ben ik al maanden vrij consistent. Ik zeg al maanden dat het waarschijnlijk meer dan de GTX1080 zal zijn, en dan kan het tussen de 1080 en de Ti invallen, Ti en Xp matchen, of sneller zijn. Dat laatste zou ideaal zijn, maar of het gebeurd zien we over een maand. Gebeurd het ruim verslaan niet, dan is dit eigenlijk in het voordeel van de consument, en niet AMD, omdat AMD dan nog harder onder de prijs van Nvidia zal gaan zitten dan ze waarschijnlijk toch al van plan zijn. Heb er persoonlijk ook helemaal geen belang bij voor AMD. Heb geen aandelen, en heb al gekozen voor de RX580. Ik zie wel of Vega 11 een upgrade zal zijn, over een halfjaar ofzo. Vega 10 ga ik toch niet kopen, totale overkill.

Dan Ryzen. Tja, was het niet juist zo dat AMD meteen al aangaf dat ze Intel niet zouden gaan matchen op IPC? ;)
Nee, matchen deden ze zeker niet, maar 52% gain is heel indrukwekkend. Dat is een van de grootste inhaalslagen geweest die ze ooit gedaan hebben als bedrijf, zeker op CPU gebied. Ze gaven wel aan dat ze verdomd dicht in de buurt zaten. Bij Vega is het doodstil.
Anoniem: 444127 schreef op dinsdag 27 juni 2017 @ 23:45:
Dat is wel erg gegeneraliseerd. Dat AMD met 52% de zogenaamde ICP voor Ryzen verbeterde t.o.v. de laatste architectuur van AMD in plaats van de geambiëerde 40% kondigde AMD pas weken later aan nadat het via de wandelgangen al bekend was geworden, mogelijk omdat AMD dit graag bewaarde voor het persevenement. Sowieso waren ze bij Ryzen best voozichtig om niet meer te beloven dan wat het zou leveren, ze merkten pas laat op dat de klokfrequenties best meevallen en dergelijke, ze lieten niet weten - ook dit lekte via de wandelgangen - dat de eerder gedemonstreerde klokfrequentie slechts lager lag doordat ze nog een softwarebug aan het oplossen waren...
AMD heeft in het verleden de fout gemaakt om meer te beloven dan wat het kon leveren, de huidige leiders bij AMD begrijpen blijkbaar dat AMD op dit vlak met argensogen wordt gevolgd door veel mensen en dat ze beter minder kunnen beloven dan wat ze waarmaken dan dat ze minder beloven dan wat ze waarmaken.
Nu kan iemand flauw beginnen over te grote gamingbeloftes maar AMD beloofde nooit dat het met Ryzen een hogere FPS zou halen dan de 7700k bij 1080p, het wekte slechts de indruk dat Ryzen geschikt is voor 4k gaming, wat waar bleek te zijn (hier en daar is een patch noodzakelijk of gewenst maar in het algemeen klopt het).

Wat ik verwacht kan je hierboven lezen. Optimisme? Nee, ik denk dat het realistisch is gezien de veranderingen in de architectuur, het feit dat ze lang hebben kunnen werken aan de implementatie en de drivers en dat de AMD-medewerkers ongetwijfeld de druk voelen om er alles aan te doen om Vega op dit niveau te laten presteren, o.a. omdat het PR-technisch slecht is als je een jaar later niet de concurrentie aan kan met Nvidia voor die generatie en omdat je toch graag de kosten (HBM) eruit wil halen met de verkoop van de kaarten. We zullen het de komende maanden wel gaan zien.
toon volledige bericht
Maar nu komt er niks uit "de wandelgangen". Ook als het voor persevenementen bewaard wordt, AMD is opvallend stil rond Vega. Er zijn verschillende persevenementen geweest waar ze de kans hadden om iets te laten zien, wat dan ook, maar vervolgens werden er T-shirts weggeven en zeiden ze dat Vega "RX Vega" gaat heten. AMD zwijgt als het graf en we zitten nu een maand voor release en er is niks, maar dan ook niks bekend.

Overigens, en dan word ik misschien een alu-hoedje genoemd, ben ik er van overtuigd dat AMD een handje had in al die lekken. De Ryzen release was zo lek als een mandje. De hoeveelheid informatie die naar buiten kwam was ongelofelijk. Bijna iedere dag of zeker 3-4 keer per week was er een "lek". Prijzen, benchmarks, line-ups, specs van CPUs, power draw info, etc. Achteraf klopt misschien de helft niet, maar er zat een hoop bij wat waar was, of héél dicht in de buurt. Dan ga je mij niet vertellen dat AMD niet af en toe express wat lekte, om hype te creëren, Of de CPU department zit vol met kletsmajoren en de GPU jongens zijn allemaal heel braaf. Ik vind het onwaarschijnlijk.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 00:16
AMD heeft wel vaker dingen goed stil gehouden. Beste voorbeeld is dacht ik de HD5870.

Maar ben het met je eens dat het nu wel stil is. Ik denk ook dat ze misschien bang zijn dat ze worden afgeschoten dat ze op 1080p in DX11 maar 200fps halen ipv de 250 die de GTX1080Ti haalt. Dat hij dan op 4k sneller is doet er niet toe want de Ti is sneller!!11one

Mijn ongezouten mening is dat het mij een worst zal wezen hoe die kaart presteerd in DX11, als hij goed mee kan komen op hoge resoluties dan is dat mij inziens voldoende. Ik zie liever dat hij in DX12/Vulkan overal gehakt van maakt want dat is de toekomst.

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 10-05 23:15

flessuh

Set sail for fail!

en daar gaan we al...

https://www.reddit.com/r/...h_no_one_will_officially/

Ja, bron is vaak ruk maar toch.

Aan de andere kant kan dit soort "nieuws" AMD toch zover brengen om wat meer informatie uit te brengen, of zou het ze koud laten?

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Workstation gpu's worden nooit groots gereleased en breed gerevieuwed, in dat licht is het niet raar dat er weinig nieuws over de FE is, tenminste het hoort bij het workstation beeld wat amd schept. Neem bijv de GP100; meest high end gpu die er was, ik had ook wel verwacht dat een paar sites er op gingen gamen maar nada niks.

De comments op reddit geven trouwens meteen het gebrek aan begrip omtrent workstation gpus weer bij een grote groep..

[ Voor 15% gewijzigd door maratropa op 28-06-2017 11:04 ]

specs


Acties:
  • 0 Henk 'm!

  • FortyOne
  • Registratie: Juni 2008
  • Laatst online: 20-03 20:24
maratropa schreef op woensdag 28 juni 2017 @ 11:02:
Workstation gpu's worden nooit groots gereleased en breed gerevieuwed, in dat licht is het niet raar dat er weinig nieuws over de FE is, tenminste het hoort bij het workstation beeld wat amd schept. Neem bijv de GP100; meest high end gpu die er was, ik had ook wel verwacht dat een paar sites er op gingen gamen maar nada niks.

De comments op reddit geven trouwens meteen het gebrek aan begrip omtrent workstation gpus weer bij een grote groep..
De echte Vega workstation kaart wordt waarschijnlijk de WX9100:
https://videocardz.com/70...pro-wx-9100-with-vega-gpu

De FE versie wordt breder in de markt gezet, dus reviews zijn wel op zijn plaats vind ik. Sowieso alleen al om het feit dat er door veel mensen (heel lang) naar is uitgekeken en er dus veel aandacht voor de eerste resultaten zal zijn. Ik zou dan als AMD zijnde liever een paar kwalitatief goede reviews hebben door bekende sites - die de resultaten ook in het juiste licht kunnen zetten - dan individuen die een paar benchmarkjes gaan draaien en dit op het web gooien.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MrCharming schreef op woensdag 28 juni 2017 @ 09:58:
Als ze één maand voor release nog geen enkele game hebben waar de boel fatsoenlijk werkt, dan hebben ze serieuze problemen. Ik verwacht niet dat we mooie bar charts krijgen voor 30 games met 144FPS in 4K, maar als AMD nu nog niks produceren kan, dan loopt er echt wat mis. Vergeet bijvoorbeeld niet dat we bij Ryzen al teasers hadden waar een Blender test werd gebruikt, waar de kloksnelheden hetzelfde waren. Dat gaf niet alles weg, maar men had wel een idee.

Ik heb het idee dat de launch keer op keer verschoven wordt, onder het mom van meer performance met drivers en dat is prima. Ik wil niet nog een Polaris release. Ik denk echter niet dat AMD nu nog in een paar weken zoveel winst kan boeken. Dat voelt een beetje aan als je scriptie indienen om 23:59 als die om 00:00 binnen moet zijn :p
Waar zeg ik precies dat ze nu niet al wat drivers klaar hebben? Ik mag toch hopen dat ze voor de meeste games tenminste de basis af hebben en nu aan het bijschaven zijn. Verder vertik ik het gewoon om mee te gaan met al het negativisme rond Vega, totdat ik echte resultaten zie. Zo ongelofelijk veel mensen die conclusies trekken aan de hand van een techdemo van een paar seconden. Het zegt bar weinig.

Wat we weten is dat AMD de GCN architectuur heeft verlaten, de complete frondend van de GPU heeft omgegooid zodat ze niet nog een "Fiji" krijgen en met veel hogere clocks komen. Tenzij er iets fundamenteel mis is, zie ik niet in waarom Vega 10 niet tenminste de GTX1080 ruim zou moeten verslaan. Dan kom je bij GP102 uit en je positionering ten opzichte hiervan.

AMD haar probleem is dat Nvidia al een complete line-up heeft, met prijzen kan spelen, of een Pascal refresh kan uitvoeren, of toch Volta. Als Vega 10 nu wint van GP102, dan is dat voor een paar maanden, tenzij Vega 10, GP102 echt sloopt, en de concurrentie aankan met de opvolger van Nvidia. Is het een match, dan zal AMD onder de prijs gaan zitten, Nvidia zal reageren en dan komt Vega 10 een niveautje lager te staan bij de volgende Nvidia release. Enthousiast is dan nog steeds Nvidia only, maar high end is concurrentie.
Overigens zijn er ook review sites die niet enkel games doen hè. Anandtech reviewt gewoon hardware, ook smartphones bijvoorbeeld. Er zijn ook andere sites die meer workstation of HEDT gericht zijn. Daarbij komt ook nog eens kijken dat het gewoon slecht staat, naar mijn mening. Die reviews komen er toch wel, want er is een iemand die $1000 op tafel legt voor die kaart en 'm vervolgens gaat reviewen. Dat komt dan op reddit met 3k upvotes, hier, videocardz, overal en dan is de kat uit de zak. Dat AMD zo angstig de kaarten op de borst drukt staat enkel slecht, in mijn ogen. Daar verschillen we dan van mening over (ook leuk ;) ), maar ik vind het een slechte zet.
Wederom, wat is het alternatief? Nvidia zal reageren zodra ze accurate informatie hebben. Zelfs nu Nvidia waarschijnlijk een FE Vega GPU heeft bemachtigd en aan het testen is geslagen, zullen ze nog steeds niet weten hoe die precies in games presteert, want geen drivers. Dat moeten ze weten, omdat Nvidia preventief zal willen reageren om de RX Vega release te ondermijnen. Komt Nvidia er achter dat het maximaal 1080Ti is, dan kunnen ze zich voorbereiden op een pricedrop. Voorbij GP102, dan snel de volgende generatie eruit pushen, onder de 1080Ti? Dan kijken ze wat ze met de GTX1070/80 kunnen doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
DaniëlWW2 schreef op woensdag 28 juni 2017 @ 11:51:
Wat we weten is dat AMD de GCN architectuur heeft verlaten
Verlaten weet ik niet, maar wel goed omgegooid:
Rys Sommefeldt schreef:
Full architecture details will come out later, can't spoil that, but it is FL 12_1 top tier for everything.
Betekent dat gameworks minder impackt gaat hebben op AMD? (Conservative rasterization en Rasterizer-ordered views)

Acties:
  • +1 Henk 'm!
Niet direct dat GW minder invloed heeft, maar wel dat die features nu wellicht gebruikt gaan worden. CR en ROVs worden nu niet gebruikt omdat AMD ze niet ondersteunt en Nvidia's ondersteuning voor CR matig is. GM20x ondersteunt slechts tier 1, wat nauwelijks voordelen geeft over een compute-gebaseerde emulatie.

Voorlopig de beperkingen aan Nvidia's kant:
- Tier 2 CR
- Tier 2 resource binding
- Geen stencil refs in pixel shaders (geen grote feature, maar bespaart wel weer wat roundtrips)
- UAV slots zijn beperkt tot 64
- Heaps zijn beperkt tot 1 type resource (tier 1)

Laatste 4 punten zijn in GCN1 allemaal al de top tier; Intel heeft deze ook allemaal op top tier in Skylake en Kaby Lake (en enkele zelfs in Haswell al).

We zullen deze features voorlopig nog niet in games zien. Ze worden nog veel te beperkt ondersteund ;)


@Anoniem: 444127 ook in games als TW3, GTAV en dergelijke is het gewoon wenselijk een hogere framerate te hebben. En als je dan een 120/144 Hz monitor hebt, wil je het liefst ook tegen die limiet aan zitten om tearing te voorkomen, ook al is tearing een stuk slechter zichtbaar door de refreshrate.

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 10-05 23:15

flessuh

Set sail for fail!

Ik heb er wel vertrouwen in in ieder geval. Hoop alleen dat ze ook hier wat goed verkrijgbaar zijn aangezien mijn huidige PC steeds harder achteruit gaat. Half juli (hopelijk) nieuwe beeldschermen van Samsung op de markt en dan maandje later nieuwe PC om de boel aan te drijven!

Aan de statistieken etc te zien, plus wat we tot nu toe aan performance hebben gezien moet AMD hier toch wel een goed product in handen hebben. Enkel hopen dat Nvidia de prijzen niet dusdanig naar beneden gooit dat AMD te weinig marge ruimte houd. R&D moet toch ergens van betaald worden :P

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Werelds schreef op woensdag 28 juni 2017 @ 12:13:
@Anoniem: 444127 ook in games als TW3, GTAV en dergelijke is het gewoon wenselijk een hogere framerate te hebben. En als je dan een 120/144 Hz monitor hebt, wil je het liefst ook tegen die limiet aan zitten om tearing te voorkomen, ook al is tearing een stuk slechter zichtbaar door de refreshrate.
Als je geen FreeSync-monitor hebt, ok. Het punt is dat er een sterk verminderde meerwaarde is van de hogere FPS naarmate die hoger wordt. Simpel gesteld, tot de 75 FPS merk je nog veel verbetering in vergelijking met 60 FPS, tussen de 75 en de 100 FPS merk je nog enige verbetering en daarboven moet je actief gaan zoeken naar het verschil. Voor competitieve online gaming op een hoog niveau waarbij 0,005 s het verschil maakt doet het er toe, als je geen FreeSync zou gebruiken dan doet het er toe, in andere scenario's zit het volgens mij meer in het kopje dat je boven de 100 FPS moet zitten als je TW3 of GTAV speelt. Wie zo'n monitor heeft kan eens een blind experiment opzetten, laat iemand anders de FPS wijzigen (door met de grafische instellingen te spelen) en zie of dat je het verschil merkt met gewone gameplay (zonder wild met de muis te bewegen).

[ Voor 21% gewijzigd door Anoniem: 444127 op 28-06-2017 13:36 ]


Acties:
  • +1 Henk 'm!
Anoniem: 444127 schreef op woensdag 28 juni 2017 @ 13:33:
[...]

Als je geen FreeSync-monitor hebt, ok. Het punt is dat er een sterk verminderde meerwaarde is van de hogere FPS naarmate die hoger wordt. Simpel gesteld, tot de 75 FPS merk je nog veel verbetering in vergelijking met 60 FPS, tussen de 75 en de 100 FPS merk je nog enige verbetering en daarboven moet je actief gaan zoeken naar het verschil. Voor competitieve online gaming op een hoog niveau waarbij 0,005 s het verschil maakt doet het er toe, als je geen FreeSync zou gebruiken dan doet het er toe, in andere scenario's zit het volgens mij meer in het kopje dat je boven de 100 FPS moet zitten als je TW3 of GTAV speelt.
Mwah, daar ben ik het niet mee eens. Ik speel wel enkele games (soort van) competitief, maar ook als ik Battlefield of GTA speel merk ik wel degelijk het verschil tussen 80 FPS en 110 FPS.

Dat geldt niet voor iedereen, maar dat is het hem nu juist: niet iedereen ervaart dit soort dingen in gelijke mate. Zo ben ik ook uitermate gevoelig voor microstuttering. Er hoeven van de 90 frames maar een tweetal richting de 15ms te pieken en merk het al. Dat heb ik in het verleden eens voor mezelf getest als ik in games merkte dat het niet "lekker" aan voelde en dan bleek telkens dat er kleine piekjes in de frametimes zaten. Om die reden heb ook maar ooit even SLI gedraaid en zal ik nooit meer naar multi GPU met AFR terug gaan.

Het is een fenomeen waar ik wel eens een wetenschappelijk onderzoek naar zou willen zien, want ik betwijfel of dit iets te maken heeft met hoe goed je zicht is. Ik heb geen bril of lenzen, maar ik ken mensen die wel een bril hebben en dit soort dingen ook meteen opmerken. Ik denk dat het eerder iets te maken heeft met enerzijds gewenning (20+ jaar gamen, begonnen op CRT, enkele jaren vrij serieus competitief in snelle games) en anderzijds iets in je visuele cortex waardoor sommige mensen snelle bewegingen anders verwerken. Ik heb ook goede reflexen, altijd al gehad (één van de redenen dat snelle shooters me aantrekken, dat ligt me gewoon goed).

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:50
Zolang ik cursor trails zie blijf ik vasthangen aan het gegeven dat de refreshrate te laag is, dus 165Hz is niet genoeg :+.

Acties:
  • +1 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
Deze gast heeft er gewoon een gekocht omdat hij niet meer kon wachten: https://disqus.com/by/klaudiuszkaczmarzyk/

Mooi kastje wel:
Afbeeldingslocatie: https://uploads.disquscdn.com/images/de4ed93ec1511e66320b21a4b5de221128e01e8cccd9d8e10e57d970a3155480.jpg

Hopelijk doet hij wat benches later vandaag :D

EDIT:
Afbeeldingslocatie: https://uploads.disquscdn.com/images/57c75da84a7f7adfa30ac0367821975525f2f7891996c2cf8d17bbd627ac5dc2.jpg
Hier staat dan weer een core clock van 1600MHz.

EDIT2:
I will be running 3DMArk now, first in no GAME Mode and in 1080p resolution and then in GameMode
EDIT3:
Afbeeldingslocatie: https://uploads.disquscdn.com/images/f09de6ba8d90fbc511da96d77bdd3920bc39335e5c3ca29595fc814bf946b003.jpg
Afbeeldingslocatie: https://uploads.disquscdn.com/images/5a1d18d19c707cb80d42a236bbfdc9f769da245554b4060706e4bfca747c98e9.gif

[ Voor 49% gewijzigd door Toettoetdaan op 28-06-2017 14:31 ]


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Werelds schreef op woensdag 28 juni 2017 @ 14:01:
[...]

Mwah, daar ben ik het niet mee eens. Ik speel wel enkele games (soort van) competitief, maar ook als ik Battlefield of GTA speel merk ik wel degelijk het verschil tussen 80 FPS en 110 FPS.
Mijn stelling was dat je het verschil niet merkt tussen 100 en 110 (of 120, of 130, wat jij wil ;)).
Probeer het eens uit.
Ik geloof direct dat het verschilt tussen mensen (ik weet het uit ervaring, ik heb dat met mijn gehoor dat het veel beter functioneert dan bij de meeste mensen) maar het is uitzonderlijk als je dat verschil merkt wanneer je gewoon speelt en niet actief zoekt naar het verschil.
Dat geldt niet voor iedereen, maar dat is het hem nu juist: niet iedereen ervaart dit soort dingen in gelijke mate. Zo ben ik ook uitermate gevoelig voor microstuttering. Er hoeven van de 90 frames maar een tweetal richting de 15ms te pieken en merk het al. Dat heb ik in het verleden eens voor mezelf getest als ik in games merkte dat het niet "lekker" aan voelde en dan bleek telkens dat er kleine piekjes in de frametimes zaten. Om die reden heb ook maar ooit even SLI gedraaid en zal ik nooit meer naar multi GPU met AFR terug gaan.
Interessant. Hoe liet jij de framerenderplots maken? Ik wil daar ook eens mee experimenteren.
Het is een fenomeen waar ik wel eens een wetenschappelijk onderzoek naar zou willen zien, want ik betwijfel of dit iets te maken heeft met hoe goed je zicht is. Ik heb geen bril of lenzen, maar ik ken mensen die wel een bril hebben en dit soort dingen ook meteen opmerken. Ik denk dat het eerder iets te maken heeft met enerzijds gewenning (20+ jaar gamen, begonnen op CRT, enkele jaren vrij serieus competitief in snelle games) en anderzijds iets in je visuele cortex waardoor sommige mensen snelle bewegingen anders verwerken. Ik heb ook goede reflexen, altijd al gehad (één van de redenen dat snelle shooters me aantrekken, dat ligt me gewoon goed).
Zowel voor het gehoor als het zicht geldt natuurlijk dat je ziet/hoort met de cortex van je hersenen, niet met je ogen/oren. Je ogen/oren zijn slechts een transfermedium die actiepotentialen (spanningen tussen buiten de neuron en binnen de neuron en spanningen tussen neuronen) genereren, wat er vervolgens als reactie op die actiepotentialen gebeurt wordt inderdaad in de cortex bepaalt, dat is uitgebreid bewezen door te kijken naar welke delen van de cortex actief zijn bij welke take en doordat allerlei defecten gekoppeld kunnen worden aan het niet goed functioneren van delen van de cortex. Zo is het bekend dat zoogdieren nooit kunnen gaan zien als je de eerste paar jaar de ogen afplakt, simpelweg omdat dat deel van de visuele cortex op latere leftijd niet meer goed ontwikkelt, neurowetenschappers spreken over een/de kritische periode. Dat ik beter hoor heeft weinig te maken met mijn oren maar met dat het auditieve deel van mijn cortex die informatie beter kan verwerken. Idem voor als je een sneller visuele waarneming hebt. Bijziendheid kan mogelijk wel verschil maken, het zal afhangen van hoe klein/groot hetgeen is wat je waarneemt. Tearing zal je opmerken (geen verschil door de ogen) als je een beetje bijziend bent, van aliasing heb je minder last omdat dat veel fijnere details zijn.
Wat betreft het waarnemen van microstutter, daar komt meer bij kijken dan slechts de visuele cortex, timing is immers ook erg belangrijk en dat zit weer elders in het brein.
Ervaring speelt inderdaad ook een grote rol, simpelweg omdat je je hersenen traint (adaptief en plastisch vermogen, vergelijkbaar met eender welke vaardigheid je leert of welke kennis je opdoet). Bij geheugentraining zie je zelfs dat het hierbij betrokken deel van het brein (de hippocampus als ik me niet vergis) groter wordt, dit bleek bij een experiment met taxichauffeur-leerlingen in London die alle straten uit hun hoofd moeten leren en de kortste route moeten geven van A naar B.
Ik aanvankelijk geen tearing, de laatste jaren word ik er gek van en zie ik elke tear. Bij 1 spel stopte ik zelfs met het te spelen om die reden. Duidelijk een gevolg van ervaring.

Zelf ben ik trouwens erg gevoelig voor de extra inputlag bij VSync dus ik herken goed wat jij zegt. Bij ME2 en ME3 merkte ik het bijvoorbeeld sterk, het voelde niet juist in vergelijking met hoe ik het eerder speelde. Ik vergat om VSync uit te schakelen in het tekstbestandje. Bij Deus Ex HR (op mijn systeem ongeveer 80-90 FPS) en nog wat andere spellen merkte ik het ook direct. Bij LA Noire vind ik de inputlag ook hinderlijk groot maar bij dat spel kan je het helaas niet uitschakelen.

[ Voor 12% gewijzigd door Anoniem: 444127 op 28-06-2017 14:36 ]


Acties:
  • 0 Henk 'm!
@Toettoetdaan mooi ding!

Het kriebelt :(


@Anoniem: 444127 gewoon met MSI AB of Fraps naar frametimes gekeken. Geen van beide is echt precies, zelfs daar was het toen in te zien. FCAT was er nog niet ;)


Overigens voor @MrCharming: Quadro's en Fire Pro's worden vrijwel nooit samples van verstuurd. Reviews die je daar van ziet zijn nagenoeg altijd gekochte of geleende kaarten.

Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
Werelds schreef op woensdag 28 juni 2017 @ 14:44:

Overigens voor @MrCharming: Quadro's en Fire Pro's worden vrijwel nooit samples van verstuurd. Reviews die je daar van ziet zijn nagenoeg altijd gekochte of geleende kaarten.
Dit is dan ook geen Quadro of Fire Pro. Vega FE is constant door AMD vergeleken met de Titan X. Een prosumer kaart. Voor de Titan X werden wel degelijk samples verstuurd in het verleden.

Acties:
  • 0 Henk 'm!
MrCharming schreef op woensdag 28 juni 2017 @ 14:50:
[...]


Dit is dan ook geen Quadro of Fire Pro. Vega FE is constant door AMD vergeleken met de Titan X. Een prosumer kaart. Voor de Titan X werden wel degelijk samples verstuurd in het verleden.
Titans zijn echter ook het enige vergelijkbare materiaal qua prestaties (hopelijk :P).

Het grote verschil dat jij en anderen echter negeren is dat AMD "pro" drivers voor dit ding uit brengt. Of die een soortgelijke invloed hebben als bij de "echte" pro kaarten valt nog te bezien, maar met die stap laat AMD ook meteen merken dat ze een stuk verder gaan dan een Titan.

Dus nee, ik sta er niet van te kijken dat AMD geen samples van dit ding verstuurd. Het is vooral een niche product om de hype te stimuleren.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op woensdag 28 juni 2017 @ 14:01:
[...]

Mwah, daar ben ik het niet mee eens. Ik speel wel enkele games (soort van) competitief, maar ook als ik Battlefield of GTA speel merk ik wel degelijk het verschil tussen 80 FPS en 110 FPS.

Dat geldt niet voor iedereen, maar dat is het hem nu juist: niet iedereen ervaart dit soort dingen in gelijke mate. Zo ben ik ook uitermate gevoelig voor microstuttering. Er hoeven van de 90 frames maar een tweetal richting de 15ms te pieken en merk het al. Dat heb ik in het verleden eens voor mezelf getest als ik in games merkte dat het niet "lekker" aan voelde en dan bleek telkens dat er kleine piekjes in de frametimes zaten. Om die reden heb ook maar ooit even SLI gedraaid en zal ik nooit meer naar multi GPU met AFR terug gaan.

Het is een fenomeen waar ik wel eens een wetenschappelijk onderzoek naar zou willen zien, want ik betwijfel of dit iets te maken heeft met hoe goed je zicht is. Ik heb geen bril of lenzen, maar ik ken mensen die wel een bril hebben en dit soort dingen ook meteen opmerken. Ik denk dat het eerder iets te maken heeft met enerzijds gewenning (20+ jaar gamen, begonnen op CRT, enkele jaren vrij serieus competitief in snelle games) en anderzijds iets in je visuele cortex waardoor sommige mensen snelle bewegingen anders verwerken. Ik heb ook goede reflexen, altijd al gehad (één van de redenen dat snelle shooters me aantrekken, dat ligt me gewoon goed).
toon volledige bericht
Ik denk het niet. Ik zit hier met een bril met een + en een - oog en een aantal jaar geleden was ik echt heel erg goed in BF3. Dat was ook een interessante setup destijds. :P

Met een vrij matig 1440x900 75hz scherm, settings maxed out met mijn toen nog nieuwe 7950 ging ik nog wel eens opzettelijk naar een server waar ESL spelers zich verzamelde, en hield ik me behoorlijk staande met mijn M416, in een M16A3 only server, met mensen die echt niet missen. Buiten die server om stond ik meestal stipt bovenaan van de server. Ik had ook alles van een MX518 muis, tot de MarkC mousefix tot perfecte afstelling van de muis etc.

Ik had toen ook nog een andere bril, met grotere verschillen tussen de lenzen, die het ietwat lastig maakte om echt te focussen met beide ogen. Ik zag wel alles gewoon redelijk, maar ik merkte wel dat ik meer reageerde op beweging door de combinatie van klein scherm, en bril. Tearing had ik toen niet echt last van, nu met mijn 1080p scherm dat ik vorig jaar ook maar eens kocht wel. :P

Framedrops heb ik echt een bloedhekel aan. Ik zie het ook meteen. Overigens baal ik ergens wel dat het weer een 75hz scherm is dat ik nu heb. Liever had ik €200 betaald voor een 1080p/120hz scherm, maar die zijn er gewoon niet meer. Nee, je moet minstens €250 betalen voor 1080p/144hz en dat vond ik te veel. Ik denk ook dat ik tot 120hz zeer zeker zou zien, daarboven betwijfel ik. Het verschil tussen 60 en 75 is voor mij hetzelfde als tussen 45 en 60, dus minimaal 75 was een vereiste.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

Anoniem: 444127

Werelds schreef op woensdag 28 juni 2017 @ 14:44:

@Anoniem: 444127 gewoon met MSI AB of Fraps naar frametimes gekeken. Geen van beide is echt precies, zelfs daar was het toen in te zien. FCAT was er nog niet ;)
Ik weet dat je FRP kan maken met Windows Performance Analyzer (Wendell van L1T deed dat) maar ik heb nog niet kunnen achterhalen hoe dat werkt, het is lastiger dan dat je zou denken. Frpas en AB zijn natuurlijk niet geschikt om microstutter waar te nemen als het om slechts 1 frame gaat.
flessuh schreef op woensdag 28 juni 2017 @ 10:51:
en daar gaan we al...

https://www.reddit.com/r/...h_no_one_will_officially/

Ja, bron is vaak ruk maar toch.

Aan de andere kant kan dit soort "nieuws" AMD toch zover brengen om wat meer informatie uit te brengen, of zou het ze koud laten?
Ik zou me er niet druk om maken, het zegt weinig. Vega verschilt qua architectuur nogal sterk (denk bijv. aan de tile based rendering), ze moeten voor elk spel bij 0 beginnen met de drivers te optimaliseren. Dat dat veel tijd kost is niet zo gek, het enige wat mij verwondert is dat AMD zelf onderschatte hoe lang het zou duren. Extra werk door Apple en hierdoor vertraging opgelopen? Een scenario dat AMD de lancering heeft uitgesteld omdat de performance nog niet representatief is voor wat de hardware kan leveren is goed mogelijk. Het is ook best mogelijk dat AMD de kaart pas wil lanceren zo gauw het de competitie aan kan met de 1080 ti omdat ze de kaart dan voor een hogere prijs kunnen verkopen.
Voor ons zou het prima zijn als Vega op 10% de 1080 Ti nadert voor DX11, na een jaar optimaliseren van de drivers zit die dan op gelijke hoogte. ;)\
Even rustig afwachten. Ik ben het eens met Daniël dat er voor ons consumenten niets aan de hand is als Vega slechts op 1080 niveau zou presteren, de prijs zal dan ook evenredig lager zijn. Voor AMD zou het echter wel een flinke klap zijn (financieel gezien).

[ Voor 67% gewijzigd door Anoniem: 444127 op 28-06-2017 15:07 ]


Acties:
  • 0 Henk 'm!

Anoniem: 444127

-

[ Voor 115% gewijzigd door Anoniem: 444127 op 28-06-2017 15:07 ]


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 10-05 23:15

flessuh

Set sail for fail!

Er spookt al een firestrike score rond. Wel in gaming mode, maar de gebruiker zegt dat hij het mogelijk verkloot heeft en dat de kloksnelheid all over the place is. Interessant dit, aangezien AMD heeft gezegd dat de gaming kaart er boven zit. Uitgaande dat dit nog vroege drivers zijn overigens. ;)

[ Voor 24% gewijzigd door flessuh op 28-06-2017 15:24 ]

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
Toettoetdaan schreef op woensdag 28 juni 2017 @ 14:09:
Deze gast heeft er gewoon een gekocht omdat hij niet meer kon wachten: https://disqus.com/by/klaudiuszkaczmarzyk/

Mooi kastje wel:
[afbeelding]

Hopelijk doet hij wat benches later vandaag :D

EDIT:
[afbeelding]
Hier staat dan weer een core clock van 1600MHz.

EDIT2:

[...]


EDIT3:
[afbeelding]
[afbeelding]
toon volledige bericht
Sorry it took time but never used wattman for those cards
FireStrike test in game mode (pro mode does not make sense), frequency on GPU all over the place, I am trying to hard set it to 1600 and on the next run, as of now score is not impressive. But colud be my fault.
http://www.3dmark.com/fs/12987144 (19% onder 1080Ti)
flessuh schreef op woensdag 28 juni 2017 @ 15:22:
Er spookt al een firestrike score rond. Wel in gaming mode, maar de gebruiker zegt dat hij het mogelijk verkloot heeft en dat de kloksnelheid all over the place is. Interessant dit, aangezien AMD heeft gezegd dat de gaming kaart er boven zit. Uitgaande dat dit nog vroege drivers zijn overigens. ;)
Kan gewoon dynamische clock zijn om de GPU altijd op een vast verbruik te houden.

EDIT2:
guys, let me try to set it correctly as i never used Wattman and this card is fresh in. I am running as well just 550W PSU which could be problem as well. I keep trying :)
Best een goede 550watt voeding dan...

[ Voor 35% gewijzigd door Toettoetdaan op 28-06-2017 15:32 ]


Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
Werelds schreef op woensdag 28 juni 2017 @ 14:53:
[...]

Titans zijn echter ook het enige vergelijkbare materiaal qua prestaties (hopelijk :P).

Het grote verschil dat jij en anderen echter negeren is dat AMD "pro" drivers voor dit ding uit brengt. Of die een soortgelijke invloed hebben als bij de "echte" pro kaarten valt nog te bezien, maar met die stap laat AMD ook meteen merken dat ze een stuk verder gaan dan een Titan.

Dus nee, ik sta er niet van te kijken dat AMD geen samples van dit ding verstuurd. Het is vooral een niche product om de hype te stimuleren.
D'r zit schijnbaar ook een Gaming Mode op. Nou ja, ik parkeer mijn skepticisme maar even en doe leuk mee. Hopelijk wordt het een beest van een kaart. 1080Ti of hoger :)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 00:16
Grapics score van haast 23k is toch niet slecht? Hij gebruikt maar een 4790k op 4GHz, dus totale score is niet representatief.

Edit:
Graphics Score 22 916
Physics Score 12 445
Combined Score 7 706

Van een GTX1080Ti
Afbeeldingslocatie: https://www.guru3d.com/index.php?ct=articles&action=file&id=29125&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1
Afbeeldingslocatie: https://www.guru3d.com/index.php?ct=articles&action=file&id=29122&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

[ Voor 103% gewijzigd door Sp3ci3s8472 op 28-06-2017 15:36 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
Sp3ci3s8472 schreef op woensdag 28 juni 2017 @ 15:32:
Grapics score van haast 23k is toch niet slecht?
Nope, maar de 1080Ti haalt 28K. Ik meen dat Fury X op 14K 18K zit, dus het is een gigantische verbetering, maar nog best ver van de Nvidia top.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 00:16
Toettoetdaan schreef op woensdag 28 juni 2017 @ 15:34:
[...]

Nope, maar de 1080Ti haalt 28K. Ik meen dat Fury X op 14K zit, dus het is een gigantische verbetering, maar nog best ver van de Nvidia top.
Klopt zag dat even over het hoofd, dacht dat de Ti op hoog 23k zat.
Sowieso is Firestrike geen goede benchmark, Nvidia kaarten hebben een veel te hoge physics score door Physx.

[ Voor 14% gewijzigd door Sp3ci3s8472 op 28-06-2017 15:38 ]


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 10-05 23:15

flessuh

Set sail for fail!

Lol, hij draait het met een 550W PSU, dus dat kan ook nog issue zijn :P

Nou ja hij gaat de boel nog eens draaien. Ben benieuwd. Het is in ieder geval geen slechte baseline voor een kaart die niet voor gaming is met de eerste versie drivers :)

maar ja beter draait hij gewoon wat game-benches.

[ Voor 9% gewijzigd door flessuh op 28-06-2017 15:39 ]

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
https://www.reddit.com/r/...ga_fe_stop_removing_this/

Dit bedoelde ik dus. Nu heb je een totaal onbekend iemand, die wat benches zit te doen en die worden het internet ingeslingerd, zonder enige context. Reddit gaat al door het dak heen omdat de score maar 23K is. Ik vind veel review sites bagger, maar het is beter dan een onbekend iemand die een beetje met drivers zit te vogelen om 't ding aan de praat te krijgen en ondertussen update. Dat is gewoon slechte pers.

[ Voor 5% gewijzigd door MrCharming op 28-06-2017 15:46 ]


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 10-05 23:15

flessuh

Set sail for fail!

MrCharming schreef op woensdag 28 juni 2017 @ 15:45:
https://www.reddit.com/r/...ga_fe_stop_removing_this/

Dit bedoelde ik dus. Nu heb je een totaal onbekend iemand, die wat benches zit te doen en die worden het internet ingeslingerd, zonder enige context. Reddit gaat al door het dak heen omdat de score maar 23K is. Ik vind veel review sites bagger, maar het is beter dan een onbekend iemand die een beetje met drivers zit te vogelen om 't ding aan de praat te krijgen en ondertussen update. Dat is gewoon slechte pers.
Daarom vraag ik me ook af wat AMD nu gaat doen.. Blijven ze zwijgen of gooien ze zelf wat benches online van de RX. Ik gok alsnog keuze A

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
Sp3ci3s8472 schreef op woensdag 28 juni 2017 @ 15:37:
[...]


Klopt zag dat even over het hoofd, dacht dat de Ti op hoog 23k zat.
Sowieso is Firestrike geen goede benchmark, Nvidia kaarten hebben een veel te hoge physics score door Physx.
Fury X zit zelfs op 18K
Hier een een 3dMark compair: http://www.3dmark.com/compare/fs/12987144/fs/11047656#

Dat lijkt niet op een 60% hoger geclockte Fury...

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 00:10
Sp3ci3s8472 schreef op woensdag 28 juni 2017 @ 15:37:
Sowieso is Firestrike geen goede benchmark, Nvidia kaarten hebben een veel te hoge physics score door Physx.
onzin

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
Toettoetdaan schreef op woensdag 28 juni 2017 @ 15:51:
[...]

Fury X zit zelfs op 18K
Hier een een 3dMark compair: http://www.3dmark.com/compare/fs/12987144/fs/11047656#

Dat lijkt niet op een 60% hoger geclockte Fury...
Ja, hier klopt inderdaad geen fuck van. AMD heeft een kleiner proces en 60% meer kloksnelheid en ze winnen net 20%? Dan zouden ze gewoon achteruit gegaan zijn. Lijkt me vrij sterk.

[ Voor 5% gewijzigd door MrCharming op 28-06-2017 16:06 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 00:10
Het proces is kleiner en ze hebben een hogere clock, maar de chip is ook kleiner en heeft features ingebakken die de fury x niet heeft, zoals half precision op 2x de snelheid en dat gedoe met het geheugen dat automagisch door de hardware gemanaged wordt.

Zou ook kunnen dat de stock koeler wat tam is om geluidsoverlast te beperken.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:50
flessuh schreef op woensdag 28 juni 2017 @ 15:38:
Lol, hij draait het met een 550W PSU, dus dat kan ook nog issue zijn :P
Alsof een 4790k zoveel verbruikt...

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
Paprika schreef op woensdag 28 juni 2017 @ 16:14:
[...]

Alsof een 4790k zoveel verbruikt...
Nee, zelfs niet op 4.4GHz, en het is een colermaster Corair voeding, dit model kan prima 650watt leveren over zijn 12v lijn.

Maar er is iets heel erg verkeerd en ik hoop dat het voor AMD drivers is, anders hadden ze beter FuryX een die-shrink kunnen geven en op 1200MHz kunnen clocken, een Fury X op 1150MHz (met een beetje betere CPU) gaat Vega FE al voorbij: http://www.3dmark.com/com...4/fs/11047656/fs/6657103#

[ Voor 1% gewijzigd door Toettoetdaan op 28-06-2017 16:26 . Reden: Woopz naampje door elkaar, dank Vipeax! ]


Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
Toettoetdaan schreef op woensdag 28 juni 2017 @ 16:16:
[...]

Nee, zelfs niet op 4.4GHz, en het is een colermaster voeding, dit model kan prima 650watt leveren over zijn 12v lijn.

Maar er is iets heel erg verkeerd en ik hoop dat het voor AMD drivers is, anders hadden ze beter FuryX een die-shrink kunnen geven en op 1200MHz kunnen clocken, een Fury X op 1150MHz (met een beetje betere CPU) gaat Vega FE al voorbij: http://www.3dmark.com/com...4/fs/11047656/fs/6657103#
Als de voeding het probleem was zou het systeem ook crashen. Een voeding levert wat die kan en als dat niet genoeg is crasht de computer. Hij gaat niet throttlen of iets in die aard.

Ik denk eerder dat er nog wat kinken in de kabels zit en de poster deze nu op eigen houtje probeert te fixen. Misschien lukt dat, misschien gaat AMD een paar dingen repareren doormiddel van een revision.

Nogmaals, dit kan echt niet de final performance zijn. Dan zou AMD een slechtere kaart hebben gemaakt dan een paar jaar geleden. Zo incompetent zijn ze nou ook weer niet 8)7

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
Afbeeldingslocatie: https://uploads.disquscdn.com/images/5a1d18d19c707cb80d42a236bbfdc9f769da245554b4060706e4bfca747c98e9.gif
Driver versie: 22.19.384.2 (van deze maand)
Crimson driver versie: 17.1.1 (van januari)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:50
Toettoetdaan schreef op woensdag 28 juni 2017 @ 16:16:
[...]
en het is een colermaster voeding, dit model kan prima 650watt leveren over zijn 12v lijn.
Ik zie toch echt een Corsair logo (linksbeneden) :+. My guess (gezien de kabels en de sticker)...

[ Voor 36% gewijzigd door Paprika op 28-06-2017 16:30 ]


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Sp3ci3s8472 schreef op woensdag 28 juni 2017 @ 15:32:
Grapics score van haast 23k is toch niet slecht? Hij gebruikt maar een 4790k op 4GHz, dus totale score is niet representatief.

Edit:
Graphics Score 22 916
Physics Score 12 445
Combined Score 7 706

Van een GTX1080Ti
[afbeelding]
[afbeelding]
Toettoetdaan schreef op woensdag 28 juni 2017 @ 15:34:
[...]

Nope, maar de 1080Ti haalt 28K. Ik meen dat Fury X op 14K 18K zit, dus het is een gigantische verbetering, maar nog best ver van de Nvidia top.
Waarom dit grote verschil (graphics score: 22*** vs. 28***) voor de 1080 ti? Andere instellingen van Firestrike?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:50
Anoniem: 444127 schreef op woensdag 28 juni 2017 @ 16:28:
[...]
Waarom dit grote verschil (graphics score: 22*** vs. 28***) voor de 1080 ti? Andere instellingen van Firestrike?
Total vs graphics score.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

* DaniëlWW2 moppert iets over drivers en niks zeggende scores. O-)

Nee, natuurlijk zou het behoorlijke klote voor AMD zijn als ze de GTX1080Ti niet eens matchen en deze score klopt en indicatief is. Dat zou namelijk beteken dat er alsnog ergens in de GPU er behoorlijk wat problemen zijn met gebruik van hardware. Sterker nog, dit zou een downgrade zijn qua prestaties tegenover de toch al zeer matig presterende Fury X. 8)7

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Paprika schreef op woensdag 28 juni 2017 @ 16:29:
[...]

Total vs graphics score.
Ik zie het. Ik heb zelf nooit deze benchmark kunnen draaien, het werkt blijkbaar niet op W7. :?

[ Voor 50% gewijzigd door Anoniem: 444127 op 28-06-2017 16:34 ]


Acties:
  • 0 Henk 'm!

  • Julian-AMD
  • Registratie: Maart 2016
  • Laatst online: 24-02-2024

Julian-AMD

RTX 3080Ti | 3900X

8) YouTube: Vega Power Hungry + Coffee Lake Has 6 Cores?! tweakers is bekend. op 0:23 praat youtuber gamer meld over tweakers en in het bijzonder CJ'S AMD radeon info & nieuwsdiscussietopic 8)

https://www.3dmark.com/spy/21686019 - RX 6900XT 21K+


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Toettoetdaan schreef op woensdag 28 juni 2017 @ 16:16:
[...]

Nee, zelfs niet op 4.4GHz, en het is een colermaster Corair voeding, dit model kan prima 650watt leveren over zijn 12v lijn.

Maar er is iets heel erg verkeerd en ik hoop dat het voor AMD drivers is, anders hadden ze beter FuryX een die-shrink kunnen geven en op 1200MHz kunnen clocken, een Fury X op 1150MHz (met een beetje betere CPU) gaat Vega FE al voorbij: http://www.3dmark.com/com...4/fs/11047656/fs/6657103#
Het kan toch ook aan de gebruiker liggen? Als die klokfrequentie zo wild stijgt en daalt dan is er sowieso iets niet goed, dat is niet enkel de boost die een standje lager gaat als het zo erg is als dat hij omschreef. Hij gaf aan dat hij voor het eerst Wattman gebruikt, zou daar niet de fout kunnen liggen (verkeerd gebruik van Wattman)?
Ik heb geen toegang tot Wattman maar ik begreep dat je wel even moet leren hoe je dit programma moet werken.
Toettoetdaan schreef op woensdag 28 juni 2017 @ 16:24:
[afbeelding]
Driver versie: 22.19.384.2 (van deze maand)
Crimson driver versie: 17.1.1 (van januari)
Dat is inderdaad wel heel erg oud. Het zou prima een fors lagere score kunnen veroorzaken. Als de kaart alles op brute kracht rendert en hierbij niet goed gebruik maakt van de architectuur...

[ Voor 20% gewijzigd door Anoniem: 444127 op 28-06-2017 16:46 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
De heisa om de resultaten van een random gozer met een FE kaart snap ik niet zo goed, maar als je verwacht dat de resultaten niet veel beter gaan worden dan begrijp ik de heisa wel :+ 8)7 :+ 8)7
JulianI-Intel schreef op woensdag 28 juni 2017 @ 16:34:
8) YouTube: Vega Power Hungry + Coffee Lake Has 6 Cores?! tweakers is bekend. op 0:23 praat youtuber gamer meld over tweakers en in het bijzonder CJ'S AMD radeon info & nieuwsdiscussietopic 8)
Je zit waarschijnlijk in het verkeerde topic. Dit is al reeds langs gekomen. Op verschillende "nieuws" sites is Tweakers genoemd geworden en ook in enkele YouTube filmpjes waar men "nieuws" verspreid is Tweakers genoemd geworden.

[ Voor 39% gewijzigd door madmaxnl op 28-06-2017 16:49 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

DaniëlWW2 schreef op woensdag 28 juni 2017 @ 14:53:
Ik denk het niet. Ik zit hier met een bril met een + en een - oog en een aantal jaar geleden was ik echt heel erg goed in BF3. Dat was ook een interessante setup destijds. :P

Met een vrij matig 1440x900 75hz scherm, settings maxed out met mijn toen nog nieuwe 7950 ging ik nog wel eens opzettelijk naar een server waar ESL spelers zich verzamelde, en hield ik me behoorlijk staande met mijn M416, in een M16A3 only server, met mensen die echt niet missen. Buiten die server om stond ik meestal stipt bovenaan van de server. Ik had ook alles van een MX518 muis, tot de MarkC mousefix tot perfecte afstelling van de muis etc.
BF3... competitief... ehm... NO. Vreselijke laggy en vooral buggy game die de goed schalende game engine niet waard is IMHO :)

"Headshot isn't!" kwam ietsje te vaak voor in die game :X :F
Framedrops heb ik echt een bloedhekel aan. Ik zie het ook meteen.
Ik ook en daarom heb ik dus onlangs maar de videokaart geupgrade. De schommelende fps werd ik gek van!
Overigens baal ik ergens wel dat het weer een 75hz scherm is dat ik nu heb. Liever had ik €200 betaald voor een 1080p/120hz scherm, maar die zijn er gewoon niet meer. Nee, je moet minstens €250 betalen voor 1080p/144hz en dat vond ik te veel. Ik denk ook dat ik tot 120hz zeer zeker zou zien, daarboven betwijfel ik. Het verschil tussen 60 en 75 is voor mij hetzelfde als tussen 45 en 60, dus minimaal 75 was een vereiste.
Ik vind € 250 wel meevallen eigenlijk, maar dat zal wel weer een TN paneel zijn gok ik ?
Zo ja, dan is dat weer minder...

Toen ik nog een CRT had kon ik me herinneren dat ik alles boven de 120/125 fps te snel vond, maar dat kan ook aan de game engines van toen hebben gelegen, omdat je dan ook verder kon springen en dergelijke :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 00:16
Fijn, dank je voor de geweldige uitleg en goede onderbouwing van dit argument.

Ik heb me vergist met 3dMark Vantage, waar dit wel het geval was met PhysX.

offtopic:
Als het nu een random user was die onzin poste oke, maar 9 van de 10 keer zit ik goed en controleer ik wat ik post. Plaats dan ook een normale reactie en verbeter me.
Toettoetdaan schreef op woensdag 28 juni 2017 @ 16:24:
[afbeelding]
Driver versie: 22.19.384.2 (van deze maand)
Crimson driver versie: 17.1.1 (van januari)
Dat zou best voor een verschil kunnen zorgen, met de professionele drivers de oude "game" drivers meeleveren zodat de score sowieso niet optimaal is.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:50
Sp3ci3s8472 schreef op woensdag 28 juni 2017 @ 16:57:
[...]

Fijn, dank je voor de geweldige uitleg en goede onderbouwing van dit argument.
Je geeft zelf natuurlijk evenveel uitleg en onderbouwing :p.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 00:16
Paprika schreef op woensdag 28 juni 2017 @ 17:01:
[...]

Je geeft zelf natuurlijk evenveel uitleg en onderbouwing :p.
Touché :p, nu zijn resultaten geboekt in het verleden natuurlijk geen garantie voor de toekomst maar als ik mijn post historie zo even bekijk dan heb ik vaak een hele lap tekst met vaak bronnen.

Daarom vond ik die onzin reactie dan ook jammer.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 00:10
Ik heb geen lijst met het trackrecord van iedereen die in het radeon topic post, dus voor mij leek het de zoveelste nvidia=evil post waar dit topic af en toe bol van staat.

Mechwarrior Online: Flapdrol


Acties:
  • +2 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 21:32

Damic

Tijd voor Jasmijn thee

LOl AMD geeft zelf aan dat een voeding van +850W gewenst is en dan gaat ie benchen met een 550W :/

* Damic veracht een blauw doosje vrijdag en heeft een V850 als voeding :+

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • FortyOne
  • Registratie: Juni 2008
  • Laatst online: 20-03 20:24
Sp3ci3s8472 schreef op woensdag 28 juni 2017 @ 16:57:
Dat zou best voor een verschil kunnen zorgen, met de professionele drivers de oude "game" drivers meeleveren zodat de score sowieso niet optimaal is.
Dat zou best kunnen, maar waarom zou AMD dit niet wat duidelijker zeggen? Nu komt de RX Vega wel aardig negatief in het licht, veel mensen zullen niet veel verder kijken dan de resultaten van de FE die nu gaan verschijnen. Ik blijft het vreemd vinden hoe ze dit aanpakken...

Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:50
Damic schreef op woensdag 28 juni 2017 @ 17:24:
LOl AMD geeft zelf aan dat een voeding van +850W gewenst is en dan gaat ie benchen met een 550W :/

* Damic veracht een blauw doosje vrijdag en heeft een V850 als voeding :+
Juist, omdat die videokaart even 700W in z'n eentje gaat trekken...

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 21:32

Damic

Tijd voor Jasmijn thee

Weet ik veel, overkill is underestimated :)

http://pro.radeon.com/en-...on-vega-frontier-edition/ naar beneden scrollen en dan op Requirements drukken :)

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +3 Henk 'm!

Anoniem: 59888

Gut, het is ook echt altijd hetzelfde rondom een release he. Er komen nu wat vage geruchten dat Vega misschien niet tien keer sneller dan de 1080 Ti zal zijn en meteen knalt dit topic zwaar in de mineur en is de helft hier overtuigd dat het een kutkaart gaat worden. Onzin natuurlijk. De FE is niet representatief voor wat de Rx gaat doen en op basis van die kaart kun je dus geen conclusies trekken. Zeker niet als om een of andere willekeurige user gaat met een overgeklokte CPU en een veel te krap bemeten voeding.

Daarnaast wordt het tijd om onszelf niet te overschatten. Wat er nu hier of op reddit allemaal geroepen wordt is totaal niet belangrijk en heeft 0,0 invloed. De reviews die over de Rx uit zullen komen hebben dat wel, als die er zijn kunnen we conclusies trekken en gebeurt er iets. Tuurlijk is het interessant om dit soort dingen te bespreken, maar laten we alsjeblieft ophouden met conclusies te trekken, dat is nu niet zinniger dan het bij de afgelopen releases was.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 00:16
Damic schreef op woensdag 28 juni 2017 @ 17:24:
LOl AMD geeft zelf aan dat een voeding van +850W gewenst is en dan gaat ie benchen met een 550W :/

* Damic veracht een blauw doosje vrijdag en heeft een V850 als voeding :+
Ik ga het gewoon met een 550W voeding proberen als ik er uiteindelijk een heb :+.

Dat ze 850W als minimaal neerzetten komt omdat er genoeg mensen zijn die het anders gaan proberen met een x aantal Watt Sweex voeding en dan het systeem om zeep helpen. Zelfs een 850W Sweex voeding zou het nu aankunnen ;).

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 21:32

Damic

Tijd voor Jasmijn thee

Nee +850W is recomended

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:50
Summary tabel van Videocardz...

Afbeeldingslocatie: https://i.imgur.com/MGTpnuD.png

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

nero355 schreef op woensdag 28 juni 2017 @ 16:46:
[...]

BF3... competitief... ehm... NO. Vreselijke laggy en vooral buggy game die de goed schalende game engine niet waard is IMHO :)

"Headshot isn't!" kwam ietsje te vaak voor in die game :X :F
Ja de netcode was meh, maar headshots maken kon ik met gemak. ;)
Ik ook en daarom heb ik dus onlangs maar de videokaart geupgrade. De schommelende fps werd ik gek van!
Pas een maand geleden een RX580 besteld, so shut up. :P
Ik vind € 250 wel meevallen eigenlijk, maar dat zal wel weer een TN paneel zijn gok ik ?
Zo ja, dan is dat weer minder...
Imputlag boven kleurenechtheid voor mij, en het was iets minder pijnlijk voor mijn studentenportemonnee. ;)

In het algemeen, eens met @Anoniem: 59888. We weten nog steeds geen ene f. Echt 10/10 would hype again AMD. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 23:20
Werelds schreef op woensdag 28 juni 2017 @ 14:01:
[...]

Mwah, daar ben ik het niet mee eens. Ik speel wel enkele games (soort van) competitief, maar ook als ik Battlefield of GTA speel merk ik wel degelijk het verschil tussen 80 FPS en 110 FPS.

Dat geldt niet voor iedereen, maar dat is het hem nu juist: niet iedereen ervaart dit soort dingen in gelijke mate. Zo ben ik ook uitermate gevoelig voor microstuttering. Er hoeven van de 90 frames maar een tweetal richting de 15ms te pieken en merk het al. Dat heb ik in het verleden eens voor mezelf getest als ik in games merkte dat het niet "lekker" aan voelde en dan bleek telkens dat er kleine piekjes in de frametimes zaten. Om die reden heb ook maar ooit even SLI gedraaid en zal ik nooit meer naar multi GPU met AFR terug gaan.

Het is een fenomeen waar ik wel eens een wetenschappelijk onderzoek naar zou willen zien, want ik betwijfel of dit iets te maken heeft met hoe goed je zicht is. Ik heb geen bril of lenzen, maar ik ken mensen die wel een bril hebben en dit soort dingen ook meteen opmerken. Ik denk dat het eerder iets te maken heeft met enerzijds gewenning (20+ jaar gamen, begonnen op CRT, enkele jaren vrij serieus competitief in snelle games) en anderzijds iets in je visuele cortex waardoor sommige mensen snelle bewegingen anders verwerken. Ik heb ook goede reflexen, altijd al gehad (één van de redenen dat snelle shooters me aantrekken, dat ligt me gewoon goed).
toon volledige bericht
In games met een framerate limiter via de console kun je zelf aardig een eind komen qua testen Zo heb ik ooit in Black Ops in een mapje met de ai getest met 30,60,90,120, 240fps. Heeft met name effect op hoe goed je kunt " side tracken". Dus het kunnen inschatten van waar je moet richten om een vijand te raken die zich van rechts naa rlinks over je scherm beweegt. Bij <45 fps heb ik daar echt gigantisch veel moeite mee. Op 90/120 fps gaat dat veel prettiger, ook al is je scherm 60 Hz.

Brildragend zal inderdaad geen factor zijn. Mensen met een bril kunnen kwalitatief beter zicht hebben, na correctie, dan iemand zonder bril.

Het verschil met de hogere fps is dat je meer één bent met de bediening van de game. Het gaat dan op de auto piloot. Net als autorijden, fietsen, vallen, enz. Toen ik vroeger competitief speelde (en dat is Soldier of Fortune 2, clanbase dus eeuwen geleden, wel nr1 ctf europe :9 ) had ik letterlijk slow motion momenten waarbij ik dan een kamer kon inrennen en 3 campende vijanden alle 3 een headshot kon bezorgen in circa 6 kogels. Maar dat kan alleen als één bent met je game. Bij lagere fps voel je een soort disconnect en dan is dat gewoon niet mogelijk. Vereist overigens ook 4 uur trainen per dag :+ . Nu bak ik er niks meer van. Altijd ruzie met die hoge dpi van tegenwoordig. Beste wat er toen vanaf kon was trouwens een gesponserde server van Jowood hosting oid

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
MrCharming schreef op woensdag 28 juni 2017 @ 14:50:
[...]


Dit is dan ook geen Quadro of Fire Pro. Vega FE is constant door AMD vergeleken met de Titan X. Een prosumer kaart. Voor de Titan X werden wel degelijk samples verstuurd in het verleden.
True.. AMD zit ook een beetje in een lastig parket.

Nvidia kan de titan marketen als elite gamekaart maar weten dat er een grote interesse is in de compute; ze hoeven daar alleen geen reclame mee te maken, en vinden het ergens wel prima want hoe meer mensen op de pro CUDA wagen hoe beter.

In de VEGA chips is vanuit de gamer community zo veel interesse dat ondanks de marketing van AMD iedereen en z'n moeder meteen de standaard benchmarks wil zien. Terwijl hun verhaal mbt de FE wel redelijk consistent is, en die moeten ze ook gewoon blijven herhalen.

De goedkope prijs werkt ook een beetje tegen ze. Toen de GP100 voor 7K uitkwam kraaide er geen gamer haan naar, terwijl ook op die chip gametests interressant zouden zijn. Was het hele CUDA verhaal er niet dan hadden ze dit ding ook gewoon 3k+ kunnen maken.

Maar ze laten iig zien aan de markt dat ze VEGA chips kunnen produceren :)

Eerlijk gezegd had AMD hier op moeten anticiperen en wat goeie workstation reviews moeten laten verschijnen.. Zelfs Tomshardware doen redelijke.

specs

Pagina: 1 ... 14 15 Laatste