Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
hele build is gericht op stilte, ik hoor bijna altijd de psu veel meer dan de gpu en ik heb ook gewoon ook nog nooit een fanless psu gehad.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hangt er natuurlijk vanaf hoe je hem mount.-The_Mask- schreef op zaterdag 24 juni 2017 @ 13:57:
Fanless voeding betekend idd dat je de warmte van de voeding in de behuizing gooit,
[ Voor 50% gewijzigd door Olaf van der Spek op 24-06-2017 15:05 ]
Als de opening onder komt kan de warmte er niet goed uit, dus weinig keuze of je moet een niet standaard mATX of ATX behuizing hebben natuurlijk.Olaf van der Spek schreef op zaterdag 24 juni 2017 @ 15:04:
Hangt er natuurlijk vanaf hoe je hem mount.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
hoeveel watt komt er in de vorm van hitte uit een beetje goede gold+ voeding? In verhouding van de rest van de pc, vooral de gpu niet heel veel toch? Zou het in de praktijk met een beetje redelijke airflow in de behuizing veel uitmaken?-The_Mask- schreef op zaterdag 24 juni 2017 @ 13:57:
Fanless voeding betekend idd dat je de warmte van de voeding in de behuizing gooit, waardoor de videokaart en CPU koeler dus meer geluid gaat maken door de extra warmte. Vrij nutteloos dus als je bedenkt dat er onhoorbaar stille voedingen zijn.
Overigens vind ik zelf zo'n 125W wel de max voor een high-end gaming CPU, dus topmodel van socket 1151 of AM4 en 250/275W voor de videokaart voor het snelste reference model van AMD of nVidia. Dan zal de PC zelf op zo'n 400W max uitkomen en dan is meestal wel goed weg te werken in een goede behuizing. Ga je echter naar 180W CPU's en 350/400W videokaarten dan kom je soms tot aan de 600W, voor een single GPU gaming systeem en dat is toch iets waar veel behuizingen moeite mee hebben, zonder waterkoeler die de warmte direct uit de behuizing blaast.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik gok op 4K en hoger met max ingame iq :
-dx11, 1080Ti niveau, met een marge van 10%, meer of minder
-dx12/vulkan (doom), 20% sneller.
Motivatie: 60% hogere clockfrequentie t.o.v. FuryX + IPC en frontend verbeteringen samen goed voor 10-20% extra(?)
Totaal 70-80% sneller dan de FuryX. Volgens de benchmarks op bv. computerbase is de 1080Ti 70% sneller dan de FuryX, natuurlijk afh. van de geteste games.
Natuurlijk is dit een heel simpele benadering, maar meer info en kennis heb ik niet tot m'n beschikking.
Over 5 weken de uitslag
[ Voor 4% gewijzigd door edward2 op 25-06-2017 01:18 ]
Niet op voorraad.
Je bedoelt dat bij een niet gelijke IPC de toename (of afname) niet linear is met de kloksnelheid? Ok, maar wat verwacht jij?madmaxnl schreef op zondag 25 juni 2017 @ 01:26:
60% hogere clockfrequentie en 10% of 20% IPC toenamen resulteert in 76% totale performance toenamen voor 10% IPC toenamen en 92% totale performance toenamen voor 20% IPC toenamen. Allemaal t.o.v. Fiji uiteraard.
[ Voor 5% gewijzigd door edward2 op 25-06-2017 01:58 ]
Niet op voorraad.
Geen idee wat er te verwachten valt qua IPC. Is gewoon nog niet te zeggen. Er zou verbetering inzitten, maar hoeveel? De kloksnelheden daarentegen verraden wel wat je minimaal mag verwachten imo. Dus sowieso 50% sneller dan Fury X.
[ Voor 99% gewijzigd door madmaxnl op 25-06-2017 03:38 ]
Het verbruik zal misschien wel hoog zijn maar ook niet vergeten dat dit waarschijnlijk voor de 16 GB versie is, normaal gezien komen er ook versies met 8GB.mitsumark schreef op vrijdag 23 juni 2017 @ 01:42:
Zelfs als de MSI versie veel verbruikt zegt dat nog weinig/niks over VEGA.
Kennen we deze nog? https://www.techpowerup.c...SI/R9_390X_Gaming/28.html
Niet te snel conclusies trekken... zeker niet zonder te weten wat voor performance tegenover 'veel' verbruik staat.
Ik sta wel te trappelen om mn 290X te vervangen, laat maar komen!
Iig biedt AMD met Vega 16 en 8GB versies aan en maken ze niet dezelfde fout als met Fury met te weinig geheugen. Het verbruik ligt hoog maar dat is voor de topkaart, tragere versies zullen minder verbruiken.
Ik vraag mij ook af, heb je vandaag al 16GB nodig voor games of is 8GB voldoende?
Verwacht dat de grote Vega 1080Ti niveau gaat halen over de gehele breedte. (Hopelijk nog een stuk meer maar dat is helaas waarschijnlijk niet realistisch.)
Tevens dat er weer een aantal zaken in zitten die veelbelovend zijn maar waar je nu nog niet echt voordeel uit lijkt te halen.
[ Voor 6% gewijzigd door Help!!!! op 25-06-2017 09:16 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Vega 10 is waarschijnlijk een uitstekende 1440p kaart en 4k voor meer mensen betaalbaar maken. Als AMD dan agressief met de prijzen is, kan dan het wel wat worden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
8GB is op dit moment zeker geen limiterende factor, maar alles is relatief: speel je op Eyefinity met 3-6 4k schermen dan kan het wel eens te weinig zijnFredi schreef op zondag 25 juni 2017 @ 08:06:
Ik vraag mij ook af, heb je vandaag al 16GB nodig voor games of is 8GB voldoende?
1080 Ti niveau moet makkelijk haalbaar zijn. Als ze dat niet halen met zo'n grote chip zal ik behoorlijk teleurgesteld zijn.
Ik reken onder DX12 Rise of the Tomb Raider overigens niet mee, ongeacht welke chip het is, omdat die game overduidelijk kapot is. Ik begrijp nog steeds niet dat reviewers die game nog steeds meenemen, het is gewoon een schaamteloze Nvidia plug. Het feit dat er een DX12 renderpath in zit praat de keuze voor die game niet goed. De reviewers zouden juist keihard op deze game moeten schijten om zo duidelijk te maken dat dit soort praktijken niet gewenst zijn, maar helaas betwijfel ik of iemand de ballen zal hebben dit te doen.
In Total War: Warhammer komt Fiji ook slecht uit de bus in verhouding tot Nvidia, maar de rest van de AMD kaarten niet; dat is dus een probleem aan AMD's kant specifiek met Fiji.
Ik maak mij dus wel enige zorgen over hoe Vega 10 functioneert. Acht shader pipelines, veel hogere clocks, totaal andere frontend zal allemaal voor serieuze prestatiewinsten moeten zorgen tegenover Fiji. Daarnaast kan AMD waarschijnlijk speciale titels nog verder optimaliseren met hun primitive shaders dus eigenlijk de grote releases nog even wat extra geven. Staat tegenover dat je een serieus beroep zal moeten doen op de CPU bij de meeste games, DX11 games, voor rendercalls. Ik vraag mij echt af hoe dat zal gaan met zelfs een 7700k @5ghz. 1080p testen lijken mij bij voorbaat al nuttelozer dan ze normaal zijn, en er zullen weer een hele hoop "reviewers" alleen hier naar wijzen en "Vega is kut" roepen. 1440p gaat al interessanter worden, maar de ultieme test zal 4k zijn.Werelds schreef op zondag 25 juni 2017 @ 11:24:
Uitgaande van 1600 MHz (subtiele hint van "iemand") zit je al op 52% theoretische winst puur op kloksnelheid. In DX12 en Vulkan is het verschil tussen Fiji en GP102 eerder 40-50% op zowel 1440p als 2160p. Dit omdat Fiji beter gevoed wordt in deze API's, hoewel ik vermoed dat er zelfs dan nog een deel van de chip stil ligt.
1080 Ti niveau moet makkelijk haalbaar zijn. Als ze dat niet halen met zo'n grote chip zal ik behoorlijk teleurgesteld zijn.
Staat tegenover dat een goed geoptimaliseerde DX12/Vulkan game, tja, dat zou met gemak gewonnen moeten worden aangezien daar het volle potentieel van Fiji en alle andere GCN GPU's ook al meer tot uiting komt. Zelfs mijn "antieke" 7950 profiteert. In CiV 6 komt er al zo'n 15% fps bij door alleen maar naar DX12 te gaan, in plaats van DX11. Oke, dat is van 30 naar 35fps met mijn instellingen, dus beide matig, maar toch.
Tja, ik let er nu al even op. Gooi je bij een serie aan benchmarks tussen de GTX1060 en RX580, alle Gameworks titels eruit, dan wint de RX580 eigenlijk altijd van de GTX1060, en merkbaar ook. Verder heeft Tomb Raider wel een Ryzen patch gehad, waardoor het net iets minder hopeloos is.Ik reken onder DX12 Rise of the Tomb Raider overigens niet mee, ongeacht welke chip het is, omdat die game overduidelijk kapot is. Ik begrijp nog steeds niet dat reviewers die game nog steeds meenemen, het is gewoon een schaamteloze Nvidia plug. Het feit dat er een DX12 renderpath in zit praat de keuze voor die game niet goed. De reviewers zouden juist keihard op deze game moeten schijten om zo duidelijk te maken dat dit soort praktijken niet gewenst zijn, maar helaas betwijfel ik of iemand de ballen zal hebben dit te doen.
Dat zouden we dus niet meer moeten hebben met Vega lijkt me. Het is niet alsof een RTS nu echt de 1024SP/16CU blokken van Fiji aan de slag gaat krijgen.In Total War: Warhammer komt Fiji ook slecht uit de bus in verhouding tot Nvidia, maar de rest van de AMD kaarten niet; dat is dus een probleem aan AMD's kant specifiek met Fiji.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dit is de afgelopen tijd ook al veel te zien met bijvoorbeeld de Ryzen reviews. Gooi er wat meer single/dual core geoptimaliseerde taken in en Ryzen ziet er uit als een absolute faal vergeleken Intel.
(tuurlijk kan 1080p wel, maar dan met een game waar je hele hoge fps kunt halen zonder dat iets anders de bottleneck zal worden. Die games zijn er ook wel)
[ Voor 17% gewijzigd door flessuh op 25-06-2017 11:58 ]
240Hz?flessuh schreef op zondag 25 juni 2017 @ 11:58:
Reviewers die een kaart als deze op 1080p gaan testen verliezen bij mij ook direct geloofwaardigheid. Je moet een balans vinden waar juist de GPU zwaar belast zal worden.
Zat games waar zelfs 1080p120 niet gegarandeerd. Ik ben er inmiddels dusdanig aan gewend dat de volgende monitor sowieso 1440p120 of 2160p120 wordt (of 144/165/240 in plaats van 120 uiteraard) en we zijn nog lang niet op het punt waar 1440p120 relatief standaard is, laat staan "4K"
Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x
Je zegt dus eigenlijk dat je bijna geen reviewers meer kent die je geloofwaardig vind.flessuh schreef op zondag 25 juni 2017 @ 11:58:
Reviewers die een kaart als deze op 1080p gaan testen verliezen bij mij ook direct geloofwaardigheid. Je moet een balans vinden waar juist de GPU zwaar belast zal worden.
Dit is de afgelopen tijd ook al veel te zien met bijvoorbeeld de Ryzen reviews. Gooi er wat meer single/dual core geoptimaliseerde taken in en Ryzen ziet er uit als een absolute faal vergeleken Intel.
(tuurlijk kan 1080p wel, maar dan met een game waar je hele hoge fps kunt halen zonder dat iets anders de bottleneck zal worden. Die games zijn er ook wel)
Maar 1440p zit er nu langzaam aan te komen, maar is nog niet de standaard. Dit is nog steeds 1080p/60hz. Hier moet je een GTX1060/RX580 testen ja. Zoiets als een GTX1080 is voor 1080p/1440hz, of eigenlijk gewoon 1440p. Alles daarboven is 1440p als minimum.
Het zou denk ik iets anders zijn als er een tussencategorie was tussen 1080p/75hz en 1080p/144hz. Dat mist eigenlijk wel. Iets van 100hz zou gewoon fijn zijn als optie.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
En 100 -120fps is meer dan genoeg voor een goeie game ervaring.
Het grootste argument wat gebruikt wordt om 1080p te testen is dat volgens de steamcharts 1080p nog steeds de meest gebruikte resolutie is, diezelfde mensen gaan dan vervolgens ook straks weer zeuren wanneer de 1080ti 135 fps haalt en vega bijvoorbeeld 120fps waarbij ze dan plotseling vergeten dat steam ook aangeeft dat het merendeel nog steeds 60hz schermen heeft
Verwijderd
Don't get me started.foppe-jan schreef op zaterdag 24 juni 2017 @ 10:11:
[...]
offtopic:
Komt vast door al dat fake news in de MSM sinds Hillary's kansloze verkiezingscampagne waar niemand de verantwoordelijkheid voor wil nemen.
Dat doen we wel een keer in een ander deel van het forum.
4GB was meer dan genoeg voor Fury, op 4k resoluties loopt de kaart nog steeds in/uit op de 8GB GDDR5 versies.Fredi schreef op zondag 25 juni 2017 @ 08:06:
[...]
Het verbruik zal misschien wel hoog zijn maar ook niet vergeten dat dit waarschijnlijk voor de 16 GB versie is, normaal gezien komen er ook versies met 8GB.
Iig biedt AMD met Vega 16 en 8GB versies aan en maken ze niet dezelfde fout als met Fury met te weinig geheugen. Het verbruik ligt hoog maar dat is voor de topkaart, tragere versies zullen minder verbruiken.
Ik vraag mij ook af, heb je vandaag al 16GB nodig voor games of is 8GB voldoende?
Bv. https://www.techpowerup.c.../GeForce_GTX_1070/24.html
op 1080p scoort de Fury X 82% van de 1070, op 4k 91%.
Zelfde gedrag vs de 390X en 580.
https://www.techpowerup.com/reviews/AMD/R9_Fury_X/31.html
https://www.techpowerup.c...RX_580_Nitro_Plus/30.html
Die 4GB HBM was dus méér dan genoeg, en is het eigenlijk nog steeds...
Ik hoop eerlijk gezegd dat er geen 16GB HBM op komt, wordt ie onnodig duur van.
[ Voor 6% gewijzigd door mitsumark op 25-06-2017 15:15 ]
Verwijderd
120 fps op een 60 Hz scherm speelt nog altijd vloeiender dan 60 fps op een 60 Hz scherm. Je moet alleen geen probleem met tearing hebben.Verwijderd schreef op zondag 25 juni 2017 @ 14:38:
Tja als zo'n kaart 60 fps haalt op 4k dan haal je gewoonweg ook wel 100 of 120 fps op 1080p.
En 100 -120fps is meer dan genoeg voor een goeie game ervaring.
Het grootste argument wat gebruikt wordt om 1080p te testen is dat volgens de steamcharts 1080p nog steeds de meest gebruikte resolutie is, diezelfde mensen gaan dan vervolgens ook straks weer zeuren wanneer de 1080ti 135 fps haalt en vega bijvoorbeeld 120fps waarbij ze dan plotseling vergeten dat steam ook aangeeft dat het merendeel nog steeds 60hz schermen heeft
De meeste voedingen werken passief tot circa 40% belasting.DaniëlWW2 schreef op zaterdag 24 juni 2017 @ 14:59:
Dit is behoorlijk offtopic, maar een echt stille PSU is ook echt stil. Dat merkte ik wel toen ik twee weken geleden mijn Seasonic 520W verving met een RMx 550W. Dat ding is echt stil.![]()
[ Voor 20% gewijzigd door sdk1985 op 25-06-2017 15:30 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Input lag is iets kleiner ja maar je ziet alsnog maar maximaal 60 framessdk1985 schreef op zondag 25 juni 2017 @ 15:27:
[...]
120 fps op een 60 Hz scherm speelt nog altijd vloeiender dan 60 fps op een 60 Hz scherm. Je moet alleen geen probleem met tearing hebben.
Geloof me, het maakt een enorm verschil.Verwijderd schreef op zondag 25 juni 2017 @ 15:39:
[...]
Input lag is iets kleiner ja maar je ziet alsnog maar maximaal 60 frames
Kijk deze video eens:
YouTube: How many frames a second do you need?
Verwijderd
Daarom vroeg ik hier laatst, met het RX 480 relletje in mijn achterhoofd, hoeveel vermogen je maximaal kan trekken met die 6 pinnetjes van een fatsoenlijke voeding.Werelds schreef op vrijdag 23 juni 2017 @ 01:16:
[...]
Nee hoor, niets mis mee. Je moet er niet 250W over willen trekken, maar zo gevaarlijk als je misschien denkt dat dat is, is het niet.
Je beseft toch dat de 8-pin "spec" een wassen neus is hoop ik? De twee extra draden ten opzichte van 6-pin zijn namelijk gewoon GND. Sterker nog, in de meeste voedingen takken ze ze ook daadwerkelijk van twee bestaande GND draden af en TADAAAA een 8-pin stekker
De draden en stekkers zelf kunnen veel meer hebben dan je denkt. De 8-pin spec is vooral voor de duidelijkheid. Als een voeding een 8-pin stekker heeft, weet je zeker dat die minimaal 150W over die 6 draden kan leveren. Maar als puntje bij paaltje komt, is het in de meeste gevallen niets meer dan een 6-pin stekker met twee GND draden verdubbeld.
@-The_Mask- kan hier vast wel een paar pagina's over vol lullen, maar de hele PCI-e power spec en bijbehorende "limieten" zijn eigenlijk niet zo spannend als je zou denken.
De koeler of de gebrekkige heatsink? Hoe dan ook, Sapphire liet voor de RX 580 het goede voorbeeld zien aan MSI. Ik begrijp dat MSI graag een klein beetje bespaart door minder metaal te gebruiken maar als de kaart ongeveer hetzelfde kost als die van de concurrent die wel een goede heatsink erop plaatst...DaniëlWW2 schreef op vrijdag 23 juni 2017 @ 11:08:
[...]
Maar of AMD nu blij is met je uit haar verband gerukte opmerking is een tweede lijkt me.![]()
Echt, waarom is het zo moeilijk om even door te lezen, iets in context plaatsen etc. "Techmedia" is dat dan...
Maar don't f*ck up the koeler hé? Jullie zijn nu bezig me stuivertje wisselen met Gigabyte als je kijkt naar de RX480/580. Eerst was Gigabyte problematisch, nu gaat het niet bepaald lekker met MSI. Stay on the ball.![]()
* DaniëlWW2 is nu al vijf jaar zeer tevreden met een MSI 7950, die nu wat problemen geeft en denk ik bijna dood is. Ik denk dat het een van de geheugenchipjes is.
Nu kan MSI wellicht even leunen op haar branding (een groot marketingbudget...)?
@The Source
[ Voor 31% gewijzigd door Verwijderd op 25-06-2017 16:24 ]
Verwijderd
Volgens mij is CS 1 van de weinige games waar dat verschil enorm merkbaar is.wouterg00 schreef op zondag 25 juni 2017 @ 16:12:
[...]
Geloof me, het maakt een enorm verschil.
Kijk deze video eens:
YouTube: How many frames a second do you need?
De invloed van de game engine is een grotere invloed.
Bron: mijn ervaring met mijn 60hz monitor waar ik al jaren op game met variërende framerates.
Bij 250 en 333 verandert dat blijkbaar ook. #oldschool
Klopt, eerste MoHaa die ook op die engine was gebaseerd had dat zelfde "probleem".Phuncz schreef op zondag 25 juni 2017 @ 17:18:
De Quake engine, waar oude Counter-Strike ook op gebasseerd is, heeft inderdaad andere gameplay bij hogere fps. Zo wil je bij Quake 3 Arena 125 fps of hoger halen om verder te kunnen springen.
Bij 250 en 333 verandert dat blijkbaar ook. #oldschool
Je kan prima meer dan 60hz zien met name in je ooghoeken, bij oude crt monitoren werkte ik (indien mogelijk) altijd op 75hz. Bij lcd schermen valt het minder op omdat het beeld anders wordt gerefreshed als bij een crt.
Ik denk dat de sweetspot voor het aantal hz ergens tussen de 75-120 ligt.
Ik heb nu al een halfjaar een freesync 75hz monitor. Kan je het eigenlijk beschrijven want ik ben onderhand wel benieuwd.Phuncz schreef op zondag 25 juni 2017 @ 16:22:
Als je vloeiend beeld wilt, kijk je best naar een FreeSync of G-Sync scherm. Ik heb nu al een tijdje een goede 75Hz FreeSync monitor en nu ik een Nvidia kaart tijdelijk heb, merk ik pas hoe irritant dat is om games te spelen zonder adaptive sync.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Zonder v-sync kun je ook alvast een deel van de volgende frame zien. Tijdens de opbouw wordt immers het volgende beeld al doorgestuurd. (Vandaar ook de tearing).Verwijderd schreef op zondag 25 juni 2017 @ 15:39:
[...]
Input lag is iets kleiner ja maar je ziet alsnog maar maximaal 60 frames
Kan overigens ook tegen je werken. Gisteren toevallig vastgesteld dat in Payday2 de ai zich heel anders gedraagd op 30, 60 en 120 fps caps. Des te hoger de fps cap des te meer cycles naar de ai gaan en des te vlotter ze reageren. Op 30 fps kun je onderhand een volle seconde ernaast staan voor er wat gebeurd.
[ Voor 32% gewijzigd door sdk1985 op 25-06-2017 18:15 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Je games hebben geen tearing of stutter meer, tenzij het natuurlijk niet afhankelijk is van caching die vertraagd gebeurt of slechte in-game optimalisaties. Het zorgt er ook voor dat lagere framerates niet zo vervelend zijn. Het blijft een geweldige techniek, helaas dat Nvidia er geld voor vraagt.DaniëlWW2 schreef op zondag 25 juni 2017 @ 17:54:
[...]
Ik heb nu al een halfjaar een freesync 75hz monitor. Kan je het eigenlijk beschrijven want ik ben onderhand wel benieuwd.Misschien ga ik het nog ervaren, als ik ooit die RX580 krijg.
Verwijderd
Slechte programmeermethodes, daarom is bij bijvoorbeeld Fallout VSync verplicht aan (je kan het wel uitschakelen door een tekstbestandje met variabelen te wijzigen), als je dat zonder VSync speelt dan krijg je hele rare physics. Voor mij een reden om nooit dat spel te kopen. Al is het bij sommige spellen wel leuk als de physics/AI gekoppeld is aan de framerate en je het zo wat moeilijker kan maken door met een hogere FPS te spelen.sdk1985 schreef op zondag 25 juni 2017 @ 18:14:
[...]
Zonder v-sync kun je ook alvast een deel van de volgende frame zien. Tijdens de opbouw wordt immers het volgende beeld al doorgestuurd. (Vandaar ook de tearing).
Kan overigens ook tegen je werken. Gisteren toevallig vastgesteld dat in Payday2 de ai zich heel anders gedraagd op 30, 60 en 120 fps caps. Des te hoger de fps cap des te meer cycles naar de ai gaan en des te vlotter ze reageren. Op 30 fps kun je onderhand een volle seconde ernaast staan voor er wat gebeurd.
Kijk hier eens naar.DaniëlWW2 schreef op zondag 25 juni 2017 @ 17:54:
[...]
Ik heb nu al een halfjaar een freesync 75hz monitor. Kan je het eigenlijk beschrijven want ik ben onderhand wel benieuwd.Misschien ga ik het nog ervaren, als ik ooit die RX580 krijg.
Ik had 3 op 3 juist geraden (een kans van 1 op 8 dus als het geluk was). Dat geeft natuurlijk nog niet het verschil in gevoel aan maar ik denk dat jij het ook wel kan zien.
[ Voor 35% gewijzigd door Verwijderd op 25-06-2017 20:36 ]
GTA 1 met de framelimiter uit was onspeelbaar met een K6-2 500 MHz CPU dus ik wil niet weten hoe dat eruit ziet met hedendaagse CPU'sVerwijderd schreef op zondag 25 juni 2017 @ 20:32:
Slechte programmeermethodes, daarom is bij bijvoorbeeld Fallout VSync verplicht aan (je kan het wel uitschakelen door een tekstbestandje met variabelen te wijzigen), als je dat zonder VSync speelt dan krijg je hele rare physics. Voor mij een reden om nooit dat spel te kopen. Al is het bij sommige spellen wel leuk als de physics/AI gekoppeld is aan de framerate en je het zo wat moeilijker kan maken door met een hogere FPS te spelen.
/Serieus : Wat een crapgame is dat dan zeg... Zoiets mag een moderne game echt niet overkomen!
De developers mogen zich diep schamen
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Een Quadro P6000 gamed iig evensnel als een titan-x / 1080ti, dus pro drivers hoeven geen game belemmering te zijn.
Als de FE wat pro driver features heeft dan zal dat misschien wel op het gebied van compute zijn..?
Ze mochten nog geen games benchen, maar in andere benches is het leuk:MrCharming schreef op maandag 26 juni 2017 @ 12:53:
Betwijfel dat FE, zo'n goed idee van performance gaat geven. Drivers maken wel 10-15% uit en FE heeft aparte drivers.
https://videocardz.com/70...-frontier-edition-previewAs for synthetic benchmarks, we are looking at 15 to 50% higher performance than TITAN Xp
[ Voor 9% gewijzigd door Toettoetdaan op 26-06-2017 13:45 ]
Geen (release) drivers, dus als je nu al redelijk vloeiend games kan spelen op dergelijke resoluties, dan krijg je ook wat.Toettoetdaan schreef op maandag 26 juni 2017 @ 13:42:
[...]
Ze mochten nog geen games benchen, maar in andere benches is het leuk:
[...]
https://videocardz.com/70...-frontier-edition-preview
[afbeelding]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nee nog niets nuttigs dus, maar wel leuk dat er weer een BIOS switch op zit en dat je die power ledjes kun configureren in rood blauw of uitDaniëlWW2 schreef op maandag 26 juni 2017 @ 13:47:
[...]
Geen (release) drivers, dus als je nu al redelijk vloeiend games kan spelen op dergelijke resoluties, dan krijg je ook wat.
EDIT; Grote kans dat RX VEGA rood is dus
[ Voor 5% gewijzigd door Toettoetdaan op 26-06-2017 13:56 ]
Verwijderd
30% meer performance dan de Titanxp voor dit soort CAD-toepassingen. Volgens de AMD-medewerker dankzij de drivers (Nvidia heeft daar gewoon de gamingdrivers op) en de HBM. Gordon probeerde zelf even een spel uit op beide systemen, hij merkte geen verschil, maar het ging wel weer om een AMD-vriendelijk spel dus dat zegt weinig.
[ Voor 84% gewijzigd door Verwijderd op 26-06-2017 14:16 ]
Ik zou hem alleen al kopen om de kleur.... rood kan mij de pot opDaniëlWW2 schreef op maandag 26 juni 2017 @ 13:47:
[...]
Geen (release) drivers, dus als je nu al redelijk vloeiend games kan spelen op dergelijke resoluties, dan krijg je ook wat.
Verwijderd
Ik vind blauw een prima kleur maar mijn voorkeur gaat uit naar een donkerdere/zachtere tint blauw.Sp3ci3s8472 schreef op maandag 26 juni 2017 @ 14:15:
[...]
Ik zou hem alleen al kopen om de kleur.... rood kan mij de pot op. Dat blauw is mooi!
Nee, #Teamred dammit.Sp3ci3s8472 schreef op maandag 26 juni 2017 @ 14:15:
[...]
Ik zou hem alleen al kopen om de kleur.... rood kan mij de pot op. Dat blauw is mooi!
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Bethesda (Fallout) heeft dan ook een nogal slechte reputatie op het vlak van hoe de spellen geprogrammeerd zijn. De bugs van Skyrim zijn berucht. Wolfenstein: The New Order heeft ook verplichte VSync (ook bugs als je die uitschakelt maar naar het schijnt hebben slimme jongens daar een niet door Bethesda gesteunde patch voor ontwikkeld en had Bethesda dit zelf kunnen oplossen door een paar instellingen te wijzigen) maar nog erger dan dat, het spel start niet eens op veel computers (zwart scherm, onmiddelijk een crash naar de desktop zonder een foutmelding of een foutcode aan Windows) met Windows 7 en Windows 10 terwijl er met de hardware op die systemen niets mis is. Doordat de installer van het programma niet goed controleert of dat je bepaalde versies van bepaalde andere software hebt? Het beste doe je eerst wat onderzoek naar de performance en problemen bij een spel alvorens je overweegt om een spel van Bethesda te kopen. Het hangt natuurlijk wel af van wie het spel daadwerkelijk hebben gemaakt, de ene studio is de andere niet en Doom werd natuurlijk volledig door ID (op de multiplayer na, naar verluidt) gemaakt.nero355 schreef op zondag 25 juni 2017 @ 20:42:
[...]
GTA 1 met de framelimiter uit was onspeelbaar met een K6-2 500 MHz CPU dus ik wil niet weten hoe dat eruit ziet met hedendaagse CPU's![]()
![]()
/Serieus : Wat een crapgame is dat dan zeg... Zoiets mag een moderne game echt niet overkomen!
De developers mogen zich diep schamen
Rockstar maakte er in het verleden ook een zooitje van maar bij GTA5 is dat flink verbeterd, al heb je bij GTA5 wel nog hinderlijke microstutters: op het Intel platform framerendertijd van meer dan 0,1 s (3 in 2 minuten gameplay bij de test van L1T) en bij AMD ook zulke microstutter maar minder frequent (1 in 2 minuten) en minder extreem. Bij GTA SA (in sommige opzichten een geweldig spel, aan te raden om nog eens te spelen als je het nooit zou hebben gespeeld
Het is gemakkelijker om te programmeren als het aantal frames per seconde vast ligt, het is lazy programming.
Niet dat ik de programmeurs dat verwijt, ik denk dat de oorzaak eerder bij de developer ligt die te weinig tijd geeft om het goed uit te werken omdat zo'n spel in eerste instantie voor de consoles wordt gemaakt die meer Vsync gebruiken (niet altijd echter).
[ Voor 4% gewijzigd door Verwijderd op 26-06-2017 14:36 ]
De FE laat hier een solidworks score zien van een WX 7100, en de overige scores vallen wat onder een M6000 / P5000 oid.
Dat heeft dus ook niks met de HBM te maken. Als ze met deze hardware echt de remmen los zouden gooien zou je p6000 / gp100 scores verwachten oid.
Verwijderd
Ik trek geen enkele conclusie over de performance, over een week zullen we meer weten, binnen een paar dagen nadat de eerste frontier-kaarten verkocht zijn zullen we wel wat benchmarkscores gaan zien, die geven een aardige indicatie wat Vega bij spellen kan leveren.maratropa schreef op maandag 26 juni 2017 @ 15:18:
@Toettoetdaan @Verwijderd Laat je niet misleiden door specviewperf scores, pro openGL scores hebben weinig relatie tot de onderliggende hardware, deze worden getuned.
De FE laat hier een solidworks score zien van een WX 7100, en de overige scores vallen wat onder een M6000 / P5000 oid.
Dat heeft dus ook niks met de HBM te maken. Als ze met deze hardware echt de remmen los zouden gooien zou je p6000 / gp100 scores verwachten oid.
Echt? Die irritante microstutters waren er al in GTA3, maar die zijn dus nog steeds niet opgelost?Verwijderd schreef op maandag 26 juni 2017 @ 14:34:
[...]
*knip*
Rockstar maakte er in het verleden ook een zooitje van maar bij GTA5 is dat flink verbeterd, al heb je bij GTA5 wel nog hinderlijke microstutters: op het Intel platform framerendertijd van meer dan 0,1 s (3 in 2 minuten gameplay bij de test van L1T) en bij AMD ook zulke microstutter maar minder frequent (1 in 2 minuten) en minder extreem. Bij GTA SA (in sommige opzichten een geweldig spel, aan te raden om nog eens te spelen als je het nooit zou hebben gespeeld) kon je bepaalde onderdelen van de driving school niet voltooien zonder de Vysnc aan te schakelen en bij LA Noire kan je Vsync niet eens uitschakelen (en wil je dat niet forceren omdat je anders rare bugs krijgt).
Het is gemakkelijker om te programmeren als het aantal frames per seconde vast ligt, het is lazy programming.
Niet dat ik de programmeurs dat verwijt, ik denk dat de oorzaak eerder bij de developer ligt die te weinig tijd geeft om het goed uit te werken omdat zo'n spel in eerste instantie voor de consoles wordt gemaakt die meer Vsync gebruiken (niet altijd echter).
5800X3D, MSI X370, MSI 5070Ti
Maar het is wel een heel stuk beter dan Fury X, dus ondanks dat deze scores niets zeggen omdat ze niet met speciale drivers zijn gedraaid, is wel duidelijk dat de bottlenecks van Fiji eruit zijn.maratropa schreef op maandag 26 juni 2017 @ 15:18:
@Toettoetdaan @Verwijderd Laat je niet misleiden door specviewperf scores, pro openGL scores hebben weinig relatie tot de onderliggende hardware, deze worden getuned.
De FE laat hier een solidworks score zien van een WX 7100, en de overige scores vallen wat onder een M6000 / P5000 oid.
Dat heeft dus ook niks met de HBM te maken. Als ze met deze hardware echt de remmen los zouden gooien zou je p6000 / gp100 scores verwachten oid.
Verwijderd
ArcticWolf schreef op maandag 26 juni 2017 @ 15:35:
[...]
Echt? Die irritante microstutters waren er al in GTA3, maar die zijn dus nog steeds niet opgelost?
Ook hebben ze bij GTA5 een of ander RAM-management probleempje, als je lang genoeg speelt dan loopt het RAM-gebruik op tot meer dan 8 GB. Om fair te zijn, bij open wereld spellen is het wat lastiger om het allemaal goed te programmeren dan voor de meeste andere genres.
het lastige is dat pro open gl bottlenecks vaak bewust er in zitten.. Die Fury was niet gepositioneerd als semi pro en had waarschijnlijk bewust gedrukte pro opengl performance. De FE is dat wel en heeft naar het lijkt wat beter performance via de drivers dan de titan-xp waar hij tegover staat. Beide AMD gpu's zullen niet de pro opengl snelheid geven die de hardware waarschijnlijk zou kunnen. ( en de titan xp al helemaal niet )Maar AMD heeft wat USP's nodig tov de titan xp en dan is betere pro vieuwport performance wel leuk. Want bij nvidia is pro viewport perf + high end compute duurrrrr.Toettoetdaan schreef op maandag 26 juni 2017 @ 16:10:
[...]
Maar het is wel een heel stuk beter dan Fury X, dus ondanks dat deze scores niets zeggen omdat ze niet met speciale drivers zijn gedraaid, is wel duidelijk dat de bottlenecks van Fiji eruit zijn.
Cool.Verwijderd schreef op maandag 26 juni 2017 @ 14:14:
[video]
30% meer performance dan de Titanxp voor dit soort CAD-toepassingen. Volgens de AMD-medewerker dankzij de drivers (Nvidia heeft daar gewoon de gamingdrivers op) en de HBM. Gordon probeerde zelf even een spel uit op beide systemen, hij merkte geen verschil, maar het ging wel weer om een AMD-vriendelijk spel dus dat zegt weinig.
Hierbij de tekst van het bijbehorende artikel inclusief gamingimpressie van een aantal games:
http://www.pcworld.com/ar...n-vs-nvidia-titan-xp.html
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Ik zal maar niet meegokken of het staat weer op videocardzedward2 schreef op zondag 25 juni 2017 @ 01:16:
Het zou wel eens leuk zijn als iedereen hier een gok zou doen over de perf. van (de snelste) RXVega t.o.v. de 1080Ti.
Ik gok op 4K en hoger met max ingame iq :
-dx11, 1080Ti niveau, met een marge van 10%, meer of minder
-dx12/vulkan (doom), 20% sneller.
Motivatie: 60% hogere clockfrequentie t.o.v. FuryX + IPC en frontend verbeteringen samen goed voor 10-20% extra(?)
Totaal 70-80% sneller dan de FuryX. Volgens de benchmarks op bv. computerbase is de 1080Ti 70% sneller dan de FuryX, natuurlijk afh. van de geteste games.
Natuurlijk is dit een heel simpele benadering, maar meer info en kennis heb ik niet tot m'n beschikking.
Over 5 weken de uitslag
In die volgorde
Verwijderd
Jij hebt al gehint dat de performance in verhouding zou kunnen staan tot het vermogen maar dat werd niet opgepikt.The Source schreef op maandag 26 juni 2017 @ 18:50:
[...]
Ik zal maar niet meegokken of het staat weer op videocardz
Het is trouwens veelzeggend dat mensen zo zeiken over dat vermogen terwijl de 1080 toch ook een hoog vermogen heeft bij een maximale load.
[ Voor 31% gewijzigd door Verwijderd op 26-06-2017 19:42 ]
https://www.overclockers....phics-card-gx-380-sp.html
https://www.overclockers....phics-card-gx-37x-sp.html
https://www.overclockers....phics-card-gx-381-sp.html
https://www.overclockers....phics-card-gx-37y-sp.html
https://www.overclockers....phics-card-gx-37z-sp.html
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Thanks voor de link; Best wat interessante info. Het geeft ook weer aan hoe lastig dit segment voor AMD is.Help!!!! schreef op maandag 26 juni 2017 @ 18:06:
[...]
Cool.![]()
Hierbij de tekst van het bijbehorende artikel inclusief gamingimpressie van een aantal games:
http://www.pcworld.com/ar...n-vs-nvidia-titan-xp.html
Wat ze niet zeggen is dat Solidworks ook een eigen gpu renderer heeft; visualise (vroegah bunkspeed). Alleen, die draait natuurlijk alleen met CUDA.. Zie daar weer het grote probleem bij veel pro apps.With the Frontier Edition machine running an 8K Dell panel, and a second panel at 1080p plus an HTC Vive, AMD opened up a theoretical car design in the Solidworks engineering application. Panning, spinning and moving the car looked reasonably fast, as expected. Once the model was “done” and ready to be examined, it was exported using AMD’s ProRender plug-in to Unreal Engine 4, where it could be viewed using the HTC Vive.
AMD’s director of professional products, Nick Pandher, said it may seem unusual for a game engine to be paired with an engineering app, but many small- to mid-size design firms actually operate this way today. Unlike the proprietary visualization tools that were once all the rage, off-the-shelf tools use game engines such as Unreal Engine and standard VR gear.
Wat heel erg goed is, is dat AMD zelf Pro Render aan het ontwikkelen en pushen is als tegenhanger van Nvidia iRay, ik zie zelfs dat ze de plugin voor Solidworks aan het ontwikkelen zijn. Dan is het wel weer raar dat ze deze niet gebruikt hebben in de bovenstaande demo.. maar misschien nog te beta..
http://pro.radeon.com/en-...r-solidworks-add-in-beta/
Ik ken ontwikkelen met unreal engine niet heel goed maar voorzover ik weet kun je daar ook prima mee visualiseren in VR zonder aparte renderplugin dus het voelt een beetje omslachtig..
Ze gooien "performance" op 1 hoop, het ligt genuanceerder. Maar voor Solidworks vp performance kun je ook een 700 euro kostende M4000 of WX 7100 halen, die zitten ook rond dat niveau, bijv.That brings us to the disruptive part of AMD’s push: Although powerful, Titan Xp is limited to consumer drivers. To approach the performance of the Radeon Vega Frontier Edition with an Nvidia product, you’d have to step up to at least a $2,000 Quadro P5000. A P6000 card, which is kind of the professional equivalent of a Titan Xp, is nearly $6,000.
Maar het is de combinatie van de viewport snelheid en compute die zeker leuk is in de FE. mits...
ze vergeten "nvidia" voor "consumer gpu's" te zettenAMD blames these high prices for driving many prosumers to order workstation-class systems with lower-end professional cards so they can replace them with faster consumer GPUs. AMD believes the Frontier Edition can end this madness and give the company a triumphant return to the professional workstation card game.
Note that the Frontier Edition will do so with pro-optimized software support, though the drivers for the Radeon Vega Frontier Edition won’t actually be fully certified.
Minder pro openGL cap dus en wat andere plussen, maar geen certificatie. Voor de echt dure CAD apps ,zoals CATIA uit de vrijgegeven benchmarks, is het dus waarschijnlijk al geen overweging, je gaat geen risico's lopen als de software alleen al richting de 20k gaat en de werknemer een meervoud daarvan.
Iig zo veel compute kunnen leveren als nvidia is belangrijk, maar CUDA wordt weer niet genoemd. Software support. Ik hoop dat het komt. Bij video zie je dat het wel kan, premiere en resolve draaien bijv. allebij prima op openCL. (maarja daar heb je weer geen workstation card voor nodig, gewoon veel power)AMD contends the new GPU design and the HBM2 memory matter as much as the drivers in making Radeon relevant for workstations again.
FE is trouwens een heel erg mooi doosje, die titan-x is maar een vormeloos geval ernaast.
Alleen die exhaust shroud! Die houdt toch allemaal airflow tegen?
[ Voor 3% gewijzigd door Damic op 27-06-2017 07:16 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik verwacht toch echt dat deze kaarten flink goedkoper aangeboden moeten worden dan de gaming tegenhangers voordat miners massaal overstappen, vooral vanwege de restwaarde....
Goedkope crossfire update?Dennism schreef op dinsdag 27 juni 2017 @ 09:00:
Zoals nu aangekondigd op de FP zie ik het nut nog niet direct. Duurder / vrijwel gelijk in prijs dan vergelijkbare gaming kaarten, echter amper restwaarde door het ontbreken van video uitgangen en ook nog eens een lagere garantie (al zal deze in de EU geen standhouden, tenzij deze kaarten enkel zakelijk verkocht worden).
Ik verwacht toch echt dat deze kaarten flink goedkoper aangeboden moeten worden dan de gaming tegenhangers voordat miners massaal overstappen, vooral vanwege de restwaarde....
Dat zou mogelijk kunnen als deze kaarten die optie hebben, nu heb ik nooit Crossfire gebruikt, maar wil je daarvoor niet het liefst dezelfde kaarten hebben met gelijke clockspeeds e.d. ?
Zover ik zie ondersteunen ze gewoon crossfire, dit is natuurlijk mooi om een goedkoop gokje op te wagen
[WoW - Kadardh/Daísÿ/Kadarlock @ Draenor]
Member only tag?The Source schreef op maandag 26 juni 2017 @ 18:50:
[...]
Ik zal maar niet meegokken of het staat weer op videocardz
In ander nieuws, de ETH koers is aan het klappen. Kunnen we hopelijk weer GPU's kopen.
https://www.worldcoinindex.com/coin/ethereum
[ Voor 25% gewijzigd door DaniëlWW2 op 27-06-2017 11:44 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Korte crash kwam door een vals gerucht dat Vitalik Buterin dood was...DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 11:22:
[...]
Member only tag?
In ander nieuws, de ETH koers is aan het klappen. Kunnen we hopelijk weer GPU's kopen.![]()
https://www.worldcoinindex.com/coin/ethereum
Uh, het gaat nu al twee dagen zo.The Source schreef op dinsdag 27 juni 2017 @ 11:54:
[...]
Korte crash kwam door een vals gerucht dat Vitalik Buterin dood was...
Verder zit er een limiet aan ETH mining. Zoals met elke hype worden de blokken veel te snel gehashed, en worden ze steeds moeilijker. Er zat toch al weinig levensduur meer in, dus of die koers nog weer omhoog gaat. Zeker als je nu nog overweegt in te stappen, dan ben je heel dom bezig. Je betaalt te veel voor de GPU's, je moet wachten, en je investering eruit halen gaat moeilijker worden. De restwaarde van je GPU gaat ook laag zijn.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
AMD’s fastest Radeon VR Ready Creator graphics card ever, Radeon Vega Frontier Edition achieves the maximum possible score in the SteamVR benchmark, up to 21 percent higher than the multi-GPU Radeon™ Pro Duo solution.
SteamVRPerformance Test
Radeon™ Vega Frontier Edition SteamVRPerformance Test Score: 11.
Radeon™ Pro Duo (Polaris) SteamVRPerformance Test Score: 9.1.
Radeon™ Pro WX 7100 SteamVRPerformance Test Score: 6.4.
VRMark
Radeon™ Vega Frontier Edition VRMark–Orange Room Score: 8157.
Radeon™ Pro Duo (Polaris) VRMark–Orange Room Score: 6596.
Radeon™ Pro WX 7100 VRMark–Orange Room Score: 6588.
[ Voor 40% gewijzigd door Toettoetdaan op 27-06-2017 17:06 ]
Frontier website met wat extra informatie: http://pro.radeon.com/en-...on-vega-frontier-edition/
Ik denk dat de performance schatting op basis van clock speed dus wat naar beneden bijgesteld kunnen wordenTypical Engine Clock (MHz): 1382
Peak Engine Clock (MHz): 1600
[ Voor 15% gewijzigd door FortyOne op 27-06-2017 17:08 ]
Naast de VR test ook een maya test en een nietszeggende rendertest. Volgens mij is maya altijd al k*t geweest op non pro nvidia gpu's.
I Am Focused on Compute Workloads
The ROCm driver will be available for users on June 29th.
I Am Focused on Workstation Workloads
If you are a workstation user on a Windows® platform, get your driver here.
If you are a workstation user on a Linux® platform, get your driver here.
I Am Focused on Game Development Workloads
Radeon™ Vega Frontier Edition introduces “Gaming Mode”. This allows you to switch from Radeon™ Pro Settings to Radeon™ Settings where you can access gaming features for playtesting and performance optimization.
If you are focused on game development on a Windows® platform, get your driver here and switch to “Gaming Mode.”
I Just Want to Game
If you want to game on a Windows® platform, get your driver here and switch to “Gaming Mode.”
[ Voor 6% gewijzigd door maratropa op 27-06-2017 17:30 ]
Van welke professionele videokaart heb jij dan wel een review gelezen? Als je als AMD zijnde de videokaart verzend naar de standaard site's zul je toch geen fatsoenlijke review krijgen, dus dat lijkt mij sowieso vrij nutteloos om te doen. Zal denk ik zelfs alleen maar negatief werken.FortyOne schreef op dinsdag 27 juni 2017 @ 17:06:
Ik denk niet dat we vandaag nog reviews gaan zien. Vreemde gang van zaken, voorspelt niet veel goeds (denk ik).
Nee dat is het exemplaar met een TBP van minder dan 300W. Verbruik houdt AMD dus op een constante waarde om vervolgens de kloksnelheid dynamisch te laten om het verbruik niet boven de 300W te laten komen. Dat is identiek als bij de Fury Nano.Ik denk dat de performance schatting op basis van clock speed dus wat naar beneden bijgesteld kunnen worden
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ow ow ow ow ow ow https://www.scan.co.uk/pr...tflops-131-fp32-tflops-3x grmbl komt nog eens x aantal £ bij omdat ze SCAN moeten betalen
* Damic bestellen doen :W GNI GNI GNI GNI FRIDAY IT'S VEGA TIME
[ Voor 92% gewijzigd door Damic op 27-06-2017 19:23 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
En de FE wordt dusdanig divers gepositioneerd dat een meer reguliere review ook heel logisch en gewenst is.
Voor deze prijs zijn gamers ook nog geinteresseerd
Verwijderd
Daar word ik nog niet enthousiast van. Een dubbele 480 kan bij Doom net een 1080 bijbenen maar bij de meeste DX11-spellen niet. De 1080 ti is 20-25% sterker dan de 1080? Het ligt er natuurlijk maar aan waar de bottleneck zit bij die VR-test.Toettoetdaan schreef op dinsdag 27 juni 2017 @ 16:58:
Vega FE voor 999dollar: https://videocardz.com/pr...-frontier-edition-for-999
[...]
[...]
[ Voor 33% gewijzigd door Verwijderd op 27-06-2017 21:28 ]
Nee, het zegt allemaal nog steeds helemaal niks, zoals we van AMD gewend zijn geraakt. Zelfs de release van de eerste Vega 10 maakt nog niet duidelijk hoe die nu presteert in games. Dit is echt wel een ander niveau van geheimhouding van AMD hoor. 10/10, would wait voor Vega again.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Amd gaat overduidelijk voor high end segment. Ik denk dat daar de performance vast naar zal zijn.
Ik vind jouw optimisme bewonderenswaardig. Geen nieuws is slecht nieuws in technologie land, of dat is mijn idee in ieder geval. Ik vind de stilte van AMD en het bijna panische gedrag om reviews van Vega te voorkomen eerder beangstigend dan grappig. De stilte rond dit product is in mijn ogen echt geen goed teken. Zelfs voor FE hebben we geen benches en worden er geen samples rondgestuurd. Uitstel voor executie gedrag lijkt het wel...DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 22:24:
En er zijn al gaming drivers voor deze GPU dan?
Nee, het zegt allemaal nog steeds helemaal niks, zoals we van AMD gewend zijn geraakt. Zelfs de release van de eerste Vega 10 maakt nog niet duidelijk hoe die nu presteert in games. Dit is echt wel een ander niveau van geheimhouding van AMD hoor. 10/10, would wait voor Vega again.
Als Vega goed is, waarom hebben we dan niks gehoord? Veel mensen zeggen "de drivers hebben nog veel bugs", maar ze kunnen toch wel minstens één game bench teasen. Ze gaan nu in dat laatste maandje nou ook geen wonderen meer verrichten en opens 30% performance vinden via drivers of alle bugs oplossen...
Ik vind het maar niks. Ik hoop op het beste,, omdat ik een Freesync monitor wil kopen, (beter gezegd, geen GSync wil kopen), maar heb nog weinig hoop. Ik wil echt dat de optimisten onder jullie,"I told you so", tegen mij kunnen zeggen over een maandje, begrijp me niet verkeerd, maar vergelijk dit met de Ryzen release en hoeveel we toen al te zien kregen...
[ Voor 4% gewijzigd door MrCharming op 27-06-2017 22:52 ]
Of het is zinloos om dergelijke, dure producten rond te sturen naar sites die er geen fatsoenlijke testen mee uit kunnen voeren.MrCharming schreef op dinsdag 27 juni 2017 @ 22:51:
Ik vind jouw optimisme bewonderenswaardig. Geen nieuws is slecht nieuws in technologie land, of dat is mijn idee in ieder geval. Ik vind de stilte van AMD en het bijna panische gedrag om reviews van Vega te voorkomen eerder beangstigend dan grappig. De stilte rond dit product is in mijn ogen echt geen goed teken. Zelfs voor FE hebben we geen benches en worden er geen samples rondgestuurd. Uitstel voor executie gedrag lijkt het wel...
En dan teasen ze een benchmark met vroege, en minder dan optimale drivers en dan is het weer Vega is crap.Als Vega goed is, waarom hebben we dan niks gehoord? Veel mensen zeggen "de drivers hebben nog veel bugs", maar ze kunnen toch wel minstens één game bench teasen. Ze gaan nu in dat laatste maandje nou ook geen wonderen meer verrichten en opens 30% performance vinden via drivers of alle bugs oplossen...
Het is drivers, drivers en nog eens drivers nu. De theoretische rekenkracht is er zeker, de bottleneck qua shader engines en CU's is er niet meer, en clocks lijken ook een minder groot gat te zijn met Nvidia. Blijft over drivers. Theoretische FP32 zal beter omgezet moeten worden naar echte prestaties in games, en daar heb je gewoon goede drivers voor nodig. Met minder middelen dan Nvidia, zal AMD daar behoorlijk wat tijd voor nodig hebben. Vega moet alleen meteen presteren, en niet zoals de RX4xx eerst onderpresteren en dan inlopen, wat mensen niet door hebben omdat er tussentijds niet gebenched wordt door grote sites. Dat is hier het dilemma voor AMD.
Het is ook nog eens een compleet nieuwe architectuur, de gehele shader pipeline is veranderd, AMD zou kennelijk in staat zijn om specifieke titels te optimaliseren op een per game basis. Ik maak simpelweg geen illusies over de uitdaging die AMD heeft om na twee jaar afwezigheid, en nog langere afwezigheid van echte innovatie, nu Nvidia in te halen. Intel oke, die zaten te slapen, Nvidia niet, anders zaten ze nu nog op Maxwell of zelfs nog op Kepler.
Volgens mij ben ik al maanden vrij consistent. Ik zeg al maanden dat het waarschijnlijk meer dan de GTX1080 zal zijn, en dan kan het tussen de 1080 en de Ti invallen, Ti en Xp matchen, of sneller zijn. Dat laatste zou ideaal zijn, maar of het gebeurd zien we over een maand. Gebeurd het ruim verslaan niet, dan is dit eigenlijk in het voordeel van de consument, en niet AMD, omdat AMD dan nog harder onder de prijs van Nvidia zal gaan zitten dan ze waarschijnlijk toch al van plan zijn. Heb er persoonlijk ook helemaal geen belang bij voor AMD. Heb geen aandelen, en heb al gekozen voor de RX580. Ik zie wel of Vega 11 een upgrade zal zijn, over een halfjaar ofzo. Vega 10 ga ik toch niet kopen, totale overkill.Ik vind het maar niks. Ik hoop op het beste,, omdat ik een Freesync monitor wil kopen, (beter gezegd, geen GSync wil kopen), maar heb nog weinig hoop.
Vergelijk dit met de Ryzen release en hoeveel we toen al te zien kregen...
Dan Ryzen. Tja, was het niet juist zo dat AMD meteen al aangaf dat ze Intel niet zouden gaan matchen op IPC?
Verder is Intel log, en konden of wilden ze toch niet correct reageren, en wat ze nu doen is maar zeer matig. Dit terwijl AMD rustig haar eerste HEDT platform aan het voorbereiden is, en de aanval heeft geopend op de oh zo lucratieve servermarkt. Bij Nvidia moet je dit niet proberen. Nvidia had preventief gehandeld en de GTX1080Ti zo geplaatst dat deze meteen een probleem voor Vega zou worden. Verder was Volta zoveel mogelijk naar voren gehaald als dit nodig was. Tegen Nvidia lijkt het mij zeer verstandig om niks naar buiten te brengen, en dit zo lang als mogelijk vol te houden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Het gaat natuurlijk om bang for the buck en de minimale prestatie die je nu en de komende paar jaar wenst. Hoe dat uitvalt zullen we moeten afwachten.
Zou die kleine Vega-kaart de opvolger van Polaris worden? De volle als 680 en cuts daarvan als 670 etc.?
Dat klopt, ik gaf alleen aan dat deze cijfers niet indrukwekkend zijn, als minimum performance indicator. Wat daadwerkelijk de performance wordt, daar zullen we over een week een veel beter beeld van hebben zo gauw de eerste synthetische gamebenchmarks bekend worden. Nu weet ik niet precies in welke mate je die kan verbeteren met drivers (ik schat in dat dat zeer beperkt is), het is bekend dat je voor games heel wat meer kan bereiken met drivers aangezien de programmeurs (of eigenlijk developers?) er vaak een zooitje van maken en ze via de drivers per spel allerlei hacks aan- en uitschakelen die gemaakte fouten in de code opvangen.DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 22:24:
En er zijn al gaming drivers voor deze GPU dan?
Nee, het zegt allemaal nog steeds helemaal niks, zoals we van AMD gewend zijn geraakt. Zelfs de release van de eerste Vega 10 maakt nog niet duidelijk hoe die nu presteert in games. Dit is echt wel een ander niveau van geheimhouding van AMD hoor. 10/10, would wait voor Vega again.
Ik verwacht dat de volle Vega gewoon de concurrentie aan kan met de 1080ti, misschien iets minder bij DX11 maar dat maken ze dan wel weer goed bij DX12, Vulkan en nieuwere spellen waarvoor AMD het beter lijkt te doen (console-voordeel?). Aangezien wij toch graag speculeren speculeer ik ook nog even over de prijs: $599-699 voor de watergekoelde versie, 499-599 voor volle versie zonder waterkoeling en $399-450 voor de cut. Hiermee voorzien ze alle segmenten van de markt en is de prijs aantrekkelijk genoeg dat mensen overwegen om het te kopen, veronderstellende dat de cut de GTX 1070 verslaat en in de buurt komt van de GTX 1080 terwijl de volle Vega minstens in de buurt komt van de 1080 ti, toch zeker de watergekoelde versie.
Wanneer AMD het allemaal aankondigt mogen jullie deze reactie citeren en dan zullen we eens zien hoe dicht of ver ik er naast zit. Achteraf praten is gemakkelijk, nu staat het zwart op wit.
Dat is wel erg gegeneraliseerd. Dat AMD met 52% de zogenaamde ICP voor Ryzen verbeterde t.o.v. de laatste architectuur van AMD in plaats van de geambiëerde 40% kondigde AMD pas weken later aan nadat het via de wandelgangen al bekend was geworden, mogelijk omdat AMD dit graag bewaarde voor het persevenement. Sowieso waren ze bij Ryzen best voozichtig om niet meer te beloven dan wat het zou leveren, ze merkten pas laat op dat de klokfrequenties best meevallen en dergelijke, ze lieten niet weten - ook dit lekte via de wandelgangen - dat de eerder gedemonstreerde klokfrequentie slechts lager lag doordat ze nog een softwarebug aan het oplossen waren...MrCharming schreef op dinsdag 27 juni 2017 @ 22:51:[/Geen nieuws is slecht nieuws in technologie land
AMD heeft in het verleden de fout gemaakt om meer te beloven dan wat het kon leveren, de huidige leiders bij AMD begrijpen blijkbaar dat AMD op dit vlak met argensogen wordt gevolgd door veel mensen en dat ze beter minder kunnen beloven dan wat ze waarmaken dan dat ze minder beloven dan wat ze waarmaken.
Nu kan iemand flauw beginnen over te grote gamingbeloftes maar AMD beloofde nooit dat het met Ryzen een hogere FPS zou halen dan de 7700k bij 1080p, het wekte slechts de indruk dat Ryzen geschikt is voor 4k gaming, wat waar bleek te zijn (hier en daar is een patch noodzakelijk of gewenst maar in het algemeen klopt het).
Wat ik verwacht kan je hierboven lezen. Optimisme? Nee, ik denk dat het realistisch is gezien de veranderingen in de architectuur, het feit dat ze lang hebben kunnen werken aan de implementatie en de drivers en dat de AMD-medewerkers ongetwijfeld de druk voelen om er alles aan te doen om Vega op dit niveau te laten presteren, o.a. omdat het PR-technisch slecht is als je een jaar later niet de concurrentie aan kan met Nvidia voor die generatie en omdat je toch graag de kosten (HBM) eruit wil halen met de verkoop van de kaarten. We zullen het de komende maanden wel gaan zien.
[ Voor 75% gewijzigd door Verwijderd op 28-06-2017 00:16 ]
Je vergeet effe al die 144Hz eigenaren die graag zoveel mogelijk fps willen : Ook op zo'n (ondertussen) lage resolutieVerwijderd schreef op dinsdag 27 juni 2017 @ 23:45:
Ik zou de cut van Vega10 niet overkill noemen. Voor 1080p gaming? Ja, behoorlijk!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Verwijderd
Niet vergeten, bewust ervoor gekozen om dat niet als uitzondering te benoemen omdat ik erover twijfel of dat het wel een uitzondering is. Voor die spellen waarbij het er echt toe doet (Overwatch, CS Go...) kom je ook wel ruim boven de 100 met hoge/zeer hoge instellingen met de volle kleine Vega of een cut van de grote Vega. Bij andere spellen (TW3, GTA5...) betwijfel ik dat je ook maar enig verschil merkt tussen FPS=100 en hoger. Verder is het natuurlijk onzinnig om met ultra instellingen te spelen bij dit soort spellen, je ziet echt niet het verschil terwijl je gamet. Ik ben zelf een graphics-hoer zoals ze dat noemen, voor mij hoog/zeer hoog, afhankelijk van het spel. Op een uitzondering na (bijv. textures).nero355 schreef op woensdag 28 juni 2017 @ 00:51:
[...]
Je vergeet effe al die 144Hz eigenaren die graag zoveel mogelijk fps willen : Ook op zo'n (ondertussen) lage resolutie
[ Voor 10% gewijzigd door Verwijderd op 28-06-2017 02:43 ]
Als ze één maand voor release nog geen enkele game hebben waar de boel fatsoenlijk werkt, dan hebben ze serieuze problemen. Ik verwacht niet dat we mooie bar charts krijgen voor 30 games met 144FPS in 4K, maar als AMD nu nog niks produceren kan, dan loopt er echt wat mis. Vergeet bijvoorbeeld niet dat we bij Ryzen al teasers hadden waar een Blender test werd gebruikt, waar de kloksnelheden hetzelfde waren. Dat gaf niet alles weg, maar men had wel een idee.DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 23:18:
[...]
Of het is zinloos om dergelijke, dure producten rond te sturen naar sites die er geen fatsoenlijke testen mee uit kunnen voeren.
[...]
En dan teasen ze een benchmark met vroege, en minder dan optimale drivers en dan is het weer Vega is crap.
Ik heb het idee dat de launch keer op keer verschoven wordt, onder het mom van meer performance met drivers en dat is prima. Ik wil niet nog een Polaris release. Ik denk echter niet dat AMD nu nog in een paar weken zoveel winst kan boeken. Dat voelt een beetje aan als je scriptie indienen om 23:59 als die om 00:00 binnen moet zijn
Overigens zijn er ook review sites die niet enkel games doen hè. Anandtech reviewt gewoon hardware, ook smartphones bijvoorbeeld. Er zijn ook andere sites die meer workstation of HEDT gericht zijn. Daarbij komt ook nog eens kijken dat het gewoon slecht staat, naar mijn mening. Die reviews komen er toch wel, want er is een iemand die $1000 op tafel legt voor die kaart en 'm vervolgens gaat reviewen. Dat komt dan op reddit met 3k upvotes, hier, videocardz, overal en dan is de kat uit de zak. Dat AMD zo angstig de kaarten op de borst drukt staat enkel slecht, in mijn ogen. Daar verschillen we dan van mening over (ook leuk
Nee, matchen deden ze zeker niet, maar 52% gain is heel indrukwekkend. Dat is een van de grootste inhaalslagen geweest die ze ooit gedaan hebben als bedrijf, zeker op CPU gebied. Ze gaven wel aan dat ze verdomd dicht in de buurt zaten. Bij Vega is het doodstil.Volgens mij ben ik al maanden vrij consistent. Ik zeg al maanden dat het waarschijnlijk meer dan de GTX1080 zal zijn, en dan kan het tussen de 1080 en de Ti invallen, Ti en Xp matchen, of sneller zijn. Dat laatste zou ideaal zijn, maar of het gebeurd zien we over een maand. Gebeurd het ruim verslaan niet, dan is dit eigenlijk in het voordeel van de consument, en niet AMD, omdat AMD dan nog harder onder de prijs van Nvidia zal gaan zitten dan ze waarschijnlijk toch al van plan zijn. Heb er persoonlijk ook helemaal geen belang bij voor AMD. Heb geen aandelen, en heb al gekozen voor de RX580. Ik zie wel of Vega 11 een upgrade zal zijn, over een halfjaar ofzo. Vega 10 ga ik toch niet kopen, totale overkill.
Dan Ryzen. Tja, was het niet juist zo dat AMD meteen al aangaf dat ze Intel niet zouden gaan matchen op IPC?
Maar nu komt er niks uit "de wandelgangen". Ook als het voor persevenementen bewaard wordt, AMD is opvallend stil rond Vega. Er zijn verschillende persevenementen geweest waar ze de kans hadden om iets te laten zien, wat dan ook, maar vervolgens werden er T-shirts weggeven en zeiden ze dat Vega "RX Vega" gaat heten. AMD zwijgt als het graf en we zitten nu een maand voor release en er is niks, maar dan ook niks bekend.Verwijderd schreef op dinsdag 27 juni 2017 @ 23:45:
Dat is wel erg gegeneraliseerd. Dat AMD met 52% de zogenaamde ICP voor Ryzen verbeterde t.o.v. de laatste architectuur van AMD in plaats van de geambiëerde 40% kondigde AMD pas weken later aan nadat het via de wandelgangen al bekend was geworden, mogelijk omdat AMD dit graag bewaarde voor het persevenement. Sowieso waren ze bij Ryzen best voozichtig om niet meer te beloven dan wat het zou leveren, ze merkten pas laat op dat de klokfrequenties best meevallen en dergelijke, ze lieten niet weten - ook dit lekte via de wandelgangen - dat de eerder gedemonstreerde klokfrequentie slechts lager lag doordat ze nog een softwarebug aan het oplossen waren...
AMD heeft in het verleden de fout gemaakt om meer te beloven dan wat het kon leveren, de huidige leiders bij AMD begrijpen blijkbaar dat AMD op dit vlak met argensogen wordt gevolgd door veel mensen en dat ze beter minder kunnen beloven dan wat ze waarmaken dan dat ze minder beloven dan wat ze waarmaken.
Nu kan iemand flauw beginnen over te grote gamingbeloftes maar AMD beloofde nooit dat het met Ryzen een hogere FPS zou halen dan de 7700k bij 1080p, het wekte slechts de indruk dat Ryzen geschikt is voor 4k gaming, wat waar bleek te zijn (hier en daar is een patch noodzakelijk of gewenst maar in het algemeen klopt het).
Wat ik verwacht kan je hierboven lezen. Optimisme? Nee, ik denk dat het realistisch is gezien de veranderingen in de architectuur, het feit dat ze lang hebben kunnen werken aan de implementatie en de drivers en dat de AMD-medewerkers ongetwijfeld de druk voelen om er alles aan te doen om Vega op dit niveau te laten presteren, o.a. omdat het PR-technisch slecht is als je een jaar later niet de concurrentie aan kan met Nvidia voor die generatie en omdat je toch graag de kosten (HBM) eruit wil halen met de verkoop van de kaarten. We zullen het de komende maanden wel gaan zien.
Overigens, en dan word ik misschien een alu-hoedje genoemd, ben ik er van overtuigd dat AMD een handje had in al die lekken. De Ryzen release was zo lek als een mandje. De hoeveelheid informatie die naar buiten kwam was ongelofelijk. Bijna iedere dag of zeker 3-4 keer per week was er een "lek". Prijzen, benchmarks, line-ups, specs van CPUs, power draw info, etc. Achteraf klopt misschien de helft niet, maar er zat een hoop bij wat waar was, of héél dicht in de buurt. Dan ga je mij niet vertellen dat AMD niet af en toe express wat lekte, om hype te creëren, Of de CPU department zit vol met kletsmajoren en de GPU jongens zijn allemaal heel braaf. Ik vind het onwaarschijnlijk.
Maar ben het met je eens dat het nu wel stil is. Ik denk ook dat ze misschien bang zijn dat ze worden afgeschoten dat ze op 1080p in DX11 maar 200fps halen ipv de 250 die de GTX1080Ti haalt. Dat hij dan op 4k sneller is doet er niet toe want de Ti is sneller!!11one
Mijn ongezouten mening is dat het mij een worst zal wezen hoe die kaart presteerd in DX11, als hij goed mee kan komen op hoge resoluties dan is dat mij inziens voldoende. Ik zie liever dat hij in DX12/Vulkan overal gehakt van maakt want dat is de toekomst.
https://www.reddit.com/r/...h_no_one_will_officially/
Ja, bron is vaak ruk maar toch.
Aan de andere kant kan dit soort "nieuws" AMD toch zover brengen om wat meer informatie uit te brengen, of zou het ze koud laten?
De comments op reddit geven trouwens meteen het gebrek aan begrip omtrent workstation gpus weer bij een grote groep..
[ Voor 15% gewijzigd door maratropa op 28-06-2017 11:04 ]
De echte Vega workstation kaart wordt waarschijnlijk de WX9100:maratropa schreef op woensdag 28 juni 2017 @ 11:02:
Workstation gpu's worden nooit groots gereleased en breed gerevieuwed, in dat licht is het niet raar dat er weinig nieuws over de FE is, tenminste het hoort bij het workstation beeld wat amd schept. Neem bijv de GP100; meest high end gpu die er was, ik had ook wel verwacht dat een paar sites er op gingen gamen maar nada niks.
De comments op reddit geven trouwens meteen het gebrek aan begrip omtrent workstation gpus weer bij een grote groep..
https://videocardz.com/70...pro-wx-9100-with-vega-gpu
De FE versie wordt breder in de markt gezet, dus reviews zijn wel op zijn plaats vind ik. Sowieso alleen al om het feit dat er door veel mensen (heel lang) naar is uitgekeken en er dus veel aandacht voor de eerste resultaten zal zijn. Ik zou dan als AMD zijnde liever een paar kwalitatief goede reviews hebben door bekende sites - die de resultaten ook in het juiste licht kunnen zetten - dan individuen die een paar benchmarkjes gaan draaien en dit op het web gooien.
Waar zeg ik precies dat ze nu niet al wat drivers klaar hebben? Ik mag toch hopen dat ze voor de meeste games tenminste de basis af hebben en nu aan het bijschaven zijn. Verder vertik ik het gewoon om mee te gaan met al het negativisme rond Vega, totdat ik echte resultaten zie. Zo ongelofelijk veel mensen die conclusies trekken aan de hand van een techdemo van een paar seconden. Het zegt bar weinig.MrCharming schreef op woensdag 28 juni 2017 @ 09:58:
Als ze één maand voor release nog geen enkele game hebben waar de boel fatsoenlijk werkt, dan hebben ze serieuze problemen. Ik verwacht niet dat we mooie bar charts krijgen voor 30 games met 144FPS in 4K, maar als AMD nu nog niks produceren kan, dan loopt er echt wat mis. Vergeet bijvoorbeeld niet dat we bij Ryzen al teasers hadden waar een Blender test werd gebruikt, waar de kloksnelheden hetzelfde waren. Dat gaf niet alles weg, maar men had wel een idee.
Ik heb het idee dat de launch keer op keer verschoven wordt, onder het mom van meer performance met drivers en dat is prima. Ik wil niet nog een Polaris release. Ik denk echter niet dat AMD nu nog in een paar weken zoveel winst kan boeken. Dat voelt een beetje aan als je scriptie indienen om 23:59 als die om 00:00 binnen moet zijn
Wat we weten is dat AMD de GCN architectuur heeft verlaten, de complete frondend van de GPU heeft omgegooid zodat ze niet nog een "Fiji" krijgen en met veel hogere clocks komen. Tenzij er iets fundamenteel mis is, zie ik niet in waarom Vega 10 niet tenminste de GTX1080 ruim zou moeten verslaan. Dan kom je bij GP102 uit en je positionering ten opzichte hiervan.
AMD haar probleem is dat Nvidia al een complete line-up heeft, met prijzen kan spelen, of een Pascal refresh kan uitvoeren, of toch Volta. Als Vega 10 nu wint van GP102, dan is dat voor een paar maanden, tenzij Vega 10, GP102 echt sloopt, en de concurrentie aankan met de opvolger van Nvidia. Is het een match, dan zal AMD onder de prijs gaan zitten, Nvidia zal reageren en dan komt Vega 10 een niveautje lager te staan bij de volgende Nvidia release. Enthousiast is dan nog steeds Nvidia only, maar high end is concurrentie.
Wederom, wat is het alternatief? Nvidia zal reageren zodra ze accurate informatie hebben. Zelfs nu Nvidia waarschijnlijk een FE Vega GPU heeft bemachtigd en aan het testen is geslagen, zullen ze nog steeds niet weten hoe die precies in games presteert, want geen drivers. Dat moeten ze weten, omdat Nvidia preventief zal willen reageren om de RX Vega release te ondermijnen. Komt Nvidia er achter dat het maximaal 1080Ti is, dan kunnen ze zich voorbereiden op een pricedrop. Voorbij GP102, dan snel de volgende generatie eruit pushen, onder de 1080Ti? Dan kijken ze wat ze met de GTX1070/80 kunnen doen.Overigens zijn er ook review sites die niet enkel games doen hè. Anandtech reviewt gewoon hardware, ook smartphones bijvoorbeeld. Er zijn ook andere sites die meer workstation of HEDT gericht zijn. Daarbij komt ook nog eens kijken dat het gewoon slecht staat, naar mijn mening. Die reviews komen er toch wel, want er is een iemand die $1000 op tafel legt voor die kaart en 'm vervolgens gaat reviewen. Dat komt dan op reddit met 3k upvotes, hier, videocardz, overal en dan is de kat uit de zak. Dat AMD zo angstig de kaarten op de borst drukt staat enkel slecht, in mijn ogen. Daar verschillen we dan van mening over (ook leuk), maar ik vind het een slechte zet.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verlaten weet ik niet, maar wel goed omgegooid:DaniëlWW2 schreef op woensdag 28 juni 2017 @ 11:51:
Wat we weten is dat AMD de GCN architectuur heeft verlaten
Betekent dat gameworks minder impackt gaat hebben op AMD? (Conservative rasterization en Rasterizer-ordered views)Rys Sommefeldt schreef:
Full architecture details will come out later, can't spoil that, but it is FL 12_1 top tier for everything.
Voorlopig de beperkingen aan Nvidia's kant:
- Tier 2 CR
- Tier 2 resource binding
- Geen stencil refs in pixel shaders (geen grote feature, maar bespaart wel weer wat roundtrips)
- UAV slots zijn beperkt tot 64
- Heaps zijn beperkt tot 1 type resource (tier 1)
Laatste 4 punten zijn in GCN1 allemaal al de top tier; Intel heeft deze ook allemaal op top tier in Skylake en Kaby Lake (en enkele zelfs in Haswell al).
We zullen deze features voorlopig nog niet in games zien. Ze worden nog veel te beperkt ondersteund
@Verwijderd ook in games als TW3, GTAV en dergelijke is het gewoon wenselijk een hogere framerate te hebben. En als je dan een 120/144 Hz monitor hebt, wil je het liefst ook tegen die limiet aan zitten om tearing te voorkomen, ook al is tearing een stuk slechter zichtbaar door de refreshrate.
Aan de statistieken etc te zien, plus wat we tot nu toe aan performance hebben gezien moet AMD hier toch wel een goed product in handen hebben. Enkel hopen dat Nvidia de prijzen niet dusdanig naar beneden gooit dat AMD te weinig marge ruimte houd. R&D moet toch ergens van betaald worden
Verwijderd
Als je geen FreeSync-monitor hebt, ok. Het punt is dat er een sterk verminderde meerwaarde is van de hogere FPS naarmate die hoger wordt. Simpel gesteld, tot de 75 FPS merk je nog veel verbetering in vergelijking met 60 FPS, tussen de 75 en de 100 FPS merk je nog enige verbetering en daarboven moet je actief gaan zoeken naar het verschil. Voor competitieve online gaming op een hoog niveau waarbij 0,005 s het verschil maakt doet het er toe, als je geen FreeSync zou gebruiken dan doet het er toe, in andere scenario's zit het volgens mij meer in het kopje dat je boven de 100 FPS moet zitten als je TW3 of GTAV speelt. Wie zo'n monitor heeft kan eens een blind experiment opzetten, laat iemand anders de FPS wijzigen (door met de grafische instellingen te spelen) en zie of dat je het verschil merkt met gewone gameplay (zonder wild met de muis te bewegen).Werelds schreef op woensdag 28 juni 2017 @ 12:13:
@Verwijderd ook in games als TW3, GTAV en dergelijke is het gewoon wenselijk een hogere framerate te hebben. En als je dan een 120/144 Hz monitor hebt, wil je het liefst ook tegen die limiet aan zitten om tearing te voorkomen, ook al is tearing een stuk slechter zichtbaar door de refreshrate.
[ Voor 21% gewijzigd door Verwijderd op 28-06-2017 13:36 ]