LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dit kan ik alleen nog niet volgen. Voor zon webshop is het operationeel toch niet haalbaar exact 15:00 te starten met verkopen? Naam aan dat die gewoon de 14e aanhouden en vanaf de ochtend feitelijk starten met verkopen? Dat is wat ik iig in de praktijk zag toen ik nog in ecommerce werkte...Astennu schreef op zondag 13 augustus 2017 @ 22:15:
[...]
Ach 15-30 min reviews lezen moet kunnen. Dat is wat ik zelf doen als het mij enigszins mee valt bestel ik er een of twee (verschillende versies) dan kan ik ze met elkaar vergelijken. Ik wil dan in ieder geval proberen een LE te pakken te krijgen.
Volgens mij is het morgen om 15:00 zo ver. Cant wait!
een beetje modern inventaris-beheersoftware is vast wel in staat om een reeds ingevoerd artikel op een bepaalde tijd live te zetten. Kan op blogs ook al jaren, enzo.Joppiesaus2 schreef op zondag 13 augustus 2017 @ 22:26:
[...]
Dit kan ik alleen nog niet volgen. Voor zon webshop is het operationeel toch niet haalbaar exact 15:00 te starten met verkopen? Naam aan dat die gewoon de 14e aanhouden en vanaf de ochtend feitelijk starten met verkopen? Dat is wat ik iig in de praktijk zag toen ik nog in ecommerce werkte...
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Edit: t lijkt er op dat ze alle reference specs hebben gecopypaste en alle merknamen erbij hebben gezet, maar de dozen van de verschillende fabrikanten staan er wel mooi op
[ Voor 46% gewijzigd door Gelunox op 13-08-2017 23:09 ]
PC: R9 5950X | 32GB | VEGA 64 Liquid Edition
Anoniem: 444127
Ik denk dat er in ieder geval nog een flinke marge is voor verbetering met betere drivers. De architectuur is best sterk gewijzigd dus de drivers moeten ook flink worden aangepast om alles eruit te halen. Slechte schaling suggereert inderdaad een bottleneck maar ook dat kan te maken hebben met het nog onvoldoende goed aansturen van de hardware. We moeten er geen wonderen van verwachten maar 10-20% verbetering binnen 6-12 maanden zou me niet verbazen, we zagen voor de 470 en 480 10% verbetering in iets meer dan een half jaar tijd en dit was in essentie een shrink van de 200/300-serie.edward2 schreef op zondag 13 augustus 2017 @ 21:05:
[...]
Ik kan nog steeds moeilijk geloven dat Vega maar 25-30% sneller is dan de Fury. Iets zegt mij dat de drivers ten tijde van deze opmaak (en misschien deels nu nog steeds) nog kreupel waren. Ik heb inmiddels een aantal vids van de Vega FE gezien (YouTube: DudeRandom84 en daar zie je een zeer grillige perf. (overigens wordt nergens de Ti verslagen, ja in Fallout4 soms)
Tegelijkertijd kan het natuurlijk ook gewoon zo zijn dat er niet meer inzit en dat Vega ergens anders een bottleneck heeft en/of er concessies zijn gedaan). Misschien wel bandbreedte gelimiteerd?
Zo schaalde bv. een Vega FE erg slecht met de GPU-frequentie (1050vs 1600).
PCB heeft aardig was phases.

Maar is voor de rest bijna kaal.

HBM2 laat wel zien hoe ruimte efficiënt het is. Verder is dit een 2,5x slot kaart, lijkt op vier heatpipes en een koelblok voor de chip en HBM2, en eentje voor de VRM.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ze hebben de ROP bottleneck niet opgelost en ze hebben een bandwidth bottleneck toegevoegd. Dat ga er niet uitkrijgen met software.Anoniem: 444127 schreef op zondag 13 augustus 2017 @ 23:24:
[...]
Ik denk dat er in ieder geval nog een flinke marge is voor verbetering met betere drivers. De architectuur is best sterk gewijzigd dus de drivers moeten ook flink worden aangepast om alles eruit te halen. Slechte schaling suggereert inderdaad een bottleneck maar ook dat kan te maken hebben met het nog onvoldoende goed aansturen van de hardware. We moeten er geen wonderen van verwachten maar 10-20% verbetering binnen 6-12 maanden zou me niet verbazen, we zagen voor de 470 en 480 10% verbetering in iets meer dan een half jaar tijd en dit was in essentie een shrink van de 200/300-serie.
Lijkt er op dat het ook een 12 phase is, dus evenveel als de FE. Alleen met wat compactere chokesDaniëlWW2 schreef op zondag 13 augustus 2017 @ 23:25:
En ook de Asus AIB kaart.
PCB heeft aardig was phases.
[afbeelding]
Maar is voor de rest bijna kaal.
[afbeelding]
HBM2 laat wel zien hoe ruimte efficiënt het is. Verder is dit een 2,5x slot kaart, lijkt op vier heatpipes en een koelblok voor de chip en HBM2, en eentje voor de VRM.
PC: R9 5950X | 32GB | VEGA 64 Liquid Edition
Volgens mij kan dat prima. Maar mochten ze morgen ochtend al te koop zijn bestel ik er gewoon een to be sure.Joppiesaus2 schreef op zondag 13 augustus 2017 @ 22:26:
[...]
Dit kan ik alleen nog niet volgen. Voor zon webshop is het operationeel toch niet haalbaar exact 15:00 te starten met verkopen? Naam aan dat die gewoon de 14e aanhouden en vanaf de ochtend feitelijk starten met verkopen? Dat is wat ik iig in de praktijk zag toen ik nog in ecommerce werkte...
Dat weet je nog niet want je hebt de reviews nog niet gezien. Morgen weten we het pas zeker.Amazigh_N_Ariff schreef op zondag 13 augustus 2017 @ 23:29:
[...]
Ze hebben de ROP bottleneck niet opgelost en ze hebben een bandwidth bottleneck toegevoegd. Dat ga er niet uitkrijgen met software.
[ Voor 26% gewijzigd door Astennu op 13-08-2017 23:43 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Weet je zeker dat het een ROP bottleneck is?Amazigh_N_Ariff schreef op zondag 13 augustus 2017 @ 23:29:
[...]
Ze hebben de ROP bottleneck niet opgelost en ze hebben een bandwidth bottleneck toegevoegd. Dat ga er niet uitkrijgen met software.
Bandwith bottleneck lijkt met niet het geval, de kaart heeft ongeveer evenveel bandbreedte als de Fury X. Met delta color compression zal er waarschijnlijk genoeg bandbreedte zijn.
Dat de Fury X genoeg heeft wil natuurlijk niet zeggen dat dit ook voor de Vega zo is natuurlijk. Morgen zijn er hopelijk reviews die ook het geheugen overclocken, dan kunnen we gelijk zien of het wel of niet een bottleneck vormt.
[ Voor 19% gewijzigd door Sp3ci3s8472 op 13-08-2017 23:45 ]
Anoniem: 298195
nog meer bevestiging van wat we al wisten. RTG nogsteeds niet echt uit het slop, ik wacht op Navi of ik moet de Vega 56 voor een leuk prijsje kunnen krijgenAdored's comment about Vega on the semi-accurate forums:
Q: Adored, does your old prediction for Vega's performance hold true? Or did it change slightly?
A: Well nobody is gonna be pleasantly surprised, I'm pretty sure of that. [wink]
[ Voor 7% gewijzigd door Anoniem: 298195 op 13-08-2017 23:47 ]
Anoniem: 444127
De bandbreedte zou genoeg moeten zijn. Over de ROP laat ik me niet uit (ik weet het niet).Sp3ci3s8472 schreef op zondag 13 augustus 2017 @ 23:43:
[...]
Weet je zeker dat het een ROP bottleneck is?
Bandwith bottleneck lijkt met niet het geval, de kaart heeft ongeveer evenveel bandbreedte als de Fury X. Met delta color compression zal er waarschijnlijk genoeg bandbreedte zijn.
Dat de Fury X genoeg heeft wil natuurlijk niet zeggen dat dit ook voor de Vega zo is natuurlijk. Morgen zijn er hopelijk reviews die ook het geheugen overclocken, dan kunnen we gelijk zien of het wel of niet een bottleneck vormt.

Anoniem: 444127
https://semiaccurate.com/...a-11-What-we-know/page341
Anoniem: 298195
huh...The Source schreef op zondag 13 augustus 2017 @ 23:56:
Gelukkig is VEGA memory gemakkelijk upgradebaar![]()
[afbeelding]
Een r9 290x pcb waar een andere gpu op is gelegd. Een prank, niets meer dan dat.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Anoniem: 444127
De Vega GPU op een andere kaart gelegd of gephotoshopt?The Source schreef op zondag 13 augustus 2017 @ 23:56:
Gelukkig is VEGA memory gemakkelijk upgradebaar![]()
[afbeelding]
Nog steeds niet echt uit het slop, maar wel een kaart die competitief is. Zeer competitief zelfs in het geval van de cut aangezien het halverwege tussen de 1070 en de 1080 in lijkt te vallen terwijl het meer futureproofAnoniem: 298195 schreef op zondag 13 augustus 2017 @ 23:47:
[...]
nog meer bevestiging van wat we al wisten. RTG nogsteeds niet echt uit het slop, ik wacht op Navi of ik moet de Vega 56 voor een leuk prijsje kunnen krijgen
is en dadelijk wat voordeeltjes gaat hebben met RPM etc.
Alleen hadden we natuurlijk meer gewild aangezien ze nu letterlijk 1 volle generatie achter lopen op Nvidia.
[ Voor 47% gewijzigd door Anoniem: 444127 op 14-08-2017 00:03 ]
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Er van uitgaande dat dit waar is dan hoeven we denk ik niet te verwachten dat er nog veel performance te winnen is.The Source schreef op zondag 13 augustus 2017 @ 09:49:
[...]
Ze zijn al een half jaar VEGA aan het Tunen en vanaf Jan of Feb is het nagenoeg dezelfde performance. Kloks zijn wat omhoog gegaan, drivers verbetered, echter blijft het op het zelfde level hangen, niet iets wat AMD had geplanned.
If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair
Anoniem: 444127
Ik lees dit nu pas. Enig idee hoe het komt dat het niet beter schaalt met de hogere klokfrequentie?The Source schreef op zondag 13 augustus 2017 @ 09:49:
Ze zijn al een half jaar VEGA aan het Tunen en vanaf Jan of Feb is het nagenoeg dezelfde performance. Kloks zijn wat omhoog gegaan, drivers verbetered, echter blijft het op het zelfde level hangen, niet iets wat AMD had geplanned.
Zou dit (worstelen om eruit te krijgen wat ze hadden gepland) de reden zijn dat Vega zo laat komt? Hoe dan ook is de cut van Vega een prima optie, logisch dat AMD de reviewers verzoekt om daar vooral aandacht aan te besteden. Die volle zal moeilijker te verkopen zijn.
[ Voor 23% gewijzigd door Anoniem: 444127 op 14-08-2017 00:09 ]
Ja ik ookAnoniem: 444127 schreef op maandag 14 augustus 2017 @ 00:08:
[...]
Ik lees dit nu pas. Enig idee hoe het komt dat het niet beter schaalt met de hogere klokfrequentie?
Zou dit (worstelen om eruit te krijgen wat ze hadden gepland) de reden zijn dat Vega zo laat komt? Hoe dan ook is de cut van Vega een prima optie, logisch dat AMD de reviewers verzoekt om daar vooral aandacht aan te besteden. Die volle zal moeilijker te verkopen zijn.

Niet op voorraad.
https://semiaccurate.com/...789&viewfull=1#post290789Q: Adored, does your old prediction for Vega's performance hold true? Or did it change slightly?
A: Well nobody is gonna be pleasantly surprised, I'm pretty sure of that.
[ Voor 55% gewijzigd door Paprika op 14-08-2017 00:21 ]
Anoniem: 298195 schreef op zondag 13 augustus 2017 @ 23:47:
[...]
nog meer bevestiging van wat we al wisten. RTG nogsteeds niet echt uit het slop, ik wacht op Navi of ik moet de Vega 56 voor een leuk prijsje kunnen krijgen
Het lijkt er niet op dat de webshop middernacht als moment hebben om de boel online te gooien dus vanmiddag
[ Voor 9% gewijzigd door Gelunox op 14-08-2017 00:27 ]
PC: R9 5950X | 32GB | VEGA 64 Liquid Edition
Specificaties en performance mag niet gedeeld worden, maar afbeeldingen van het product wel. Prijsvergelijkers kunnen de producten dus toevoegen en ook de fabrikanten kunnen de kaart online zetten, zolang ze maar niet alles delen.Gelunox schreef op zondag 13 augustus 2017 @ 23:06:
Het valt me ineens op dat hier https://geizhals.de/?fs=VEGA&in= een lijst van alle RX vega kaarten al staat?
Edit: t lijkt er op dat ze alle reference specs hebben gecopypaste en alle merknamen erbij hebben gezet, maar de dozen van de verschillende fabrikanten staan er wel mooi op
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Volgens mij geeft niemand aan dat Vega niet beter schaalt met hogere clocks, althans ik hoop het nietAnoniem: 444127 schreef op maandag 14 augustus 2017 @ 00:08:
[...]
Ik lees dit nu pas. Enig idee hoe het komt dat het niet beter schaalt met de hogere klokfrequentie?
Zou dit (worstelen om eruit te krijgen wat ze hadden gepland) de reden zijn dat Vega zo laat komt? Hoe dan ook is de cut van Vega een prima optie, logisch dat AMD de reviewers verzoekt om daar vooral aandacht aan te besteden. Die volle zal moeilijker te verkopen zijn.
Ik zie vanuit AMD nul sturing mbt 64 vs 56 of enige vorm van 'verzoek'. Er is wel een duidelijke inhoudelijke lijn in de communicatie, dat zal morgen ook overduidelijk worden.

[ Voor 3% gewijzigd door edward2 op 14-08-2017 00:46 ]
Niet op voorraad.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik ga blindelings voor de RX56 met aftermarket koeling. Op dit moment heb ik een Rx 580 in 1 pc en een R9-380X. De laatste ga ik vervangen voor een RX56.nLr schreef op zondag 13 augustus 2017 @ 19:39:
Even snel klein polletje nu het moment in de buurt is;
Zouden jullie morgen insta de Rx64 kopen?
Zouden jullie morgen insta de RX56 kopen?
Gaan jullie wachten op de betere koelers en dus de after kaart kopen?
Twijfel zelf enorm namelijk... Zeker gezien de geringe voorraad wil ik eigenlijk meteen op bestellen drukken want wil niet weer 2/3 maanden wachten. Maar goed,
Nee die is 1677MHz, dat is al door AMD bekend gemaakt immers dus nep of LN2 koeling.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
[ Voor 21% gewijzigd door Amazigh_N_Ariff op 14-08-2017 07:15 ]
Volgens mij was het "Fiji probleem" dat een deel van de ROPS niks deden.Amazigh_N_Ariff schreef op zondag 13 augustus 2017 @ 23:29:
Ze hebben de ROP bottleneck niet opgelost en ze hebben een bandwidth bottleneck toegevoegd. Dat ga er niet uitkrijgen met software.

Als ik het me goed herinner is een AMD ROP ook heel wat capabeler dan een Nvidia ROP, dus dat zou het probleem niet moeten zijn.
Bij Fiji werkte de 16 CU's per Shader Engines niet want een aantal CU's deed gewoon niks. Fiji is uit balans, en veel te zwaar op compute calculations, terwijl een gemiddelde game simpelweg niet alle hardware kon activeren. Dan was polygon throughput ook slechts vier per clock voor Fiji wat ook niet hielp. Dat zou nu elf per clock moeten zijn voor Vega. Zelfs dan lijkt er nog een frontend bottleneck te zijn, namelijk weer dat games gewoon niet 16 CU's per Shader Engines volledig kunnen belasten. Vega 10 had denk ik gewoon een acht Shader Engine/128 ROPS chip moeten zijn. Was die chip alleen wel over de 500mm2 gegaan.

Daar zit dus een ander probleem. Alle GCN chips = vier Shader Engines, en dat lijkt hier een behoorlijk probleem te zijn. Ik ben bang dat AMD de tijd niet om de barrière van vier te breken. Dat zit diep in GCN en is denk ik niet zomaar te veranderen. Ik denk dat AMD twee dingen heeft geprobeerd om dit op te lossen. De eerste is load balancing tussen de Shader Engines. GCN hakte altijd een scherm in vier stukken en verdeelde de loads zo. Is er dan een explosie in een hoek van het scherm, dan moet een Shader Engine aan de bak en die zorgt ervoor dat de andere drie moeten wachten om weer synchroon te lopen. Deze extra loads verdelen zou prestaties moeten verbeteren.
De tweede is Primitive Discard Accelerator van Polaris om zinloze primitives te dumpen. De derde zijn de Primitive Shaders die ook zinloze primitives moeten dumpen. Ik ben bang dat AMD hoopte dat de combinatie van primities dumpen, hogere polygon per clock en zwaardere compute loads door games, anno 2017 voldoende zou zijn om te presteren. Lijkt niet het geval te zijn, waardoor de frontend weer het probleem is.
Vervolgens wou AMD geheugen bandbreedte problemen voorkomen met tile based rasterisation. Dat is denk ik ook waarom er 4MB aan L2 cache is voor Vega, terwijl Fiji 2MB had. De rasterisation data blijft op die L2, wat acces naar het werkgeheugen scheelt, en dus bandbreedte en stroomverbruik. Minder primitives helpen hier natuurlijk ook in. Verder is het een versnelling van het rasterisation proces omdat in principe alles on die blijft, dus veel lagere latency. Deze innovatie lijkt nu voor Vega een beetje zinloos als het nog steeds de frontend is die de gehele GPU limiteert.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Maar ik zie niet hoe meer shader engines de imbalans zouden verminderen. Meer shader engines betekent dat iedere individuele shader engine minder krachtig is. Als dan 1 shader engine meer werk krijgt is hij minder sterk om dat op te vangen. Dus liever 4 shader engines met 510 32x32 tiles ieder, dan 8 met maar 255 tiles ieder, er van uitgaande dat de totale rasterization power van de kaart gelijk blijft, omdat meer tiles beter zal uitmiddelen.
Dan is de vraag natuurlijk, waar zit het wel in? Moeten er meer shader threads tegelijk gestart kunnen worden door de SPI + rasterizer? Moet de backend meer data/cycle kunnen wijzigen in de framebuffer? Moeten de shader engines meer dynamisch toegewezen worden aan de tiles gebaseerd op load?
http://www.hwbattle.com/b...ic&wr_id=7333&ckattempt=2
Auch tough, als dit waar is.


[ Voor 46% gewijzigd door Dennism op 14-08-2017 08:10 ]
Oei.. als ik het voor elkaar krijg een lc Vega te bemachtigen moet ik verdorie nog gaan oppassen met mijn Seasonic M12ii 520w.Dennism schreef op maandag 14 augustus 2017 @ 08:02:
Kwam net deze tegen op een ander techforum:
http://www.hwbattle.com/b...ic&wr_id=7333&ckattempt=2
Auch tough:
[afbeelding]

Tijd voor een upgrade op dat vlak.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Waar Polaris een stap vooruit was qua zuinigheid doet Vega 2 sprongen achteruitDennism schreef op maandag 14 augustus 2017 @ 08:02:
Kwam net deze tegen op een ander techforum:
http://www.hwbattle.com/b...ic&wr_id=7333&ckattempt=2
Auch tough, als dit waar is.
[afbeelding]
[afbeelding]

Ik kan alleen die hiërogliefen van de bron niet lezen, is dit het verbruik van de kaart of volledig systeem?
Zie het 2de screenshot, GPU only volgens de reviewerRichardus27 schreef op maandag 14 augustus 2017 @ 08:17:
[...]
Waar Polaris een stap vooruit was qua zuinigheid doet Vega 2 sprongen achteruit![]()
Ik kan alleen die hiërogliefen van de bron niet lezen, is dit het verbruik van de kaart of volledig systeem?
Snap eigenlijk niet waarom ze DX12 testen in BF1, schijnt wat ik begrijp van competitieve BF1 spelers niet eens bruikbaar te zijn in multiplayer gameplay vanwege hogere inputlag en stuttering. Als je dan zo nodig DX12 wil testen test dan imho een game waar DX12 ook daadwerkelijk door spelers gebruikt wordt.Paprika schreef op maandag 14 augustus 2017 @ 08:22:
Eigenlijk alleen snel in de crappy BF1 DX12 implementatie. Voldoet in ieder geval aan de verwachtingen.
Dat is wat ik bedoelDennism schreef op maandag 14 augustus 2017 @ 08:27:
[...]
Snap eigenlijk niet waarom ze DX12 testen in BF1, schijnt wat ik begrijp van competitieve BF1 spelers niet eens bruikbaar te zijn in multiplayer gameplay vanwege hogere inputlag en stuttering. Als je dan zo nodig DX12 wil testen test dan imho een game waar DX12 ook daadwerkelijk door spelers gebruikt wordt.
Scaling van de clocks vs verbruik is wel heel slecht, Wtf. Gezien dit een FE model van de GTX1080 is t.o.v de watergekoelde variant, Mmm...
@Astennu, ik weet dat je er toch wel een gaat halen, maar als je verbruik zo relevant vindt
[ Voor 19% gewijzigd door Paprika op 14-08-2017 08:34 ]
Maar wel misleiding van de klant als die kijkt naar een review met BF1 DX12 scores om een kaart te kopen en dan wanneer ie gaat spelen erachter komt dat ie DX11 moet gaan gebruiken met mogelijk hele andere scores.Paprika schreef op maandag 14 augustus 2017 @ 08:29:
[...]
Dat is wat ik bedoel. Technisch is het leuk voor benchmarks, maar je kunt er niet echt mee spelen.
Scaling van de clocks vs Temps is wel heel slecht, Wtf.
Zal uiteraard wel een bench zijn die AMD graag ziet, omdat er toch redelijk goed in uitkomen.
Waar zie jij temps in die review? Kijk ik er overheen?Paprika schreef op maandag 14 augustus 2017 @ 08:29:
[...]
Dat is wat ik bedoel. Technisch is het leuk voor benchmarks, maar je kunt er niet echt mee spelen.
Scaling van de clocks vs Temps is wel heel slecht, Wtf.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Moest clocks zijn.Blaat schreef op maandag 14 augustus 2017 @ 08:33:
[...]
Waar zie jij temps in die review? Kijk ik er overheen?
Misschien dat de kaarten net als de RX serie standaard al vrij hoog in de curve geklokt staan?
Ik heb toch het vermoeden dat de vergelijking, wanneer die gemaakt wordt, scheef gaat omdat ze puur de 8 pins meten
PC: R9 5950X | 32GB | VEGA 64 Liquid Edition
Er komen genoeg reviews met total system power, maar je moet je best doen om even 2-300W op je CPU erbij te doen...Gelunox schreef op maandag 14 augustus 2017 @ 08:36:
Ik zou ook wel willen weten hoe die wattages zich verhouden als ze bij NV kaarten ook het deel van de software scheduler die ze daar gebruiken konden mee nemen.
Dat wordt hamburgers bakken! 300~500W verbruikDennism schreef op maandag 14 augustus 2017 @ 08:02:
Kwam net deze tegen op een ander techforum:
http://www.hwbattle.com/b...ic&wr_id=7333&ckattempt=2
Auch tough, als dit waar is.
[afbeelding]
[afbeelding]
Alfa Romeo Giulietta 235pk + 1pk <3
Het is immers al bekend gemaakt wat het verbruik is. Balanced is standaard en dat zou dus 350W moeten zijn, hier wordt met 390W iets meer gemeten. Kan zijn dat de meter iets afwijkt, maar kan dus ook zijn dat die 350W eigenlijk 375W moet zijn zoals Vega Frontier.Dennism schreef op maandag 14 augustus 2017 @ 08:02:
Kwam net deze tegen op een ander techforum:
http://www.hwbattle.com/b...ic&wr_id=7333&ckattempt=2
Auch tough, als dit waar is.
[afbeelding]
[afbeelding]
300W is dan met de power limiet omlaag zodat de kaart niet meer dan 300W verbruikt. En de andere twee waardes zijn met een hogere power limiet, waarbij de laatste dus +50% is. Is hetzelfde gedrag als andere moderne videokaarten, die tegenwoordig allemaal power limiters gebruiken.
Dat is niet juist, GPU only kun je uitlezen met bijvoorbeeld GPU-z, maar dit is videokaart only.Dennism schreef op maandag 14 augustus 2017 @ 08:18:
[...]
Zie het 2de screenshot, GPU only volgens de reviewer
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik heb vertrouwen in mijn tweak skillsPaprika schreef op maandag 14 augustus 2017 @ 08:29:
[...]
@Astennu, ik weet dat je er toch wel een gaat halen, maar als je verbruik zo relevant vindt...
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Is dit niet een eerste review ? Of kijk er niet juist tegenaan ? If so, damnnn kan beter een 1080 kopen volgens mij...Dennism schreef op maandag 14 augustus 2017 @ 08:02:
Kwam net deze tegen op een ander techforum:
http://www.hwbattle.com/b...ic&wr_id=7333&ckattempt=2
Auch tough, als dit waar is.
[afbeelding]
[afbeelding]
Ik zie de guide wel verschijnen danAstennu schreef op maandag 14 augustus 2017 @ 09:09:
[...]
Ik heb vertrouwen in mijn tweak skillszoals bij de 290x en de 480 is er heel veel winst te halen als je voltages en clocks tweaked. Amd houd nogal van hoge voltages die niet echt op de sweet-spot zitten.
Ryzen 7800X3D| ASUS TUF GAMING X670E-PLUS | MSI RTX4080 Gaming Trio X 16GB | LG GP95R | 32GB DDR5 6000 F5-6000J3238F16GX2-TZ5NR | Samsung 970 Evo Plus | NZXT H710i | NZXT Kraken x73 | Corsair RM850x
Toch kun je dat met een GTX 1080 net zo goed, alleen begin je al met een relatief laag verbruik.Astennu schreef op maandag 14 augustus 2017 @ 09:09:
[...]
Ik heb vertrouwen in mijn tweak skillszoals bij de 290x en de 480 is er heel veel winst te halen als je voltages en clocks tweaked. Amd houd nogal van hoge voltages die niet echt op de sweet-spot zitten.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Snap eigenlijk niet dat ze het dan niet direct relatief goed doen, als ik eerlijk moet zijn vind ik deze waardes nu niet echt goede reclame. Dat je achteraf als Tweaker nog wat kan winnen ok, vind ik logisch, net als met overclocken. Maar voor de niet tweakende consument zou dit eigenlijk al zo strak mogelijk ingeregeld moeten zijn.Astennu schreef op maandag 14 augustus 2017 @ 09:09:
[...]
Ik heb vertrouwen in mijn tweak skillszoals bij de 290x en de 480 is er heel veel winst te halen als je voltages en clocks tweaked. Amd houd nogal van hoge voltages die niet echt op de sweet-spot zitten.
Nvidia geeft je weinig controle over de powerstates van Pascal. Bij Kepler en Maxwell had je een mooie bios editor waar je alles kon bijsturen.Paprika schreef op maandag 14 augustus 2017 @ 09:11:
[...]
Toch kun je dat met een GTX 1080 net zo goed, alleen begin je al met een relatief laag verbruik.
Bij AMD heb je nu gelukkig wattman. Bios zelf aanpassen heeft nog wel voordelen maar je komt heel ver met wattman.
En stukje uitdaging + nieuwe hardware testen vind ik wel leuk.
Het ligt er wel een beetje aan hoe hij het doet als het tov de Fury X te slecht is haal ik er geen en blijf ik bij mijn R9 295x2.
Daar verbaas ik mij ook over. Ik heb het idee dat AMD bepaalde target's in z'n hoofd had en om die te halen moesten ze wel. Bij Vega zie je hetzelfde ze willen die 1080 verslaan en dat kost nog al wat qua verbruik. Voorbij een bepaald punt gaat je verbruik 30% onhoog perstaties 5-10% En ze lijken op dat punt beland te zijn.Dennism schreef op maandag 14 augustus 2017 @ 09:14:
[...]
Snap eigenlijk niet dat ze het dan niet direct relatief goed doen, als ik eerlijk moet zijn vind ik deze waardes nu niet echt goede reclame. Dat je achteraf als Tweaker nog wat kan winnen ok, vind ik logisch, net als met overclocken. Maar voor de niet tweakende consument zou dit eigenlijk al zo strak mogelijk ingeregeld moeten zijn.
Fiji had dat in mindere maten ook. Ze wilde volgens mij die 1000Mhz halen. Als ze voor 900-950 zouden gaan zou dat veel schelen voor het verbruik. Voor de 290X geld hetzelfde.
De 7970 viel wel mee en je zag dat die GHz edition ook een aanzienlijk hoger verbruik had.
Ik heb mooie dingen mt de 7970,290X,295X2,RX480 en Fury Nano kunnen doen. Zonder te veel qua prestatie in te leveren had ik toch 90% van de prestaties maar wel een +- 30% lager verbruik en een veel stillere refferenced cooler.
In het geval van de 7970 Zelfs sneller en zuiniger.
[ Voor 49% gewijzigd door Astennu op 14-08-2017 09:22 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://i.imgur.com/CCWNh06.pngAstennu schreef op maandag 14 augustus 2017 @ 09:16:
[...]
Nvidia geeft je weinig controle over de powerstates van Pascal. Bij Kepler en Maxwell had je een mooie bios editor waar je alles kon bijsturen.
http://i.imgur.com/X7ozGAs.png
http://i.imgur.com/SJDp5Z1.png
http://i.imgur.com/vtLRdCw.png max voltage 1.05V.
Kun je prima beïnvloeden...
Dan zou je voor elke GPU een eigen BIOS moeten maken met daarin een stuk of 10 verschillende power states volledig getweaked voor die GPU. Dat is schijnbaar niet echt realitisch, aangezien het niet gedaan wordt, lijkt mij trouwens ook niet realistisch.Dennism schreef op maandag 14 augustus 2017 @ 09:14:
[...]
Snap eigenlijk niet dat ze het dan niet direct relatief goed doen, als ik eerlijk moet zijn vind ik deze waardes nu niet echt goede reclame. Dat je achteraf als Tweaker nog wat kan winnen ok, vind ik logisch, net als met overclocken. Maar voor de niet tweakende consument zou dit eigenlijk al zo strak mogelijk ingeregeld moeten zijn.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat zou inderdaad niet realistisch zijn, maar wat ik hier begrijp van sommige tweakers is dat AMD standaard voor een te hoog / te ruim bemeten voltage bijv. lijkt te kiezen en dat schijnbaar iedere kaart (flink) geundervolt kan worden zonder eigenlijk echt iets te verliezen aan performance. Ik vraag me dan af waarom ze daar voor kiezen.-The_Mask- schreef op maandag 14 augustus 2017 @ 09:25:
[...]
Dan zou je voor elke GPU een eigen BIOS moeten maken met daarin een stuk of 10 verschillende power states volledig getweaked voor die GPU. Dat is schijnbaar niet echt realitisch, aangezien het niet gedaan wordt, lijkt mij trouwens ook niet realistisch.
Dat doen Intel en Nvidia net zo goed. Je wil niet iedere CPU of GPU hoeven testen om dan een bakje te gaan bijhouden met CPU/GPUs die nog een voltage verhoging moeten krijgen.Dennism schreef op maandag 14 augustus 2017 @ 09:28:
[...]
Dat zou inderdaad niet realistisch zijn, maar wat ik hier begrijp van sommige tweakers is dat AMD standaard voor een te hoog / te ruim bemeten voltage bijv. lijkt te kiezen en dat schijnbaar iedere kaart (flink) geundervolt kan worden zonder eigenlijk echt iets te verliezen aan performance. Ik vraag me dan af waarom ze daar voor kiezen.
Omdat niet elke GPU hetzelfde is en je dus niet voor elke GPU/videokaart een eigen BIOS met een stuk of 10 power states kunt maken.Dennism schreef op maandag 14 augustus 2017 @ 09:28:
[...]
Dat zou inderdaad niet realistisch zijn, maar wat ik hier begrijp van sommige tweakers is dat AMD standaard voor een te hoog / te ruim bemeten voltage bijv. lijkt te kiezen en dat schijnbaar iedere kaart (flink) geundervolt kan worden zonder eigenlijk echt iets te verliezen aan performance. Ik vraag me dan af waarom ze daar voor kiezen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Het is één van de redenen dat ik voor een 1080Ti ben gegaan. Vorig jaar een nieuwe PC samengesteld met een 450W voeding en had niet zoveel zin om nu al een nieuwe voeding aan te schaffen.
(tuurlijk had ik toen al een zwaardere kunnen kiezen).
Maar draai nu zonder problemen een 1080Ti met een 450W voeding en zelfs een +40 op de core.
Het verbruik van de Vega is zowat het verbruik van een complete PC incl. 1080(Ti).
Toch ben ik heel benieuwd naar de reviews/benchmarks, hoop dat het goed is en dat ze competitief zijn, is alleen maar goed voor iedereen.
Met welke tool is dat dan? En kan je dan per Step clocks en voltage bepalen? want bij Maxwell had je die bios editor die iets van 75 stappen had die je los van elkaar in kon stellen.Paprika schreef op maandag 14 augustus 2017 @ 09:23:
[...]
http://i.imgur.com/CCWNh06.png
http://i.imgur.com/X7ozGAs.png
http://i.imgur.com/SJDp5Z1.png
http://i.imgur.com/vtLRdCw.png max voltage 1.05V.
Kun je prima beïnvloeden...
Heb ik erg veel lol mee beleefd
Mag hopen dat dat dan een hele goede 450 watt psu is. De kaart mag 300 watt trekken als niet 320 of zo.Tadream schreef op maandag 14 augustus 2017 @ 09:31:
Aardig verbruik inderdaad, maar dat wisten we al.
Het is één van de redenen dat ik voor een 1080Ti ben gegaan. Vorig jaar een nieuwe PC samengesteld met een 450W voeding en had niet zoveel zin om nu al een nieuwe voeding aan te schaffen.
(tuurlijk had ik toen al een zwaardere kunnen kiezen).
Maar draai nu zonder problemen een 1080Ti met een 450W voeding en zelfs een +40 op de core.
Het verbruik van de Vega is zowat het verbruik van een complete PC incl. 1080(Ti).
Toch ben ik heel benieuwd naar de reviews/benchmarks, hoop dat het goed is en dat ze competitief kunnen, is alleen maar goed voor iedereen.
Dan heb je je cpu en overige hardware nog. Dan zit je wel dicht op de limiet. Een 4670/4770 + mobo en memory zit ook zo rond de 120 watt full load.
Hele goede PSU's kunnen wel 10% hoger vermogen af geven dan op de doos staat maar dat is niet efficient en ook niet iets wat je continu wilt doen. Ik zou er zelf toch 10% onder de max willen blijven. ook om de efficientie goed te houden.
[ Voor 50% gewijzigd door Astennu op 14-08-2017 09:35 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Asus, EVGA, MSI en Palit tools kunnen het sowieso (je hoeft niet de software van je videokaart merk te gebruiken). Waarschijnlijk zijn er meerdere, maar deze heb ik zelf onderling geprobeerd om te kijken wat mij het meest zou bevallen (veel tools gebruiken onderwater dezelfde driver hiervoor en zijn dus 1 pot nat). Je kunt bij die van MSI in ieder geval zelf oneindig eigen "touchpoints" ertussen aanmaken. In theorie oneindig, in de praktijk zul je dan overlap hebben en ze niet meer kunnen selecteren...Astennu schreef op maandag 14 augustus 2017 @ 09:32:
[...]
Met welke tool is dat dan? En kan je dan per Step clocks en voltage bepalen? want bij Maxwell had je die bios editor die iets van 75 stappen had die je los van elkaar in kon stellen.
Heb ik erg veel lol mee beleefdwinst was wel wat beperkter dan bij AMD kaarten maar je kon toch best leuke dingen doen.
Volgens mij doet Intel trouwens wel bepaalde tests per CPU (iig bij nieuwere generaties), als je auto voltage aanzet en verschillende cpu's pakt zie je daar bijv. wel degelijk verschillen in het standaard voltage dat ze pakken.Paprika schreef op maandag 14 augustus 2017 @ 09:30:
[...]
Dat doen Intel en Nvidia net zo goed. Je wil niet iedere CPU of GPU hoeven testen om dan een bakje te gaan bijhouden met CPU/GPUs die nog een voltage verhoging moeten krijgen.
Ja, maar zelfs die kun je zelf altijd lagere voltages geven. Ze hebben een soort categorisering, maar ook die hebben allemaal een aardig stuk overhead. Tijdens mijn opleiding was ik blij dat de Core 2 Duo in mijn laptop op 0.9V kon draaien, want opeens werd ie niet meer zo warm en kon ik wel meerdere uren aan de slag zonder opladenDennism schreef op maandag 14 augustus 2017 @ 09:37:
[...]
Volgens mij doet Intel trouwens wel bepaalde tests per CPU (iig bij nieuwere generaties), als je auto voltage aanzet en verschillende cpu's pakt zie je daar bijv. wel degelijk verschillen in het standaard voltage dat ze pakken.
[ Voor 16% gewijzigd door Paprika op 14-08-2017 09:40 ]
Het verbruik is ~210W, ~295W en ~350W voor Vega56, Vega64 en Vega64LC. Deze cijfers zijn al bekend gemaakt door AMD, dus deze cijfers lijken redelijk te kloppen. Het hogere verbruik krijg je als je stroom beperking veel ruimer instelt. Dat zelfde gedrag zie je bij elke andere videokaart. Alleen bij nVidia kun je volgens mij nooit +50% doen (zonder aanpassingen aan BIOS), schijnbaar is het VRM daar niet op berekend of de koeler niet. Hier kan het wel, dat is alleen maar een voordeel voor de overklokkers en ook een gemakkelijke manier om snel extra prestaties te krijgen zonder moeilijk te hoeven doen.AlxRoelofs schreef op maandag 14 augustus 2017 @ 09:16:
Ik wacht nog even een andere bron af, maar als deze cijfers kloppen ga ik gewoon voor een 1080.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Klopt, de powertarget is max +20% (oftewel op 120%) en minimum is -55% (oftewel op 45%). Je kunt bij de Pascal kaarten aardig goed de max instellen, alleen heb je geen invloed of je de max die je instelt wel echt gaat halen, omdat ie gaat terugklokken als "GPU Boost" vindt dat je GPU 'te warm' is op 65-70C...-The_Mask- schreef op maandag 14 augustus 2017 @ 09:39:
[...]
Alleen bij nVidia kun je volgens mij nooit +50% doen (zonder aanpassingen aan BIOS), schijnbaar is het VRM daar niet op berekend of de koeler niet.
10% hoger is toch ook niet nodig, 320 + 120 = 440 en dat is full load. Meet voor de grap eens wat de PC echt uit het stopcontact trekt.Astennu schreef op maandag 14 augustus 2017 @ 09:32:
Mag hopen dat dat dan een hele goede 450 watt psu is. De kaart mag 300 watt trekken als niet 320 of zo.
Dan heb je je cpu en overige hardware nog. Dan zit je wel dicht op de limiet. Een 4670/4770 + mobo en memory zit ook zo rond de 120 watt full load.
Hele goede PSU's kunnen wel 10% hoger vermogen af geven dan op de doos staat maar dat is niet efficient en ook niet iets wat je continu wilt doen. Ik zou er zelf toch 10% onder de max willen blijven. ook om de efficientie goed te houden.
Wordt dat testen voor binning niet sowieso gedaan?Paprika schreef op maandag 14 augustus 2017 @ 09:30:
[...]
Dat doen Intel en Nvidia net zo goed. Je wil niet iedere CPU of GPU hoeven testen om dan een bakje te gaan bijhouden met CPU/GPUs die nog een voltage verhoging moeten krijgen.
[ Voor 19% gewijzigd door Olaf van der Spek op 14-08-2017 09:49 ]
Niet op zulke extreem hoge klokfrequentie, op een vergelijkbare frequentie denk ik wel. Hoge verbruik komt door de hoge kloksnelheid. De 4096 stream processors wisten we een jaar geleden al, maar de hoge frequentie is toch wel onverwacht en daarmee het hoge verbruik dus ook.Olaf van der Spek schreef op maandag 14 augustus 2017 @ 09:44:
Met Ryzen lijkt AMD power efficiency aardig onder controle te hebben maar met Vega niet. Is perf/W uberhaupt beter dan RX 570/580?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat is wel aan te raden ja. Je kan prima 450 uit het stopcontact trekken. Als je een PSU van 85-90 efficientie hebt heb je nog wat ruimte over maar je wilt geen 500 zien.Olaf van der Spek schreef op maandag 14 augustus 2017 @ 09:47:
[...]
10% hoger is toch ook niet nodig, 320 + 120 = 440 en dat is full load. Meet voor de grap eens wat de PC echt uit het stopcontact trekt.
440 echte watt aan de PSU kant vind ik wel veel voor een 450 watt psu maar een A merk PSU moet dat zonder problemen kunnen.
Ga Ryzen maar eens overclocken of een Intel CPU dan zie je pressies hetzelfde gebeuren. Clocks gaan 100 Mhz omhoog verbruik ook. Die laatste 100 MHz is erg kostbaar qua stroom verbruik.Olaf van der Spek schreef op maandag 14 augustus 2017 @ 09:44:
Met Ryzen lijkt AMD power efficiency aardig onder controle te hebben maar met Vega niet. Is perf/W uberhaupt beter dan RX 570/580?
Met mijn 4790K kon ik met gemak 4.5 GHz op 1.15v doen wilde ik 4.6 halen moest ik naar de 1.25-1.27v verbruik ging met iets van 40-50 watt omhoog.
Als je voorbij de sweetspot gaat gaat het echt hard met het verbruik. Het kan best zijn dat als je Vega op 1300 MHz clockt en je de voltages optimaliseerd je onder de 200 watt zit of zelfs meer rond het niveau van de RX480. Maar dan wel een stuk sneller bent dan de 480. Echter versla je daar geen 1080 mee.
Ik ben wel benieuwd wat AMD met die Vega 64LC probeert te halen want de 1080 Ti lijkt mij out of reach.
[ Voor 49% gewijzigd door Astennu op 14-08-2017 09:54 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik denk dat je ze voor Ryzen niet genoeg credits geeft als je zegt "aardig onder controle". Volgens mij verbruikt de Ryzen 7 1800X zelfs op 4GHz een stuk minder dan een i7 7700K, oftewel hun performance/watt is misschien wel zelfs hoger dan die van Pascal kaarten (relatief in CPU/GPU land).Olaf van der Spek schreef op maandag 14 augustus 2017 @ 09:44:
Met Ryzen lijkt AMD power efficiency aardig onder controle te hebben maar met Vega niet. Is perf/W uberhaupt beter dan RX 570/580?
Een echte high-end voeding heeft geen probleem met 24/7 full load voor meerdere jaren achter elkaar. Een high-end voeding bestaat uit onderdelen die bij volledige belasting van de voeding vaak nog maar voor 10% worden belast.Astennu schreef op maandag 14 augustus 2017 @ 09:49:
[...]
Dat is wel aan te raden ja. Je kan prima 450 uit het stopcontact trekken. Als je een PSU van 85-90 efficientie hebt heb je nog wat ruimte over maar je wilt geen 500 zien.
440 echte watt aan de PSU kant vind ik wel veel voor een 450 watt psu maar een A merk PSU moet dat zonder problemen kunnen.
Een 450W voeding welke dus 37A op de 12V kan leveren heeft componenten die soms totaal theoretisch wel 400A of te wel 4800W kunnen leveren. Daarom is het geen probleem om een goede voeding op vol vermogen te laten draaien. Ook qua rendement maakt dat geen verschil. Die is tegenwoordig vanaf zo'n 10/20% belasting toch vrij recht tot gewoon 100%.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik geef dat ook al aan dat een goede high end PSU wel 10% meer kan leveren. Maar toch is dat niet aan te raden. Je weet nooit waar de zwakste schakel zit die bij bv 500 watt wel vroeg of laat in rook op gaat.-The_Mask- schreef op maandag 14 augustus 2017 @ 09:55:
[...]
Een echte high-end voeding heeft geen probleem met 24/7 full load voor meerdere jaren achter elkaar. Een high-end voeding bestaat uit onderdelen die bij volledige belasting van de voeding vaak nog maar voor 10% worden belast.
Een 450W voeding welke dus 37A op de 12V kan leveren heeft componenten die soms totaal theoretisch wel 400A of te wel 4800W kunnen leveren. Daarom is het geen probleem om een goede voeding op vol vermogen te laten draaien. Ook qua rendement maakt dat geen verschil. Die is tegenwoordig vanaf zo'n 10/20% belasting toch vrij recht tot gewoon 100%.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
nV heeft nog hogere clocks toch?-The_Mask- schreef op maandag 14 augustus 2017 @ 09:48:
[...]
Niet op zulke extreem hoge klokfrequentie, op een vergelijkbare frequentie denk ik wel. Hoge verbruik komt door de hoge kloksnelheid. De 4096 stream processors wisten we een jaar geleden al, maar de hoge frequentie is toch wel onverwacht en daarmee het hoge verbruik dus ook.
Perf/W en 'IPC' blijven op de een of andere manier toch problematisch.
Beginwaarde, PC uit: 180W (staan nog wat andere devices, PCs aan)
PC aan: 275W
Heaven benchmark (15 min draaien): 560W
(zit hiermee in het begin even over de 2000MHz, om daarna rond de 1974MHz te blijven hangen).
PC in idle neemt ongeveer 95W in beslag, daar komt rond de 300W als de GPU belast wordt (met +40 overklok - kan eens kijken hoeveel het is zonder), dus kom rond de 400W.
Ik geef toe, het is krap en als ik nu een voeding zou moeten uitkiezen zou ik een ruimere nemen, maar het gaat eigenlijk zonder problemen, games draaien prima.
Het is een Antec VPF 450W PSU.
Ja alleen zijn die hoge kloks wel op een TSMC productieproces en niet één van GloFo. Daarnaast lijkt dat ontwerp ook meer geschikt.Olaf van der Spek schreef op maandag 14 augustus 2017 @ 10:11:
[...]
nV heeft nog hogere clocks toch?
Perf/W en 'IPC' blijven op de een of andere manier toch problematisch.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Heeft AMD dan de C0 in de liquid cooled versie gestopt omdat die toch wel koel gehouden kan worden?
If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair
De prestaties tov de 1080 vallen mij mee de 64 Air is regelmatig sneller. Maar tov Fury X valt het mij tegen. Dan heb je het over 25-35% sneller. Nu zie je wel dat de clocks regelmatig richting de 1400 zakken en max 1600. Dus in het geval van de min fps waar ik wel vooral op gelet heb klopt die 25-35@ dan wel aardig. 1050 Mhz x 1.35 = 1417MHz nu weten we ook dat clockspeeds nooit perfect schalen met prestaties.polli_ schreef op maandag 14 augustus 2017 @ 10:19:
Eerste review uitgelekt:
[afbeelding]
https://videocardz.com/71...64-air-and-liquid-is-here
Maar het lijkt er toch op dat de IPC van Vega op dit moment niet veel beter is dan die van Fiji. Ik ben benieuwd of alle Vega features nu wel aan staan want dat was bij de FE niet het geval.
Ben benieuwd naar de resultaten van Anandtech, Computerbase en techpowerup.
Maar ik denk dat je met optimalisatie van de voltages en clockspeeds veel winst kan gaan halen en vooral zorgen dat de clockspeeds lekker constant blijven en het verbruik daarbij lager wordt.
Ergens rond de 1500 is wel een mooi tweak doel denk ik.
Hard to tell dan zouden ze de cooler er af moeten halen. Zou kunnen. Kan ook dat die op de FE kaarten zitten.Derby schreef op maandag 14 augustus 2017 @ 10:29:
Er is dus een C0 en C1 stepping. Meestal is een hoger nummer een latere stepping met mogelijk betere prestaties (energie verbruik, overclock potentieel).
Heeft AMD dan de C0 in de liquid cooled versie gestopt omdat die toch wel koel gehouden kan worden?
[ Voor 29% gewijzigd door Astennu op 14-08-2017 10:38 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Welke review heb jij gezien?Astennu schreef op maandag 14 augustus 2017 @ 10:32:
[...]
De prestaties tov de 1080 vallen mij mee de 64 Air is regelmatig sneller
BF1: RX Vega (op settings die niemand gebruikt), Titan Fall 2: GTX 1080, Rise of the Tomb Raider: GTX1080, Metro Last Night Redux: GTX 1080, TomClancy's GRW: GTX 1080, Civ VI: GTX 1080
Het is op basis van die eerste leak dus het is maar de vraag in hoeverre die kloppen. Ik zeg daar onder ook dat ik heel benieuwd ben naar de reviews van een aantal betrouwbare sites. Maar het zou mij niet verbazen als het hier op lijkt. We gaan het over 4 uurtjes zienPaprika schreef op maandag 14 augustus 2017 @ 10:43:
[...]
Welke review heb jij gezien?
BF1: RX Vega (op settings die niemand gebruikt), Titan Fall 2: GTX 1080, Rise of the Tomb Raider: GTX1080, Metro Last Night Redux: GTX 1080, TomClancy's GRW: GTX 1080, Civ VI: GTX 1080
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Er zou een load balancing mechaniek in Vega zijn gestopt tussen de vier Shader Engines, dus dat zou het probleem niet meer moeten zijn, in theorie. Wat het probleem is, ik zou het echt niet weten.BNieuwenhuizen schreef op maandag 14 augustus 2017 @ 02:43:
Interessant, nooit door gehad dat de screenspace werdt verdeeld onder de shader engines. Als je in de vega instructieset kijkt, zie je dat dat inderdaad gebeurt op basis van 32x32 tiles (V_SCREEN_PARTITION_4SE_B32).
Maar ik zie niet hoe meer shader engines de imbalans zouden verminderen. Meer shader engines betekent dat iedere individuele shader engine minder krachtig is. Als dan 1 shader engine meer werk krijgt is hij minder sterk om dat op te vangen. Dus liever 4 shader engines met 510 32x32 tiles ieder, dan 8 met maar 255 tiles ieder, er van uitgaande dat de totale rasterization power van de kaart gelijk blijft, omdat meer tiles beter zal uitmiddelen.
Dan is de vraag natuurlijk, waar zit het wel in? Moeten er meer shader threads tegelijk gestart kunnen worden door de SPI + rasterizer? Moet de backend meer data/cycle kunnen wijzigen in de framebuffer? Moeten de shader engines meer dynamisch toegewezen worden aan de tiles gebaseerd op load?

Als je nu naar wat gelekte benchmarks kijkt dan ziet het er slecht uit, zeker voor de RX Cega 64, misschien wel slechter dan Fiji. Dit valt ook behoorlijk op als je Polaris 10/20 pakt met 2304SP, in blokken van 9CU's en 32 ROPS. Polaris lijkt weinig problemen te kennen, en presteert vergelijkbaar of beter dan de GTX1060 voor DX11 titels. Ga je naar DX12 dan loopt die nog wel eens aardig weg.
Vega zou hogere IPC hebben, hogere clocks, hogere polygon per clock etc en lijkt grote moeite te hebben de GTX1080 bij te houden. Het is een beetje appels en peren zo, maar het is niet heel vreemd om aan te nemen dat er ergens een bottleneck zit, lijkt me.

RX Vega 56 lijkt nog acceptabel te worden als gaming chip, RX Vega 64 not so much. Ik zou ze clock voor clock wel naast elkaar willen zien, kijken hoe groot het verschil is. Ik vermoed dat het zeer gering zal zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Maar dat is op dit punt nog speculatie.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Die beschrijving van die instructie hint echter dat de assignment tile -> shader engine nog steeds statisch is:DaniëlWW2 schreef op maandag 14 augustus 2017 @ 11:15:
[...]
Er zou een load balancing mechaniek in Vega zijn gestopt tussen de vier Shader Engines, dus dat zou het probleem niet meer moeten zijn, in theorie. Wat het probleem is, ik zou het echt niet weten.
This opcode returns a 4-bit bitmask indicating which SE backends
are covered by a rectangle from (x_min, y_min) to (x_max, y_max).
With 32-pixel tiles the SE for (x, y) is given by { x[5] ^
y[6], y[5] ^ x[6] } . Using this formula we can determine which
SEs are covered by a larger rectangle.
(hmm, ik realiseer me nu dat de tile sizes natuurlijk anders kunnen zijn, alhoewel ik niet direct zie hoe deze instructie kan werken met andere bits voor SE selectie)
Wel is er sinds tonga load balancing tussen de shader engines voor tessellation, maar dat is voor de tessellation shaders, niet voor rasterization en pixel shaders.
Misschien interessant om de SE_ID uit het HW_ID register te dumpen in shaders om te kijken of er toch een verdeling tussen tiles optreedt? (of door naar enkele tiles te renderen en dan naar de performance counters per SE te kijken)
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Blijft imho toch wel echt een misser van het RTG Marketing team een sneer opnemen in een marketing filmpje en dat dan niet waarmaken.
[ Voor 34% gewijzigd door Dennism op 14-08-2017 11:46 ]
Het lijkt mij ook dat het daarom ook zo tegen valt.. door dat er in op te nemen ging iedereen er van uit dat ze deze generatie voorbij zouden gaan. Nu blijkt dat ze daar nog een aanzienlijke stap voor nodig zouden hebben.Dennism schreef op maandag 14 augustus 2017 @ 11:44:
In ieder geval lijkt het wat betreft deze gpu's erop dat ze de "Poor Volta" campagne de volgende generatie kunnen hergebruiken
Blijft imho toch wel echt een misser van het RTG Marketing team een sneer opnemen in een marketing filmpje en dat dan niet waarmaken.
Nou ja, als Navi inderdaad zo opgezet wordt zoals het nu lijkt kunnen ze daar makkelijker een top-kaart mee maken.
Scheelt je in de winter misschien op je gas rekening.
Anoniem: 444127
TheSource leek dat te suggereren.Foritain schreef op maandag 14 augustus 2017 @ 00:43:
[...]
Volgens mij geeft niemand aan dat Vega niet beter schaalt met hogere clocks, althans ik hoop het niet
"Kloks zijn wat omhoog gegaan, drivers verbetered, echter blijft het op het zelfde level hangen"
Ik interpreteer "hetzelfde niveau" als dezelfde FPS (hoe armzalig dat ook is als graadmeter), wat toch vreemd is als de klokfrequentie omhoog is gegaan.
Een van de techtubers gaf aan tijdens de unboxing dat AMD graag had dat de focus zou worden gelegd op de Vega 56. Ach ja, het maakt weinig uit.Ik zie vanuit AMD nul sturing mbt 64 vs 56 of enige vorm van 'verzoek'.
Wat staat er precies in de brief?
Poor Voltage?Dennism schreef op maandag 14 augustus 2017 @ 11:44:
In ieder geval lijkt het wat betreft deze gpu's erop dat ze de "Poor Volta" campagne de volgende generatie kunnen hergebruiken
Het lijkt inderdaad op een stomme spelfout.
Ondertussen lijkt dit toch richting "sh*tty Fermi" te gaan. Ik denk dat GCN aardig dood is in haar huidige vorm, en in de high end gaming markt opereren, naast de professionele markt, met dezelfde GPU gewoon niet gaat lukken. Navi maar, in 2019.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik denk dat hij erop doelt dat de gaming-Vega de FE niet mega lijkt te gaan verslaan.Anoniem: 444127 schreef op maandag 14 augustus 2017 @ 11:59:
[...]
TheSource leek dat te suggereren.
"Kloks zijn wat omhoog gegaan, drivers verbetered, echter blijft het op het zelfde level hangen"
Ik interpreteer "hetzelfde niveau" als dezelfde FPS (hoe armzalig dat ook is als graadmeter), wat toch vreemd is als de klokfrequentie omhoog is gegaan.
Ik ben te lowly om een brief van AMD te mogen ontvangen denk ik.[...]
Een van de techtubers gaf aan tijdens de unboxing dat AMD graag had dat de focus zou worden gelegd op de Vega 56. Ach ja, het maakt weinig uit.
Wat staat er precies in de brief?
Anoniem: 444127
unfor schreef op maandag 14 augustus 2017 @ 11:57:
Dus, vega64: rond 1080 performance maar waardeloze performance per watt.
Scheelt je in de winter misschien op je gas rekening.
Voor AMD is dit vervelend maar waarom zijn jullie zo negatief en zelfs dramatisch (eerlijk is eerlijkDaniëlWW2 schreef op maandag 14 augustus 2017 @ 12:04:
[...]
Het lijkt inderdaad op een stomme spelfout.
Ondertussen lijkt dit toch richting "sh*tty Fermi" te gaan. Ik denk dat GCN aardig dood is in haar huidige vorm, en in de high end gaming markt opereren, naast de professionele markt, met dezelfde GPU gewoon niet gaat lukken. Navi maar, in 2019.
Hierover gesproken @Foritain, heb jij de kaart ondervolt? Het is leuk om te weten hoe hoog het vermogen dan is. Indien jij het niet hebt gedaan, AdoredTV gaat het in ieder geval wel doen dus we komen er nog wel achter hoeveel het scheelt.
CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 143
Oslik blyat! Oslik!
Dit topic is gesloten.
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.