Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
D0gtag schreef op woensdag 26 juli 2017 @ 22:59:
[...]

Nou we weten wel iets van deze 'shows' als een fabrikant een systeem smoothness showt ipv gpu kracht... dat de gpu kennelijk alleen het beste kan laten zien als alles in zijn voordeel is (f.sync monitor- vulkan titel/doom)
Ze laten niet een vega zien op een monitor zonder f/g.sync potje farcry/witcher/gtaV/BF1. VS een 1080(ti)
Why would that be... :9

Deze negatieve speculatie is door het gebrek aan info, uitstel en de veelte hoog geschepte verwachtingen door AMD.

Als nV morgen besluit om freesync te ondersteunen --> shit hits the fan.


[...]


Morgen is het donderdag 8)
Het ziet er nu naar uit dat vega een matig presterende dure kaart wordt die ook nog eens heel slecht verkrijgbaar zal zijn. Dat nvidia dan opeens freesync zou gaan ondersteunen lijkt me dus ondenkbaar.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
D0gtag schreef op woensdag 26 juli 2017 @ 22:59:
[...]

Nou we weten wel iets van deze 'shows' als een fabrikant een systeem smoothness showt ipv gpu kracht... dat de gpu kennelijk alleen het beste kan laten zien als alles in zijn voordeel is (f.sync monitor- vulkan titel/doom)
Ze laten niet een vega zien op een monitor zonder f/g.sync potje farcry/witcher/gtaV/BF1. VS een 1080(ti)
Why would that be... :9

Deze negatieve speculatie is door het gebrek aan info, uitstel en de veelte hoog geschepte verwachtingen door AMD.

Als nV morgen besluit om freesync te ondersteunen --> shit hits the fan.


[...]


Morgen is het donderdag 8)
Bijna vrijdag (F1 weekend *O* )

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Zou het niet verstandig zijn als amd gewoon uit de high end gpu markt stapt? Het grote geld zit toch in de mid range, zeker nu met de mining gekte.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
unfor schreef op donderdag 27 juli 2017 @ 08:26:
Zou het niet verstandig zijn als amd gewoon uit de high end gpu markt stapt? Het grote geld zit toch in de mid range, zeker nu met de mining gekte.
geld, misschien, marge niet. AI/ML producten ontwikkelen gaat redelijk samen met GPUs ontwikkelen, en die markt hebben ze zeker interesse in, dus ik zie ze daar niet uitstappen.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • +1 Henk 'm!

  • Slaut
  • Registratie: December 2014
  • Laatst online: 11-09 16:34
unfor schreef op donderdag 27 juli 2017 @ 08:26:
Zou het niet verstandig zijn als amd gewoon uit de high end gpu markt stapt? Het grote geld zit toch in de mid range, zeker nu met de mining gekte.
ArcticWolf schreef op donderdag 27 juli 2017 @ 07:53:
[...]

Bijna vrijdag (F1 weekend *O* )
Zou het niet verstandig zijn als Renault uit de F1 stapt, want...
Nee, je zal mee moeten blijven komen, en nieuwe kennis op blijven doen, of je loopt snel achter.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
unfor schreef op donderdag 27 juli 2017 @ 08:26:
Zou het niet verstandig zijn als amd gewoon uit de high end gpu markt stapt? Het grote geld zit toch in de mid range, zeker nu met de mining gekte.
Je bedoeld zoals VIA dat op de CPU markt heeft gedaan? Dat pakte niet echt lekker uit.
Ook voordat AMD Zen had, haaden ze een prima mid range aanbod, maar dat verkocht slechter omdat ze niet mee deden in de high end.

In deze markt ben je gedwongen om mee te doen.

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Toettoetdaan schreef op donderdag 27 juli 2017 @ 09:23:
[...]

Je bedoeld zoals VIA dat op de CPU markt heeft gedaan? Dat pakte niet echt lekker uit.
Ook voordat AMD Zen had, haaden ze een prima mid range aanbod, maar dat verkocht slechter omdat ze niet mee deden in de high end.

In deze markt ben je gedwongen om mee te doen.
Ja, alleen low end blijven bedienen kan niet, AMD heeft nu alleen low end omdat ze achter de feiten aan liepen/lopen en veel te weinig r&d hebben gedaan (uit noodzaak).
AMD loopt verschrikkelijk geheimzinnig te doen, zo mochten ze bij h.ocp niet zelf de radeon drivers installeren, en weten we dagen voor de launch nog niks officieels van AMD.
(behalve 'gelekte' 3dmark scores van AMD engineer)
Misschien omdat er een knallers van kaarten aankomen.. who knows..
Qua Tflops & verbruik zitten de kaarten boven die van de 1070 en verbruik 1080, alleen zitten ze op prestatie niveau van nV,s low end (1060). De rekenkracht is er maar ingame prestaties niet, tenzij de game geoptimaliseerd is voor AMD(doom&vulcan). En kijkend naar de games die uitkomen (9/10 veredelde console ports) is het geen argument dat alles voor nV is geoptimaliseerd.
(Zowel xbox als ps gebruiken AMD hardware).
Ze zijn gedwongen low en mid end, omdat (zoals het er nu uitziet) ze gewoon een kaart maken voor high end maar mid tier uitkomen.

[ Voor 4% gewijzigd door D0gtag op 27-07-2017 09:51 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
unfor schreef op donderdag 27 juli 2017 @ 08:26:
Zou het niet verstandig zijn als amd gewoon uit de high end gpu markt stapt? Het grote geld zit toch in de mid range, zeker nu met de mining gekte.
Het geld zit juist in high end. Die paar Ti's leveren Nvidia enorm veel op per chip, hebben we het nog niet over de GTX1070/80 voor die een pricedrop kregen. Dan zijn dit ook nog de slechte chips ook. De betere GP 102's gaan gewoon naar de Quadro P6000 kaarten. Die leveren al helemaal aardig wat op per chip.

RTG kan niet overleven als ze de GPGPU markt niet binnen kunnen breken. Ronde een met GCN was een totale mislukking omdat er geen ecosysteem was, dat is nu heel anders met dank aan Raja. Het duurt verder steeds langer, en is steeds duurder om een GPU te ontwikkelen, en dat verdien je niet terug met je productlijn limiteren tot €300 kaarten. Nee, je zal juist de segmenten daarboven moeten hebben. Verder gaan de €100 a €150 kaarten langzaam aan ook verdwijnen door APU's, zeker die AMD in de planning heeft staan kunnen daarvoor gaan zorgen.

Nu is Vega FE qua workstation loads meer dan geschikt voor dergelijke taken. Heb je certificering nodig dan betaal je AMD enkele tienduizenden dollars/euro's/whatever voor de software, en dan nog een paar duizend per kaart. Ja, er zit wel wat geld in die markt. Nvidia is hier al jaren dominant, net zoals Intel dominant is in CPU's, nou ja, nog even want AMD is hier zeer sterk teruggekomen. Nvidia heeft alleen haar eigen problemen naast AMD, zoals Google, net zoals Intel nu moet oppassen voor zowel AMD als IBM voor de servermarkt.

Het ecosysteem is er eindelijk en als Vega net zoals Epyc een kans krijgt in die markt dan gaan ze serieuze hoeveelheden product verschepen, puur omdat ze alsnog onder de prijs van Nvidia zullen gaan zitten, serieuze prestaties kunnen leveren en ook in lagere segmenten zitten waar Nvidia het bij de allerduurste chips houd. Verder kan een Instinct MI 25 een serieus probleem worden voor GP100. Om duidelijk te maken hoe ze bij Nvidia denken:
https://www.techpowerup.c...ors-to-top-ai-researchers

Als je die chips, makkelijk meer dan €10.000 per kaart weg gaat geven dan weet je hoe laat het is.


Blijft RX Vega over om extra, mindere chips te verkopen. Als je me nu spreekwoordelijk een pistool tegen het hoofd zet en eist wat ik denk dan zou ik dit zeggen:

Matched of is iets sneller dan een GTX1080 in DX11 met 1080P, mogelijkerwijs ertussen bij 1440p/4K en DX12/Vulkan is het tenminste richting Ti niveau, als het niet een match of zelfs beter is met de juiste CPU ernaast. Ik zou niet verbaast zijn als een echt goed geoptimaliseerde game zoals BF1, beter zal draaien in DX12 met een Ryzen 7 en RX Vega dan met een 7700K en GTX1080Ti. Dit omdat ik niet verbaast zou zijn als RX Vega tegen een rendercall bottleneck aan kan lopen op een lagere resolutie. Ik denk dat RX Vega ook gewoon niet zal presteren op een voor die kaart relatief lage resolutie. Dat ding lijkt echt voor 1440P als minimum gemaakt te zijn.

Dus bereid je maar voor op heel veel onzinnige tests met 1080P en de 7700K, want daar is die GPU voor gemaakt. :')

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Slaut schreef op donderdag 27 juli 2017 @ 09:05:
[...]


[...]


Zou het niet verstandig zijn als Renault uit de F1 stapt, want...
Nee, je zal mee moeten blijven komen, en nieuwe kennis op blijven doen, of je loopt snel achter.
Kijk maar naar Honda :X

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
DaniëlWW2 schreef op donderdag 27 juli 2017 @ 10:08:
Nu is Vega FE qua workstation loads meer dan geschikt voor dergelijke taken. Heb je certificering nodig dan betaal je AMD enkele tienduizenden dollars/euro's/whatever voor de software, en dan nog een paar duizend per kaart. Ja, er zit wel wat geld in die markt. Nvidia is hier al jaren dominant, net zoals Intel dominant is in CPU's, nou ja, nog even want AMD is hier zeer sterk teruggekomen. Nvidia heeft alleen haar eigen problemen naast AMD, zoals Google, net zoals Intel nu moet oppassen voor zowel AMD als IBM voor de servermarkt.

Het ecosysteem is er eindelijk en als Vega net zoals Epyc een kans krijgt in die markt dan gaan ze serieuze hoeveelheden product verschepen, puur omdat ze alsnog onder de prijs van Nvidia zullen gaan zitten, serieuze prestaties kunnen leveren en ook in lagere segmenten zitten waar Nvidia het bij de allerduurste chips houd. Verder kan een Instinct MI 25 een serieus probleem worden voor GP100. Om duidelijk te maken hoe ze bij Nvidia denken:
https://www.techpowerup.c...ors-to-top-ai-researchers

Als je die chips, makkelijk meer dan €10.000 per kaart weg gaat geven dan weet je hoe laat het is.


Blijft RX Vega over om extra, mindere chips te verkopen. Als je me nu spreekwoordelijk een pistool tegen het hoofd zet en eist wat ik denk dan zou ik dit zeggen:
Dat eerste is niet waar, Vega FE is een apparte kaart, het is geen workstation kaart en geen gamer kaart maar iets er tussen in, het is een workstation kaart voor niet kritieke toepassingen.
Dit omdat de kaart geen certificering heeft en de hardware de toleranties mist om kritieke functies te berekenen. Dat is de reden waarom een quadro/firepro zo duur is.
Betekent niet dat ze alsnog een firepro versie van vega kunnen maken maar de FE is eigenlijk een niche product die weinig nuttig is.
Workstation kaarten zijn duur maar voor ondernemingen die de kracht nodig hebben stelt het niet zo veel voor en kijken dan naar software compatibiliteit en opengl prestaties. dan wint nV, een quadro p6000 verslaat een titan Xp in gaming!!!! (GAMING!!!) En dan met drivers optimized voor opengl/cuda rendering.

Het tweede punt de server markt, de markt waar ryzen/threadripper het goed gaat doen(goede prestaties laag verbruik,lage kosten), vega absoluut niet. Vega gebruik veel meer vermogen dan nV iets wat ze bij een server niet willen, daar maakt het ze niet uit of de gpu iets duurder is (als je 10000gpu's koopt hanteren ze andere marges), op termijn kost stroom meer (24/7 aanstaan) en voor de extra warmte moet extra koeling airflow etc gemaakt/ontworpen worden, wat het systeem extra gecompliceerd maakt (lees: duur) 100watt extra per gpu is gewoon veelte veel. De hoogste kostenpost van een server is niet de aanschaf maar het verbruik (extra koeling = extra hoog verbruik). De trend is naar zuinigere servers niet de andere richting op. En per watt prestaties is nV op dit moment gewoon beter.
En een hoger verbruik met minder prestaties is gewoon niet acceptabel, ik zie AMD niet de servermarkt openbreken.

En de mi25 instict vs v100 - de v100 is sneller 28 vs 24 tflops en dubbele ram bus breedte en verbruikt 50watt minder. Per rackmount x4 is dat 200 watt meer voor AMD met lagere prestaties. Dan heb je 1000 gpu's nodig.... x50kw hoger verbruik en lagere prestaties vs hogere aanschaf prijs maar lagere operating costs.
We have a winner.

[ Voor 8% gewijzigd door D0gtag op 27-07-2017 11:08 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 12-09 13:37
Als je deze slide zou aanhouden: Afbeeldingslocatie: https://www.extremetech.com/wp-content/uploads/2016/08/AMDGPU.jpg

Zie je op de vertikale as ruwweg een verdubbeling in perf/watt. Als je dan gaat rekenen dat VEGA ongeveer 180 % gebruikt t.o.v. Polaris, zou je dus een 3 a 3.5 voudige performance mogen verwachten t.o.v. Polaris.

Dan zit je toch zeker boven 1080Ti gebied. Er van uit gaande dat ze het niet helemaal waarmaken, en dat het 25% ofzo tegenvalt, zit je nog steeds in 1080Ti gebied.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +2 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
D0gtag schreef op donderdag 27 juli 2017 @ 09:49:
[...]


Ja, alleen low end blijven bedienen kan niet, AMD heeft nu alleen low end omdat ze achter de feiten aan liepen/lopen en veel te weinig r&d hebben gedaan (uit noodzaak).
Dat beeld schetsen ze nu wel, maar bij vorige launhces was ik altijd verbaast wat ze allemaal nogmeer hadden gedaan. (dan behalve een nieuwe chip bakken)
Als je kijkt naar wat ze voor de proffecionele markt allemaal bedacht hebben, dan hebben ze zeker niet stil gezeten.
D0gtag schreef op donderdag 27 juli 2017 @ 09:49:
AMD loopt verschrikkelijk geheimzinnig te doen, zo mochten ze bij h.ocp niet zelf de radeon drivers installeren, en weten we dagen voor de launch nog niks officieels van AMD.
(behalve 'gelekte' 3dmark scores van AMD engineer)
Misschien omdat er een knallers van kaarten aankomen.. who knows..
Qua Tflops & verbruik zitten de kaarten boven die van de 1070 en verbruik 1080, alleen zitten ze op prestatie niveau van nV,s low end (1060). De rekenkracht is er maar ingame prestaties niet, tenzij de game geoptimaliseerd is voor AMD(doom&vulcan).
Ja, dat vond ik ook vreemd, een Fury X in Vulcan DOOM gaat de 1070 voorbij, waar die er juist gemmideld net onder schiet.
Maar AMD loopt wel te kloten hoor, er staan echt wel een paar stroom besparend features uit die de gemiddelde clock hoger kunnen doen uitvallen. Bijvoorbeeld deze:
Afbeeldingslocatie: https://i.redditmedia.com/ur0HalTTnxZZ1fNVPtgx1WM-D6t1X5DGRCqpweAppX0.png?w=874&s=5b5071148d56755b6441207acf240c2c
Als dit aan zou staan, dan zou Vega FE vaker op zijn max turbo clock lopen. (in gevallen waar niet 100% van de GPU hardware benut kan worden)
D0gtag schreef op donderdag 27 juli 2017 @ 09:49:
En kijkend naar de games die uitkomen (9/10 veredelde console ports) is het geen argument dat alles voor nV is geoptimaliseerd.
(Zowel xbox als ps gebruiken AMD hardware).
Dat snap ik ook echt niet, hoe kan het dan een console game meer geoptimaliseert is voor nV dan voor AMD? Is dat TWIMTBP? Of connect AMD niet genoeg met ontwikkerlaars? Echt raar.

Dat de drivers nog niet af zijn begin ik ook steeds minder te geloven, ze duwwen er gewoon nog even een dikke update uit voordat Vega er is: https://nl.hardware.info/...ers-verbeterd-en-verfijnd
D0gtag schreef op donderdag 27 juli 2017 @ 09:49:
Ze zijn gedwongen low en mid end, omdat (zoals het er nu uitziet) ze gewoon een kaart maken voor high end maar mid tier uitkomen.
Het zou me verbazen, maar eigenlijk ook niet. Traditioneel maakt Nvidia de big die en AMD de small die die in de buurt komt van de big die. Vervolgens maken ze een X2 kaart en doen ze lekker mee met de big die.
Het ding is nu dat Vega geen kleine chip is, waarschijnlijk zitten er vier HBM controllers in en nog wat extra IF lanes. (Mischien is het ding zelfs wel PCI-e X32 geschikt)
Maar zelfs dan zouden ze qua pure shader die space ongeveer evenveel als GP102 moeten hebben. Als je dat afzet tegen Polaris vs 1060 en dan de hogere clocks van Vega mee neemt, zouden ze ongeveer gelijk moeten presteeren.

En dan nog dit: https://twitter.com/BitsA...status/890200501618438144 die gast zit er niet vaak naast, maar meestal is een manusje van alles geen expert in één specifiek vakgebied. AMD Epyc is hier mischien een uitzondering, maar met Vega zie ik het nog niet gebeuren.
D0gtag schreef op donderdag 27 juli 2017 @ 10:56:
Het tweede punt de server markt, de markt waar ryzen/threadripper het goed gaat doen(goede prestaties laag verbruik,lage kosten), vega absoluut niet. Vega gebruik veel meer vermogen dan nV iets wat ze bij een server niet willen, daar maakt het ze niet uit of de gpu iets duurder is (als je 10000gpu's koopt hanteren ze andere marges), op termijn kost stroom meer (24/7 aanstaan) en voor de extra warmte moet extra koeling airflow etc gemaakt/ontworpen worden, wat het systeem extra gecompliceerd maakt (lees: duur) 100watt extra per gpu is gewoon veelte veel. De hoogste kostenpost van een server is niet de aanschaf maar het verbruik. De trend is naar zuinigere servers niet de andere richting op. En per watt prestaties is nV op dit moment gewoon beter.
Dat hangt af van het gebruiksdoel, in server setups kunnen ze veel dichter bij de theroretische performance van een kaart komen. MI25 heeft 82GFLOPS/watt FP16 en 41GFLOPS/watt FP32 waar P100 op 75/37 zit.
Dus als je er gebruik van kunt maken is AMD hier 10% efficiënter. (v100 is er nog niet en is echt een hele andere klasse GPU, alleen al de die size van 815 mm2)

EDIT:
Als Volta 815mm2 is en AMD kan dat counteren met twee keer Vega10 op 150watt in CF door IF, dan is die 'Poort Volta' grap ineens best serieus. Volta 815mm2 is grofweg 24 die's per waffer waar Vega10 484mm2 45 die's per waffer is. (Als er geen fouten op de waffer zitten, bij drie foutjes ligt het kosten keerpunt)
Maar door de FP64 performance van Volta hoeft Nvidia zich voorlopig geen zorgen te maken.

[ Voor 3% gewijzigd door Toettoetdaan op 27-07-2017 11:24 ]


Acties:
  • +1 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Toettoetdaan schreef op donderdag 27 juli 2017 @ 11:13:

Dat hangt af van het gebruiksdoel, in server setups kunnen ze veel dichter bij de theroretische performance van een kaart komen. MI25 heeft 82GFLOPS/watt FP16 en 41GFLOPS/watt FP32 waar P100 op 75/37 zit.
Dus als je er gebruik van kunt maken is AMD hier 10% efficiënter. (v100 is er nog niet en is echt een hele andere klasse GPU, alleen al de die size van 815 mm2)
De v100 is klaar en is al uitgegeven (grote klanten moeten nog even wachten) de p100 is een jaar oud, de mi25 is net op de markt maar wint wel van de p100.
De mensen die nu een server ontwerpen kijken naar wat er binnenkort beschikbaar is, blijft me verhaal hier boven gelden. Ze zijn steeds bezig minder energie te verbruiken ipv meer. v100 vs mi25 heb je ~20% meer mi25 nodig om de zelfde prestaties als de v100 te halen en je hebt als in een hoger verbruik met een mi25 dus komt je verbruik nog veel hoger ~60kW hoger verbruik en meer om te koelen. :'(
Het is een beetje wishful thinking geworden ipv realiteit. AMD staat realistisch gezien meer dan een jaar achter op nV

antwoord op edit:
Volta is niet 815mm² de v100 is dat maar die heeft een dubbel brede bus en 5120 cuda cores, grote die en lager verbruik :) Prijs is veel minder relevant in deze markt, prestaties en verbruik meer.
Kijken we naar vega vs pascal (in de ti) dan zie je dat vega niet kan winnen in het algemeen -ik denk dat we die conclusie nu wel kunnen trekken, afgezien van de dromers die denken dat AMD nog een hattrick heeft- Realistisch, dan winnen ze wel van volta?

-hattrick als dual gpu 600watt telt niet mee :P

[ Voor 23% gewijzigd door D0gtag op 27-07-2017 11:52 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

Verwijderd

D0gtag schreef op woensdag 26 juli 2017 @ 22:12:
maar ik ga geen gsync of freesync monitor halen.
Leg eens uit waarom jij geen monitor met FreeSync-support zou kopen? Je moet je best doen om het te mijden. :)
Als jij kan kiezen tussen twee monitors die hetzelfde kosten en dezelfde specs hebben met als enige verschil dat de een FreeSync-support heeft en de ander niet, dan mijd jij de monitor die FreeSync-support geeft?
Stel dat de monitor met FreeSync-support €5 meer kost, dan mijd jij die terwijl er een reële kans is dat jij in de toekomst wel een AMD-kaart koopt?
Als er wel een kaart komt die de 1080ti overtreft, draag ik een Raja T-shirt in de sportschool.
Bereid je maar alvast voor, die kaart gaat er gegarandeerd komen in de toekomst. Of dat het RX Vega is is een ander verhaal maar jij spreekt over een kaart, niet over een RX Vega kaart. :)
unfor schreef op donderdag 27 juli 2017 @ 08:26:
Zou het niet verstandig zijn als amd gewoon uit de high end gpu markt stapt? Het grote geld zit toch in de mid range, zeker nu met de mining gekte.
Nee! Zelfs een hypothetische discussie hierover is nutteloos aangezien de kans groot is dat ze vanaf Navi met multiple-die GPU's komen. Zelfs Nvidia spreekt er al over (NVLink in hun geval).

[ Voor 40% gewijzigd door Verwijderd op 27-07-2017 11:59 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Verwijderd schreef op donderdag 27 juli 2017 @ 11:49:
Leg eens uit waarom jij geen monitor met FreeSync-support zou kopen? Je moet je best doen om het te mijden. :)
Als jij kan kiezen tussen twee monitors die hetzelfde kosten en dezelfde specs hebben met als enige verschil dat de een FreeSync-support heeft en de ander niet, dan mijd jij de monitor die FreeSync-support geeft?
Stel dat de monitor met FreeSync-support €5 meer kost, dan mijd jij die terwijl er een reële kans is dat jij in de toekomst wel een AMD-kaart koopt?
Het is geen 5 euro.

Ik heb deze:
pricewatch: LG 29UM68-P Zwart
en daar moet je ook nog een displayportkabel bijkopen anders heb je geen freesync.

en die is 30% duurder dan
pricewatch: LG 29UM58-P Zwart

Alleen 24" fullhd kan je voor kleine meerprijs met freesync krijgen, maar 24" fullhd schermen heeft bijna iedereen ondertussen wel.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
D0gtag schreef op donderdag 27 juli 2017 @ 10:56:
[...]


Dat eerste is niet waar, Vega FE is een apparte kaart, het is geen workstation kaart en geen gamer kaart maar iets er tussen in, het is een workstation kaart voor niet kritieke toepassingen.
Dit omdat de kaart geen certificering heeft en de hardware de toleranties mist om kritieke functies te berekenen. Dat is de reden waarom een quadro/firepro zo duur is.
Betekent niet dat ze alsnog een firepro versie van vega kunnen maken maar de FE is eigenlijk een niche product die weinig nuttig is.
Workstation kaarten zijn duur maar voor ondernemingen die de kracht nodig hebben stelt het niet zo veel voor en kijken dan naar software compatibiliteit en opengl prestaties. dan wint nV, een quadro p6000 verslaat een titan Xp in gaming!!!! (GAMING!!!) En dan met drivers optimized voor opengl/cuda rendering.
En waar ontken ik dit precies? Vega FE is een workstation kaart, zonder de certificering van een Radeon Pro. Betekent niet dat het geen workstation kaart is. Het is een aparte, nieuwe categorie tussen gamer en workstation in. Als je het al moet vergelijken dan met de Titan, en dat zijn de afgelopen jaren verkapte gaming kaarten. Voor entry level workstation kaarten, of om bijvoorbeeld games te ontwikkelen is Vega FE beter dan de Titan Xp.
Het tweede punt de server markt, de markt waar ryzen/threadripper het goed gaat doen(goede prestaties laag verbruik,lage kosten), vega absoluut niet. Vega gebruik veel meer vermogen dan nV iets wat ze bij een server niet willen, daar maakt het ze niet uit of de gpu iets duurder is (als je 10000gpu's koopt hanteren ze andere marges), op termijn kost stroom meer (24/7 aanstaan) en voor de extra warmte moet extra koeling airflow etc gemaakt/ontworpen worden, wat het systeem extra gecompliceerd maakt (lees: duur) 100watt extra per gpu is gewoon veelte veel. De hoogste kostenpost van een server is niet de aanschaf maar het verbruik (extra koeling = extra hoog verbruik). De trend is naar zuinigere servers niet de andere richting op. En per watt prestaties is nV op dit moment gewoon beter.
En een hoger verbruik met minder prestaties is gewoon niet acceptabel, ik zie AMD niet de servermarkt openbreken.
We weten nog steeds niks over verbruik van RX Vega, laat staan de Instinct MI25 etc want er staan nogal wat features uit voor Vega FE, waaronder power saving features.
En de mi25 instict vs v100 - de v100 is sneller 28 vs 24 tflops en dubbele ram bus breedte en verbruikt 50watt minder. Per rackmount x4 is dat 200 watt meer voor AMD met lagere prestaties. Dan heb je 1000 gpu's nodig.... x50kw hoger verbruik en lagere prestaties vs hogere aanschaf prijs maar lagere operating costs.
We have a winner.
De V100 is een 815mm2 chip die minstens het dubbele zal kosten. Instict MI 25 moet je afzetten tegen GP100, en dan is het heel wat minder rooskleurig. MI25 zal er tussenin zitten, en gezien AMD haar focus op marktaandeel, minder kosten dan de GP100 chips van Nvidia.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Verwijderd schreef op donderdag 27 juli 2017 @ 11:49:
[...]

Leg eens uit waarom jij geen monitor met FreeSync-support zou kopen? Je moet je best doen om het te mijden. :)
Als jij kan kiezen tussen twee monitors die hetzelfde kosten en dezelfde specs hebben met als enige verschil dat de een FreeSync-support heeft en de ander niet, dan mijd jij de monitor die FreeSync-support geeft?
Stel dat de monitor met FreeSync-support €5 meer kost, dan mijd jij die terwijl er een reële kans is dat jij in de toekomst wel een AMD-kaart koopt?


[...]

Nee! Zelfs een hypothetische discussie hierover is nutteloos gezien dat de kans groot is dat ze vanaf Navi met multiple-die GPU's komen. Zelfs Nvidia spreekt er al over (NVLink in hun geval).
Euh de uitleg stond er al in geloof ik, ik heb net (minder dan een jaar) een 4k scherm gekocht, waarom zou ik nu nog een scherm kopen a 1200€ (die in de buurt komt van mijn huidige scherm, uhd, groot 40" en sexy)
Volgens pw zijn er niet eens schermen met g of freesync van dat formaat.
Wat jij hier doet is een vorm van projectie: vermijden. Ik vermijd niet iets omdat het van een bepaald merk of van iemand die ik niet mag. Ik koop gewoon wat ik mooi vind en voldoet aan mijn eisen.
Het hele sync s*** interesseert me geen r***, heb geen enkele moeite gedaan om me daar in te verdiepen, want het leven draait om meer dan fps of soepele gameplay (ik gebruik mijn pc voor meer dan games).
Ik speel games voor plezier, draait ie 30fps en is de game goed heb ik alsnog plezier. Daaronder wordt het minder en moet eyecandy uit dan zoek ik een nieuwe kaart.
Ik ben begonnen op een 8088 van mijn vader, 4k ultra settings 30-60fps is voor mij meer dan soepel genoeg. Over een jaar of 6 koop ik wel een nieuw scherm, me voorganger komt uit het intel 920 tijdperk~2009 doet het nog steeds maar ik wilde meer dan 1080p en groter dan 24inch.
Als ik in de toekomst een nieuw scherm nodig heb kijk ik wel naar wat er dan is, dan zit ik waarschijnlijk wel 3 gpu's verder.

Is vega tussen 1080 en ti en goedkoper dan een 1080 koop ik hem, is vega duurder dan een 1080, koop ik liever een ti. Heeft de vega een dual kaart met meer dan 1080ti performance en 500 watt verbruik, koop ik een ti. Als mij vriendin er mee gaat bemoeien wordt het een 1050 (ti). :+
DaniëlWW2 schreef op donderdag 27 juli 2017 @ 12:12:
[...]

En waar ontken ik dit precies? Vega FE is een workstation kaart, zonder de certificering van een Radeon Pro. Betekent niet dat het geen workstation kaart is. Het is een aparte, nieuwe categorie tussen gamer en workstation in. Als je het al moet vergelijken dan met de Titan, en dat zijn de afgelopen jaren verkapte gaming kaarten. Voor entry level workstation kaarten, of om bijvoorbeeld games te ontwikkelen is Vega FE beter dan de Titan Xp.

[...]

We weten nog steeds niks over verbruik van RX Vega, laat staan de Instinct MI25 etc want er staan nogal wat features uit voor Vega FE, waaronder power saving features.

[...]

De V100 is een 815mm2 chip die minstens het dubbele zal kosten. Instict MI 25 moet je afzetten tegen GP100, en dan is het heel wat minder rooskleurig. MI25 zal er tussenin zitten, en gezien AMD haar focus op marktaandeel, minder kosten dan de GP100 chips van Nvidia.
Titan xp is een gaming kaart, zelfde discussie als vega FE is geen gaming kaart, klopt.
Vega FE vs quadro p6000... prijs is anders omdat nV geen tussen kaarten heeft en p6000 volledig gecertificeerd is.
Hoe groot is de markt voor videokaarten voor gamedevelopers?
En waar ontken ik dit precies? Vega FE is een workstation kaart, zonder de certificering van een Radeon Pro. Betekent niet dat het geen workstation kaart is
Dat doe je in de zelfde zin nog, zonder certificatie is het geen workstation kaart, punt.
Workstation = for work, meeste cad software b.v. geeft pas ondersteuning op een kaart als deze gecertificeerd is. Als je als medewerker een probleem hebt en je belt de helpdesk vragen ze: "hoi ik heb een probleem": welke kaart... ooh deze is niet gecertificeerd en wij bieden geen ondersteuning. Probeer dit, doet hij het niet, dan weten wij het ook niet... tuuuuut tuuuuut tuuuut "hallo bent u daar nog". True story :+
In een heleboel industrieën en diensten eisen workstation met certificaat, waarom? omdat de brug toch bleek in te storten en niet in het model.
Gamedovelopers inderdaad niet. :)
Nee! Zelfs een hypothetische discussie hierover is nutteloos gezien dat de kans groot is dat ze vanaf Navi met multiple-die GPU's komen. Zelfs Nvidia spreekt er al over (NVLink in hun geval).
Je snapt het punt niet, inderdaad met navi komen ze met multi gpu, maar dat is pas met navi we hebben vega nog niet eens. Dat is het punt, je zit je hoop te richten op en toekomstig product en volta v100 is er al.

[ Voor 35% gewijzigd door D0gtag op 27-07-2017 12:38 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
D0gtag schreef op donderdag 27 juli 2017 @ 11:37:
[...]

De v100 is klaar en is al uitgegeven (grote klanten moeten nog even wachten) de p100 is een jaar oud, de mi25 is net op de markt maar wint wel van de p100.
De mensen die nu een server ontwerpen kijken naar wat er binnenkort beschikbaar is, blijft me verhaal hier boven gelden. Ze zijn steeds bezig minder energie te verbruiken ipv meer. v100 vs mi25 heb je ~20% meer mi25 nodig om de zelfde prestaties als de v100 te halen en je hebt als in een hoger verbruik met een mi25 dus komt je verbruik nog veel hoger ~60kW hoger verbruik en meer om te koelen. :'(
Het is een beetje wishful thinking geworden ipv realiteit. AMD staat realistisch gezien meer dan een jaar achter op nV

antwoord op edit:
Volta is niet 815mm² de v100 is dat maar die heeft een dubbel brede bus en 5120 cuda cores, grote die en lager verbruik :) Prijs is veel minder relevant in deze markt, prestaties en verbruik meer.
Kijken we naar vega vs pascal (in de ti) dan zie je dat vega niet kan winnen in het algemeen -ik denk dat we die conclusie nu wel kunnen trekken, afgezien van de dromers die denken dat AMD nog een hattrick heeft- Realistisch, dan winnen ze wel van volta?

-hattrick als dual gpu 600watt telt niet mee :P
AMD verkoopt MI8 (Fury/Fiji) ook nog gewoon dus prijs is zeker wel een dingetje. Het kantelpunt tussen prijs prestatie en verbruik ligt voor elke server bouwer anders. V100 kost makkelijk twee maal zoveel als MI25, dus MI25 heeft een prima kans op de server markt.

Zolang Vega geen noemenswaardige FP64 prestaties heeft wint deze nooit van Volta.
Maar afgezien van Tensor cores en 12nm zie lijkt Volta dicht bij Pascal te liggen, dus van 'game Volta' moeten we nog zien wat er gebeurt. Pascal is gewoon erg goed, dus ook voor Nvidia is het moeilijk om dat veel te verbeteren.

Maar AMD houd van zijn dual kaarten:
http://www.amd.com/en-us/...orkstation/radeon-pro/duo (Dual-polaris/250watt/11,45TFlop/21,8watt per TFlop)
http://www.amd.com/en-us/...cs/desktop/radeon-pro-duo (Dual-fiji/350watt/16,4TFlop/21,3watt per TFlop)
Volta V100 is 20 watt per TFlop en de PCI uitvoering is zelfs 17,85 watt per TFlop.
Vega MI25 is 24.4 watt per TFlop, die zit duidelijk niet op het efficienteste punt van de power curve. Zelfs slechter dan 28nm Fiji!
We kunnen dus met enige zekerheid zeggen dat AMD twee lager geclockte Vega10's in 250 tot 350 watt gaat stoppen voor de proffecionele markt. (Helaas nogsteeds met 1/16 FP64 rate dus zelfs dan geen echte concurent voor Volta)

Acties:
  • +1 Henk 'm!

Verwijderd

Toettoetdaan schreef op woensdag 26 juli 2017 @ 22:29:
[...]

Votes:
1 Nvidia
6 Neutraal
3 AMD

Opmerkelijk commentaar van de AMD kiezers is dat ze zich beter konden focusen op hun targets terwijl ze aan het bewegen waren.
Ik kan natuurlijk een heleboel caveats plaatsen:
- kleine samplesize
- mensen kunnen zich vergissen tussen de twee systemen
- geen dubbelblinde proef (slechts blind)
...

Laten we even veronderstellen dat de resultaten te vertrouwen zijn, for the sake of the argument. Zou het zo gek zijn dat een zeer vaardige FPS-gamer (Lifetime Deathmatch Championships) een relatief klein verschil merkt? We weten dat een mens aan 4-5 ms. genoeg heeft om een object te herkennen. De Universiteit Utrecht hield een experiment met straaljagerpiloten, het bleek dat zij aan 1/220 seconde genoeg hebben om een object te herkennen, dit werd vastgesteld door bij een FPS van 220 1 frame met een afbeelding van een straaljager ertussen te stoppen en de piloot het model te laten benoemen.
https://www.ncbi.nlm.nih....les/PMC2826883/figure/F2/
Hoeveel tijd je nodig hebt hangt natuurlijk af van je talent en training (de traagste mensen hebben 40-50 ms. nodig om een object waar te nemen - slik -)maar we kunnen rustig aannemen dat 4,45 ms de hoogste ondergrens is voor de mensen die de snelste waarneming hebben. Er zal nog een beetje extra tijd nodig zijn om de actie (het bewegen van de muis in een bepaalde richting) te plannen, ik neem aan dat die tijd niet groter is dan de tijd die vereist is voor het zien en waarnemen. Bij 100 FPS duurt elk plaatje wat je ziet 10 ms.
In theorie is het mogelijk dat elke tear die je ziet je de beweging doet aanpassen als jij die tear lang genoeg ziet om die waar te nemen en je genoeg tijd hebt tot de volgende frame om de volgende actie (bewegen van de muis) te plannen. Als je de 'verkeerde' kant op wordt gestuurd doordat je bij een deel van de frame nog de output van de vorige frame ziet dan zou het lastiger mikken zijn. Het gaat om minimale verschillen en het kan best dat 99,9% van de mensen het niet merkt maar 0,1% van de mensen wel. Moeilijk te zeggen.

Meerdere andere testers merkten op dat ze de RX Vega vloeiender vonden aanvoelen. Dat laatste kan gemakkelijk worden verklaard door FreeSync en geloof ik daarom direct aangezien meerdere van hen het aangaven, dit vaardige gamers zijn die hier redelijk zeker over overkomen (niet "als ik moet kiezen dan denk ik dat..." maar "systeem 2 voelde meer vloeiend") en over systeem 1 door niemand werd opgemerkt dat het meer vloeiend zou aanvoelen.
Ik preek hier voor eigen parochie: boven een bepaalde FPS (vul maar in ;)) is het niet zien van tears belangrijker dan of dat je FPS nog hoger is. 40 FPS met FreeSync/G-Sync vs. 52 FPS zonder FreeSync en zonder G-Sync? Geen idee wat beter gamet. 100 FPS met FreeSync vs. 130 FPS zonder FreeSync en zonder G-Sync, geef mij maar de eerste, zonder enige twijfel en zonder erover na te hoeven denken.

[ Voor 12% gewijzigd door Verwijderd op 27-07-2017 13:14 ]


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Toettoetdaan schreef op donderdag 27 juli 2017 @ 12:29:
[...]

AMD verkoopt MI8 (Fury/Fiji) ook nog gewoon dus prijs is zeker wel een dingetje. Het kantelpunt tussen prijs prestatie en verbruik ligt voor elke server bouwer anders. V100 kost makkelijk twee maal zoveel als MI25, dus MI25 heeft een prima kans op de server markt.

Zolang Vega geen noemenswaardige FP64 prestaties heeft wint deze nooit van Volta.
Maar afgezien van Tensor cores en 12nm zie lijkt Volta dicht bij Pascal te liggen, dus van 'game Volta' moeten we nog zien wat er gebeurt. Pascal is gewoon erg goed, dus ook voor Nvidia is het moeilijk om dat veel te verbeteren.

Maar AMD houd van zijn dual kaarten:
http://www.amd.com/en-us/...orkstation/radeon-pro/duo (Dual-polaris/250watt/11,45TFlop/21,8watt per TFlop)
http://www.amd.com/en-us/...cs/desktop/radeon-pro-duo (Dual-fiji/350watt/16,4TFlop/21,3watt per TFlop)
Volta V100 is 20 watt per TFlop en de PCI uitvoering is zelfs 17,85 watt per TFlop.
Vega MI25 is 24.4 watt per TFlop, die zit duidelijk niet op het efficienteste punt van de power curve. Zelfs slechter dan 28nm Fiji!
We kunnen dus met enige zekerheid zeggen dat AMD twee lager geclockte Vega10's in 250 tot 350 watt gaat stoppen voor de proffecionele markt. (Helaas nogsteeds met 1/16 FP64 rate dus zelfs dan geen echte concurent voor Volta)
Natuurlijk verkopen ze wel, denk aan enkele gebruikers, mensen die een enkele of een paar kaarten gebruiken, universiteiten en hogescholen b.v. en kleine bedrijven die onderzoek doen waarbij machine learning gebruikt wordt.
Het beeld op de servermarkt is het zelfde als op de gaming markt, nV domineert highend, low end en prijs strategie voor AMD. Dito voor de servermarkt.
Grote bedrijven gebruiken nV, voor deeplearning zoals autobedrijven (toyota, audi, honda, volvo, tesla bmw MB en andere) supercomputers (cray, op 3 staat cray systeem met p100 wereld rang lijst)
nV is financieel heel gezond, AMD nog steeds niet. Zegt eigenlijk wel genoeg over wie de meeste inkomsten maakt en het is al bekend dat nV het goed doet op de servermarkt.
Verwijderd schreef op donderdag 27 juli 2017 @ 13:05:
zonder enige twijfel en zonder erover na te hoeven denken.
twijfel is ergens over nadenken :9

[ Voor 4% gewijzigd door D0gtag op 27-07-2017 13:10 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
100 fps staat in veel games gelijk aan 10ms input delay, terwijl dat bij 130 fps nog maar 7.7ms zal zijn (bijna 25% reductie). Geef mij die 130 fps dan maar. ;)

Vandaar 165Hz (-40% :+)...

Zie bijvoorbeeld PUBG; speelt eigenlijk gewoon kut, omdat je door gebrek aan optimalisatie vaak tussen de 60 en 100 fps zit en dat merkte ik meteen zonder fps counter (en met GSYNC).

[ Voor 50% gewijzigd door Paprika op 27-07-2017 13:22 ]


Acties:
  • 0 Henk 'm!

Verwijderd

D0gtag schreef op donderdag 27 juli 2017 @ 12:19:
ik heb net (minder dan een jaar) een 4k scherm gekocht, waarom zou ik nu nog een scherm kopen a 1200€ (die in de buurt komt van mijn huidige scherm, uhd, groot 40" en sexy)
1. Als jij er een beetje moeite voor doet dan is het best mogelijk dat jij wel FreeSync kan inschakelen op jouw monitor.
https://www.reddit.com/r/...hdmi_and_some_dvi_on_non/
http://forums.guru3d.com/showthread.php?t=410187.
2. Stel dat over 3 jaar goede 4k-monitors met HDR en betere kleuren verkrijgbaar zijn voor €550, weet jij zeker dat jij dat laat liggen terwijl jij wel bereid was om €1200 voor deze 4k-monitor te betalen en dus bereid was om een gigantisch hoge early adopters fee te betalen?
Volgens pw zijn er niet eens schermen met g of freesync van dat formaat.
Dat is goed mogelijk aangezien deze grootte onpraktisch is voor op een bureau/tafel om mee te gamen (je kan niet heel het scherm overzien bij die afstand).
Paprika schreef op donderdag 27 juli 2017 @ 13:17:
100 fps staat in veel games gelijk aan 10ms input delay, terwijl dat bij 130 fps nog maar 7.7ms zal zijn (bijna 25% reductie). Geef mij die 130 fps dan maar. ;)
Ik ben gevoelig voor input lag maar ik denk dat ik dat verlies maar neem om van de tears af te zijn, maar niet het verlies wat VSync geeft. ;)
Als je op het hoogste niveau online gamet, ok, maar dan zet je uberhaupt geen FreeSync/G-Sync aan. Als je TW3 of RotTR speelt, dan neem ik toch maar die 30% extra inputlag. Die 7,7 ms inputlag merk je waarschijnlijk ook nog wel, het waarnemen is een veel complexer (meer tijd kostend) proces voor het brein dan simpelweg het detecteren van een lag tussen de beweging van je hand en wat er op de monitor gebeurt. Iedereen die wel eens audio out of sync heeft gehad bij een video en dit aanpaste (VLC of MPC-BE/HC bijvoorbeeld) weet uit ervaring dat je een gigantisch klein verschil kan waarnemen.
Tot slot kan je natuurlijk ook gewoon de grafische instellingen wat minder hoog zetten en hangt het dan ook nog af van of dat de CPU het kan bijbenen.

[ Voor 60% gewijzigd door Verwijderd op 27-07-2017 13:34 ]


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Paprika schreef op donderdag 27 juli 2017 @ 13:17:
100 fps staat in veel games gelijk aan 10ms input delay, terwijl dat bij 130 fps nog maar 7.7ms zal zijn (bijna 25% reductie). Geef mij die 130 fps dan maar. ;)

Vandaar 165Hz (-40% :+)...

Zie bijvoorbeeld PUBG; speelt eigenlijk gewoon kut, omdat je door gebrek aan optimalisatie vaak tussen de 60 en 100 fps zit en dat merkte ik meteen zonder fps counter (en met GSYNC).
Ik zie mensen met een beter systeem of gereduceerd input delay gewoon als extra moeilijkheid graad ;)
Vroeger speelde ik veel CS (origineel dus, toen the source engine nog niet uit was :9 ) tf2
Voornamelijk op skill, nu speel ik graag 'k*t' games daarbij staat k*t voor: plant c4 op een voertuig rijd richting de vijand, spring uit rijdend voertuig, doei vijand.
Games als overwatch trekt me nu minder en competitief speel ik al helemaal niet, het gaat mij om plezier. Als iemand een 144hz refreshrate nodig heeft om 'the edge' te hebben... gefeliciteerd, je hebt een panda verslagen met een bmw m3.
Het geeft mij meer voldoening om goed te zijn met een handycap en als mensen in mijn val lopen :+
Verwijderd schreef op donderdag 27 juli 2017 @ 13:23:
[...]

1. Als jij er een beetje moeite voor doet dan is het best mogelijk dat jij wel FreeSync kan inschakelen op jouw monitor.
https://www.reddit.com/r/...hdmi_and_some_dvi_on_non/
http://forums.guru3d.com/showthread.php?t=410187.
2. Stel dat over 3 jaar goede 4k-monitors met HDR en betere kleuren verkrijgbaar zijn voor €550, weet jij zeker dat jij dat laat liggen terwijl jij wel bereid was om €1200 voor deze 4k-monitor te betalen en dus bereid was om een gigantisch hoge early adopters fee te betalen?


[...]

Dat is goed mogelijk aangezien deze grootte onpraktisch is voor op een bureau/tafel om mee te gamen (je kan niet heel het scherm overzien bij die afstand).
Je leest mijn verhaal niet, ik heb geen interesse in sync van wie dan ook en ga er dan dus ook geen enkele moeite aan besteden. Ik stap niet in de hype train van sync. Leuk voor de kids die heel soepel willen gamen, ik ben compleet ongevoelig voor die s***. 30fps is voor mij soepel.
Na 3 jaar ga ik geen beter scherm kopen omdat de kleuren marginaal beter zijn HDR heb ik al 10bit ook en ik ben juist niet bereid om 1200 te besteden omdat ik al heb wat ik zocht.
Misschien dat ik een oled paneel aanschaf want dat is voor mij nog steeds het mooiste scherm maar dan zal het weer een tv worden ipv een monitor.

Onpraktisch voor een bureau tafel? ik heb hem hier staan op me bureau tafel en je volledige zicht is in beslag genomen, dat is precies wat ik zocht. En zeker met werk is het praktisch aangezien je een betere werkhouding aan neemt, ik heb de neiging om gebogen te zitten tijdens werken en met dit scherm niet want ik ga me minder concentreren op het scherm en meer op me werk. Ik heb gekeken naar ultrawide, dual setup en kwam vervolgens hier mee. Ideaal.

[ Voor 44% gewijzigd door D0gtag op 27-07-2017 13:48 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

Verwijderd

" Ik stap niet in de hype train van sync. "
Dat is geen hype. Het is een recente technologische ontwikkeling die nog een lange tijd gebruikt zal blijven worden en nog een lange tijd toegevoegde waarde zal hebben voor veel mensen.
D0gtag schreef op donderdag 27 juli 2017 @ 13:33:
[...]

Ik zie mensen met een beter systeem of gereduceerd input delay gewoon als extra moeilijkheid graad ;)
Als je niet competitief gamet dan is dat de juiste instelling. :)
Als je wel competitief gamet en tot de top behoort dan is het verschil in vaardigheid zo minimaal dat het het verschil maakt. Maar wie van ons gamet er momenteel competitief op het hoogste niveau?
De vergelijking met wielrennen gaat op, voor 99,99% van de mensen doet het er niet toe op wat voor racefiets ze fietsen (als de maten goed zijn en het mechanisch goed werkt): een van €1000-1500 of een van €100000. Voor de toppers maakt dat wel het verschil. En ja, soms kan het gebeuren dat op amateur-niveau iemand precies net zo goed is en dankzij het betere materiaal wint maar dat is zeldzaam en niet zoveel geld waard.

Is Overwatch wel een leuk spel voor mensen die echt competitief spelen met al die ultimate skills? Hoe vaardig je ook bent, als je zo'n ultimate skill tegenover je hebt...:?
Het is een knap uitgevoerd en onderhoudend spel maar voor competitie zou ik andere spellen opzoeken die voor 100% om vaardigheid gaan.

[ Voor 57% gewijzigd door Verwijderd op 27-07-2017 13:55 ]


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Verwijderd schreef op donderdag 27 juli 2017 @ 13:38:
[...]

Als je niet competitief gamet dan is dat de juiste instelling. :)
Als je wel competitief gamet en tot de top behoort dan is het verschil in vaardigheid zo minimaal dat het het verschil maakt. Maar wie van ons gamet er momenteel competitief op het hoogste niveau?
De vergelijking met wielrennen gaat op, voor 99,99% van de mensen doet het er niet toe op wat voor racefiets ze fietsen (als de maten goed zijn en het mechanisch goed werkt): een van €1000-1500 of een van €100000. Voor de toppers maakt dat wel het verschil. En ja, soms kan het gebeuren dat op amateur-niveau iemand precies net zo goed is en dankzij het betere materiaal wint maar dat is zeldzaam en niet zoveel geld waard.
Het punt is dat mensen deze schermen kopen omdat mensen op competitief niveau ook die schermen hebben (zoals wielrenners in pakjes en dure fietsen rondfietsen -pro wielren fiets is geen 100000, eerder 10 tot 15k), hebben ze het nodig, nee. Heb ik het nodig nee, ga ik het niet kopen om me alsnog pro te voelen. Dat is waar de fabrikanten hun geld aan verdienen, mensen het gevoel geven dat ze het nodig hebben. Het is een beetje het xbox/ps4 verhaal vs nintendo switch. Heb je meer plezier met een xbox /ps dan een switch? Heb je meer plezier uit 144hz vs 60hz , een enkeling wel, de meesten proberen hun aankoop te verantwoorden.
Nieuwe technieken bieden wel game voordelen of game ervaring maar in dit geval (sync) niet in de mate waarmee sommige het laten voorkomen. Een 1080(Ti) zonder sync speelt gewoon soepel op 4k.
(even voor de duidelijkheid, ik heb het niet over Vsync)

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op donderdag 27 juli 2017 @ 00:45:
Wat grappig is is dat er wordt vermeld dat mensen zoveel jaar game ervaring hebben. Nu heeft dat wel waarde maar ik denk dat iemand van 50? minder snel microstuttering gaat opmerken dan iemand die een stuk jonger is, lees middelbare school. Met gamen zal het minder snel opvallen omdat je natuurlijk ervaring opdoet en dat kan blijven gebruiken, maar je zal sowieso trager worden.
Je reflexen nemen iets af als je ouder wordt.
Dat klopt maar iemand van in de 30 met veel ervaring en training kan zich allicht nog wel meten met een puber met weinig ervaring en training.

Acties:
  • 0 Henk 'm!

Verwijderd

Met jouw verhaal over wielrennen ben ik het eens, met de kanttekening dat je wel degelijk duurder dan 15k tegenkomt en vooral op de baan omdat die op maat worden gemaakt op basis van windtunnelmetingen bij verschillende houdingen. Voor een groot deel kopen amateurs zulk spul zonder er iets aan te hebben.
Ja, de pro's moeten wel omdat hun concurrenten het ook doen en voor de amateurs maakt het zelden verschil.

Bij gaming zien veel gewone gamers tears, dan heb je baat bij anti-tear technologie. Voor recreatief gaming wat de meeste mensen doen is het niet zien van tears al snel belangrijker dan het reduceren van de input lag van 10 ms. naar 7 ms. , lijkt mij. Ik ben ook een van die mensen die die tears ziet, ik stopte zelfs met 1 spel te spelen na het een uur gespeeld te hebben omdat ik die tears te hinderlijk vond. Ik zie ze bij alle spellen (Borderlands 2, Bioshock Infinite, Assassin's Creed, Deus Ex...) maar bij dat spel was het extra hinderlijk om de een of andere reden. Als jij die tears niet ziet dan feliciteer ik jou daarmee, dan heb jij dat inderdaad niet nodig. ;)

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Verwijderd schreef op donderdag 27 juli 2017 @ 14:10:
Met jouw verhaal over wielrennen ben ik het eens, met de kanttekening dat je wel degelijk duurder dan 15k tegenkomt en vooral op de baan omdat die op maat worden gemaakt op basis van windtunnelmetingen bij verschillende houdingen. Voor een groot deel kopen amateurs zulk spul zonder er iets aan te hebben.
Ja, de pro's moeten wel omdat hun concurrenten het ook doen en voor de amateurs maakt het zelden verschil.

Bij gaming zien veel gewone gamers tears, dan heb je baat bij anti-tear technologie. Voor recreatief gaming wat de meeste mensen doen is het niet zien van tears al snel belangrijker dan het reduceren van de input lag van 10 ms. naar 7 ms. , lijkt mij. Ik ben ook een van die mensen die die tears ziet, ik stopte zelfs met 1 spel te spelen na het een uur gespeeld te hebben omdat ik die tears te hinderlijk vond. Ik zie ze bij alle spellen (Borderlands 2, Bioshock Infinite, Assassin's Creed, Deus Ex...) maar bij dat spel was het extra hinderlijk om de een of andere reden. Als jij die tears niet ziet dan feliciteer ik jou daarmee, dan heb jij dat inderdaad niet nodig. ;)
Maar heb je daarvoor g-sync of freesync nodig, is vsync of fast sync niet voldoende dan?
Voor fps krijg je hogere input lagg met vsync, maar voor de games die jij aangeeft maakt dat gewoon niet uit die 16ms extra (60fps) en minder voor 120fps, 16ms extra is onmerkbaar in single player games, multiplayer games ander verhaal, zit je dan op een server 10ms met amerikanen met 100ms... :+
Ik merk geen tearing maar als ik fps speel ben ik niet bepaald aan het letten op dat soort dingen. En de single players games speel ik gewoon met vsync aan en of hoogste settings en dan haal ik de 60fps waarschijnlijk niet met een gtx970.

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 14:28
Ik vond mijn freesync scherm het helemaal waard, maar ik probeer dan ook op 4k tussen de 45-60 fps te spelen. Daarbij kon ik toch wel merken dat het wat haperingen verminderd zolang het niet te laag zakt en tearing voorkomt zolang het niet boven de 62 uit komt.

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
aminam schreef op donderdag 27 juli 2017 @ 14:48:
Ik vond mijn freesync scherm het helemaal waard, maar ik probeer dan ook op 4k tussen de 45-60 fps te spelen. Daarbij kon ik toch wel merken dat het wat haperingen verminderd zolang het niet te laag zakt en tearing voorkomt zolang het niet boven de 62 uit komt.
Haperingen zijn microstutters, niet tearing (sync gaat meestal uit onder de 60fps --> adaptive vsync b.v).,
Onder 60fps kan je meer last krijgen van microstutter, boven met tearing (tearing kan wel onder 60fps maar praktisch niet).
Door een hogere fps dan screen refresh b.v. krijg je b.v. tearing dat is wat free/g-sync adaptief doet, refreshrate scherm aanpassen aan input om zo de halve buffers te voorkomen (sync, de naam verklapt het al).
Onder de 60fps heb je bijna niks aan freesync/gsync of vsync.

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41
D0gtag schreef op donderdag 27 juli 2017 @ 14:47:
[...]

Maar heb je daarvoor g-sync of freesync nodig, is vsync of fast sync niet voldoende dan?
Voor fps krijg je hogere input lagg met vsync, maar voor de games die jij aangeeft maakt dat gewoon niet uit die 16ms extra (60fps) en minder voor 120fps, 16ms extra is onmerkbaar in single player games, multiplayer games ander verhaal, zit je dan op een server 10ms met amerikanen met 100ms... :+
Ik merk geen tearing maar als ik fps speel ben ik niet bepaald aan het letten op dat soort dingen. En de single players games speel ik gewoon met vsync aan en of hoogste settings en dan haal ik de 60fps waarschijnlijk niet met een gtx970.
V-sync is voor veel mensen niet voldoende.het geeft in het geval van een scherm met 60Hz een extra inputlag van 16.6ms, in het geval van tripple buffering zelfs 33.33ms. Indien je geen gebruik maakt van fast sync of een vergelijkbare techniek dan kan de inputlag nog groter zijn omdat op 30hz de inputlag met v-sync 33.3ms is. Dit is heel erg merkbaar en je kan er zee/wagenziek van worden.
In tegenstelling tot CHBF forceer ik v-sync altijd uit omdat ik er dus niet tegenkan. Ik neem de tearing die ik wel zie maar gewoon negeer dan voor lief.

Dus eens met dat fast sync al een verbetering geeft, helaas ben je dan gelimiteerd aan het aantal hertz van je monitor en anders valt je v-sync uit. Met adaptive sync (freesync en g-sync), blijf je altijd tear free.

Het is natuurlijk per persoon afhankelijk wat hij er voor wil betalen, momenteel zit ik op een goed scherm. Mijn volgende scherm zal waarschijnlijk wel een worden met Freesync, en dan ook meteen een ultra wide 4k ;).

Het is natuurlijk ook heel afhankelijk van de game engine en van de spellen die je speelt. Lagere fps met Crysis was niet zo merkbaar door de motion blur. Met een spel zoals City Skylines is fps ook niet alles.

Acties:
  • 0 Henk 'm!
D0gtag schreef op woensdag 26 juli 2017 @ 22:41:
[...]

Ik heb een (jaar geleden) 4k 60hz (low input lagg, 4:4:4) tv gekocht als monitor. BF4 op 100+CM @4k, immersion next lvl (en het is haast cheaten in FPS) :P
Maar het werkt erg relaxt, ik snap niet dat meer bedrijven dat doen _/-\o_
Ook meteen sociale controle, want iedereen ziet of je aan het werk bent of porno aan het kijken bent in de baas zijn tijd, vunzige interne mails behoort tot het verleden :+


[...]

Oooh nasty als het toch echt waar is dat vega zo duur gaat worden :+
(Comments bij de test)
Na 144Hz gehad te hebben kan ik 60hz niet meer aan zien. Zo traag en schokkerig.
Dat vond ik ook het grootste gemis toen ik van mijn 19"sony trinitron over ging naar een Dell 2405WFP. de sony kon 85Hz aan de dell was maar 60. Mja met TFT kon je lange tijd niet anders.
Nu een 144Hz IPS scherm met 1:1200 contrast echt geweldig zou niet anders meer willen. Liever 144Hz en 1440p dan 4K 60Hz. 60Hz is voor mij nu een dikke no go. Ik wil minimaal iets van 90 tot 120 zie ik nog wat verschil daar boven merken mijn ogen er weinig van maar dat verschilt per persoon.
De meeste vrienden van mij zien het verschil duidelijk maar een zag het verschil tussen 60 en 144 al niet. Maar dat schijnt te kunnen dat sommige mensen dat gewoon niet waar nemen.

Ik zie LED lampen ook vaak knipperen/soort van vaag flikkeren in ieder geval geen rustig licht (Philips Hue doet dit gelukkig wel goed en daar zie ik het niet). Heel iritant.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Interessante productcode...
https://www.reddit.com/r/...rx_vega_64_8gb_hdmi_dpx3/

(LIQUID)

Acties:
  • +1 Henk 'm!

  • untflanked
  • Registratie: Augustus 2014
  • Laatst online: 22:52
Amd heeft nooit vermeld dat het $300 verschil in het voordeel van AMD is....

Ryzen 7700 | RX 6800 XT | 2x16GB DDR5 | Cooler Master NR200P


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41
D0gtag schreef op donderdag 27 juli 2017 @ 14:57:
[...]

Haperingen zijn microstutters, niet tearing (sync gaat meestal uit onder de 60fps --> adaptive vsync b.v).,
Onder 60fps kan je meer last krijgen van microstutter, boven met tearing (tearing kan wel onder 60fps maar praktisch niet).
Door een hogere fps dan screen refresh b.v. krijg je b.v. tearing dat is wat free/g-sync adaptief doet, refreshrate scherm aanpassen aan input om zo de halve buffers te voorkomen (sync, de naam verklapt het al).
Onder de 60fps heb je bijna niks aan freesync/gsync of vsync.
Kleine aanvulling, tearing onder de 60fps zie je juist meer is mijn ervaring, omdat het wat trager is en langer blijft.
Op hoge fps in combinatie met een scherm wat 90+ hertz kan zie je het minder snel.

Onder de 60fps is het juist fijn om freesync en gsync, aan vsync heb je inderdaad dan niks meer dat geeft te veel input lag.
Astennu schreef op donderdag 27 juli 2017 @ 15:07:
[...]
Ik zie LED lampen ook vaak knipperen/soort van vaag flikkeren in ieder geval geen rustig licht (Philips Hue doet dit gelukkig wel goed en daar zie ik het niet). Heel iritant.
Op de snelweg zie je inderdaad veel epilepsi golfjes :X. Daar wordt ik knetter van, die led lampjes daarin zijn uitermate vervelend. Bij een ander merk zag ik het ook, weet even alleen niet meer welke ik dacht audi.

Acties:
  • 0 Henk 'm!

Verwijderd

D0gtag schreef op donderdag 27 juli 2017 @ 14:57:
[...]

Haperingen zijn microstutters, niet tearing (sync gaat meestal uit onder de 60fps --> adaptive vsync b.v).,
Onder 60fps kan je meer last krijgen van microstutter, boven met tearing (tearing kan wel onder 60fps maar praktisch niet).
Door een hogere fps dan screen refresh b.v. krijg je b.v. tearing dat is wat free/g-sync adaptief doet, refreshrate scherm aanpassen aan input om zo de halve buffers te voorkomen (sync, de naam verklapt het al).
Onder de 60fps heb je bijna niks aan freesync/gsync of vsync.
Zonder syncing krijg je bij elke FPS tears! Je hebt meer/minder tears onder/boven de refreshrate van je monitor maar bij elke FPS krijg je ze als je geen syncing gebruikt.
Sp3ci3s8472 schreef op donderdag 27 juli 2017 @ 16:20:
[...]


Kleine aanvulling, tearing onder de 60fps zie je juist meer is mijn ervaring, omdat het wat trager is en langer blijft.
Doordat het langer te zien is herken je het beter maar er is ook een verband tussen hoeveel procent van de frames een tear bevat en hoe hoog de FPS en de refreshrate zijn, dat is iets ingewikkelder in te zien maar het is er wel.
untflanked schreef op donderdag 27 juli 2017 @ 16:11:
Amd heeft nooit vermeld dat het $300 verschil in het voordeel van AMD is....
Jou is allicht nooit verteld dat het pijn doet als jij van de 20ste verdieping van een flat springt zonder een parachute of iets dergelijks te gebruiken maar hopelijk voor jou begrijp jij dat zonder dat iemand het jou vertelt. 8)7

[ Voor 55% gewijzigd door Verwijderd op 27-07-2017 17:22 ]


Acties:
  • 0 Henk 'm!

  • untflanked
  • Registratie: Augustus 2014
  • Laatst online: 22:52
Jou is allicht nooit verteld dat het pijn doet als jij van de 20ste verdieping van een flat springt zonder een parachute of iets dergelijks te gebruiken maar hopelijk voor jou begrijp jij dat zonder dat iemand het jou vertelt. 8)7
Jij hebt allicht de reddit link niet bekeken. Er wordt gesproken over een prijs van $1150, vandaar mijn opmerking. Maar goed, ik spring dan ook regelmatig van de flat.

Ryzen 7700 | RX 6800 XT | 2x16GB DDR5 | Cooler Master NR200P


Acties:
  • 0 Henk 'm!

Verwijderd

untflanked schreef op donderdag 27 juli 2017 @ 17:25:
[...]


Jij hebt allicht de reddit link niet bekeken. Er wordt gesproken over een prijs van $1150, vandaar mijn opmerking. Maar goed, ik spring dan ook regelmatig van de flat.
Als ik jou vertel dat de aarde driehoekig is, geloof jij dat dan ook? Er wordt wel meer onzin beweerd op het internet, het gaat niet gebeuren dat AMD voor RX Vega (gewone versie!) meer rekent dan wat de Nvidia-concurrent kost. Never gonna happen, AMD zou het niet verkopen.

Acties:
  • 0 Henk 'm!

  • untflanked
  • Registratie: Augustus 2014
  • Laatst online: 22:52
Verwijderd schreef op donderdag 27 juli 2017 @ 17:34:
[...]

Als ik jou vertel dat de aarde driehoekig is, geloof jij dat dan ook? Er wordt wel meer onzin beweerd op het internet, het gaat niet gebeuren dat AMD voor RX Vega (gewone versie!) meer rekent dan wat de Nvidia-concurrent kost. Never gonna happen, AMD zou het niet verkopen.
We zullen het zien. On the side vind ik wel dat je enigszins apart reageert voor een grapje tussendoor. Misschien moet ik /s even toevoegen volgende keer.

Ryzen 7700 | RX 6800 XT | 2x16GB DDR5 | Cooler Master NR200P


Acties:
  • 0 Henk 'm!

Verwijderd

Een lesje in marketing (voor de meeste mensen overbodig maar voor een enkeling blijkbaar handig), als bedrijf X zegt dat een van de twee producten dezelfde ervaring levert onder voor minder geld dan weet je dat het over hun product gaat welke minder kost. Anders is het nogal dom om dat verschil op te merken en deze mensen zijn echt niet zo dom dat ze dat zouden doen. :')

Hoe komt AMD aan die $300? G-Sync kost al minstens $200 extra. De prijs van RX Vega zal dus maximaaal hetzelfde zijn als die van de Nvidia tegenhanger - wat dat dan ook moge zijn - en in het beste geval $100 lager liggen als ze van $200 verschil uitgaan voor de G-Sync monitor, in de praktijk is het verschil tussen G-Sync en niet-G-Sync echter vaak ook groter dus het zou ook alleen over de G-Sync monitor kunnen gaan.

@PaprikaGreat, een goede aanleiding om aan mijn Spaans te werken.
Dus wat we al verwachtten: 1 volle versie met waterkoeling, 1 volle versie zonder waterkoeling en 1 cut met de grootte die we zagen aankomen dankzij het lekken door Apple. :)
En een paper launch, dat is ook niet echt een verrassing. Alleen is Videocardz nogal vaag met "anytime soon". Als de cut in september volgt zou het dan niet logisch zijn dat de volle kaart van de AIB-partners begin september komt? + dat @The Source liet weten dat we op september mogen rekenen. Hoe zit het dan met de referentiekaart? Die zou dan toch ergens in augustus verkrijgbaar moeten zijn? Half augustus valt voor mij nog wel onder anytime soon. :?

[ Voor 35% gewijzigd door Verwijderd op 27-07-2017 17:52 ]


Acties:
  • +1 Henk 'm!

  • untflanked
  • Registratie: Augustus 2014
  • Laatst online: 22:52
http://lmgtfy.com/?q=Sarcasm

Ongelofelijk dat je doorgaat op een post vol van sarcasme over de eventuele prijs. Ik zou even dit topic fijn wegklikken voor vandaag. Verder ga ik hier ook niet meer op in, blijkbaar heb je deze kennisgeving op een forum naar een enkeling zeer hard nodig met je hoofd.

[ Voor 99% gewijzigd door untflanked op 27-07-2017 17:52 ]

Ryzen 7700 | RX 6800 XT | 2x16GB DDR5 | Cooler Master NR200P


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online

Acties:
  • 0 Henk 'm!

Verwijderd

untflanked, bespaar je de moeite, jouw reacties lees ik voorlopig niet meer, ik ben er klaar mee.

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 20:17
Waarom horen we eigenlijk niets over Vega 11? Komt dat ding pas veel later of was het slechts een gerucht waar niets van waar was?

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
NitroX infinity schreef op donderdag 27 juli 2017 @ 17:54:
Waarom horen we eigenlijk niets over Vega 11? Komt dat ding pas veel later of was het slechts een gerucht waar niets van waar was?
Je wilt dingen horen? Kan geregeld worden...
https://mobile.twitter.com/bitsandchipseng?lang=en

Wordt overigens zeker wel een stuk later. Dit jaar kan ik me al helemaal niet voorstellen.

[ Voor 11% gewijzigd door Paprika op 27-07-2017 17:56 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Bedenk hierbij wel dat retailers soms belachelijk hoge prijzen rekenen voor nieuwe producten (early adopters fee, hoog boven de prijs van de concurrent zitten, ervan profiteren dat de concurrentie in het begin nog minder groot is en dat er mogelijk nog een schaarste is), vooral de eerste paar weken. Bij Ryzen zagen we dat een Franse winkel honderden euro's meer rekende tijdens de eerste week. Zelfs als dit waar zou zijn zegt het weinig.
NitroX infinity schreef op donderdag 27 juli 2017 @ 17:54:
Waarom horen we eigenlijk niets over Vega 11? Komt dat ding pas veel later of was het slechts een gerucht waar niets van waar was?
Later of niet.

[ Voor 38% gewijzigd door Verwijderd op 27-07-2017 17:58 ]


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

Dat is dezelfde prijs als de FE en iets minder dan een Fiji Pro Duo (nieuw prijs) die nu rond de 2000€ van hand verwisseld :F

[ Voor 5% gewijzigd door Damic op 27-07-2017 18:12 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 20:47
Verwijderd schreef op donderdag 27 juli 2017 @ 17:55:
[...]

Bedenk hierbij wel dat retailers soms belachelijk hoge prijzen rekenen voor nieuwe producten (early adopters fee, hoog boven de prijs van de concurrent zitten, ervan profiteren dat de concurrentie in het begin nog minder groot is en dat er mogelijk nog een schaarste is)
Anders heeft Daniel ook niets om over te huilen he ;)

Acties:
  • +1 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Mijn spaans is prima:
Ya tenemos por aquí los precios de las AMD Radeon RX Vega para el mercado europeo
Ze hebben de prijzen kunnen bemachtigen van de vega voor de europese markt (edit: in dollars....)

Estas tres gráficas se moverán con precios que no serán exactos, pero si muy cercanos.

Deze drie grafische kaarten hebben prijzen die niet exact zijn, maar zitten in de buurt.

Esto nos da un precio de partida de 723 hasta los 930 euros para el modelo refrigerado por agua,

(als ze de dollar prijzen omzetten naar euro en btw toevoegen) geeft het een prijs van tussen de 723 tot aan 930 euro voor de watergekoelde versie.
-Daaronder schrijven ze ook nog over de marges van derden, en geven ze een prijs een paar tientjes hoger erbij. -

In bold:
AMD Radeon RX Vega serían un fracaso
(no shit sherlock) -als dit de prijzen zijn- is de vega een ramp.

De rest is niet relevant: prijs 1080, wanneer de presentatie is van AMD.

abort abort: abandon ship....:

Ik ga wel threadripper nieuws kijken. delidding een threadripper.
offtopic:
holy shit threadripper is gewoon epyc met 4 ryzens, waarvan twee niet werken _/-\o_ 32core mod incomming, goed en slecht nieuws in een dag

[ Voor 12% gewijzigd door D0gtag op 27-07-2017 19:24 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

Holy sh!t ja dat wel of het zijn slechte dies en op elke die zijn er cores uitgeschakeld en/of zou smt uitgeschakeld zijn?

[ Voor 16% gewijzigd door Damic op 27-07-2017 19:49 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Damic schreef op donderdag 27 juli 2017 @ 19:45:
Holy sh!t ja dat wel of het zijn slechte dies en op elke die zijn er cores uitgeschakeld en/of zou smt uitgeschakeld zijn?
offtopic:
Ja maar de dies testen ze eerst voordat ze ryzen 7, 5 of 3 worden afhankelijk van de functionaliteit, maar ik weiger te geloven dat ze niet werkende dies pakken en extra opplakken. Het makkelijker (=goedkoper) om gewoon een standaard epyc cpu te gebruiken en daar de variaties op te maken soft of hardwarematig (of beide). Hoe dan ook ik hoorde dat een ryzen cpu minder dan 100usd kost volledige pakket(=cpu), dus de die zelf zal nog minder zijn kost het misschien 240 aan dies en 60euro aan pakage om de cpu te maken. Threadripper kost vanaf 800 en de epyc kost aanzienlijk meer. Dikkkkkkkke marges. 1 product verkopen als 12, priceless.

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

Intel en nVidia doet dat al jaren :F kan ook zijn om te laten zien dat hun IF heel goed werkt en dat je het verschil niet merkt.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
418O2 schreef op donderdag 27 juli 2017 @ 18:18:
[...]

Anders heeft Daniel ook niets om over te huilen he ;)
He, laat mij eens. :(
Ben alsnog tevreden met al mijn AMD spul hoor. Hoewel, Crimson 17.7.1 was letterlijk de eerste driver waar ik problemen mee heb gehad, sinds 2010, toen ik een 9500GT had, ja tijdelijk het groene kamp voor mijn 5850. :+



Verder die prijzen, tja wat moet je hier nu mee. Kan niemand zich nog herinneren dat Vega FE ook opdook voor honderden Euro's extra? Ik neem die prijzen met een korreltje zout. Zeker die uit Zweden waar je toch al extreem veel betaalt...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
DaniëlWW2 schreef op donderdag 27 juli 2017 @ 20:07:
[...]


He, laat mij eens. :(
Ben alsnog tevreden met al mijn AMD spul hoor. Hoewel, Crimson 17.7.1 was letterlijk de eerste driver waar ik problemen mee heb gehad, sinds 2010, toen ik een 9500GT had, ja tijdelijk het groene kamp voor mijn 5850. :+



Verder die prijzen, tja wat moet je hier nu mee. Kan niemand zich nog herinneren dat Vega FE ook opdook voor honderden Euro's extra? Ik neem die prijzen met een korreltje zout. Zeker die uit Zweden waar je toch al extreem veel betaalt...
Die mythe van Zweden is gisteren ook ontkracht, zoveel duurder dan in NL zijn ze niet.

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
DaniëlWW2 schreef op donderdag 27 juli 2017 @ 20:07:
[...]


He, laat mij eens. :(
Ben alsnog tevreden met al mijn AMD spul hoor. Hoewel, Crimson 17.7.1 was letterlijk de eerste driver waar ik problemen mee heb gehad, sinds 2010, toen ik een 9500GT had, ja tijdelijk het groene kamp voor mijn 5850. :+



Verder die prijzen, tja wat moet je hier nu mee. Kan niemand zich nog herinneren dat Vega FE ook opdook voor honderden Euro's extra? Ik neem die prijzen met een korreltje zout. Zeker die uit Zweden waar je toch al extreem veel betaalt...
Sweedse prijzen waren al iffy, maar de spaanse site komt toch wel in de buurt ben ik bang, nog 4 dagen :) .

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
D0gtag schreef op donderdag 27 juli 2017 @ 20:45:
[...]

Sweedse prijzen waren al iffy, maar de spaanse site komt toch wel in de buurt ben ik bang, nog 4 dagen :) .
Als de prijzen fors boven de GTX1080 uitvallen, reken er dan maar op dat RX Vega ook fors beter presteert. ;)
AMD is niet in de positie om product te produceren en dit op de plank te laten liggen omdat het te duur is voor de prestaties. Nee, dan verkopen ze liever voor een kleinere marge, of verschepen ze als Vega FE, Radeon Pro of MI25.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 22:28

edward2

Schieten op de beesten

DaniëlWW2 schreef op donderdag 27 juli 2017 @ 20:55:
[...]


Als de prijzen fors boven de GTX1080 uitvallen, reken er dan maar op dat RX Vega ook fors beter presteert. ;)
AMD is niet in de positie om product te produceren en dit op de plank te laten liggen omdat het te duur is voor de prestaties. Nee, dan verkopen ze liever voor een kleinere marge, of verschepen ze als Vega FE, Radeon Pro of MI25.
Die absurd hoge prijzen zullen wel geen adviesprijzen zijn, maar gelekte van retailers? Dat zie je wel vaker initieel na een release. Ik had zelf wel rekening gehouden met €700-800 voor de snelste 2.

Wat zou de (ref.) uitvoering nou worden, toch niet die zwarte ref. zoals in HardOCP? De FE-heatsink behuizing vind ik best chique, afgezien van die Pratt&Whitney..

[ Voor 11% gewijzigd door edward2 op 27-07-2017 21:15 ]

Niet op voorraad.


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online
edward2 schreef op donderdag 27 juli 2017 @ 21:12:
[...]


Die absurd hoge prijzen zullen wel geen adviesprijzen zijn, maar gelekte van retailers? Dat zie je wel vaker initieel na een release. Ik had zelf wel rekening gehouden met €700-800 voor de snelste 2.
Dat zei ik dus ook al. Vega FE was ook veel te duur opgegeven door een winkel. Verder zakken de prijzen nog wel eens na de eerste release batch. Zagen we met RX500, Ryzen, Nvidia FE kaarten etc etc.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 20:31

flessuh

Set sail for fail!

DaniëlWW2 schreef op donderdag 27 juli 2017 @ 21:13:
[...]


Dat zei ik dus ook al. Vega FE was ook veel te duur opgegeven door een winkel. Verder zakken de prijzen nog wel eens na de eerste release batch. Zagen we met RX500, Ryzen, Nvidia FE kaarten etc etc.
Dit inderdaad.. met de FE scheelde het ook echt aanzienlijk. Ook al zou het me niets verbazen als de watergekoelde versie werkelijk een euro of 7-800 zou worden..
Ik hoop in ieder geval dat de luchtgekoelde 500-600 wordt. Anders wordt het duur. :P

Ik blijf in ieder geval hoopvol dat dit gewoon te hoog opgegeven is, net als de FE.

en dit nog

https://www.reddit.com/r/...ommented_on_vega_pricing/

anyways, het feit dat er al prijzen beginnen te lekken doet mij wel denken dat er al voorraad is en dat de kaarten toch snel genoeg beschikbaar zijn. Dat wordt straks snel een nieuwe PC :*)

[ Voor 18% gewijzigd door flessuh op 27-07-2017 21:19 ]

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 20:47
Als retailer die de prijs nog niet 100% zeker weet ga je natuurlijk met alles rekening houden en ga je dus geen cent onder het worst case scenario zitten

Acties:
  • 0 Henk 'm!

  • hjs
  • Registratie: Juni 1999
  • Niet online

hjs

Totaal ander Radeon kaartje dan waar jullie het normaal over hebben, maar toch.

In mijn laptop zit een R7 M260 en het viel me op dat hij tijdens CS zo weinig geheugen gebruikt volgens het taakbeheer. Nieuwe levels gaan ook in het begin erg traag, net alsof het level in het geheugen moet worden geladen. Iemand toevallig enig idee waar ik dit moet zoeken?
Ik heb nu bewust even een oudere driver geinstalleerd, dacht dat die misschien beter aansloot bij de wat oudere kaart. Maar het probleem is dus ook bij nieuwe drivers.

Afbeeldingslocatie: https://tweakers.net/ext/f/JdH8qCT9Up7GD8rvbkN40azq/full.jpg

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41
hjs schreef op donderdag 27 juli 2017 @ 21:23:
Totaal ander Radeon kaartje dan waar jullie het normaal over hebben, maar toch.

In mijn laptop zit een R7 M260 en het viel me op dat hij tijdens CS zo weinig geheugen gebruikt volgens het taakbeheer. Nieuwe levels gaan ook in het begin erg traag, net alsof het level in het geheugen moet worden geladen. Iemand toevallig enig idee waar ik dit moet zoeken?
Ik heb nu bewust even een oudere driver geinstalleerd, dacht dat die misschien beter aansloot bij de wat oudere kaart. Maar het probleem is dus ook bij nieuwe drivers.

[afbeelding]
Hier kan je beter even een eigen topic voor aanmaken. Plaats ook gelijk dan de rest van systeem (Windows versie, cpu etc...).

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
flessuh schreef op donderdag 27 juli 2017 @ 21:16:
[...]


Dit inderdaad.. met de FE scheelde het ook echt aanzienlijk. Ook al zou het me niets verbazen als de watergekoelde versie werkelijk een euro of 7-800 zou worden..
Ik hoop in ieder geval dat de luchtgekoelde 500-600 wordt. Anders wordt het duur. :P

Ik blijf in ieder geval hoopvol dat dit gewoon te hoog opgegeven is, net als de FE.

en dit nog

https://www.reddit.com/r/...ommented_on_vega_pricing/

anyways, het feit dat er al prijzen beginnen te lekken doet mij wel denken dat er al voorraad is en dat de kaarten toch snel genoeg beschikbaar zijn. Dat wordt straks snel een nieuwe PC :*)
500 - 600 euro vindt je acceptabel voor een kaart die gelijk (of slechter) presteert en meer verbruikt dan een 1080? :?

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 20:31

flessuh

Set sail for fail!

Dat is niet de performance waar ik van uit ga :)

maar ja, ik ga er wel behoorlijk van uit dat dit een placeholder prijs is. Maar ja, nog paar dagen wachten en we weten het

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Fredi
  • Registratie: Februari 2011
  • Laatst online: 09-06 04:29
D0gtag schreef op donderdag 27 juli 2017 @ 09:49:
[...]


Ja, alleen low end blijven bedienen kan niet, AMD heeft nu alleen low end omdat ze achter de feiten aan liepen/lopen en veel te weinig r&d hebben gedaan (uit noodzaak).
AMD loopt verschrikkelijk geheimzinnig te doen, zo mochten ze bij h.ocp niet zelf de radeon drivers installeren, en weten we dagen voor de launch nog niks officieels van AMD.
(behalve 'gelekte' 3dmark scores van AMD engineer)
Misschien omdat er een knallers van kaarten aankomen.. who knows..
Qua Tflops & verbruik zitten de kaarten boven die van de 1070 en verbruik 1080, alleen zitten ze op prestatie niveau van nV,s low end (1060). De rekenkracht is er maar ingame prestaties niet, tenzij de game geoptimaliseerd is voor AMD(doom&vulcan). En kijkend naar de games die uitkomen (9/10 veredelde console ports) is het geen argument dat alles voor nV is geoptimaliseerd.
(Zowel xbox als ps gebruiken AMD hardware).
Ze zijn gedwongen low en mid end, omdat (zoals het er nu uitziet) ze gewoon een kaart maken voor high end maar mid tier uitkomen.
Knallers van kaarten kan al zeker niet, daarvoor ligt het verbruik veel te hoog. Daar is een reden voor, om nog redelijk te kunnen presteren tov de nVidia-kaarten maar ze gaan er zeker niet voorbijgaan.

Acties:
  • +1 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13:58
Over die 4 dagen waar jullie het over hebben mag je enkel info van AMD verwachten, dus gelimiteerd en wellicht best case. Reviewers hebben nog geen kaarten in handen en de NDA voor reviews duurt nog ff.

Acties:
  • 0 Henk 'm!

  • The Chosen One
  • Registratie: Juni 2007
  • Laatst online: 18:12

The Chosen One

Zie signature!

Sure maar ze zullen toch echt met "real world/ praktijk" info moeten komen anders gaan ze echt klanten verliezen. En die best case info krijg je bij elke presentatie dus dat is ook niet echt bijzonder.
En elke dag dichterbij en het event zelf kan voor meer leaks/en "verkregen" kaarten zorgen.

Mijn LEGALE dvd collectie; (altijd onder constructie) http://www.invelos.com/dvdcollection.aspx/The%20Chosen%20One - - - - - - - - - Quietum Grandis: https://nl.hardware.info/usersystemen/28203/quietum-grandis---ryzen-2700x-game-pc


Acties:
  • +2 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 13:58
Verwijderd schreef op donderdag 27 juli 2017 @ 17:46:
. Als de cut in september volgt zou het dan niet logisch zijn dat de volle kaart van de AIB-partners begin september komt? + dat @The Source liet weten dat we op september mogen rekenen. Hoe zit het dan met de referentiekaart? Die zou dan toch ergens in augustus verkrijgbaar moeten zijn? Half augustus valt voor mij nog wel onder anytime soon. :?
Ik onderscheid 3 categorieen;
- Finished card (we doen er een doos omheen en klaar).
- Reference card (gebaseeerd op AMD reference PCB design, meestal reference cooler maar er zijn ook merken die er een eigen custom (meestal goedkoper die tegelijkertijd ook beter koelt :) ) erop gooien.
- Custom PCB / Custom Cooler.

Van sommige kaarten laten AMD/NV het niet toe om een custom versie te maken (je krijgt die GPU/Memory kits niet geleverd). Oh en ja... laatste jaren kopen wij geen GPUs maar ook memory. Dit is het truukje van bv NV om hun turnover te vergroten. GPU's kun je met 80% share en goede margin weinig in groeien maar de aandeelhouders verwachten omzet groei. Geheugen inkopen kunnen ze voor alle vendors in nog grote getallen, voor lagere prijs, Dus zij meer turnover, klein beetje meer winst. Ik zie soms mensen schreeuwen, waarom Elpida or warom geen Samsung. Nou omdat NV / AMD dat niet leveren (dus ze konden het niet inkopen en/of er genoeg winst op maken.
The Chosen One schreef op donderdag 27 juli 2017 @ 22:31:
Sure maar ze zullen toch echt met "real world/ praktijk" info moeten komen anders gaan ze echt klanten verliezen. En die best case info krijg je bij elke presentatie dus dat is ook niet echt bijzonder.
En elke dag dichterbij en het event zelf kan voor meer leaks/en "verkregen" kaarten zorgen.
Denk aan een lancering van de founder edition of Ryzen. Paar slides met benchmarks die wel kloppen en reproduceerbaar zijn, maar ook de beste kant laten zien (Ryzen met Cinebench multi cores. Dan weken later als de editors de samples kunnen testen kun je veelzijdige benchmarks verwachten die een duidelijk beeld geven.

[ Voor 20% gewijzigd door The Source op 27-07-2017 22:38 ]


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
The Source schreef op donderdag 27 juli 2017 @ 22:27:
Over die 4 dagen waar jullie het over hebben mag je enkel info van AMD verwachten, dus gelimiteerd en wellicht best case. Reviewers hebben nog geen kaarten in handen en de NDA voor reviews duurt nog ff.
(want 2 aug = final bios aanlevertijd, enz.)

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Tadream
  • Registratie: Augustus 2002
  • Laatst online: 20:53
DaniëlWW2 schreef op donderdag 27 juli 2017 @ 20:55:
[...]
Als de prijzen fors boven de GTX1080 uitvallen, reken er dan maar op dat RX Vega ook fors beter presteert. ;)
AMD is niet in de positie om product te produceren en dit op de plank te laten liggen omdat het te duur is voor de prestaties. Nee, dan verkopen ze liever voor een kleinere marge, of verschepen ze als Vega FE, Radeon Pro of MI25.
Dat zou ik ook denken. Als ze er die prijs voor willen hebben dan kan AMD wellicht toch nog voor een verrassing zorgen en blaast die de 1080(Ti) weg.
Ondertussen game ik verder met m'n onlangs aangeschafte 1080Ti, ik twijfelde nog over de Vega maar na de 1e benchmarks (weliswaar van de FE) en het vermogen wat die nodig hebt ben ik toch voor de 1080Ti gegaan.
Maar volg het AMD nieuws op de voet.

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
The Source schreef op donderdag 27 juli 2017 @ 22:27:
Over die 4 dagen waar jullie het over hebben mag je enkel info van AMD verwachten, dus gelimiteerd en wellicht best case. Reviewers hebben nog geen kaarten in handen en de NDA voor reviews duurt nog ff.
Ik mag hopen dat ze dan iets vertellen over de performance tav de concurrenten en prijs, zo niet, doei vega, ik ga niet meespelen met dit stomme spelletje. Met de info van AMD (wat altijd best case scenario is) kan je wel uitgaan wat de prestaties zijn en of de leaks accuraat waren.
Maar 500 of 600€ en 1080 prestaties, misschien als dx12 en vulkan aanzienlijk beter is dan een 1080 wel. Neem ik het extra vermogen voor lief en als toekomst proof. 5 a 600€ voor de goedkoopste variant van vega en als alleen de aio cooler versie 1080 prestaties laat zien... en als ze geen reet laten zien aanstaande maandag :+
AMD cpu met 1080ti :9

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
The Source schreef op donderdag 27 juli 2017 @ 22:36:
[...]

Ik onderscheid 3 categorieen;
- Finished card (we doen er een doos omheen en klaar).
- Reference card (gebaseeerd op AMD reference PCB design, meestal reference cooler maar er zijn ook merken die er een eigen custom (meestal goedkoper die tegelijkertijd ook beter koelt :) ) erop gooien.
- Custom PCB / Custom Cooler.

Van sommige kaarten laten AMD/NV het niet toe om een custom versie te maken (je krijgt die GPU/Memory kits niet geleverd). Oh en ja... laatste jaren kopen wij geen GPUs maar ook memory. Dit is het truukje van bv NV om hun turnover te vergroten. GPU's kun je met 80% share en goede margin weinig in groeien maar de aandeelhouders verwachten omzet groei. Geheugen inkopen kunnen ze voor alle vendors in nog grote getallen, voor lagere prijs, Dus zij meer turnover, klein beetje meer winst. Ik zie soms mensen schreeuwen, waarom Elpida or warom geen Samsung. Nou omdat NV / AMD dat niet leveren (dus ze konden het niet inkopen en/of er genoeg winst op maken.


[...]


Denk aan een lancering van de founder edition of Ryzen. Paar slides met benchmarks die wel kloppen en reproduceerbaar zijn, maar ook de beste kant laten zien (Ryzen met Cinebench multi cores. Dan weken later als de editors de samples kunnen testen kun je veelzijdige benchmarks verwachten die een duidelijk beeld geven.
Ik verwacht in ieder geval "worst case" van Vega.

Na alle geruchten kan ik de kaart niet meer positief in zien, dus zal zeer verbaasd zijn als deze serieus een contender wordt voor de 1080Ti.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 22:28

edward2

Schieten op de beesten

The Source schreef op donderdag 27 juli 2017 @ 22:27:
Over die 4 dagen waar jullie het over hebben mag je enkel info van AMD verwachten, dus gelimiteerd en wellicht best case. Reviewers hebben nog geen kaarten in handen en de NDA voor reviews duurt nog ff.
Dit dacht ik al, RX Vega is dan nog niet helemaal klaar voor release en/of reviews. In de breedte zijn de drivers nog niet af, maw, perf. is nog grillig?
Maar ik verwacht wel een paar richtwaarden/benchmarks/sides van AMD, natuurlijk optimal cases ;)

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • NLKornolio
  • Registratie: Februari 2010
  • Laatst online: 12-09 21:14

NLKornolio

BF3/BF4: NLKornolio

@ArcticWolf mijn nieuwste gerucht, vega is 2x sneller als de ti.

Gelukkig heb ik je weer positief kunnen maken over de kaart.

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
NLKornolio schreef op donderdag 27 juli 2017 @ 23:05:
@ArcticWolf mijn nieuwste gerucht, vega is 2x sneller als de ti.

Gelukkig heb ik je weer positief kunnen maken over de kaart.
Jou gerucht is nog slechter dan de HardOCP test :)

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 12-09 21:16
ArcticWolf schreef op donderdag 27 juli 2017 @ 23:13:
[...]

Jou gerucht is nog slechter dan de HardOCP test :)
Lager dan die test kan bijna niet :+

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
sjekneck schreef op donderdag 27 juli 2017 @ 23:17:
[...]

Lager dan die test kan bijna niet :+
Boedapest event? Bij H hadden ze tenminste nog gamers met ervaring aanwezig geen chicks zonder BH en wisten ze welke pc welke gpu had.

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • +1 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 12-09 13:37
Ik ZIE liever een chick zonder BH dan een gamer met ervaring.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +1 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
winwiz schreef op donderdag 27 juli 2017 @ 23:22:
Ik ZIE liever een chick zonder BH dan een gamer met ervaring.
Dan kan je beter xhamster opstarten ipv tweakers.

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

Verwijderd

418O2 schreef op donderdag 27 juli 2017 @ 18:18:
[...]

Anders heeft Daniel ook niets om over te huilen he ;)
LOL

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
D0gtag schreef op donderdag 27 juli 2017 @ 23:32:
[...]

Dan kan je beter xhamster opstarten ipv tweakers.
(8> ;(

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 22:28

edward2

Schieten op de beesten

http://www.pcgameshardwar...roller-Taktraten-1234291/

Lees ik dat nou goed, het Duits zakt een beetje weg, ~600GB/s voor RX Vega?!
Of staat er dat de mem. controler capabel/rated is voor 600GB/s?

[ Voor 15% gewijzigd door edward2 op 27-07-2017 23:44 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
Het lijkt me sowieso een bizar gezicht om een Vega een ander spel dan DOOM te zien afspelen, kan hij het wel?

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Nature schreef op donderdag 27 juli 2017 @ 23:40:
Het lijkt me sowieso een bizar gezicht om een Vega een ander spel dan DOOM te zien afspelen, kan hij het wel?
Crysis }:O

Acties:
  • 0 Henk 'm!

Verwijderd

FYI
Crysis is een van die spellen die beter draait op Ryzen dan op de Intel CPU's. Knap werk van Crytek. Spijtig dat ze zich later met andere zaken bezig hielden die ze minder goed kunnen.
D0gtag schreef op donderdag 27 juli 2017 @ 19:58:
[...]

offtopic:
Ja maar de dies testen ze eerst voordat ze ryzen 7, 5 of 3 worden afhankelijk van de functionaliteit, maar ik weiger te geloven dat ze niet werkende dies pakken en extra opplakken. Het makkelijker (=goedkoper) om gewoon een standaard epyc cpu te gebruiken en daar de variaties op te maken soft of hardwarematig (of beide). Hoe dan ook ik hoorde dat een ryzen cpu minder dan 100usd kost volledige pakket(=cpu), dus de die zelf zal nog minder zijn kost het misschien 240 aan dies en 60euro aan pakage om de cpu te maken. Threadripper kost vanaf 800 en de epyc kost aanzienlijk meer. Dikkkkkkkke marges. 1 product verkopen als 12, priceless.
Ik hoop dat dit geen nieuws voor jou is, Intel doet al heel erg lang exact hetzelfde maar nog een graadje erger. Waar AMD enkel nog wat R3-CPU's zonder SMT verkoopt omdat nu eenmaal op een deel van de CPU's dit defect is en om een nog lagere prijs te kunnen vragen onthoudt Intel via de microcode perfect werkende SMT op alle i5-CPU's. Jawel, die 7600, 7500, 7400...hebben gewoon HT maar het is disabled via software. Hoe weten we dat die CPU's dat hebben? Omdat Intel precies hetzelfde doet als AMD: ze bakken op een grote wafer een hoop CPU's en gebaseerd op hoe goed ze functioneren wat gedeeltelijk samenhangt met de plaats op de wafer (kansrekening) binnen ze het als een bepaald segment. Het is veel goedkoper om die allemaal van dezelfde productielijn te halen dan om verschillende productielijnen hiervoor te hebben. Alleen Intel schakelt dan ook nog voor i5 HT uit waar AMD het gewoon aan laat staan en Intel schakelt via sofware het overklokken uit waar AMD het aan laat staan.

Echter is het volgens mij niet de bedoeling dat het hier over CPU's gaat. Ontopic, helaas blijkt AMD Settings nog steeds problemen te hebben met het updaten via AMD settings. Geen idee wat de reden is. Ik had de laatste keer alles verwijderd en opnieuw geïnstalleerd (maar de laatste versie) en nu blijk ik nog steeds niet via AMD settings de laatste drivers te kunnen downloaden. Meestal heb ik er geen haast mee aangezien ik toch niet de nieuwste games speel maar gezien die Enhanced Sync feature (eens zien hoe het werkt) probeerde ik het gisteren maar eens. AMD moet echt eens deze bug oplossen. Het kan niet zo heel erg ingewikkeld voor hen zijn dus ik vermoed dat ze er gewoon nog geen aandacht voor hebben. Waar meld je het beste bugs bij AMD? Andere vraag, waar verzoek je features? Ik zou graag zien dat AMD het delen van de GPU tussen verschillende besturingssystemen ondersteunt. Dat is mogelijk en het gebeurt al maar helaas nog niet voor gamingkaarten, AMD gaf aan erover te denken om dit voor Vega wel te doen maar helaas is het er blijkbaar nog niet van gekomen. Zie de laatste Level1Linux video over hardware passthrough voor meer informatie.

[ Voor 27% gewijzigd door Verwijderd op 27-07-2017 23:51 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Ik kan de hele update functie niet vinden.... terwijl ik hem al wel eens eerder heb gebruikt.
Vind de Crimson interface nog steeds niet veel beter dan z'n voorganger m.b.t. doolhofig-heid.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
edward2 schreef op donderdag 27 juli 2017 @ 23:40:
http://www.pcgameshardwar...roller-Taktraten-1234291/

Lees ik dat nou goed, het Duits zakt een beetje weg, ~600GB/s voor RX Vega?!
Of staat er dat de mem. controler capabel/rated is voor 600GB/s?
Dat gaat over de 'ingekochte' Synopsys IMC, die is ontworpen voor 306GB/s per stack: https://videocardz.com/pr...erformance-computing-socs

Leuk detail is dat de controller vier powerstates ondersteund, dat is handig, want in 2D mode met een enkel scherm kan dan op een lagere clock dan een multi-monitor setup. (die weer lager kan dan 3D mode)

Acties:
  • 0 Henk 'm!

Verwijderd

flessuh schreef op donderdag 27 juli 2017 @ 21:16:
[...]


Dit inderdaad.. met de FE scheelde het ook echt aanzienlijk. Ook al zou het me niets verbazen als de watergekoelde versie werkelijk een euro of 7-800 zou worden..
Ik hoop in ieder geval dat de luchtgekoelde 500-600 wordt. Anders wordt het duur. :P
$499 voor de volle luchtgekoelde versie (ik verwacht ingame >10% performance boven de GTX 1080), $349-$399 voor de cut.. Mark my words, over een week mag dit geciteerd worden. ;)
Waar baseer ik die prijzen op? Heel erg simpel, wat Nvidia kan leveren voor welke prijs, inclusief de goedkopere aftermarket-kaarten (de goedkoopste 1070 kost ongeveer $350).
Ik ga niet speculeren wat de watergekoelde versie kost, daar is geen beginnen aan maar ik denk dat ik met deze twee prijzen heel erg warm zit.

[ Voor 15% gewijzigd door Verwijderd op 27-07-2017 23:58 ]


Acties:
  • 0 Henk 'm!

  • untflanked
  • Registratie: Augustus 2014
  • Laatst online: 22:52
Verwijderd schreef op donderdag 27 juli 2017 @ 23:54:
[...]

$499 voor de volle luchtgekoelde versie (ik verwacht ingame >10% performance boven de GTX 1080), $349-$399 voor de cut.. Mark my words, over een week mag dit geciteerd worden. ;)
Waar baseer ik die prijzen op? Heel erg simpel, wat Nvidia kan leveren voor welke prijs, inclusief de goedkopere aftermarket-kaarten (de goedkoopste 1070 kost ongeveer $350).
Ik ga niet speculeren wat de watergekoelde versie kost, daar is geen beginnen aan maar ik denk dat ik met deze twee prijzen heel erg warm zit.
Ik hoop het, dan blijft het interessant, anders is het helaas een verloren zaak en zal mijn 290 nog even wat extra MHz moeten gaan doen...

Ryzen 7700 | RX 6800 XT | 2x16GB DDR5 | Cooler Master NR200P


Acties:
  • 0 Henk 'm!

Verwijderd

The Source schreef op donderdag 27 juli 2017 @ 22:27:
Over die 4 dagen waar jullie het over hebben mag je enkel info van AMD verwachten, dus gelimiteerd en wellicht best case. Reviewers hebben nog geen kaarten in handen en de NDA voor reviews duurt nog ff.
Dus zelfs geen paper launch. Nu ga zelfs ik een beetje mopperen. :(
The Source schreef op donderdag 27 juli 2017 @ 22:36:
Van sommige kaarten laten AMD/NV het niet toe om een custom versie te maken (je krijgt die GPU/Memory kits niet geleverd). Oh en ja... laatste jaren kopen wij geen GPUs maar ook memory. Dit is het truukje van bv NV om hun turnover te vergroten. GPU's kun je met 80% share en goede margin weinig in groeien maar de aandeelhouders verwachten omzet groei. Geheugen inkopen kunnen ze voor alle vendors in nog grote getallen, voor lagere prijs, Dus zij meer turnover, klein beetje meer winst. Ik zie soms mensen schreeuwen, waarom Elpida or warom geen Samsung. Nou omdat NV / AMD dat niet leveren (dus ze konden het niet inkopen en/of er genoeg winst op maken.
Een interessant kijkje in de keuken. Het is dat dit veel te offopic is maar anders zou ik vragen hoe dat economisch precies werkt wanneer aandeelhouders teleurgesteld zijn over het niet groeien van winstmarges.
Denk aan een lancering van de founder edition of Ryzen. Paar slides met benchmarks die wel kloppen en reproduceerbaar zijn, maar ook de beste kant laten zien (Ryzen met Cinebench multi cores. Dan weken later als de editors de samples kunnen testen kun je veelzijdige benchmarks verwachten die een duidelijk beeld geven.
Dat is volstrekt logisch, zo werkt marketing. Je gaat niet iets verkopen door de minpunten in de schijnwerper te zetten maar liegen is dodelijk voor de reputatie van een bedrijf, mensen geloven daarna niets meer wat je vertelt. Dus vertel je enkel de waarheid maar doe je aan cherrypicking, als je verstandig handelt als marketeer. Dat begrijpen leken ook nog wel. ;)
Al zou ik het verfrissend vinden als marketeers eens een keer komen met het volledige en een veel ingewikkelder en meer genuanceerd verhaal maar dat zie ik niet snel gebeuren. ;)
Daarom onderscheiden goede reviewers en analisten zich door te zoeken naar wat marketeers niet vertellen. Je leert vaak meer van wat er niet wordt verteld en waarover wordt gezwegen dan waar wel over wordt gesproken. Bij Ryzen had je een goed voorbeeld: al die 4k-demo's verraadden dat op dat moment de FPS - voor wat het waard is (ik vind de standaarddeviatie in framerendertijd en de input lag veel interessanter - nog wat te wensen over liet bij 1080p-resolutie. Mensen reageerden teleurgesteld toen dit bekend werd maar het was totaal geen verrassing, ook omdat we wisten dat AMD op klokfrequentie zou worden verslagen door een klein aantal modellen (niet gelockt :')) van Intel.

[ Voor 12% gewijzigd door Verwijderd op 28-07-2017 00:13 ]


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Zijn we er al uit? Raja for president of voor de leeuwen? :+

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
ArcticWolf schreef op vrijdag 28 juli 2017 @ 08:58:
Zijn we er al uit? Raja for president of voor de leeuwen? :+
Maandagochtend, nu nog niet denk?

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
D0gtag schreef op vrijdag 28 juli 2017 @ 09:10:
[...]

Maandagochtend, nu nog niet denk?
De discussie blijft maar gaan en de geruchten blijven maar komen dus ja ;)

Acties:
  • +1 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
ArcticWolf schreef op vrijdag 28 juli 2017 @ 09:15:
[...]

De discussie blijft maar gaan en de geruchten blijven maar komen dus ja ;)
Daarom pas maandag aanhoren, ik niet want ik lig dan lekker te slapen. (3uur tot 9 in de ochtend geloof ik), maar het begint nu echt absurd te worden, zo'n paar dagen voor launch. Het is of extreem goed of extreem slecht, dus ik hoop dat de geruchten niet kloppen en dat ze een ryzen doen, maar ja, wie gelooft daar nog in?
Verwijderd schreef op donderdag 27 juli 2017 @ 23:42:
FYI
Crysis is een van die spellen die beter draait op Ryzen dan op de Intel CPU's. Knap werk van Crytek. Spijtig dat ze zich later met andere zaken bezig hielden die ze minder goed kunnen.
[...]

[small]Ik hoop dat dit geen nieuws voor jou is...
offtopic:
Ja intel is niet altijd heel netjes maar ik ben blij dat ze tenminste geen verspilling hebben (het is common practice in de industrie), maar bij intel moet je slim zijn een een xeon kopen :)
Mijn xeon was de prijs van een i5 prestaties van een i7 4700 alleen geen igp (who cares) en een lagere tdp ook nog (85w uit het hoofd, i7 4700 omdat mijn cpu inmiddels al ~4 jaar oud is)
Intel is typisch een gevalletje concurrentie gebrek ze hebben q1 2017 een recordwinst geboekt, wat prima is, maar ik ga echt geen intel halen met ryzen nu (x299=joke, i7 en mobo overpriced), dat AMD/intel cpu's dies verkoopt aan de hand van functionaliteit vind ik ook prima dit verlaagt (ook al lijkt het niet zo) de totale prijs van het product, maar zoals altijd moet je als consument gewoon slim kopen. -het best is altijd om gewoon te evalueren welk product het beste voor je is en wat de alternatieven zijn, zonder bias naar intel,nV of AMD-
Je kan de zaak ook anders bekijken, zonder intel, zou er geen AMD zijn die goedkoop was (intel/nV is nu de prijs benchmark), welke incentive heeft AMD nu om goedkoper dan de concurrentie te zijn?--> ze willen een groter markt aandeel.
Ik wil bijna zo ver gaan dat intel nu is wat het is door AMD, bulldozer was een faal van heb ik jou daar, magische slecht markt onderzoek, niemand zat te wachten op een multi-multicore ontwerp in een wereld waar bijna alles nog single thread was, met een lagere ipc dan deneb.

Intel heeft gewoon goede dingen gedaan (heeft daarom ook weinig concurrentie) en staan daarom aan top, nu staat AMD op het punt om goede dingen te doen en moet intel weer innoveren.
En het enige voordeel van de afgelopen jaren met intel is het volgende, ik had helemaal geen motivatie om een nieuwe cpu te halen, aangezien de veranderingen en prestatie toenamen de afgelopen jaren minimaal waren en dat merkte je ook aan games etc (bottleneck is al jaren niet meer de cpu).
We hadden de Mhz wars komen nu echte de core wars? intel i7 16core, ryzen 32core, threadripper 128core.

[ Voor 69% gewijzigd door D0gtag op 28-07-2017 10:05 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • snakeye
  • Registratie: Januari 2000
  • Laatst online: 12-09 21:01
D0gtag schreef op vrijdag 28 juli 2017 @ 09:24:


offtopic:
Ja intel is niet altijd heel netjes maar ik ben blij dat ze tenminste geen verspilling hebben (het is common practice in de industrie), maar bij intel moet je slim zijn een een xeon kopen :)
Mijn xeon was de prijs van een i5 prestaties van een i7 4700 alleen geen igp (who cares) en een lagere tdp ook nog (85w uit het hoofd, i7 4700 omdat mijn cpu inmiddels al ~4 jaar oud is)
Intel is typisch een gevalletje concurrentie gebrek ze hebben q1 2017 een recordwinst geboekt, wat prima is, maar ik ga echt geen intel halen met ryzen nu (x299=joke, i7 en mobo overpriced), dat AMD/intel cpu's dies verkoopt aan de hand van functionaliteit vind ik ook prima dit verlaagt (ook al lijkt het niet zo) de totale prijs van het product, maar zoals altijd moet je als consument gewoon slim kopen. -het best is altijd om gewoon te evalueren welk product het beste voor je is en wat de alternatieven zijn, zonder bias naar intel,nV of AMD-
Je kan de zaak ook anders bekijken, zonder intel, zou er geen AMD zijn die goedkoop was (intel/nV is nu de prijs benchmark), welke incentive heeft AMD nu om goedkoper dan de concurrentie te zijn?--> ze willen een groter markt aandeel.
Ik wil bijna zo ver gaan dat intel nu is wat het is door AMD, bulldozer was een faal van heb ik jou daar, magische slecht markt onderzoek, niemand zat te wachten op een multi-multicore ontwerp in een wereld waar bijna alles nog single thread was, met een lagere ipc dan deneb.

Intel heeft gewoon goede dingen gedaan (heeft daarom ook weinig concurrentie) en staan daarom aan top, nu staat AMD op het punt om goede dingen te doen en moet intel weer innoveren.
En het enige voordeel van de afgelopen jaren met intel is het volgende, ik had helemaal geen motivatie om een nieuwe cpu te halen, aangezien de veranderingen en prestatie toenamen de afgelopen jaren minimaal waren en dat merkte je ook aan games etc (bottleneck is al jaren niet meer de cpu).
We hadden de Mhz wars komen nu echte de core wars? intel i7 16core, ryzen 32core, threadripper 128core.
Uh en ja hoe denk je dat het komt dat Intel aan de top staat? Mischien iets te maken met het feit dat intel structrureel zijn concurenten uit de markt probeerd te drukken (sinds de jaren 80) door middel van omkooppraktijken en andere illegale praktijken om zo zijn monopoly positie te behouden? Intel heeft mischien wel goede processors gemaakt maar ze zijn obsoluut niet goed voor de consument, die zien ze alleen maar als melkoe. Kijk voor de gein maar eens naar dit fimpje:

https://www.youtube.com/watch?v=osSMJRyxG0k

Atari 2600 @ 1,1 Hz, 1 Bits speaker, 16 Kb mem, 8 kleuren..


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 22:28

edward2

Schieten op de beesten

Niet op voorraad.


Acties:
  • +1 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 20:31

flessuh

Set sail for fail!

Ja, het is een mooie render, echter stoor ik me er te hard aan dat er geen kabels zichtbaar zijn, en je dus open connectors hebt :+

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 22:28

edward2

Schieten op de beesten

Huh, "render" stond er eerst niet bij..

Niet op voorraad.

Pagina: 1 ... 13 ... 17 Laatste

Dit topic is gesloten.