Journalism 101: "If someone says it's raining & another person says it's dry. It's not your job to quote them both. Your job is to look out the fucking window and find out which is true."
Ik bedoel natuurlijk qua performance tussen de 280X en 290X met een klein stroomverbruik, wellicht de helft van de 290X, dat zou die singlefan wel afgevoerd krijgen.j-phone schreef op woensdag 24 juni 2015 @ 19:48:
De 290x is 275 watt dacht ik?
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Dan speel ik even advocaat van de duivel.enchion schreef op woensdag 24 juni 2015 @ 19:22:
Epic LOL @ iedereen die deze reviews serieus neemt, of niet serieus neemt omdat ze allemaal wat anders zeggen, dus niet wetend welke reviwe serieus te nemen.
Mensen wordt wakker alle reviews zijn volstrekt irrelevant. (alle tests zijn nl op DX11)
Deze kaart is gemaakt voor DX12.
De echte reviews worden pas vanaf 29 Juli online gezet.
Als deze kaart voor DX12 gemaakt is, waarom ondersteunt hij dan geen feature level 12_1.
Ik ben het wel met je eens dat ik ook wel een draw call testje had willen zien. (al zegt dit niets over game performance) Of iig iets op Windows 10 met de nieuwe WDDM 2.0.
Edit: hetzelfde geldt voor testen op een beta OS.
[ Voor 20% gewijzigd door j-phone op 24-06-2015 20:22 ]
Journalism 101: "If someone says it's raining & another person says it's dry. It's not your job to quote them both. Your job is to look out the fucking window and find out which is true."
Journalism 101: "If someone says it's raining & another person says it's dry. It's not your job to quote them both. Your job is to look out the fucking window and find out which is true."
Anoniem: 532949
Je bedoelt een 380x?Anoniem: 532949 schreef op woensdag 24 juni 2015 @ 20:26:
Weet iemand hier misschien of en wanneer er misschien een AMD r9 280x komt ? En zo ja, word dat dan een volledige Tonga chip ( een r9 285 maar dan met meer core's ) ?
Er gaan nog geen geruchten over rond iig.
[ Voor 47% gewijzigd door LongBowNL op 24-06-2015 20:27 ]
Journalism 101: "If someone says it's raining & another person says it's dry. It's not your job to quote them both. Your job is to look out the fucking window and find out which is true."
Omdat dat duidelijk wordt over een maand.LongBowNL schreef op woensdag 24 juni 2015 @ 20:20:
Als deze kaart voor DX12 gemaakt is, waarom ondersteunt hij dan geen feature level 12_1.
Nee, please geen drawcall test, dat is weer 3Dmark all over again.Ik ben het wel met je eens dat ik ook wel een draw call testje had willen zien. (al zegt dit niets over game performance) Of iig iets op Windows 10 met de nieuwe WDDM 2.0.
Geen synthese bitte.
En zoals al gepost zijn er nog alleen Beta drivers dus die zeggen ook niks, zelfs DX12 is nog niet volledig afgerond aanwezig in de laatste builds denk ik.
Het enige dat uit de reviews gehaald kan worden is dat de Fury het relatief goed doet op hoge resoluties.
Dat AMD het slecht doet op Gameworks titels wisten we al.
Dus alle andere boeiende informatie krijgen we pas over een maand of anderhalf.
(Deze reviews zijn dus metaforisch analyses van de ronde van Zwitserland terwijl de Tour de France over een week begint)
How do you save a random generator ?
[ Voor 9% gewijzigd door j-phone op 24-06-2015 20:33 ]
Journalism 101: "If someone says it's raining & another person says it's dry. It's not your job to quote them both. Your job is to look out the fucking window and find out which is true."
Release Windows 10 met final releaseversie van DX12.j-phone schreef op woensdag 24 juni 2015 @ 20:33:
Waarom pas over een maand of anderhalf? Wat weet jij wat wij niet weten?
How do you save a random generator ?
[EDIT]
Hier zo'n draw call dingetje van de 290x uit maart dit jaar voor de mensen die wel fan zijn van synthetische tests.
http://www.pcper.com/revi...st-Early-DX12-Performance
[ Voor 50% gewijzigd door LongBowNL op 24-06-2015 20:37 ]
Waarom ben jij er zo stellig van overtuigd dat de prestaties enorm zullen toenemen met Win10 en DX12?
[ Voor 8% gewijzigd door j-phone op 24-06-2015 20:36 ]
Journalism 101: "If someone says it's raining & another person says it's dry. It's not your job to quote them both. Your job is to look out the fucking window and find out which is true."
Ik ben er stellig van overtuigd dat we niet weten wat de "relevante" prestatie toename gaat zijn bij alle drie CPU/GPU bouwers.j-phone schreef op woensdag 24 juni 2015 @ 20:35:
Waarom ben jij er zo stellig van overtuigd dat de prestaties enorm toenemen?
Alles is nog vaag dus.
Featurelevels weet ik, maar MS kan nog wat OS wijzigingen maken op pas op het laatst activeren/toevoegen.LongBowNL schreef op woensdag 24 juni 2015 @ 20:35:
Die featurelevels staan al vast hoor. GCN heeft geen feature level 12_1. (Niet dat het veel uitmaakt maar toch).
(AMD/nVidia/Intel zullen dit wel hebben/weten maar wij als enduser nog niet.)
[ Voor 37% gewijzigd door enchion op 24-06-2015 20:39 ]
How do you save a random generator ?
Dat soort zelfde onzin werd ook altijd vanuit het AMD 8-core CPU fanboy kamp gegild.
"Wacht maar tot (insert random appicatie/OS/driver/whatever here) komt, dan word deze CPU ineens wel nuttig"
Ik weet nog hoe iedereen het zelfde zei over Mantle, dat zou ook helemaal de toekomst zijn, en dat gaat het nog helemaal worden.
Men gelooft het in het fanboy kamp nog steeds.
Ik ben van beide merken gecharmeerd, maar blijf wel realistisch. (hell, ik was ooit zelfs een PowerVR fan
[ Voor 36% gewijzigd door unfor op 24-06-2015 21:00 ]
Vulkan zou zelfs grotendeels Mantle zijn.
Dus, een Fury zou best wel eens beter dan een 980ti kunnen worden. Ik zeg niet dat het gebeurd, maar de kans erop is imo behoorlijk aanwezig.
En Mantle is dus weldegelijk de toekomst, want DX12 en Vulkan.
Overigens zijn die FX octo's zeker wel nuttig, nee, niet voor iedereen, maar games als BF:4 en Hardline trekken ze net zo goed als de i5'jes, en als je wilt streamen met OBS, is een FX-8320 ook een betere keuze dan een i5, puur omdat die i5 anders toch wat cores te weinig komt.
En, wat gebeurd er met DX12 en multicores CPU's ook alweer?
[ Voor 4% gewijzigd door RobinHood op 24-06-2015 21:01 ]
People as things, that’s where it starts.
Ryzen 7 5800X ~~ 32GB GSkill TridentZ 3600Mhz ~~ ASRock B550 Steel Legend ~~ XFX Radeon RX5700XT
Je bent erg optimistisch, maar de realiteit is in vrijwel alle gevallen anders.RobinHood schreef op woensdag 24 juni 2015 @ 21:00:
Ware het niet dat DX12 een compleet andere api dan DX11 is, en er zouden de nodige dingen overgenomen zijn uit Mantle.
Vulkan zou zelfs grotendeels Mantle zijn.
Dus, een Fury zou best wel eens beter dan een 980ti kunnen worden. Ik zeg niet dat het gebeurd, maar de kans erop is imo behoorlijk aanwezig.
En Mantle is dus weldegelijk de toekomst, want DX12 en Vulkan.
Overigens zijn die FX octo's zeker wel nuttig, nee, niet voor iedereen, maar games als BF:4 en Hardline trekken ze net zo goed als de i5'jes, en als je wilt streamen met OBS, is een FX-8320 ook een betere keuze dan een i5, puur omdat die i5 anders toch wat cores te weinig komt.
En, wat gebeurd er met DX12 en multicores CPU's ook alweer?
Ik ben zelf wat sceptischer aangelegd, en dat voorkomt gelukkig een hoop teleurstelling.
[ Voor 4% gewijzigd door unfor op 24-06-2015 21:06 ]
Knap dat jij dat al weet, want die realiteit wordt nog geschreven.unfor schreef op woensdag 24 juni 2015 @ 21:04:
[...]
Je bent erg optimistisch, maar de realiteit is in vrijwel alle gevallen anders.
People as things, that’s where it starts.
Dat bedoel ik, je mag best optimistisch wezen, maar je weet net zo goed als iedereen dat je niet teveel moet gaan verwachten.RobinHood schreef op woensdag 24 juni 2015 @ 21:06:
[...]
Knap dat jij dat al weet, want die realiteit wordt nog geschreven.
Bijvoorbeeld de stacked ram feature van DX12 voor CFX/SLI lijkt mij een toffe feature, maar ik geloof het pas als ik het echt zie werken.
En je hoeft echt geen fanboy te zijn om te weten dat Mantle zeker een katalysator geweest is voor dingen, en dus zeker wel de toekomst is/was, ja, AMD gaat nu andere doen onder Mantle, maar het was wél de eerste CtM API, voordat DX12 en Vulkan überhaubt aangekondigt waren.
TrueAudio, dát is nou iets waarvan men idd ook vrij positief over was, en wat gewoon dood is. Jammer genoeg.
People as things, that’s where it starts.
Wat ik heb gezien bij reviews, zoals bijvoorbeeld van Guru3D, heeft veel titels en ook met Gameworks die dan altijd worden uitgezet. En ja, tuurlijk worden die ook getest, als AMD-eigenaar wil je toch ook die games spelen? Je hebt volgens mij een beetje last van tunnelvisie.enchion schreef op woensdag 24 juni 2015 @ 19:44:
[...]
Is idd bewust kinderachtig benoemd.
Ik zie nl reviews met veel physx/gameworks titels, maar dan bij de games met Mantle dat niet aanzetten. (omdat redenen)
3Dmark (rest my case, heb dit spel nl nog nooit eerder gespeeld)
Geringe aantal games
Extreem veel discussie
En dat terwijl het hoofdbelang van de recente kaarten nog niet eens aan bod is gekomen.
Veel reviews zijn erg slecht en bijna geen enkele noemt DX12.
Als de reviewers kinderachtig slecht zijn mbt clickbait of sponsoring of fanboyism, krijg ik de neiging om op kinderachtige toon dat te willen corrigeren.
Simpelgesteld als AMD z`n huiswerk erg goed heeft gemaakt dan is de Fury (X) best goed in DX11 en erg goed in DX12. (en de eerste factor lijkt al te kloppen.)
En iedereen weet dat Mantle vooral is voor low en mid end GPU's en zelfs prestaties kan verminderen op een high end GPU.
[ Voor 5% gewijzigd door Rolfgang op 24-06-2015 21:19 ]
Corsair 500R || Intel i5 4690K || MSI Z87-G45 Gaming || MSI GTX 970 Gaming 4G || 8GB Crucial Ballistix Tactical || Cooler Master V Series 850W
R9 290
eyefinity 5760x1080, medium,no AA
win 8.1 ,1040 driver
Frames, Time (ms), Min, Max, Avg
9565, 150000, 52, 79, 63.767
W10, laatste driver
Frames, Time (ms), Min, Max, Avg
9208, 120000, 54, 87, 76.733
[ Voor 16% gewijzigd door Bullus op 24-06-2015 22:07 ]
|2600k|Asus 290|
Mwa, AMD had vroeger toch wel betere cpu's dan Intel. Dit was in het Pentium 4 tijdperk. Pas sinds de Core M architectuur werd ingezet voor Coreduo processoren werd Intel weer leider.unfor schreef op woensdag 24 juni 2015 @ 20:56:
DX12 of Win10 maakt Fury niet ineens beter dan 980Ti ofzo.
Dat soort zelfde onzin werd ook altijd vanuit het AMD 8-core CPU fanboy kamp gegild.
"Wacht maar tot (insert random appicatie/OS/driver/whatever here) komt, dan word deze CPU ineens wel nuttig"
Ik weet nog hoe iedereen het zelfde zei over Mantle, dat zou ook helemaal de toekomst zijn, en dat gaat het nog helemaal worden.
Men gelooft het in het fanboy kamp nog steeds.
Ik ben van beide merken gecharmeerd, maar blijf wel realistisch. (hell, ik was ooit zelfs een PowerVR fan)
ATI/AMD had ook met de HD5800 een grote voorsprong te pakken op ATI/AMD. Nvidia toverde toen een veel te hete en stroomvretende GTX 400 serie uit de hoge hoed die niet beter presteerde.
@Bullus, die 1040 driver is toch een modded win 10 driver?
Journalism 101: "If someone says it's raining & another person says it's dry. It's not your job to quote them both. Your job is to look out the fucking window and find out which is true."
Maar ze beginnen met een driver reset, nieuwe WDM. Ook een lagere abstractie laag. Waar de dev's zelf meer moeten doen ipv dat NV en AMD driver profile voor games moet maken. Vooral NV is daar ijverig in.unfor schreef op woensdag 24 juni 2015 @ 20:56:
DX12 of Win10 maakt Fury niet ineens beter dan 980Ti ofzo.
Dat soort zelfde onzin werd ook altijd vanuit het AMD 8-core CPU fanboy kamp gegild.
"Wacht maar tot (insert random appicatie/OS/driver/whatever here) komt, dan word deze CPU ineens wel nuttig"
Ik weet nog hoe iedereen het zelfde zei over Mantle, dat zou ook helemaal de toekomst zijn, en dat gaat het nog helemaal worden.
Men gelooft het in het fanboy kamp nog steeds.
Ik ben van beide merken gecharmeerd, maar blijf wel realistisch. (hell, ik was ooit zelfs een PowerVR fan)
nv driver voor Vista waren brak veel geklooi met 8600GT gehad, terwijl 2900XT system als zonnetje liep. Dus zo gek is dat niet. Maar ja dx12 en W10 sluit die game work praktijken helaas niet uit.
W10 en DX12 kan verschil maken maar dat kan ook positief maar ook negatief zijn.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Anoniem: 59888
Aan de andere kant maakt dat het nog geen slechte kaart. De waterkoeling werkt goed en houdt de kaart mooi koel, ook bij hoge performance. Het is niet de 980 Ti killer die we gehoopt hadden maar wel een mooie serie ter vervanging van de 200 serie, in afwachting van de nieuwe process node die volgend jaar komt.
Daar waar mensen uit het groene kamp vorige keer nog het hele topic vol spamden over het geluid van de kaarten zijn ze daar nu net zo stil over als de Fury X.
Waarom al die onzin hier zo nodig gepost moet worden (je leven is niet oneindig, doe wat leuks met je tijd!) en waarom dat toegestaan wordt is mij een raadsel, maar dat zal ongetwijfeld wel weer aan mij liggen.

Excuus voor de late reactie, er moest even gesport worden.Astennu schreef op woensdag 24 juni 2015 @ 17:26:
[...]
Er zijn genoeg mensen die meer dan een jaar met hun hardware doen. De mensen die elk jaar iets nieuws kopen zijn zwaar in de minderheid. Dus imo is het wel relevant.
Je koopt geen top of the line gpu om een jaar later eindelijk z'n benen te laten strekken. Een uber high end kaart koop je om vanaf dag 1 games te spelen op de hoogst mogelijke settings. Tuurlijk kun je er lang mee doen, maar wat je nu roept is bijna waanzin. Dan kun je beter een jaar later een nieuwere gpu kopen die echt goed dx12 kan benutten. Na dat jaar is je huidige fury namelijk niet zo bijzonder snel meer, dat beetje winst is dan verwaarloosbaar
En voor de mensen die toch echt de Titan X killer willen kopen, Koop dan de 295x2.
-
https://www.youtube.com/@droommotor
Vind het erg vreemd dat mensen dit maar geen kaarten voor 1080p vinden. Hoogstens voor 1080p/60. Had persoonlijk een wat sterkere resultaat gewenst. Het is niet goed voor de consument als 1 fabrikant voor gaat lopen met potentieel meer interessante kaarten/producten ( AMD - Intel bijvoorbeeld )
Ik denk persoonlijk dat AMD meer gaat shinen met de non-x Fury. Dat zou best wel is een heel goede price/performance kaart kunnen worden.
De trend met de AIO coolers kan ik wel waarderen. Weinig geluid en goede koeling is altijd mooi meegenomen.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Dat is dus niet wat Mantle doet, Mantle heeft veel minder CPU overhead dan DX11 en is juist gunstig voor high end GPU's . Low/mid end GPU's hebben er weinig aan.Rolfgang schreef op woensdag 24 juni 2015 @ 21:17:
[...]
En iedereen weet dat Mantle vooral is voor low en mid end GPU's CPU's.en zelfs prestaties kan verminderen op een high end GPU.
Mantle(Vulkan) werkt vergelijkbaar met DX12, daardoor zullen highend GPU's er dus ook meer uit kunnen halen.
Waar je eventueel gelijk in hebt is dat Mantle specifiek voor GCN is en dat er dus iets performance winst aan de GPU kant mogelijk is doordat het ontworpen is met GCN in het achterhoofd.
Wat eerder al langskwam:unfor schreef op woensdag 24 juni 2015 @ 20:56:
DX12 of Win10 maakt Fury niet ineens beter dan 980Ti ofzo.
Dat soort zelfde onzin werd ook altijd vanuit het AMD 8-core CPU fanboy kamp gegild.
"Wacht maar tot (insert random appicatie/OS/driver/whatever here) komt, dan word deze CPU ineens wel nuttig"
Ik weet nog hoe iedereen het zelfde zei over Mantle, dat zou ook helemaal de toekomst zijn, en dat gaat het nog helemaal worden.
Men gelooft het in het fanboy kamp nog steeds.
Ik ben van beide merken gecharmeerd, maar blijf wel realistisch. (hell, ik was ooit zelfs een PowerVR fan)
AMD heeft meer CPU overhead in DX11 drivers. De relatieve "extra" performance die ze op lagere resoluties door DX12/Vulkan kunnen krijgen zal de Fury X waarschijnlijk on par brengen met de GTX980 TI. Dit is dus alleen in situaties waar er een CPU limiet is.
Mantle is Vulkan geworden dus hoe je het went of keerd Mantle is de toekomst
Mijn bewering is niet hetzelfde als x64 zal de performance een stuk beter maken!!1111one
Wat wel een soort vergelijkbare bewering is is dat GCN met DX12 doordat er gebruik kan worden gemaakt van asynchronous shading performance winst kan krijgen en beter presteren dan de nVidia tegenhangers (wellicht m.u.v. Maxwell 2), of dit in praktijk veel gaat uitmaken dat moeten we nog zien.
http://www.pcper.com/revi...st-Early-DX12-Performance
Zodra er meer gebruik word gemaakt van drawcalls, zal Mantle zich meer bewijzen. Ook bij snellere GPU's.
Volgens mij is in deze test ook duidelijk te zien dat Mantle misschien wel een inspiratie is geweest voor DX12 maar heeft waarschijnlijk geen deel uitgemaakt van DX12 aangezien Mantle het altijd nog beter doet dan DX12.
Maar als je HBM al een paar MHz omhoog krijgt, gaat dat ook opeens een hele klap harder
En wat me op viel:
De kaarten hadden vaak last van coil whine, de pomp wordt als irriterend beschouwd, en de kaart bij Linus Tech Tips was DOA... (kan gebeuren, maar toch. Het zijn review exemplaren waarbij ik juist verwacht dat ze goed werken).
Ook is het jammer dat fabrikanten niet hun eigen koeler op de kaart mogen zetten. Ik wil stiekem wel dat de waterkoeler oprot en dat ik minder geld hoef te betalen, gezien ik zelf custom waterkoeling heb
Ik wordt iig geen early adopter van deze kaart. Ik wacht wel een paar revisies en de overclock reviews, met een half oog op de 980 ti.
De 4GB HBM is trouwens awesome, op 4k blijkt dat nog ruim voldoende te zijn
Ook nog iets wat me was opgevallen:
Frame targets
Dat doet het goed voor energie verbruik en warmte ontwikkeling
[ Voor 12% gewijzigd door Fordox op 25-06-2015 09:14 ]
Edit: Ik gebruik de edit-knop vaak.
Standaard word de kaart met waterkoeler geleverd omdat de kaart te klein is voor 2 fans, en een enkele fan te hard zou moeten draaien om de kaart te koelen. Dus lijkt me opzich logischFordox schreef op donderdag 25 juni 2015 @ 09:09:
Hmm ik heb nu al aardig wat reviews achter de kiezen. Eerlijk gezegd, ik had iets meer verwacht maar dat komt ook mede doordat de kaarten (nog) niet overklokbaar zijn en HBM in het algemeen al aardig krap zit.
Maar als je HBM al een paar MHz omhoog krijgt, gaat dat ook opeens een hele klap harder
En wat me op viel:
De kaarten hadden vaak last van coil whine, de pomp wordt als irriterend beschouwd, en de kaart bij Linus Tech Tips was DOA... (kan gebeuren, maar toch. Het zijn review exemplaren waarbij ik juist verwacht dat ze goed werken).
Ook is het jammer dat fabrikanten niet hun eigen koeler op de kaart mogen zetten. Ik wil stiekem wel dat de waterkoeler oprot en dat ik minder geld hoef te betalen, gezien ik zelf custom waterkoeling heb
Ik wordt iig geen early adopter van deze kaart. Ik wacht wel een paar revisies en de overclock reviews, met een half oog op de 980 ti.
De 4GB HBM is trouwens awesome, op 4k blijkt dat nog ruim voldoende te zijn
Ook nog iets wat me was opgevallen:
Frame targets
Dat doet het goed voor energie verbruik en warmte ontwikkeling
en 1, 2, of 3 fans, ik weet niet of dat wel zoveel voordeel heeft ten opzichte van elkaar. De fans kunnen wel langzamer draaien, maar dan heb je nog steeds 3 geluidsbronnen ipv 1. Het enige voordeel dat het heeft is dat je de luchtstroom over de gehele koelblok beter kan verdelen. Maar dat ter zijde.
We zien het wel met de Fury (non X-variant). Die staat namelijk wel 3d party koelers toe
Leuke eerste impressions allemaal, maar ik wacht nog even
Edit: Ik gebruik de edit-knop vaak.
Natuurlijk moet je dit met een emmertje zout nemen. Maar er is geen enkele reden eigenlijk waarom Qualcomm dit niet zou kunnen doen. Ze willen zich uitbreiden, hebben heel veel geld verdient aan alle Snapdragon chipsets tot de 810 roet in het eten gooide en willen daarom zich uitbreiding naar meer gebieden.
Wat denken jullie?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
"x86 licentie"
Het is iig wel een Amerikaans bedrijf in tegenstelling tot Samsung.
Edit: Ik gebruik de edit-knop vaak.
Juist, maar je kijkt ook naar een test waar juist het aantal drawcalls word opgeschroeft. De huidige games die gebenchmarkt werden/worden met Mantle limiteren juist het aantal drawcalls omdat de huidige DX level daar juist minder goed mee om kan gaan.LongBowNL schreef op donderdag 25 juni 2015 @ 08:44:
Ik snap het niet meer. Je zegt dat de verbetering bij high end GPU minder was, terwijl je een test linkt waarin juist de high-end GPUs de grootste toename in drawcalls hebben in DX12.
Neem bijv. Battlefield waarin Mantle is opgenomen. Ze hebben dan wel Mantle support in de game gebouwd, maar voor de rest veranderde er niks in de game. Het aantal drawcalls bleef hetzelfde anders zou DX hier gigantisch in peformance zakken. Nu DX12 er is, zullen games die voor DX12 worden gemaakt meer gebruik maken van drawcalls en zal Mantle zich meer gaan bewijzen bij snellere GPU's.
8800GTX: ~€525 (súper kaart trouwens! Meer dan zn geld waard!
GTX280: ~ €525
GTX480: ~ €480
GTX580: ~ €500
GTX680: ~ €500
Voor het snelste betaalde je dus ongeveer 500.
En toen ging het ineens hard omhoog (single chip kaarten he! De 980 en 780 zijn gewoon gecastreerde chips)
GTX780: ~ €650
GTX Titan Black : ~€1100

GTX780Ti: ~€700

GTX980: ~ €550 (viel op zich nog mee)
GTX Titan X: ~€1000

GTX980Ti: ~€750

(Ze maken er een potje van bij nV qua prijzen imho)
3870: ~€225
4870: ~€300
5870: ~€375
7970: ~€500
R9 280X: ~€500
R9 390X: ~€430 (op het moment dat een 290X €325 kost!)
Fury X : ~€650
Dus wat mij betreft mag er snel een prijzenoorlog losbarsten (en ik denk dat nV de prijzen eerdaags wel verlaagd), want de prijzen schieten door het plafond (vind ik). De Fury mag wat mij betreft 150 omlaag, en hetzelfde geldt voor de 980Ti. Dan wordt t (voor mij) weer wat interessanter.
[ Voor 11% gewijzigd door Format-C op 25-06-2015 09:51 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Men gaat er vanuit dat het wel goed komt, omdat Intel de licentie net zo hard nodig heeft. Vooral omdat zonder de licentie Intel een monopolie krijgt en dat willen ze niet om repercussies te voorkomen.Fordox schreef op donderdag 25 juni 2015 @ 09:27:
Er was toch bepaald dat AMD de licentie voor x86 zou behouden ook na overname?
Voor wie de hele tekst van de overeenkomst wil lezen: http://www.sec.gov/Archiv...19312509236705/dex102.htm (legal stuff

Hou je inflatie ook in rekening? Mensen verdienen ook meerFormat-C schreef op donderdag 25 juni 2015 @ 09:38:
Wat mij vooral opvalt de laatste tijd is dat de snelste kaarten ineens schreeuwend duur zijn... Kijk naar de launch prijzen van de vorige generaties:
8800GTX: ~€525 (súper kaart trouwens!)
GTX280: ~ €525
GTX480: ~ €480
GTX580: ~ €500
GTX680: ~ €500
Voor het snelste betaalde je dus ongeveer 500.
En toen ging het ineens hard omhoog (single chip kaarten he! De 980 en 780 zijn gewoon gecastreerde chips)):
GTX780: ~ €650
GTX Titan Black : ~€1100![]()
GTX780Ti: ~€700![]()
GTX980: ~ €550 (viel op zich nog mee)
GTX Titan X: ~€1000![]()
GTX980Ti: ~€750![]()
(Ze maken er een potje van bij nV qua prijzen imho)
5870: ~€375![]()
![]()
7970: ~€500
R9 280X: ~€500
R9 390X: ~€430 (op het moment dat een 290X €325 kost!)
Fury X : ~€650(ook ineens véél duurder dan voorgaande high end kaarten)
Dus wat mij betreft mag er snel een prijzenoorlog losbarsten (en ik denk dat nV de prijzen eerdaags wel verlaagd), want de prijzen schieten door het plafond (vind ik). De Fury mag wat mij betreft 150 omlaag, en hetzelfde geldt voor de 980Ti. Dan wordt t (voor mij) weer wat interessanter.
Edit: Ik gebruik de edit-knop vaak.
Heb je gelijk in, maar hardware wordt door automatisering ook goedkoper om te maken. En je bent het toch wel een béétje met me eens dat de prijzen ineens "sky-rocketen"? Vooral nV's prijzen zijn belachelijk imho.Fordox schreef op donderdag 25 juni 2015 @ 09:49:
[...]
Hou je inflatie ook in rekening? Mensen verdienen ook meer
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Mijn antwoord daarop zou zijn: "FTC".LongBowNL schreef op donderdag 25 juni 2015 @ 09:25:
Laat ik dan maar meteen het steeds herhaalde argument geven:
"x86 licentie"
Het is iig wel een Amerikaans bedrijf in tegenstelling tot Samsung.
Ik denk dat het goed zou zijn voor AMD's CPU technologie, R&D, afzetmarkten en concurrentie potentieel om samen te gaan met Qualcomm. Ik denk dat Intel méér concurrentie zou krijgen, ipv dat Intel de concurrentie kan torpederen door moeilijk te doen over de X86 licentie. Ik denk dat elke mededingingsautoriteit op aarde Intel zal aanvallen als ze dat gaan doen.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Heb je ook weer gelijk in idd...-The_Mask- schreef op donderdag 25 juni 2015 @ 09:53:
Probleem is ook dat de GPU's steeds duurder om te maken worden. We komen nu bij een moment aan dat kleiner productieproces niet meer betekent dat het goedkoper wordt.
Maar leuk is dit niet meer... (imho)
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik zit er niet heel erg mee, ik zou altijd dezelfde soort GPU kopen: GTX 670, 770, 970. Prijsrange altijd rond de €300-350Format-C schreef op donderdag 25 juni 2015 @ 09:55:
[...]
Heb je ook weer gelijk in idd...
Maar leuk is dit niet meer... (imho)
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik (vandaag de dag) ook.XanderDrake schreef op donderdag 25 juni 2015 @ 09:56:
[...]
Ik zit er niet heel erg mee, ik zou altijd dezelfde soort GPU kopen: GTX 670, 770, 970. Prijsrange altijd rond de €300-350
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
AMD heeft geen andere keus dan zichzelf met de Fury in de markt te zetten met dusdanige prijzen dat nV misschien de prijzen NIET verlaagd, en zij nog een graantje mee kunnen pikken van de AMD fans die hebben zitten wachten op de Fury. Als ze te laag gaan zitten past nV de prijzen aan, als ze te hoog zitten verkopen ze niks. Beetje sweet spot zoeken. Maar ik dénk dat nV de prijzen wel verlaagd. Zo "gemeen" zijn ze wel.-The_Mask- schreef op donderdag 25 juni 2015 @ 09:58:
En nog een reden: AMD wil nVidia ook niet extreem onder druk zetten, want dan doen ze dat ook met hun eigen winstmarge. De concurrentie met Intel is immers al zwaar genoeg.
Maar tot zover mijn prijzen "gezeik". Twas een beetje een onderbuikgevoel, en dat is er nu uit. Tis ook niet de bedoeling het topic hiermee te vervuilen.
[ Voor 11% gewijzigd door Format-C op 25-06-2015 10:05 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ja en nee. Wie is de grootste concurrent van nVidia? Je zou kunnen zeggen AMD, maar ik zou zeggen Intel en smartphone chipset makers.Format-C schreef op donderdag 25 juni 2015 @ 10:00:
Maar ik dénk dat nV de prijzen wel verlaagd. Zo "gemeen" zijn ze wel.
Volgens mij is de Dedicated Gaming PC markt tanende, vooral omdat de meeste games redelijk casual zijn, en de hardcore games ook redelijk goed draaien op lower-end hardware. Je kan prima de meeste games draaien op een iGPU van Intel. Alles van Haswell en nieuwer kan gewoon gamen op 720p en medium settings. Daarnaast spelen veel mensen alleen nog maar games op hun smartphone of tablet, waar ze daar eerst nog een simpel PCtje of laptop voor hadden.
Ik denk dat nVidia gebaat is bij nog wel wat geld te verdienen met high-end GPU's, en de concurrentie van AMD is niet groot genoeg om te concurreren op prijs.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Het zou wel een heel erg grappige overname zijn. Misschien noemen ze de producten dan Imageon?XanderDrake schreef op donderdag 25 juni 2015 @ 09:22:
Tussen al het review en GPU geweld door, heb ik nog een sappige roddel. Qualcomm overweegt om AMD over te nemen: http://www.fudzilla.com/n...thinking-about-buying-amd
Natuurlijk moet je dit met een emmertje zout nemen. Maar er is geen enkele reden eigenlijk waarom Qualcomm dit niet zou kunnen doen. Ze willen zich uitbreiden, hebben heel veel geld verdient aan alle Snapdragon chipsets tot de 810 roet in het eten gooide en willen daarom zich uitbreiding naar meer gebieden.
Wat denken jullie?
G80 was gewoon €600 ($599) bij launch hoorFormat-C schreef op donderdag 25 juni 2015 @ 09:38:
8800GTX: ~€525 (súper kaart trouwens! Meer dan zn geld waard!)
GTX280: ~ €525
GTX480: ~ €480
GTX580: ~ €500
GTX680: ~ €500
En de GTX280 zat daar nog een stukje boven, MSRP van dat ding was gewoon $650

Hier moet je ook wel een scheiding maken.GTX780: ~ €650
GTX Titan Black : ~€1100![]()
GTX780Ti: ~€700![]()
GTX980: ~ €550 (viel op zich nog mee)
GTX Titan X: ~€1000![]()
GTX980Ti: ~€750
De Titans moet je eigenlijk niet mee tellen. Die zijn geen haar beter dan Ares, Mars en dat soort ongein. Ze bieden veel te weinig waar voor je geld en ik blijf er bij dat iedereen die er zo veel aan die kaarten uit geeft gewoon dom is. Dat je zo iets aan kán schaffen betekent niet meteen dat je dat ook moet doen, het is en blijft een slechte koop. Ze zijn niet geschikt genoeg voor professioneel werk en te duur voor games, wat ze niet veel meer dan een patser product maakt.
En de prijzen van de rest van die chips zijn het gevolg van AMD's koerswijziging. AMD ging iets meer vragen voor hun chips. Qua games kon Nvidia ze eindelijk bij houden op grofweg dezelfde grootte, dus konden ze helaas meer gaan vragen voor de grote chips
Of die prijzen volgend jaar weer iets zakken hangt naar mijn mening helemaal van AMD af. Die hebben in het verleden met een kleinere marge gewerkt en de vraag is dus of ze dat weer willen doen - ik denk het eigenlijk niet. Zoals anderen al hebben gezegd gaan hun kosten namelijk niet meer omlaag met een nieuw procedé.
Nvidia heeft nu voor het eerst in lange tijd een echt betere price/performance op een gpu, met de 980Ti vs Fury X, het lijkt me sterk dat die prijs omlaag gaat.Format-C schreef op donderdag 25 juni 2015 @ 10:00:
AMD heeft geen andere keus dan zichzelf met de Fury in de markt te zetten met dusdanige prijzen dat nV misschien de prijzen NIET verlaagd, en zij nog een graantje mee kunnen pikken van de AMD fans die hebben zitten wachten op de Fury. Als ze te laag gaan zitten past nV de prijzen aan, als ze te hoog zitten verkopen ze niks. Beetje sweet spot zoeken. Maar ik dénk dat nV de prijzen wel verlaagd. Zo "gemeen" zijn ze wel.
En al gaat de fury X in prijs omlaag, de meerprijs voor de 980Ti is nog te verantwoorden door betere prestaties, meer vram, hdmi 2/dvi/vga, lager verbruik.
Mechwarrior Online: Flapdrol
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
vga? XD voor dvi levert amd gwoon een display-->dvi adapter mee toch? hdmi2 is idd jammer maar het aantal mensen wat het gebruikt is vrij beperkt lijkt me.haarbal schreef op donderdag 25 juni 2015 @ 11:44:
[...]
Nvidia heeft nu voor het eerst in lange tijd een echt betere price/performance op een gpu, met de 980Ti vs Fury X, het lijkt me sterk dat die prijs omlaag gaat.
En al gaat de fury X in prijs omlaag, de meerprijs voor de 980Ti is nog te verantwoorden door betere prestaties, meer vram, hdmi 2/dvi/vga, lager verbruik.
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
Ja, nvidia kaarten hebben nog dvi-i, dus kan je met een verloopje nog zo'n crt aansluiten. En een "echte" dvi heeft nog meerwaarde voor degenen met zo'n overclockbare koreaanse monitor.aminam schreef op donderdag 25 juni 2015 @ 11:46:
[...]
vga? XD voor dvi levert amd gwoon een display-->dvi adapter mee toch? hdmi2 is idd jammer maar het aantal mensen wat het gebruikt is vrij beperkt lijkt me.
Zal niet vaak voorkomen, maar toch.
Mechwarrior Online: Flapdrol
aminam schreef op donderdag 25 juni 2015 @ 11:45:
ik heb als graphische power 2x een 2e hands 7970 ref. 200+150=€350 hard to beat
Ik heb een r9 290 voor €180,-
|2600k|Asus 290|
In zekere zin: nVidia zelf, net zo goed als dat Intel met zichzelf concureert.XanderDrake schreef op donderdag 25 juni 2015 @ 10:52:
[...]
Ja en nee. Wie is de grootste concurrent van nVidia?
De "upgrade" prikkel is bij CPU's heel erg klein geworden en als je een midrange CPU hebt kan je jaren vooruit. Dat is gewoon iets wat de praktijk al jaren aanwijst.
Als je ziet dat 1080p voor de komende jaren voor mainstream gamen de standaard blijft kan je niet anders dan concluderen dat je met een midrange GPU nu ook heel snel richting "snel genoeg" dendert. Voor de desktop zie ik niet 1-2-3 een massale beweging naar 4k, de massa zal toch blijven plakken bij 1080p op 21-24".
Het prijsgat is gigantisch en dat wordt ook niet snel gedicht (ook al omdat het bijbehorende performance gat ook enorm is, zelfs een Fury/980TI trekt 4k nauwelijks). Een 24" TN scherm kost gewoon geen drol en ziet er doorgaans prima uit voor gamen. Ja, IPS, MVA en 4k is mooier, maar de winst is zeker gezien de prijs voor de meeste mensen gewoon een brug te ver.
Met andere woorden, met de 970 en de 290 range kan je als consument echt wel een paar jaar verder. En dat is funest voor de bootm line van zowel nVidia als AMD.
Mechwarrior Online: Flapdrol
Inderdaad. Helemaal mee eens.roffeltjes schreef op donderdag 25 juni 2015 @ 11:57:
[...]
In zekere zin: nVidia zelf, net zo goed als dat Intel met zichzelf concureert.
De "upgrade" prikkel is bij CPU's heel erg klein geworden en als je een midrange CPU hebt kan je jaren vooruit. Dat is gewoon iets wat de praktijk al jaren aanwijst.
Als je ziet dat 1080p voor de komende jaren voor mainstream gamen de standaard blijft kan je niet anders dan concluderen dat je met een midrange GPU nu ook heel snel richting "snel genoeg" dendert. Voor de desktop zie ik niet 1-2-3 een massale beweging naar 4k, de massa zal toch blijven plakken bij 1080p op 21-24".
Het prijsgat is gigantisch en dat wordt ook niet snel gedicht (ook al omdat het bijbehorende performance gat ook enorm is, zelfs een Fury/980TI trekt 4k nauwelijks). Een 24" TN scherm kost gewoon geen drol en ziet er doorgaans prima uit voor gamen. Ja, IPS, MVA en 4k is mooier, maar de winst is zeker gezien de prijs voor de meeste mensen gewoon een brug te ver.
Met andere woorden, met de 970 en de 290 range kan je als consument echt wel een paar jaar verder. En dat is funest voor de bootm line van zowel nVidia als AMD.
Ik had een tijd terug een GTX560Ti en die trok, na (flinke) OC, alle games al op 1920x1080 maxed out. Weliswaar met maar 2x MSAA en wat tweakwerk (in INF's en met driver tooltjes (nV inspector bijv.)), maar was echt prima te doen.
Uiteindelijk na die 560Ti wel naar een 580 gegaan, en daarna een 7970, maar dat komt omdat ik GPU junk ben.
[ Voor 4% gewijzigd door Format-C op 25-06-2015 12:40 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
oei pittig fijne prijs, maar een 2e hands reference miner of gewoon een gamekaart met open koeler?
de eerste kaart kocht ik ong 10 maanden geleden de 2e een half jaar geleden toen waren dat indrukwekkende prijzen
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
aminam schreef op donderdag 25 juni 2015 @ 12:46:
[...]
oei pittig fijne prijs, maar een 2e hands reference miner of gewoon een gamekaart met open koeler?
de eerste kaart kocht ik ong 10 maanden geleden de 2e een half jaar geleden toen waren dat indrukwekkende prijzen
Reference miner,9 maanden terug gekocht en is watergekoeld met een universele gpu block die ik al sinds de HD5xxx series gebruik
|2600k|Asus 290|
Gelukkig is het verbruik wel netjes. (in lijn met de concurrentie en gelukkig geen straalkacheltje zoals een 390x.).
komen er TF/WF/DCU varianten met luchtkoelers?
Bottom-line ik zie AMD niet omhoog krabbelen dankzij Fury.
Drie van de belangrijkste variabelenFormat-C schreef op donderdag 25 juni 2015 @ 09:38:
Wat mij vooral opvalt de laatste tijd is dat de snelste kaarten ineens schreeuwend duur zijn... Kijk naar de launch prijzen van de vorige generaties:
8800GTX: ~€525 (súper kaart trouwens! Meer dan zn geld waard!)
GTX280: ~ €525
GTX480: ~ €480
GTX580: ~ €500
GTX680: ~ €500
Voor het snelste betaalde je dus ongeveer 500.
En toen ging het ineens hard omhoog (single chip kaarten he! De 980 en 780 zijn gewoon gecastreerde chips)):
GTX780: ~ €650
GTX Titan Black : ~€1100![]()
GTX780Ti: ~€700![]()
GTX980: ~ €550 (viel op zich nog mee)
GTX Titan X: ~€1000![]()
GTX980Ti: ~€750![]()
(Ze maken er een potje van bij nV qua prijzen imho)
3870: ~€225
4870: ~€300
5870: ~€375![]()
(heerlijk!)
7970: ~€500
R9 280X: ~€500
R9 390X: ~€430 (op het moment dat een 290X €325 kost!)
Fury X : ~€650(ook ineens véél duurder dan voorgaande high end kaarten)
Dus wat mij betreft mag er snel een prijzenoorlog losbarsten (en ik denk dat nV de prijzen eerdaags wel verlaagd), want de prijzen schieten door het plafond (vind ik). De Fury mag wat mij betreft 150 omlaag, en hetzelfde geldt voor de 980Ti. Dan wordt t (voor mij) weer wat interessanter.
1) Inflatie
Die 600 dollar in 2007 is nu 688 dollar. Zie http://www.usinflationcalculator.com/ .
2) Euro/dollar koers.
In 2008 zaten we op 1.578. Die 600 dollar werd dan omgerekend 380 euro (en dan nog BTW+import heffing+marge=NL prijs). Vandaag de dag zitten we op 1.11665, diezelfde 600 dollar is nu 537 euro. Het is dit jaar erger geweest. De laatste 2 jaar zijn we er circa 20% op achteruit gegaan. Dit verklaart recente sprongen en het uitblijven van dalingen.
Het gecombineerde rekensommetje wordt dan 688 dollar (inflatie correctie) / 1,11665 (huidige koers)=616 euro.
Dat is 60% meer dan de 380 euro van 2007 zonder dat het ook maar iets met het product te maken heeft! Historisch gezien is de GTX 980 dus juist heel betaalbaar. Immers als we aannemen dat die 525 euro van jou klopt en alles is in Europa is nu 60% duurder dan verwacht je een Retail prijs van 840 euro (525*1,6). Dan heb ik het nog niet eens gehad over de BTW die nu 2% hoger ligt.
3) Nieuwe product range.
De hele dure kaarten zijn boven het oude "high end" geplaatst. Er is een soort super categorie gekomen van exclusieve kaarten.
Die 3 samen is voldoende om juist geen prijzenoorlog te verwachten. Ferrari gaat toch ook de prijs van zijn auto's halveren omdat Porsche met een nieuwe wagen komt? In het geval van Titan/Fury/enz is het hoogst waarschijnlijk* meer product placement dan noodzaak.
*Als je operational accounting gaat toepassen dan kun je natuurlijk het zo gek maken als je zelf wilt ivm geringe volume in combinatie met R&D. Volgens die logica blijft de prijs ook hoog want dan wil je ze niet verkopen, het is dan meer marketing.
[ Voor 19% gewijzigd door sdk1985 op 25-06-2015 14:27 . Reden: opmaak en autocorrect ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Graphics score 3Dmark firestrike 13.178
Hoeveel heeft een 390X ?
Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)
nvidia666 schreef op donderdag 25 juni 2015 @ 14:48:
Voila 290X Lightning gekocht 280 euro
Graphics score 3Dmark firestrike 13.178
Hoeveel heeft een 390X ?

[ Voor 232% gewijzigd door Format-C op 25-06-2015 15:02 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ja oké maar zijn dat de graphics scores of het totaal score ?
Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)
Het 1 verklaart het ander. Een kaart van EUR380 is geen midrange, natuurlijkFormat-C schreef op donderdag 25 juni 2015 @ 12:33:
[...]
En de huidige mid end (970 bijv) trekt 1920x1080 echt mákkelijk over het algemeen.
[..]
maar dat komt omdat ik GPU junk ben.
Dat is gewoon onzin natuurlijk, het zijn maar 4096 streamprocessors. Als je kijkt naar de verhoging in streamprocessors is de winst namelijk zoals verwacht, net niet perfecte schaling, maar dat is normaal. Ook is niet alles vermeerderd sommige dingen zijn gewoon gelijk gebleven in vergelijking met Hawaii, dus wat je beweerd snijd geen hout.DervishD schreef op donderdag 25 juni 2015 @ 16:28:
persoonlijk vind ik de Fury-X een grote teleurstelling. 4096 stream processors en 4GB HBM geheugen... met zo veel potentiële brute kracht to z'n beschikking had de Fury-X de Titan-X gewoon alle hoeken van de kamer moeten laten zien. Eigenlijk moet AMD zich schamen voor wat ze met de Fury-X "gepresteerd" hebben.
[ Voor 9% gewijzigd door -The_Mask- op 25-06-2015 16:37 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik moet eerlijk bekennen dat ik ook wel "iets" meer had verwacht, maar eigenlijk is het resultaat dikke prima.DervishD schreef op donderdag 25 juni 2015 @ 16:28:
persoonlijk vind ik de Fury-X een grote teleurstelling. 4096 stream processors en 4GB HBM geheugen... met zo veel potentiële brute kracht to z'n beschikking had de Fury-X de Titan-X gewoon alle hoeken van de kamer moeten laten zien. Eigenlijk moet AMD zich schamen voor wat ze met de Fury-X "gepresteerd" hebben.
We weten dat AMD na een maand meestal een driver released die op de een of andere magische wijze nog eens 5-10% extra performance levert en op 4K kan de kaart echt heel goed de strijd aan met de 980Ti.
Waarom de performance bij lagere resoluties zoveel trager (in verhouding) is moet je mij niet vragen, daar begrijp ik niks van, maar laten we eerlijk zijn: wie zit op een enkel 1080P scherm te gamen met een 750 euro kaart? Ik denk niet dat de kaart als doelgroep 1080P heeft, maar eerder gewoon 4K, hier is de performance prima imo.
De prijs is hoog ja, maar bedenk je dat HBM een gloedjenieuwe technologie is, en dat die AIO waterkoeler retail ook wel een euro of 80 kost.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Wat is dan de kans dat AMD met zijn 596mm2 grote chip nVidia's 601mm2 grote chip alle hoeken van de kamer laat zien? Zelfs met alle gameworks titels is Fiji door de tang genomen de verstandigere keuze als je op 4K wil gamen (of misschien 3-5 x fullHD eyefinity) en dat is met DX11 titels bovendien.
Het zou natuurlijk fantastisch zijn als Fiji minimaal 10% sneller was dan Titan X op alle fronten, maar natuurlijk onhaalbaar, tenzij je misschien een heel bijzonder palet aan games gaat testen. De vraag is ook nog of er iets te winnen valt met het gewend raken aan een nieuw type geheugen. Geen idee of ze daar nog iets kunnen winnen, maar het is wel de meest logische 'low-hanging fruit'.
http://forums.guru3d.com/showthread.php?t=398858&page=32
Link rechtstreeks naar plaatje:
http://extreme.pcgameshar...t-fast-einer-dekade-1.png
Een api overhead test voor dx 12, ,980Ti vs Fury X. Dit is nog geen praktijkvoorbeeld hoe de Fury X straks in games gaat presteren, maar hoopvol is het zeker
Momenteel een 4k scherm met 1x een R9 290. Zou graag willen upgraden voor meer FPS uiteraard. Maar vind 750 euro erg veel geld voor de Fury X. Dus twijfel nu tussen een 2e R9 290, of een R9 295X2 die zag ik staan op Tweakers (ook veel geld). Maar ik moet ook weer een nieuwe voeding.... Lastig lastig... (en dan kom ik uiteindelijk ook weer op 750 euro uit...
De R9 3xx serie is het upgraden niet waard iig.
[ Voor 5% gewijzigd door rikadoo op 25-06-2015 17:32 ]
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 256GB | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x LG 27UD59-B | 1x LG UltraGear 27GL850
Over die nieuwe product range. Ik heb niet het idee dat er een nieuwe range is ontstaan. Ik heb zelf een GTX 980, maar heb het gevoel dat dit eigenlijk de 960 had moeten zijn. Titan X had dan de GTX 980 moeten zijn en de huidige GTX 980Ti de GTX 970. Door de missende concurrentie kan nvidia hier lekker mee schuiven en krijg je de huidige hoge prijzen.sdk1985 schreef op donderdag 25 juni 2015 @ 14:13:
[...]
Drie van de belangrijkste variabelen
1) Inflatie
Die 600 dollar in 2007 is nu 688 dollar. Zie http://www.usinflationcalculator.com/ .
2) Euro/dollar koers.
In 2008 zaten we op 1.578. Die 600 dollar werd dan omgerekend 380 euro (en dan nog BTW+import heffing+marge=NL prijs). Vandaag de dag zitten we op 1.11665, diezelfde 600 dollar is nu 537 euro. Het is dit jaar erger geweest. De laatste 2 jaar zijn we er circa 20% op achteruit gegaan. Dit verklaart recente sprongen en het uitblijven van dalingen.
Het gecombineerde rekensommetje wordt dan 688 dollar (inflatie correctie) / 1,11665 (huidige koers)=616 euro.
Dat is 60% meer dan de 380 euro van 2007 zonder dat het ook maar iets met het product te maken heeft! Historisch gezien is de GTX 980 dus juist heel betaalbaar. Immers als we aannemen dat die 525 euro van jou klopt en alles is in Europa is nu 60% duurder dan verwacht je een Retail prijs van 840 euro (525*1,6). Dan heb ik het nog niet eens gehad over de BTW die nu 2% hoger ligt.
3) Nieuwe product range.
De hele dure kaarten zijn boven het oude "high end" geplaatst. Er is een soort super categorie gekomen van exclusieve kaarten.
Die 3 samen is voldoende om juist geen prijzenoorlog te verwachten. Ferrari gaat toch ook de prijs van zijn auto's halveren omdat Porsche met een nieuwe wagen komt? In het geval van Titan/Fury/enz is het hoogst waarschijnlijk* meer product placement dan noodzaak.
*Als je operational accounting gaat toepassen dan kun je natuurlijk het zo gek maken als je zelf wilt ivm geringe volume in combinatie met R&D. Volgens die logica blijft de prijs ook hoog want dan wil je ze niet verkopen, het is dan meer marketing.
Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x
Was die 596mm2 niet inc de HBM chip's? nVidia heeft daar losse GDDR5 chips voor.dahakon schreef op donderdag 25 juni 2015 @ 16:48:
Tsja, als je het objectief bekijkt, hebben we Fiji met 596mm2 tegenover GM200 met ~601mm2.
Wat is dan de kans dat AMD met zijn 596mm2 grote chip nVidia's 601mm2 grote chip alle hoeken van de kamer laat zien? Zelfs met alle gameworks titels is Fiji door de tang genomen de verstandigere keuze als je op 4K wil gamen (of misschien 3-5 x fullHD eyefinity) en dat is met DX11 titels bovendien.
Het zou natuurlijk fantastisch zijn als Fiji minimaal 10% sneller was dan Titan X op alle fronten, maar natuurlijk onhaalbaar, tenzij je misschien een heel bijzonder palet aan games gaat testen. De vraag is ook nog of er iets te winnen valt met het gewend raken aan een nieuw type geheugen. Geen idee of ze daar nog iets kunnen winnen, maar het is wel de meest logische 'low-hanging fruit'.
Ik denk zelf dat het gat tussen de twee nog wel iets kleiner zal worden maar niet schokkend. Overall zal hij op lagere resoluties net wat langzamer zijn als de 980 Ti en met 4K en hoger even snel / Ietsjes sneller afhankelijk van de games. Opzich geen slechte prestatie.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat vind ik dus zo jammer. Ik had gewoon op meer gehoopt. Ik had graag een kaart van AMD gezien die alles van Nvidia achter zich laat. Nu is het weer zoals altijd genoeg om mee te komen maar ook niet meer dan dat.-The_Mask- schreef op donderdag 25 juni 2015 @ 16:35:
Ook is niet alles vermeerderd sommige dingen zijn gewoon gelijk gebleven in vergelijking met Hawaii, dus wat je beweerd snijd geen hout.
Nee gewoon de GPU zonder HBM.Astennu schreef op donderdag 25 juni 2015 @ 17:48:
[...]
Was die 596mm2 niet inc de HBM chip's? nVidia heeft daar losse GDDR5 chips voor.
Dat is gewoon niet mogelijk AMD en nVidia zitten qua die size en prestaties niet ver uit elkaar. Nog grotere die zit er gewoon niet in. En een andere architectuur heb je niet zo maar even en de kosten daarvan zijn nogal erg groot.DervishD schreef op donderdag 25 juni 2015 @ 17:50:
[...]
Dat vind ik dus zo jammer. Ik had gewoon op meer gehoopt. Ik had graag een kaart van AMD gezien die alles van Nvidia achter zich laat. Nu is het weer zoals altijd genoeg om mee te komen maar ook niet meer dan dat.
Is gewoon niet realistisch.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Geen van beide partijen heeft baat bij een (prijzen)oorlog, dus men ontziet elkaar netjes.
Geef het wat tijd, een nieuwe driver en DX api en het ziet er eventueel al een stuk beter uit, sowieso hebben ATi/AMD kaarten altijd even wat tijd nodig te rijpen, zoals men al eerder de vergelijking met goede wijn maakte.
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Ik ben er sowieso niet direct van overtuigd, beide merken hebben last van wisselende performance/stabiliteit met hun driver revisies, het is echt niet altijd een stijgende lijn geweest.
Anoniem: 58485
Ik koop die kaart zodra die beschikbaar is en voor een goede prijs (500 euro). Voorlopig voldoet mijn Crossfire 270x set voor 2560x1080. Er zullen games met DX12 komen waarbij de eisen een stuk hoger liggen dan een setup die net zo snel is als een 290x.
Daarbij genomen de historische DX overgangen in drivers van Nvidia, wat altijd heel slecht uitpakte (gf5 die softwarematig een hogere dx simuleerde en dx10 drivers ten tijde van vista) kan het er over paar maanden ineens totaal en heel anders uitzien.
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Hey bullus Volgensmij had je em bij mij gekocht. Kaart was niet voor t minen gebruikt! De sapphire die ik nu nog heb wel. Die heb ik zelf ook over gekochtBullus schreef op donderdag 25 juni 2015 @ 13:25:
[...]
offtopic:
Reference miner,9 maanden terug gekocht en is watergekoeld met een universele gpu block die ik al sinds de HD5xxx series gebruik.
Waar die verkoper overigens over gelogen had.
[ Voor 5% gewijzigd door legendareN op 25-06-2015 19:52 ]
Of als die nat wordt.RobinHood schreef op woensdag 24 juni 2015 @ 20:15:
[...]
Gewoon wat er gebeurd als je een GTX750ti na middernacht eten geeft dus

Dit bericht kan oorzaak of gevolg zijn van misverstanden.
http://www.reddit.com/r/p...attention_to_what/csia5t7
Ze gebruiken (onder andere) de Guru3D benchmarks op 4k UHD. Hier gaat de Fury X wel de 980 Ti voorbij (op 1 na): http://www.guru3d.com/art..._r9_fury_x_review,26.html
Op lagere resoluties gaat de 980 Ti nog steeds voor: http://hexus.net/tech/rev...on-r9-fury-x-4gb/?page=12
[ Voor 14% gewijzigd door LongBowNL op 25-06-2015 20:42 ]
Dat gevoel had ik dus ook een beetje... zelfde met de GTX700 serie. Maar goed. Er is nu concurrentie. We zullen zien hoe de toekomst uitpakt. En hoe de Fury non X het doet.hubhib schreef op donderdag 25 juni 2015 @ 17:45:
[...]
Over die nieuwe product range. Ik heb niet het idee dat er een nieuwe range is ontstaan. Ik heb zelf een GTX 980, maar heb het gevoel dat dit eigenlijk de 960 had moeten zijn. Titan X had dan de GTX 980 moeten zijn en de huidige GTX 980Ti de GTX 970. Door de missende concurrentie kan nvidia hier lekker mee schuiven en krijg je de huidige hoge prijzen.
[ Voor 9% gewijzigd door Format-C op 25-06-2015 21:43 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Sorry, dacht dat dat wel was ivm de prijs, maakte verder ook niet zoveel uit..hij werkt nog steeds goed.legendareN schreef op donderdag 25 juni 2015 @ 19:47:
[...]
Hey bullus Volgensmij had je em bij mij gekocht. Kaart was niet voor t minen gebruikt! De sapphire die ik nu nog heb wel. Die heb ik zelf ook over gekocht
Waar die verkoper overigens over gelogen had.
|2600k|Asus 290|

Niet echt handig als je zwaar aan't crunchen bent en ineens hoor je je kaart niet meer blazen en zie je de rate naar 50% te zijn gezakt
[ Voor 31% gewijzigd door Damic op 25-06-2015 22:00 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Ik wilde het net posten. Zou zo maar kunnen. Ik zie namelijk ook genoeg reviews waar de Fury al wel gewaagd is aan de 980Ti en TitanX, op 4K uiteraard. Ik blijf nog steeds bij mijn verwachting dat die wat sneller wordt dan de TitanX~10-15%, desnoods over een maandje of 2-3, in de meeste dx11 games op 4K. Herinner mij er maar aan in sept/oktLongBowNL schreef op donderdag 25 juni 2015 @ 20:40:
Over drivers gesproken, op Reddit wordt alweer beweerd dat er niet goed gecommuniceerd is over welke driver gebruikt moet worden.
http://www.reddit.com/r/p...attention_to_what/csia5t7
Ze gebruiken (onder andere) de Guru3D benchmarks op 4k UHD. Hier gaat de Fury X wel de 980 Ti voorbij (op 1 na): http://www.guru3d.com/art..._r9_fury_x_review,26.html
Op lagere resoluties gaat de 980 Ti nog steeds voor: http://hexus.net/tech/rev...on-r9-fury-x-4gb/?page=12
De benchmarks op Xbit laten idd een iets ander beeld zien:
http://www.ixbt.com/video3/fiji-part3.shtml
Valt dit onder de categorie sloppy AMD actions? Het gebeurt ook wel eens dat ze de verkeerde driver op de site zetten, of versienummer in de driver niet hebben aangepast
[ Voor 21% gewijzigd door edward2 op 25-06-2015 22:14 ]
Niet op voorraad.
Dat is inderdaad een heel ander beeld, daar is het geen nek aan nek race meer, in sommige gevallen gaat hij er gewoon goed voorbij.edward2 schreef op donderdag 25 juni 2015 @ 22:00:
[...]
Ik wilde het net posten. Zou zo maar kunnen. Ik zie namelijk ook genoeg reviews waar de Fury al wel gewaagd is aan de 980Ti en TitanX, op 4K uiteraard. Ik blijf nog steeds bij mijn verwachting dat die wat sneller wordt dan de TitanX~10-15%, desnoods over een maandje of 2-3, in de meeste dx11 games op 4K. Herinner mij er maar aan in sept/okt
De benchmarks op Xbit laten idd een iets ander beeld zien:
http://www.ixbt.com/video3/fiji-part3.shtml
Valt dit onder de categorie sloppy AMD actions? Het gebeurt ook wel eens dat ze de verkeerde driver op de site zetten, of versienummer in de driver niet hebben aangepast
De problemen treffen vooral pc-gebruikers met AMD-videokaarten. De klachten zijn onder meer dat de framerate omlaaggaat tijdens bijvoorbeeld het rijden van de Batmobile, dat de game af en toe stottert en hapert of dat de game helemaal crasht tijdens het spelen.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
[ Voor 7% gewijzigd door -The_Mask- op 25-06-2015 23:19 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Wat de The_Mask zegt. AMD heeft tenminste een patch uitgebracht voor de launch om dingen gedeeltelijk te fixen. Als je ziet dat de performance op zowel AMD en nVidia kaarten brak is dan trek je een rare conclussie, dit is gewoon het werk van een slechte poort in combinatie met gameworks.sdk1985 schreef op donderdag 25 juni 2015 @ 23:14:
We hadden het er pas over eventuele kwaliteitsverschillen in de drivers. Weer een streepje tegen voor AMD helaas:
[...]
Hoeveel heeft een twee keer zo dure GTX980nvidia666 schreef op donderdag 25 juni 2015 @ 14:48:
Voila 290X Lightning gekocht 280 euro
Graphics score 3Dmark firestrike 13.178
Hoeveel heeft een 390X ?
Anoniem: 58485
Kijk ook uit naar de verschillende OC's zodra voltage en / of HBM aangepast kan worden. 400A op VRM en 500W aan TDP cooling power haal je bij lange na niet op stock.The Radeon Fury X is a beast, but needs the right circumstances to really shine. We think a driver tweak or two is still in order as up-to a monitor resolution of 2560x1440 the performance definitely is grand, but lacks a little here and there opposed to what the competition is showing. It looks and feels like driver API overhead. The thing is, once you pass 2560x1440 and head onwards to Ultra HD then that's where the card all of a sudden becomes very competitive and starts to really shine. As such, we really rate this card as a viable Ultra HD product. Regardless of that, in lower resolutions the card was often a notch slower, but still... you are looking at 120 FPS instead of 135 FPS, I doubt it could be a real hindrance for the true AMD Radeon aficionado. The Radeon Fury X in most scenarios (depending on the game intensity) will perform close to the GeForce GTX 980 Ti, with the usual exceptions here and there. And then once Ultra HD kicks in, things equalize or get better real fast at very acceptable framerates. That leaves open the 4GB discussion. In Ultra HD you are bound to run out of graphics memory fairly fast. Remember though, most of the data that resides on the framebuffer is cached data, that prevents things like swapping files from your HDD/SSD. Not all cached data is used and in most scenarios when you run out of graphics memory it just doesn't matter. It does start to matter when you have Ultra HD Texture packs and weird AA modes. If you want 8x MSAA, sure, your rendered frames will start swapping back and forth in graphics memory to do its thing, causing a slowdown, normally. However, with HBM, you have extremely low latency graphics memory that is seriously fast. So if these frames are moved back and forth in the framebuffer, they will gain from the increased bandwidth and that can alleviate the performance loss you'd normally get. It is a bit brute force, but everything about Fiji is just that, brute force performance.
Lees je het artikel wel? Het is tegenwoordig 'common' om voor een game studio bedrijf een game al live te zetten terwijl het vol met bugs zit. Het wordt niet offline gehaald omwille de drivers van AMD maar omdat de performance gewoon ruk is. Ze erkennen de wanprestatie van het spel en bieden zelfs een refund. Waarom zouden ze dat doen als het aan AMD zou liggen? Nou niet dus.sdk1985 schreef op donderdag 25 juni 2015 @ 23:14:
We hadden het er pas over eventuele kwaliteitsverschillen in de drivers. Weer een streepje tegen voor AMD helaas:
[...]
[ Voor 12% gewijzigd door Anoniem: 58485 op 26-06-2015 00:29 ]
Dit topic is gesloten.