LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Maar ik lees nergens welke clock de 1080 nou haalt waar ze (MAX) hebben staan. Is dat dan OC? of hebben ze gewoon de fan profile op 100% en kijken wat de kaart doet?Jeroenneman schreef op donderdag 19 mei 2016 @ 11:35:
[...]
Paar stukjes doorklikken:
http://www.computerbase.d...n_per_evga_precision_x_oc
Dus OC vs OC kijk je nog steeds tegen een behoorlijke voorsprong (en dan is dit nog de reference, die flink throttled door temps en power limits, die op aftermarket modellen hopelijk worden aangepast!)
Edit: Sorry blind!


Die Ti gaming heeft alleen een factory OC. Daar kun je ook nog aardig wat uit halen vooral uit het geheugen.Jeroenneman schreef op donderdag 19 mei 2016 @ 11:35:
[...]
Paar stukjes doorklikken:
http://www.computerbase.d...n_per_evga_precision_x_oc
Dus OC vs OC kijk je nog steeds tegen een behoorlijke voorsprong (en dan is dit nog de reference, die flink throttled door temps en power limits, die op aftermarket modellen hopelijk worden aangepast!)
Anno Tomb Raider Battlefront
56 56 60 GTX 1080 OC
51 51 54 GTX 1080 Stock (met max powerlimit)
43 44.8 48 GTX 980 Ti Gaming
34 38 39 GTX 980Ti Stock
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nee, de power limit en temp limit. Dus de kaart gaat uit zichzelf iets hoger boosten.Fusion_XT schreef op donderdag 19 mei 2016 @ 11:42:
[...]
Maar ik lees nergens welke clock de 1080 nou haalt waar ze (MAX) hebben staan. Is dat dan OC? of hebben ze gewoon de fan profile op 100% en kijken wat de kaart doet?
Het is geen echte OC, meer het losser afregelen van de speelruimte die de GPU zichzelf geeft.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Ja oke precies... Het OC stukje hebben ze dus BASE OC clocks genoteerd als ik het goed begrijp. Dus de Ti haalt rond de 1500mhz(Boost) tijdens de benchmarks en de 1080 zit rond de ~2Ghz(boost).Jeroenneman schreef op donderdag 19 mei 2016 @ 11:44:
[...]
Nee, de power limit en temp limit. Dus de kaart gaat uit zichzelf iets hoger boosten.
Het is geen echte OC, meer het losser afregelen van de speelruimte die de GPU zichzelf geeft.
Nu dan hopen dat de custom kaarten ~2.1/2.2Ghz halen, dan zit je rond de ~10fps verschil. Als ze dat niet halen ben ik maybe iets te snel geweest met het verkopen van mijn 980TI ..


[ Voor 16% gewijzigd door Fusion_XT op 19-05-2016 11:58 ]
Of je wacht ff en koop weer een 2ehandse 980ti voor 400euroFusion_XT schreef op donderdag 19 mei 2016 @ 11:46:
[...]
Ja oke precies... Het OC stukje hebben ze dus BASE OC clocks genoteerd als ik het goed begrijp. Dus de Ti haalt rond de 1500mhz(Boost) tijdens de benchmarks en de 1080 zit rond de ~2Ghz(boost).
Nu dan hopen dat de custom kaarten ~2.1/2.2Ghz halen, dan zit je rond de ~10fps verschil. Als ze dat niet halen ben ik maybe iets te snel geweest met het verkopen van mijn 980TI ..![]()
![]()
|2600k|Asus 290|
Afhankelijk van de prijs en de OC die je 980 Ti haalde wel. Wat beide vol uit overclocked maakt denk ik weinig verschil. Al verbruikt een 980 Ti dan wel meer maar dan moet je aardig wat uren voor gamen voordat je dat prijs verschil terugverdient.Fusion_XT schreef op donderdag 19 mei 2016 @ 11:46:
[...]
Ja oke precies... Het OC stukje hebben ze dus BASE OC clocks genoteerd als ik het goed begrijp. Dus de Ti haalt rond de 1500mhz(Boost) tijdens de benchmarks en de 1080 zit rond de ~2Ghz(boost).
Nu dan hopen dat de custom kaarten ~2.1/2.2Ghz halen, dan zit je rond de ~10fps verschil. Als ze dat niet halen ben ik maybe iets te snel geweest met het verkopen van mijn 980TI ..![]()
![]()
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Is dat vergeleken met een OC 1080?Bullus schreef op donderdag 19 mei 2016 @ 10:49:
[...]
De 1080 is ongeveer 5-10% sneller dan een 980ti OC wat jij hebt...ben benieuwd of je 10-15fps(20-30% uitgaande van 50fps) meer kunt halen.
Ben namelijk erg benieuwd wat die doet qua prestatie/prijs. Voor source/source2 heb je niet top kaart nodig en aangezien ik toch voor merendeel alleen maar cs speel is dat een beetje overkill.
Vega komt in 2017 maar wat staat daar tegenover?
Is ook nog niet uitgebracht.Juke! schreef op donderdag 19 mei 2016 @ 15:03:
Jammer dat de 1070 niet meegenomen is in die lijst van computerbase of zie ik het verkeerd;p?
Laat ik het anders verwoorden.Juke! schreef op donderdag 19 mei 2016 @ 15:15:
1080 toch ook niet?
De NDA voor reviews etc voor de 1080 is verlopen. Daadwerkelijke release is volgende week dacht ik. De review NDA voor de 1070 verloopt pas in de eerste week van juni dacht ik. Of eventueel tegelijk met de release van de 1080.
Daarom kom je de 1070 dus niet tegen.
Verwijderd
Dat was alleen maar een gerucht, het kan nog steeds begin 2017 zijn.Beaudog schreef op donderdag 19 mei 2016 @ 15:09:
Vega komt in oktober dit jaar
[ Voor 0% gewijzigd door Verwijderd op 20-05-2016 16:05 . Reden: Typo ]
Ah dankjewel, nu duidelijker:).Zeara schreef op donderdag 19 mei 2016 @ 15:17:
[...]
Laat ik het anders verwoorden.
De NDA voor reviews etc voor de 1080 is verlopen. Daadwerkelijke release is volgende week dacht ik. De review NDA voor de 1070 verloopt pas in de eerste week van juni dacht ik. Of eventueel tegelijk met de release van de 1080.
Daarom kom je de 1070 dus niet tegen.
Vaag maar zal aan mij liggen:P Wat zou de grond zijn voor die langere NDA op de 1070?
Hype uitmelken.Juke! schreef op donderdag 19 mei 2016 @ 15:30:
[...]
Ah dankjewel, nu duidelijker:).
Vaag maar zal aan mij liggen:P Wat zou de grond zijn voor die langere NDA op de 1070?
Hoe vaker je op een site staat, hoe beter.
People as things, that’s where it starts.
Lijkt me sterk toch, tenzij Pascal als "refresh" van Maxwell gezien wordt. Zou eerder een Pascal refresh verwachten en dan idd in 2017 Vega. nevermindBeaudog schreef op donderdag 19 mei 2016 @ 15:09:
Vega komt in oktober dit jaar
[ Voor 3% gewijzigd door PaYnE81 op 19-05-2016 15:42 ]
Ik wist niet dat Nvidia Vega ging maken voor AMD.PaYnE81 schreef op donderdag 19 mei 2016 @ 15:35:
[...]
Lijkt me sterk toch, tenzij Pascal als "refresh" van Maxwell gezien wordt. Zou eerder een Pascal refresh verwachten en dan idd in 2017 Vega.
Zou wel verfrissend zijn voor de markt
People as things, that’s where it starts.
Ow crap, hahaha ik ga maar ff een bakkie koffie pakken denk ikRobinHood schreef op donderdag 19 mei 2016 @ 15:40:
[...]
Ik wist niet dat Nvidia Vega ging maken voor AMD.
Zou wel verfrissend zijn voor de markt
The first casualty in war is always the truth...
Dat zou een stunt zijn ja. Nu nog software die er ook gebruik van maakt(looking at you Valve!!).Jumpiefox schreef op donderdag 19 mei 2016 @ 15:45:
Zou wel vet zijn als de 1070 net zo snel is als de 980TI maar dan voor 350-400euro. Misschien dat games de komende jaren dan nog grotere sprongen zullen maken omdat de mid-range segment ook lekkere performance kaarten hebben?
Wat zet Nvdia eigenlijk tegenover Vega?
Afhankelijk van hoe goed de Polaris en Vega kaarten zullen zijn, komt er wel of geen GTX1080Ti. Stel Vega valt flink tegen, dan komt er misschien alleen een nieuwe Titan kaart. Wordt Vega juist (veel) sneller dan een de GTX1080, dan zal er vast wel een GTX1080Ti komen en (misschien) geen nieuwe Titan (of ze komen beide).Juke! schreef op donderdag 19 mei 2016 @ 15:53:
[...]
Dat zou een stunt zijn ja. Nu nog software die er ook gebruik van maakt(looking at you Valve!!).
Wat zet Nvdia eigenlijk tegenover Vega?
Het is nu nog koffiedik kijken wat Polaris gaat doen, komt de snelste Polaris net in de buurt van de GTX1070, of komt ie toch al aardig dicht in de buurt van de GTX1080.
Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT
Mechwarrior Online: Flapdrol
langzamere Polaris => GTX1070 > snelste Polaris 10 => GTX1080 > GTX1080Ti/Vega
...kortom, eigenlijk hetzelfde zoals het nu ongeveer zit (R9 390 en GTX970 redelijk gelijk, R9 390X sneller, soms vrijwel gelijk aan de GTX980 en daarna de Fury (X) en en GTX980Ti.
Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT
Zich kan meten met de 1070.
Het zou wel een goede move zijn de Vega,s in oktober te verkopen.
Dankjewel voor inzicht:)Moi_in_actie schreef op donderdag 19 mei 2016 @ 15:59:
[...]
Afhankelijk van hoe goed de Polaris en Vega kaarten zullen zijn, komt er wel of geen GTX1080Ti. Stel Vega valt flink tegen, dan komt er misschien alleen een nieuwe Titan kaart. Wordt Vega juist (veel) sneller dan een de GTX1080, dan zal er vast wel een GTX1080Ti komen en (misschien) geen nieuwe Titan (of ze komen beide).
Het is nu nog koffiedik kijken wat Polaris gaat doen, komt de snelste Polaris net in de buurt van de GTX1070, of komt ie toch al aardig dicht in de buurt van de GTX1080.
Nog genoeg tijd om wat geld opzij te zetten dus. 770 voldoet nog prima in source/source2 op het moment,
Ik denk dat de snelle polaris onder de 1070 zal zitten. Amd had het tenslotte over een VR capable kaart voor mainstream prijs. ~390 performance voor 380x prijs?Moi_in_actie schreef op donderdag 19 mei 2016 @ 16:14:
Ik verwacht ook wel dat ie sneller wordt. Als ik een hele grove gok mag doen, denk ik dat het iets wordt van:
langzamere Polaris => GTX1070 > snelste Polaris 10 => GTX1080 > GTX1080Ti/Vega
...kortom, eigenlijk hetzelfde zoals het nu ongeveer zit (R9 390 en GTX970 redelijk gelijk, R9 390X sneller, soms vrijwel gelijk aan de GTX980 en daarna de Fury (X) en en GTX980Ti.
Mechwarrior Online: Flapdrol
Dat is onzin. Nvidia gaat geen tijd en moeite in een product steken om het vervolgens maar niet te releasen. Die premium kaart voor het enthusiast segment gaat er echt wel komen, ongeacht wat AMD doet. Tenzij hij nooit in ontwikkeling is geweest (maar dat verwacht ik eerlijk gezegd niet) Je ziet Intel toch ook niet hun line-up versimpelen omdat AMD blijft hangen onder het niveau van een i5. Wanneer komt hij dan wel? Dat weet alleen Nvidia.Moi_in_actie schreef op donderdag 19 mei 2016 @ 15:59:
[...]
Afhankelijk van hoe goed de Polaris en Vega kaarten zullen zijn, komt er wel of geen GTX1080Ti. Stel Vega valt flink tegen, dan komt er misschien alleen een nieuwe Titan kaart. Wordt Vega juist (veel) sneller dan een de GTX1080, dan zal er vast wel een GTX1080Ti komen en (misschien) geen nieuwe Titan (of ze komen beide).
Het is nu nog koffiedik kijken wat Polaris gaat doen, komt de snelste Polaris net in de buurt van de GTX1070, of komt ie toch al aardig dicht in de buurt van de GTX1080.
[ Voor 9% gewijzigd door sdk1985 op 19-05-2016 17:54 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Er was nog een tweet dat er 980ti performance zou komen voor 350 dollar ofzo...haarbal schreef op donderdag 19 mei 2016 @ 16:47:
[...]
Ik denk dat de snelle polaris onder de 1070 zal zitten. Amd had het tenslotte over een VR capable kaart voor mainstream prijs. ~390 performance voor 380x prijs?
Volgens mij zijn de geruchten op dit moment "all over the place... "
Dat is geen onzin, het tegenovergestelde zou juist gek zijn.. zeker voor een bedrijf als NVidia. Waarom denk je dat er destijds een GTX Titan uitkwam en niet een GTX680Ti? Juist, omdat de AMD counterpart van dat moment, de HD7970, op dat moment niet sneller was dan de GTX680. En waarom kwam er wel een GTX780Ti...omdat de R9 290X sneller bleek dan de GTX780.sdk1985 schreef op donderdag 19 mei 2016 @ 17:43:
[...]
Dat is onzin. Nvidia gaat geen tijd en moeite in een product steken om het vervolgens maar niet te releasen. Die premium kaart voor het enthusiast segment gaat er echt wel komen, ongeacht wat AMD doet. Tenzij hij nooit in ontwikkeling is geweest (maar dat verwacht ik eerlijk gezegd niet) Je ziet Intel toch ook niet hun line-up versimpelen omdat AMD blijft hangen onder het niveau van een i5. Wanneer komt hij dan wel? Dat weet alleen Nvidia.
Grotere chips als de Ti en Titan chips zijn gewoon erg duur om te maken en door de afmetingen halen ze ook nog eens lagere yields per wafer. Als NVidia, om tegen AMD op te boksen, geen 1080Ti HOEFT uit te brengen, dan doen ze dat zeker niet en brengen ze diezelfde chip gewoon onder de naam Titan op de markt. Zodoende kunnen ze dezelfde chip voor 999+ dollar verkopen, in plaats van ~699/749 dollar en tevens hoeft de GTX1080 dan niet in prijs te dalen. Kortom, een win-win situatie.
Is AMD's Vega chip wel aanzienlijk sneller dan de GTX1080, voor een prijs van om en nabij de 700 dollar, dan moet NVidia er wel wat tegenover stellen voor een gelijkwaardige prijs. Dit wordt dan echt geen Titan die voor 700 over de toonbank gaat, maar een Ti model.
De Titan's zijn "halo" kaarten, waarvan je eigenlijk altijd mag verwachten dat ze de besten zijn van die generatie. In sommige gevallen, zoals de eerste Titan, zijn ze ook niet eens bedoeld voor gamers (vanwege diens double precision floating point mogelijkheden).
En waarom denk je dat tot op heden Intel slechts per generatie maar pak m beet 5% performance increase heeft en ze nu pas komen met 8 en 10 core enthousiast level consumer chips? Dit deden ze omdat AMD geen tegenwicht bood gedurende de laatste paar jaren. Als Intel hun nieuwe chipjes net iets sneller maakt dan hun vorige, met een net groot genoeg verschil dat mensen ze toch wel kopen, waarom zouden ze dan meer tijd, geld en effort steken in betere CPU's?
Nu AMD over een tijdje met een totaal nieuwe CPU line-up komt, begint Intel wel ineens minimaal 6-core CPU's op s2011 aan te bieden, met de volgende generatie waarschijnlijk zelfs 10-core chips. Dit waarschijnlijk omdat AMD wellicht toch weer eens flink wat tegenwicht kan bieden en hun highend chips zijn 8-core chips.
Al die grote bedrijven brengen echt niet zo maar een CPU/GPU uit. Ze brengen ze uit zodat ze liefst net ietsjes sneller zijn dan de concurrentie, voor dezelfde prijs. Ook al is dit maar 1 of 2%, in dat geval hebben ze al gewonnen want alle reviews schrijven dan "kaart X is de snelste". Zodoende brengen ze met minimale kosten toch de beste kaart op de markt.
Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT
Het is nogal off-topic, maar op CPU vlak zijn de verschillen veel groter dan op GPU vlak, dus het is een beter voorbeeld. Wat Moi_in_actie zegt is precies het voorbeeld wat ik ook wilde aanhalen.
In de consumer markt staan we al jaren bijna stil. Het wordt allemaal iets zuiniger en af en toe komen er meer cores bij (voor een relatief gigantisch premium bedrag), maar klok vs klok scheelt het allemaal zo weinig. Vanaf het moment dat Intel te weten zou komt dat AMD met een leuke processor komt die echt competitief is, zullen ze gegarandeerd met een nieuw model kunnen komen dat een stuk grotere performance sprongen maakt dan dat ze de laatste jaren hebben laten zien.
Op de server markt kan Intel daadwerkelijk geldverdienen met CPUs die veel cores hebben, omdat de meeste "server-software" (denk hierbij aan databases, webservers, simulaties en aggregatie software) zeer goed schaalt. Daar doen ze nog redelijk hun best. Zo is de 2687 v3 even oud als de 5960X, maar eigenlijk is het op alle vlakken de betere processor. Nu is er dan eindelijk de 2867 v4 (met een grotere cache, behoorlijk wat extra cores, met wel een lagere clock). Maar zelfs voor de server markt lijkt het me sterk dat ze niets beters zouden kunnen aanbieden, maar voor Intel is het nou eenmaal strategisch gezien beter om ieder jaar kleinere stappen te maken zolang het kan, omdat het daarmee ook makkelijker is om ieder jaar/iedere twee jaar met een beter product te komen (omdat ze dus nooit op de limiet zaten).
Inno3D Unveils the iChill X4 Ultra Cooling Solution for Next-gen Graphics Cards
InnoVISION Multimedia Limited, a leading manufacturer of high-end hardware components and computer utilities, introduces its new iChiLL air cooling solution built for the high end graphics cards to be launched this year. Built around 3 large 92mm super silent fans and optionally complemented by a 4th 50mm fan, the A.P.C.S. design optimizes the heat dissipation via its integrated heat-pipes and 123 aluminum cooling fins.As a result of years of technological progress and expertise have brought the iChiLL brand to a point that we can make a difference for the high-end gamer and design creation professional achieving high performance, outstanding temperature control and at super silent noise levels.



"Heat production has been the major drawback for high end graphics cards and we have found ways to further optimize and improve our overall top solution under our iChiLL label and built to bring out the best of NVIDIA's consumer products." says Ken Wong, Product Manager at Inno3D. "And the beauty of it is that the new release of our iChiLL products does not increase cost nor will it increase our MSRP for the end customer."
The iChiLL line-up will come in two models; the X3 model (3 fans) is built with Scythe fan blades for silent operation and the X4 model (4 fans) is built with 15 turbine blades for extra cooling performance operation. Both models will become available on the Inno3D next gen custom built graphics card solutions, coming out in the near future.
Bron: http://www.techpowerup.co...r-next-gen-graphics-cards
Voor de duidelijkheid, een GTX 1080 koeler dus, zonder dat woord te noemen want dat zal nog wel niet mogen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Bron ??!!!@@@Cyclonic schreef op donderdag 19 mei 2016 @ 19:42:
Nu blijkt dat Nvidia wel toestemming geeft aan fabrikanten om hun eigen design kaarten te releasen op de 27th. Hoop het
Mmzz zie ik daar een 6 pin+8pin?, en alleen een render van de koeler? Misschien nog niet klaar voor de 27ste? oftewel men mag pas veel later custom kaarten releasen...-The_Mask- schreef op donderdag 19 mei 2016 @ 20:45:Inno3D Unveils the iChill X4 Ultra Cooling Solution for Next-gen Graphics Cards
InnoVISION Multimedia Limited, a leading manufacturer of high-end hardware components and computer utilities, introduces its new iChiLL air cooling solution built for the high end graphics cards to be launched this year. Built around 3 large 92mm super silent fans and optionally complemented by a 4th 50mm fan, the A.P.C.S. design optimizes the heat dissipation via its integrated heat-pipes and 123 aluminum cooling fins.
As a result of years of technological progress and expertise have brought the iChiLL brand to a point that we can make a difference for the high-end gamer and design creation professional achieving high performance, outstanding temperature control and at super silent noise levels.
[afbeelding] [afbeelding] [afbeelding]
"Heat production has been the major drawback for high end graphics cards and we have found ways to further optimize and improve our overall top solution under our iChiLL label and built to bring out the best of NVIDIA's consumer products." says Ken Wong, Product Manager at Inno3D. "And the beauty of it is that the new release of our iChiLL products does not increase cost nor will it increase our MSRP for the end customer."
The iChiLL line-up will come in two models; the X3 model (3 fans) is built with Scythe fan blades for silent operation and the X4 model (4 fans) is built with 15 turbine blades for extra cooling performance operation. Both models will become available on the Inno3D next gen custom built graphics card solutions, coming out in the near future.
Bron: http://www.techpowerup.co...r-next-gen-graphics-cards
Voor de duidelijkheid, een GTX 1080 koeler dus, zonder dat woord te noemen want dat zal nog wel niet mogen.

27 mei is de officiële launch van de GTX 1080, vanaf die dag is de reference aka Founders Edition te koop. 17 mei (eergister) was de paperlaunch/aflopen NDA voor reviews/reviewdag.Cyclonic schreef op donderdag 19 mei 2016 @ 19:42:
Nu blijkt dat Nvidia wel toestemming geeft aan fabrikanten om hun eigen design kaarten te releasen op de 27th. Hoop het
- Je hebt eerst de aankondiging van de aankondiging.
- Dan de aankondiging dat er een nieuwe kaart komt met enkele specificaties.
- Dan komt de paperlaunch met alleen reviews.
- Daarna komt de launch van de reference kaart aka Founders Edition.
- Daarna komen de custom exemplaren.
Voor custom designs: -The_Mask- in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"
-The_Mask- in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"
[ Voor 60% gewijzigd door -The_Mask- op 19-05-2016 20:55 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Jup i know, maar ik weet niet meer maar op overlock.net of hardforum was een vid met een Nvidia engineer en ze hadden het erover dat ze een fout gemaakt hebben hoe ze de Founders Edition uitgelegd hebben aan de mensen, waarop de interviewer de vraag stelde of er ook andere versies vanaf 27 mei verkocht mogen worden, en toen kreeg die als antwoord dat iedere fabrikant dat zelf mag weten welke versies ze gaan aanbieden.-The_Mask- schreef op donderdag 19 mei 2016 @ 20:48:
[...]
27 mei is de officiële launch van de GTX 1080, vanaf die dag is de reference aka Founders Edition te koop. 17 mei (eergister) was de paperlaunch/aflopen NDA voor reviews.
Voor custom designs: -The_Mask- in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"
[...]
-The_Mask- in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"
Please let it be true!Cyclonic schreef op donderdag 19 mei 2016 @ 20:53:
[...]
Jup i know, maar ik weet niet meer maar op overlock.net of hardforum was een vid met een Nvidia engineer en ze hadden het erover dat ze een fout gemaakt hebben hoe ze de Founders Edition uitgelegd hebben aan de mensen, waarom de interviewer de vraag stelde of er ook andere versies vanaf 27 mei verkocht mogen worden, en toen kreeg die als antwoord dat iedere fabrikant dat zelf mag weten welke versies ze gaan aanbieden.
Blijkt dat mijn oude Titan bij meer dan 60% power crasht en een grijs scherm geeft ...

Eeuwig zonde ..
EDIT: https://www.youtube.com/watch?v=Jifcc5UHRdM Hier het interview van Nvidia over de FE versie. Er word soort van gezegd dat op de 27ste board partners zelf mogen bepalen wat ze releasen ... ?! Que ..
Ik snap er nu niks meer van wat er nu uit komt op de 27ste, we just have to wait.
[ Voor 20% gewijzigd door Fusion_XT op 19-05-2016 21:11 ]
Precies dat is wat ik bedoelde, misschien kan The Source voor opheldering zorgen, of we de Gaming editie op de 27ste mogen verwachtenFusion_XT schreef op donderdag 19 mei 2016 @ 20:56:
[...]
Please let it be true!
Blijkt dat mijn oude Titan bij meer dan 60% power crasht en een grijs scherm geeft ....
Eeuwig zonde ..
EDIT: https://www.youtube.com/watch?v=Jifcc5UHRdM Hier het interview van Nvidia over de FE versie. Er word soort van gezegd dat op de 27ste board partners zelf mogen bepalen wat ze releasen ... ?! Que ..
Ik snap er nu niks meer van wat er nu uit komt op de 27ste, we just have to wait.
Ga er maar niet van uit. Ook al hoop ik vurig met jullie mee, zit al zonder videokaart sinds maart, verwacht ik de custom kaarten pas in juni.Cyclonic schreef op donderdag 19 mei 2016 @ 22:37:
[...]
Precies dat is wat ik bedoelde, misschien kan The Source voor opheldering zorgen, of we de Gaming editie op de 27ste mogen verwachten
Same here maar dan vanaf begin april, i know the feelingkwdtjuh schreef op donderdag 19 mei 2016 @ 22:46:
[...]
Ga er maar niet van uit. Ook al hoop ik vurig met jullie mee, zit al zonder videokaart sinds maart, verwacht ik de custom kaarten pas in juni.
Verwijderd
Aangezien jij blijkbaar aardig die markt van binnenuit kent, welk type grafische kaart zou jij aanraden voor de consument die bang for the buck wil op de lange termijn? Gaming, reference of lightning. Het is voor de klant best moeilijk om goed te overzien in welke mate je meer waar voor de extra kosten krijgt. Ik begrijp dat er betere componenten worden gebruikt bij de duurdere modellen maar wat merk je er precies van als gebruiker?The Source schreef op donderdag 19 mei 2016 @ 08:51:
[...]
Toen ik onze OC results op volume GPUs zag wist ik dat het niet juist zat met die live demo. Anyway de yields kunnen en zullen ongetwijfeld nog verbeteren.
[...]
Ik ga je onze marges niet vertellen. Kan je wel vertellen dat de GPU en memory (beiden als kit verkocht door NV) het grootste gedeelte van de product (dus niet marketing, logistiek) kost prijs voor zijn rekening nemen. Het grootste gedeelte van de kost die wij toevoegen is de koeler, en aangezien deze per product verschilt (gaming, reference, lightning) verschilt de kost hier dus ook van. Zodra wij onze producten lanceren kun je bij onze gaming versie wel zien dat elk onderdeel van de koeler geld kost. Hoe groter de PCB hoe hoger de kost, hiervbij moet je denken aan ongeveer een paar dollar, echter is het aantal layers ook van belang. Dan heb je nog het PWM / VRM. Hoe hoger de kwaliteit componenten en hoe meer phases des te hoger de prijs. En connectors en R&D cost Dit alles bepaalt zowat de kostprijs van de kaart.
Dan komt daar nog de packing bom (bill of materials) bij, dus de verpakking, wat kabeltjes, stickers, een manual, een driver cd, soms nog een (digitale) gamecode. Voor een entry level product wordt er simpel karton gebruikt en voor een high-end product zoals Lightning krijg je een erg mooie gift packing.
Een algemene vraag over de nieuwe generatie(s) grafische kaarten. Begrijp ik het goed dat Vega de AMD-concurrent wordt van de 1080 en hoger van NVidia terwijl de beste variant van Polaris (opvolger van de 390?) vergelijkbaar gaat zijn met de 1070? Begrijp ik het goed (van de hier bekende Schotse man op Youtube
Reference is enkel aan te raden als je meerdere kaarten gebruikt in een SLI/CF opstelling of als je er een watergekoelde van wil maken (of soms ook in een mini-itx behuizing).Verwijderd schreef op donderdag 19 mei 2016 @ 22:59:
[...]
Aangezien jij blijkbaar aardig die markt van binnenuit kent, welk type grafische kaart zou jij aanraden voor de consument die bang for the buck wil op de lange termijn? Gaming, reference of lightning. Het is voor de klant best moeilijk om goed te overzien in welke mate je meer waar voor de extra kosten krijgt. Ik begrijp dat er betere componenten worden gebruikt bij de duurdere modellen maar wat merk je er precies van als gebruiker?
In een gewone enkelvoudige kaart opstelling in een normale behuizing zijn ze namelijk luider en warmer.
MSI Gaming reeks is veel stiller, koeler en biedt ook meer performance tegen een kleine meerprijs die het zeker waard is tov een reference design.
MSI Lightning reeks is voor als je het beste van het beste wilt. Je betaalt er dan ook duidelijk meer voor. De 980 Ti lightning was bv stiller, koeler en sneller dan de Gaming versie. Meestal zijn ze luider, maar deze keer was die ook nog stiller.
Doorgaans is de MSI Gaming reeks de beste keuze qua bang for the buck.
[ Voor 6% gewijzigd door SmokingCrop op 19-05-2016 23:21 ]
Nee dat is te veel wishfull thinking als je het mij vraagt.Moi_in_actie schreef op donderdag 19 mei 2016 @ 16:14:
Ik verwacht ook wel dat ie sneller wordt. Als ik een hele grove gok mag doen, denk ik dat het iets wordt van:
langzamere Polaris => GTX1070 > snelste Polaris 10 => GTX1080 > GTX1080Ti/Vega
...kortom, eigenlijk hetzelfde zoals het nu ongeveer zit (R9 390 en GTX970 redelijk gelijk, R9 390X sneller, soms vrijwel gelijk aan de GTX980 en daarna de Fury (X) en en GTX980Ti.
De snelste polaris kan zich misschien meten met de GTX1070. Maar de GTX1080 gaan ze niet halen.
Vega gaat wel sneller zijn dan de GTX1080.
Begrijp mij niet verkeerd ik zou heel graag zien dat Polaris de GTX1080 verslaat alleen maar goed voor de consument maar gezien de geruchten en wat AMD met de kaart wil bereiken en de prijs die genoemd is is dat niet realistisch. Het is in mijn ogen ook niet nodig om de GTX1080 te verslaan. De meeste gamers kopen kaarten in de 150-350 euro range niet in de 400-650 euro range. En de 1080 zit in het begin nog boven die 650.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Beantwoord eigenlijk ook mijn vraag, dank je wel:)SmokingCrop schreef op donderdag 19 mei 2016 @ 23:17:
[...]
Reference is enkel aan te raden als je meerdere kaarten gebruikt in een SLI/CF opstelling of als je er een watergekoelde van wil maken (of soms ook in een mini-itx behuizing).
In een gewone enkelvoudige kaart opstelling in een normale behuizing zijn ze namelijk luider en warmer.
MSI Gaming reeks is veel stiller, koeler en biedt ook meer performance tegen een kleine meerprijs die het zeker waard is tov een reference design.
MSI Lightning reeks is voor als je het beste van het beste wilt. Je betaalt er dan ook duidelijk meer voor. De 980 Ti lightning was bv stiller, koeler en sneller dan de Gaming versie. Meestal zijn ze luider, maar deze keer was die ook nog stiller.
Doorgaans is de MSI Gaming reeks de beste keuze qua bang for the buck.
Heb in 2013 de 770 gekocht en ben altijd zeer tevreden geweest met verhouding prestatie/prijs. Dit keer maar weer eens een msi proberen ook al heb ik niks dan slechte ervaringen gehad in het verleden met die kaarten:( Wie weet had ik gewoon pech.
1 Juni dus reviewsThe Source schreef op vrijdag 20 mei 2016 @ 10:27:
Jullie weten hoelang voor de launch de 1080 werd gereviewed, voor de 1070 zal dit niet veel anders zijn.
Het hele yields verhaal is al zo oud als de weg naar Rome en tot heden is er nog nooit een redenatie uitgekomen die in verhouding staat tot de financiële cijfers. Simpel gezegd draait Nvidia goede marges en Radeon, sinds het van AMD is, niet. Het einde van Radeon's financiële succes vond in 2006 plaats toen er nog 301,349 op 2,432,252 winst werd genoteerd. Sinds dien snijdt elke voorspelling die yields aan inkomsten bij AMD Radeon relateert geen hout. Je ziet gewoon dat ondanks doemvoorspellingen Nvidia wel mooie winst weet te maken en omgekeerd AMD het niet voor elkaar kreeg (muv het jaar dat ze de royalties mee telde). Dat is verder ook prima te verklaren, zie de volgende alinea want de Titan gebruikt dezelfde logica.Moi_in_actie schreef op donderdag 19 mei 2016 @ 18:32:
[...]
Dat is geen onzin, het tegenovergestelde zou juist gek zijn.. zeker voor een bedrijf als NVidia. Waarom denk je dat er destijds een GTX Titan uitkwam en niet een GTX680Ti? Juist, omdat de AMD counterpart van dat moment, de HD7970, op dat moment niet sneller was dan de GTX680. En waarom kwam er wel een GTX780Ti...omdat de R9 290X sneller bleek dan de GTX780.
Grotere chips als de Ti en Titan chips zijn gewoon erg duur om te maken en door de afmetingen halen ze ook nog eens lagere yields per wafer. Als NVidia, om tegen AMD op te boksen, geen 1080Ti HOEFT uit te brengen, dan doen ze dat zeker niet en brengen ze diezelfde chip gewoon onder de naam Titan op de markt. Zodoende kunnen ze dezelfde chip voor 999+ dollar verkopen, in plaats van ~699/749 dollar en tevens hoeft de GTX1080 dan niet in prijs te dalen. Kortom, een win-win situatie.
Is AMD's Vega chip wel aanzienlijk sneller dan de GTX1080, voor een prijs van om en nabij de 700 dollar, dan moet NVidia er wel wat tegenover stellen voor een gelijkwaardige prijs. Dit wordt dan echt geen Titan die voor 700 over de toonbank gaat, maar een Ti model.
De Titan's zijn "halo" kaarten, waarvan je eigenlijk altijd mag verwachten dat ze de besten zijn van die generatie. In sommige gevallen, zoals de eerste Titan, zijn ze ook niet eens bedoeld voor gamers (vanwege diens double precision floating point mogelijkheden).
En waarom denk je dat tot op heden Intel slechts per generatie maar pak m beet 5% performance increase heeft en ze nu pas komen met 8 en 10 core enthousiast level consumer chips? Dit deden ze omdat AMD geen tegenwicht bood gedurende de laatste paar jaren. Als Intel hun nieuwe chipjes net iets sneller maakt dan hun vorige, met een net groot genoeg verschil dat mensen ze toch wel kopen, waarom zouden ze dan meer tijd, geld en effort steken in betere CPU's?
Nu AMD over een tijdje met een totaal nieuwe CPU line-up komt, begint Intel wel ineens minimaal 6-core CPU's op s2011 aan te bieden, met de volgende generatie waarschijnlijk zelfs 10-core chips. Dit waarschijnlijk omdat AMD wellicht toch weer eens flink wat tegenwicht kan bieden en hun highend chips zijn 8-core chips.
Al die grote bedrijven brengen echt niet zo maar een CPU/GPU uit. Ze brengen ze uit zodat ze liefst net ietsjes sneller zijn dan de concurrentie, voor dezelfde prijs. Ook al is dit maar 1 of 2%, in dat geval hebben ze al gewonnen want alle reviews schrijven dan "kaart X is de snelste". Zodoende brengen ze met minimale kosten toch de beste kaart op de markt.
De eerste GTX Titan was een manier om nog wat meer winst te pakken uit de $3199 kostende K20X. Dat is natuurlijk een geniale stap. Immers als jij 100 miljoen besteed aan product ontwikkeling en je gaat van 100.000 GK110 chips (100 dollar per kaart) naar 300.000 GK110 chips (33 dollar per kaart) dan zie je al snel dat die daling van 3199 naar 1000 dollar het probleem niet is. *Die kosten staan natuurlijk los van de productiekosten.* AMD worstelt met hetzelfde schaalprobleem, alleen dan over de gehele linie.
Verder kan ik jou redenatie prima volgen alleen in dit geval is de realiteit dat Nvidia de markt dicteert (zie mijn 32% voorspelling op max $599 voor de GTX 1080 die er weer akelig dicht bij zat) en ze de laatste jaren belachelijk goede marges noteren. Voor Nvidia is het dus alleen maar leuk om een volledig aanbod te hebben van Ti en Titan kaarten. Het is niet alsof ze nu geld toeleggen op elke GTX 980 Ti (wat jij lijkt te impliceren door yields er bij te halen). Het gaat bij zulke kaarten niet zo zeer om productiekosten van de chip maar meer om R&D spreiding.
Hetzelfde geldt eingelijk voor Intel, je impliceert dat Intel geen moeite doet. Heb je weleens naar de R&D investeringen gekeken?
Per kwartaal voor Intel:
March 31, 2016 3.246B
March 31, 2015 2.995B
March 31, 2014 2.846B
March 31, 2013 2.527B
March 31, 2012 2.401B
March 31, 2011 1.916B
March 31, 2010 1.564B
March 31, 2009 1.317B
March 31, 2008 1.467B
March 31, 2007 1.40B
March 31, 2006 1.562B
Als je goed op let zie je dat eerder het tegenovergestelde van jou uitleg waar is. Hoe slechter AMD het deed, des te meer het R&D budget werd verhoogd. Een tech bedrijf als Intel kan zich niet veroorloven om stil te staan. Intel heeft last van een dalende vraag, deze wordt gecompenseerd door wat lagere kosten per chip. De grootste concurrent is niet AMD maar meer bedrijven als Samsung, Qualcomm, enz.
Dus ja Intel kan het zich veroorloven om met een paar procent performance gain uit te komen in het high-end segment. De prijzen daar zijn echter eerder hoger dan lager geworden. Ondertussen is de onderkant van de markt gigantisch veel sneller geworden. Ik heb deze week toevallig een Intel G4400 aangeschaft, ter vervanging van mijn E-350 NAS cpu.
E8400 op 3.6 GHz (97th percentile)
SC 55% 68.9 Pts
QC 30% 133 Pts
MC 21% 137 Pts
G4400 stock (70th percentile)
SC 82% 102 Pts
QC 47% 206 Pts
MC 31% 210 Pts
Dat overtreft toch alle verwachten, of niet? In ieder geval wel die van mij. Op die E8400 was namelijk nog prima te gamen (3e game pc voor LAN), denk aan Borderlands 2, Civilization V, The Crew, enz. Dus voor ''ons" tech liefhebbers lijkt Intel stil te staan. In werkelijkheid zijn aan de onderkant van de markt grote stappen gemaakt en zijn ze natuurlijk gaan focussen op hun ultrabook verhaal om te zorgen dat x86 niet uitsterft.
Verder brengen bedrijven inderdaad niet zomaar een GPU uit. Echter Nvidia gaat een GPU uitbrengen omdat hij al 1-2 jaar in ontwikkeling is. Ze kunnen moeilijk in Juni beginnen aan een GTX 1080 Ti ontwerp als blijkt dat Polaris geweldig is. Je zou hem eventueel kunnen laten vervallen, maar aangezien ze voor een eventuele Ti weer $200+ meer kunnen vragen gecombineerd met het feit dat ze het grootste deel van de 16nm winst hebben omgetoverd in verhoogde marge zie ik gewoon die kaart komen. Levert alleen maar meer geld op onder de huidige omstandigheden.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
http://wccftech.com/amd-a...h-gen-apus-computex-2016/
Aangezien er volgens mij geen aparte (actieve?) AMD-draad is plaats ik het hier maar even.
Verwijderd
Thanks, ik weet genoeg.SmokingCrop schreef op donderdag 19 mei 2016 @ 23:17:
[...]
Reference is enkel aan te raden als je meerdere kaarten gebruikt in een SLI/CF opstelling of als je er een watergekoelde van wil maken (of soms ook in een mini-itx behuizing).
In een gewone enkelvoudige kaart opstelling in een normale behuizing zijn ze namelijk luider en warmer.
MSI Gaming reeks is veel stiller, koeler en biedt ook meer performance tegen een kleine meerprijs die het zeker waard is tov een reference design.
MSI Lightning reeks is voor als je het beste van het beste wilt. Je betaalt er dan ook duidelijk meer voor. De 980 Ti lightning was bv stiller, koeler en sneller dan de Gaming versie. Meestal zijn ze luider, maar deze keer was die ook nog stiller.
Doorgaans is de MSI Gaming reeks de beste keuze qua bang for the buck.
Er zijn 2 AMD draadjes die over het algemeen (veel) actiever zijn dan die van Nvidia en IntelVerwijderd schreef op vrijdag 20 mei 2016 @ 14:10:
AMD Announces June 1st Press Conference For Polaris & 7th Gen APUs – Computex 2016
http://wccftech.com/amd-a...h-gen-apus-computex-2016/
Aangezien er volgens mij geen aparte (actieve?) AMD-draad is plaats ik het hier maar even.
De nieuwsdiscussie over de gpus is het CJ AMD Radeon topic en onder processors en geheugen kan je het AMD topic vinden wat over apus en cpus gaat.
Dit was overigens als in het CJ AMD topic geplaatst
Vergeet niet dat waarschijnlijk het merendeel van de kosten naar het ontwikkelen van het procedé gaan. Zowel Nvidia als AMD hebben geen eigen fabs dus die hoeven daar ook veel minder research naar te doen.sdk1985 schreef op vrijdag 20 mei 2016 @ 12:56:
[...]
Per kwartaal voor Intel:
March 31, 2016 3.246B
March 31, 2015 2.995B
March 31, 2014 2.846B
March 31, 2013 2.527B
March 31, 2012 2.401B
March 31, 2011 1.916B
March 31, 2010 1.564B
March 31, 2009 1.317B
March 31, 2008 1.467B
March 31, 2007 1.40B
March 31, 2006 1.562B
De toename in kosten bij Intel is voornamelijk dus process verkleining en niet de architectuur.
Verwijderd
Eens. Technisch gezien zal de Polaris ongeveer hetzelfde presteren, het is een kwestie van hoeveel transistoren ze op 1 zo'n kaart stoppen. AMD heeft duidelijk aangegeven dat het midrange-kaarten worden, dat is voor mij een price-range van 150-400 euro. Bovendien verwacht ik dat Vega krachtiger gaat zijn dan de huidige 1080 om de doodeenvoudige reden dat het HBM-geheugen bevat, als je je 1080 flink wil overklokken dan kan dat GDDR5X-geheugen de bottleneck worden. Ongetwijfeld zal NVidia rond dezelfde tijd (niet lang daarna) ook met een kaart komen die HBM-geheugen heeft. Mijn kijk in de glazen bol.Astennu schreef op vrijdag 20 mei 2016 @ 07:44:
[...]
Nee dat is te veel wishfull thinking als je het mij vraagt.
De snelste polaris kan zich misschien meten met de GTX1070. Maar de GTX1080 gaan ze niet halen.
Vega gaat wel sneller zijn dan de GTX1080.
Inderdaad.Het is in mijn ogen ook niet nodig om de GTX1080 te verslaan. De meeste gamers kopen kaarten in de 150-350 euro range niet in de 400-650 euro range.
En andere grappen als die hpc kaarten, 3d xpoint memory, etc.Sp3ci3s8472 schreef op vrijdag 20 mei 2016 @ 14:19:
Vergeet niet dat waarschijnlijk het merendeel van de kosten naar het ontwikkelen van het procedé gaan. Zowel Nvidia als AMD hebben geen eigen fabs dus die hoeven daar ook veel minder research naar te doen.
De toename in kosten bij Intel is voornamelijk dus process verkleining en niet de architectuur.
Al zullen ze ook genoeg aan cpu architectuur besteden.
Mechwarrior Online: Flapdrol
[quote]sdk1985 schreef op vrijdag 20 mei 2016 @ 12:56:
[...]
Hetzelfde geldt eingelijk voor Intel, je impliceert dat Intel geen moeite doet. Heb je weleens naar de R&D investeringen gekeken?
Per kwartaal voor Intel:
March 31, 2016 3.246B
March 31, 2015 2.995B
March 31, 2014 2.846B
March 31, 2013 2.527B
March 31, 2012 2.401B
March 31, 2011 1.916B
March 31, 2010 1.564B
March 31, 2009 1.317B
March 31, 2008 1.467B
March 31, 2007 1.40B
March 31, 2006 1.562B
Als je goed op let zie je dat eerder het tegenovergestelde van jou uitleg waar is. Hoe slechter AMD het deed, des te meer het R&D budget werd verhoogd. Een tech bedrijf als Intel kan zich niet veroorloven om stil te staan. Intel heeft last van een dalende vraag, deze wordt gecompenseerd door wat lagere kosten per chip. De grootste concurrent is niet AMD maar meer bedrijven als Samsung, Qualcomm, enz.
[/quote]
Meer R&D uitgaven is niet gelijk aan meer focus op de mainstream CPU markt. Intel heeft b.v. heel veel geïnvesteerd in ULV processoren voor ultrabooks, tablets en smartphones. Deze extra uitgaven hier zijn niet direct te relateren aan hoe AMD het op dat moment deed.
[quote]
E8400 op 3.6 GHz (97th percentile)
SC 55% 68.9 Pts
QC 30% 133 Pts
MC 21% 137 Pts
G4400 stock (70th percentile)
SC 82% 102 Pts
QC 47% 206 Pts
MC 31% 210 Pts
Dat overtreft toch alle verwachten, of niet? In ieder geval wel die van mij.
[/quote]
Nee, niet echt. Een Core 2 Duo E8400 is een dualcore CPU van 7 generaties terug. De performance winst bij de introductie van Sandy Bridge was nog best groot, daarna zwakte het af. Ook al reken je Sandy Bridge als 10% perfomance winst en de rest met ongeveer 5% performance winst per generatie, komt je uit op ongeveer 47% winst over die generaties heen. Vermenigvuldig je de scores van de E8400 met 1.47, dan kom je uit op:
101.3 Pts
195.5 Pts
201.4 Pts
Oftewel, vrijwel exact in lijn met de huidige prestaties van een Skylake dualcore.
Hetzelfde zie je bij de mainstream CPU's, b.v. wanneer je de Core i5 2500K vergelijkt met de Core i5 6600K. Hier ging de singlecore score van ongeveer 4200-4300 punten naar ongeveer 5500, minder dan 30% increase over die generaties heen.
Veel performance winst: nee, maar wel zijn de CPU's (en dan met name de ULV's) veel zuiniger geworden. Kijk je bijvoorbeeld naar de Core i5 6200u, die haalt dan al een singlecore score van zo'n 3100. Niet slecht voor een CPU met een TDP van 15W, zeker niet vergeleken met de 95W van de 2500K.
En deze forse performance/Watt verbeteringen zorgen inderdaad voor veel meer power in het low-end segment. De uit 2010 stammende Intel Atom D525, met zijn 13W TDP vrijwel gelijk aan dat van de i5 6200u, haalt slechts een singlecore score van een kleine 500 punten.
Dus op het lowend segment en voor wat betreft het zuiniger maken van CPU's heeft Intel grote stappen gemaakt en fors geinvesteerd, op de mainstream/highend performance is de laatste jaren bijna niet ingezet (rustig doorkabbelen met 5% performance increase per generatie).
Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT
Verder maakt Intel erbij betrekking het niet automatisch offtopic. Ze bakken allemaal chips en hebben een vergelijkbaar business model en zitten elkaar in de weg. Intel is met zijn HD Graphics en Iris Pro immers een direct concurrent van Nvidia. Zeg maar dag tegen je OEM instap busines...
Sp3ci3s8472 had wel een goed punt dat het procédé ook wat mag kosten. Maar goed, dat pakken ze weer terug in de marges. Hoe de verhouding tussen architectuur en procedé zit qua R&D weet alleen Intel.
[ Voor 42% gewijzigd door sdk1985 op 20-05-2016 15:41 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
YouTube: PC Perspective Podcast 400 - 05/19/2016
[ Voor 11% gewijzigd door Help!!!! op 20-05-2016 17:02 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verwijderd
https://www.alternate.nl/...duct/1275774?tk=7&lk=9373
829 euro is best fors. Wellicht indicatief van wat andere winkels ervoor gaan vragen, maar ik wacht het wel eventjes af.
Verwijderd
forse duurder ind maar niet onverwacht.Verwijderd schreef op vrijdag 20 mei 2016 @ 17:21:
Op Alternate.nl zijn zojuist drie GTX 1080 reference kaarten verschenen (natuurlijk nog niet leverbaar). Hier van MSI:
https://www.alternate.nl/...duct/1275774?tk=7&lk=9373
829 euro is best fors. Wellicht indicatief van wat andere winkels ervoor gaan vragen, maar ik wacht het wel eventjes af.
Toch weer duurder dan de adviesprijs.
https://www.youtube.com/channel/UCb9hDbClUJUNw_a0v7qCBKA | https://www.strava.com/athletes/33148913
Verwijderd
http://www.videokaartshop...r5x-founders-edition.html
Verwijderd
Dat zou te maken kunnen hebben met dat diezelfde spellen ook op antieke en goedkope consolebakjes moeten kunnen draaien.sdk1985 schreef op vrijdag 20 mei 2016 @ 15:37:
Hetgeen mij verbaasde was dat je prima kunt gamen op een instap cpu. Iets dat ik tot voorkort niet voor mogelijk hield.
Heeft daar weinig mee te maken, de reden is dat consoles zo weinig cpu driver overhead hebben dat het prima gaat met een tragere cpu. Een console kan/kon iets van 10x zoveel draw calls maken als een pc, het is dus eerder anders om.Verwijderd schreef op vrijdag 20 mei 2016 @ 17:49:
[...]
Dat zou te maken kunnen hebben met dat diezelfde spellen ook op antieke en goedkope consolebakjes moeten kunnen draaien.
Met de nieuwe API's DX12, Vulkan, Metal (en Mantle) verandert dit en heeft de pc die limitatie niet meer.
Lees anders het volgende artikel maar.
http://www.bit-tech.net/h.../16/farewell-to-directx/2
Consoles zijn dus eigenlijk altijd gpu bound.
Verwijderd
Sp3ci3s8472 schreef op vrijdag 20 mei 2016 @ 18:05:
[...]
Heeft daar weinig mee te maken, de reden is dat consoles zo weinig cpu driver overhead hebben dat het prima gaat met een tragere cpu. Een console kan/kon iets van 10x zoveel draw calls maken als een pc, het is dus eerder anders om.
Met de nieuwe API's DX12, Vulkan, Metal (en Mantle) verandert dit en heeft de pc die limitatie niet meer.
Lees anders het volgende artikel maar.
http://www.bit-tech.net/h.../16/farewell-to-directx/2
Consoles zijn dus eigenlijk altijd gpu bound.
Het wordt erg offtopic maar ik vraag me af of dat de developers niet meer gebruik zouden maken van CPU-rekenkracht indien er meer CPU-rekenkracht (o.a. meer kernen) zouden zijn, bijvoorbeeld 1 kern die volop aan het werk is voor artificiële intelligentie, 1 voor natuurkundige berekeningen etc.
In theorie zouden ze spellen veel interessanter kunnen maken op die manier, de vraag is of dat ze het niet doen omdat er hardwarematige beperkingen zijn of omdat het softwarematig te ingewikkeld/duur zou zijn.
Verwijderd
Verwijderd schreef op vrijdag 20 mei 2016 @ 18:11:
[...]
offtopic:
Het wordt erg offtopic maar ik vraag me af of dat de developers niet meer gebruik zouden maken van CPU-rekenkracht indien er meer CPU-rekenkracht (o.a. meer kernen) zouden zijn, bijvoorbeeld 1 kern die volop aan het werk is voor artificiële intelligentie, 1 voor natuurkundige berekeningen etc.
In theorie zouden ze spellen veel interessanter kunnen maken op die manier, de vraag is of dat ze het niet doen omdat er hardwarematige beperkingen zijn of omdat het softwarematig te ingewikkeld/duur zou zijn.
Dit is praktisch wat er tegenwoordig gebeurt in veel games (op PC - en ook op console). Verschillende subsystemen in een game (denk inderdaad aan AI, physics, sound, rendering) hebben allemaal hun eigen threads. De CPU 'scheduled' vervolgens deze threads en verdeelt ze over de beschikbare CPU cores. Als een thread veel aandacht vergt, zal deze vaker een core tot zijn beschikking krijgen. Hoe meer cores er beschikbaar zijn, hoe efficiënter de thread verdeling.
Verwijderd
Ja, maar ze doen het nog te weinig in relatie tot wat moderne hardware (PC) aankan gezien het feit dat relatief oude processoren nog prima meegaan. Ik zou er graag verder over discussiëren maar laten we dat in een andere draad doen, bijvoorbeeld de algemene AMD-draad waarin er over de nieuwe 6-kern en 8-kern CPU's wordt gesproken.
[ Voor 3% gewijzigd door Verwijderd op 20-05-2016 18:21 ]
Verwijderd
Verwijderd schreef op vrijdag 20 mei 2016 @ 18:21:
offtopic:
Ja, maar ze doen het nog te weinig in relatie tot wat moderne hardware (PC) aankan gezien het feit dat relatief oude processoren nog prima meegaan. Ik zou er graag verder over discussiëren maar laten we dat in een andere draad doen, bijvoorbeeld de algemene AMD-draad waarin er over de nieuwe 6-kern en 8-kern CPU's wordt gesproken.
Ik denk dat je daar wel gelijk in hebt, maar het is natuurlijk ook zo dat in vele gevallen CPU usage (voor alles behalve rendering) een fixed iets is. Men target de CPU die aan de minimum specs voldoet; je ziet wel zat instellingen voor high-end GPUs, maar in het algemeen zijn er niet zo veel settings die de CPU usage impacten. Een voorbeeld van een game serie die dat wel doet is Grand Theft Auto. Daar kan je aangeven hoe druk het op de weg moet zijn; dit heeft een aardige CPU impact en is dus ook een fijne setting voor mensen die wat meer horsepower hebben.
Voor verdere discussie is een andere draad inderdaad interessant. Excuses voor de derailment!
Verwijderd
Verwijderd schreef op vrijdag 20 mei 2016 @ 18:28:
[...]
offtopic:
Ik denk dat je daar wel gelijk in hebt, maar het is natuurlijk ook zo dat in vele gevallen CPU usage (voor alles behalve rendering) een fixed iets is. Men target de CPU die aan de minimum specs voldoet; je ziet wel zat instellingen voor high-end GPUs, maar in het algemeen zijn er niet zo veel settings die de CPU usage impacten. Een voorbeeld van een game serie die dat wel doet is Grand Theft Auto. Daar kan je aangeven hoe druk het op de weg moet zijn; dit heeft een aardige CPU impact en is dus ook een fijne setting voor mensen die wat meer horsepower hebben.
Voor verdere discussie is een andere draad inderdaad interessant. Excuses voor de derailment!
Voor hier de laatste opmerking van mij hierover (omdat het offtopic is), om het in perspectief te plaatsen.
Ook mijn eerste gedachte was dat CPU-belasting minder (gemakkelijk) schaalbaar is dan GPU-belasting (AA hoger, betere belichting-modellen etc.).
Ik heb toevallig een i5-750. Deze processor zit bij Far Cry 4 net onder de grens van wat het aankan (98% van de maximale belasting) bij middelmatig hoge instellingen (AA laag, de rest overwegend op hoog). Ook GTA V gaat net als je de verkeersdensiteit op standaard hebt staan en de grafische instellingen op middelmatig hoog hebt staan (details op hoog, AA op laag, 1080p). De spellen van de laatste twee jaar die relatief zwaar zijn voor de CPU durf ik niet meer aan op mijn huidige bak. Het verschil in ruwe rekenkracht tussen een i5-750 en een moderne processor bedraagt ongeveer een factor 2 per kern. Dat zegt natuurlijk niet alles maar het geeft een aardige indicatie dat er hardwarematig veel meer mogelijk is dan wat gamedevelopers gebruiken.
[ Voor 46% gewijzigd door Verwijderd op 20-05-2016 18:43 ]
Weer een nieuwe video van AdoredTV over de 1080. Wat hij hierin laat zien is dat de 1080 gebottleneckt wordt door de koeler en daardoor minder goed performd dan in de meeste benchmarks omdat daar een openbench wordt gebruikt en geen normale case waarin de FE koeler niet goed presteerd.
Denk anders eens aan videokaarten. Waarmee kun je beter gamen; een GTX 260 of een GT 710? (Het antwoord is de GTX 260). Bij de CPU gaat dat nu niet meer op, bij de CPU is de "GT 710" nu sneller dan de "GTX 260". Dat is ongekend.Verwijderd schreef op vrijdag 20 mei 2016 @ 17:49:
[...]
Dat zou te maken kunnen hebben met dat diezelfde spellen ook op antieke en goedkope consolebakjes moeten kunnen draaien.
[ Voor 11% gewijzigd door sdk1985 op 20-05-2016 21:17 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Was dit verhaal hetzelfde bij de GTX 980?CaPiGr schreef op vrijdag 20 mei 2016 @ 20:55:
YouTube: GTX 1080 Founders Edition Reviews + Win a Copy of Duskers!
Weer een nieuwe video van AdoredTV over de 1080. Wat hij hierin laat zien is dat de 1080 gebottleneckt wordt door de koeler en daardoor minder goed performd dan in de meeste benchmarks omdat daar een openbench wordt gebruikt en geen normale case waarin de FE koeler niet goed presteerd.
Het stroomverbruik ontloopt elkaar niet veel en dit is de eerste keer dat ik ervan hoor.
Je kan volgens mij ook een hele hoop oplossen met een custom fan profile en dat testen ze meestal niet.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Wat een prijzen voor een gpuVerwijderd schreef op vrijdag 20 mei 2016 @ 17:21:
Op Alternate.nl zijn zojuist drie GTX 1080 reference kaarten verschenen (natuurlijk nog niet leverbaar). Hier van MSI:
https://www.alternate.nl/...duct/1275774?tk=7&lk=9373
829 euro is best fors. Wellicht indicatief van wat andere winkels ervoor gaan vragen, maar ik wacht het wel eventjes af.

De helft is genoeg aangezien je volgend jaar toch weer wat nieuws krijgt
Verwijderd
Tot daar aan toe maar waarom zulke grote verschillen tussen de adviesprijs en wat er momenteel wordt gevraagd? Ik neem aan dat die prijs in de eerste maanden fors gaat dalen?calsonic schreef op vrijdag 20 mei 2016 @ 22:14:
[...]
Wat een prijzen voor een gpu![]()
De helft is genoeg aangezien je volgend jaar toch weer wat nieuws krijgt
Ligt eraan wat AMD doet.Verwijderd schreef op vrijdag 20 mei 2016 @ 22:25:
[...]
Tot daar aan toe maar waarom zulke grote verschillen tussen de adviesprijs en wat er momenteel wordt gevraagd? Ik neem aan dat die prijs in de eerste maanden fors gaat dalen?
Als AMD besluit dat 700 euro een hele mooie prijs voor hun Vega kaart is, zal Nvidia daar echt niet onder gaan.
People as things, that’s where it starts.
829Verwijderd schreef op vrijdag 20 mei 2016 @ 17:21:
Op Alternate.nl zijn zojuist drie GTX 1080 reference kaarten verschenen (natuurlijk nog niet leverbaar). Hier van MSI:
https://www.alternate.nl/...duct/1275774?tk=7&lk=9373
829 euro is best fors. Wellicht indicatief van wat andere winkels ervoor gaan vragen, maar ik wacht het wel eventjes af.



Prijzen zullen ook niet verder veel dalen ivm no competition van AMD in die prijsklasse totdat Vega komt.
Gelukkig komen er ook betaalbare kaarten voor de mainstream waar AMD op gokt.
|2600k|Asus 290|
Verwijderd
krijg een beetje het premium bovenop een premium gevoelBullus schreef op vrijdag 20 mei 2016 @ 22:49:
Ze kunnen waarschijnlijk als eerste leveren zodra het groen is...premiumprijs voor de snelle jelle(niet normaal eigenlijk voor een videokaart
)
Prijzen zullen ook niet verder veel dalen ivm no competition van AMD in die prijsklasse totdat Vega komt.
Gelukkig komen er ook betaalbare kaarten voor de mainstream waar AMD op gokt.
Verwijderd
Ik denk hetzelfde aangezien de reference €100 goedkoper zal zijn als de founders ed.Verwijderd schreef op zaterdag 21 mei 2016 @ 07:51:
Als de founders edition nu al 789E kost op evga.com vraag me af wat de hydro coper versie gaat kosten.
De 980Ti zal 2e hands nog wel goedkoper worden - denk zelf rond de €300-325 - afhankelijk wat de prijs wordt van de gtx1070.Cyclonic schreef op zaterdag 21 mei 2016 @ 03:39:
Krijg zo het gevoel dat ik beter een 980ti voor rond de 400 euro kan pakken en dan volgend jaar Vega of 1080TI halen, prijzen zijn gewoon niet normaal. En ik moet nog maar eens zien met een 25% cut of de 1070 wel sneller is dan de 980TI.
[ Voor 43% gewijzigd door calsonic op 21-05-2016 08:38 ]
Die 30 euro zijn de "ik wil hem als eerste" tax.Cyclonic schreef op vrijdag 20 mei 2016 @ 22:40:
[...]
829met 21% en euro = 749 dan krijgen wij nog eens 50 euro om de oren dus 799 en dan durven ze er nog eens 30 euro erop te doen
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
http://videocardz.com/60221/galax-geforce-gtx-1070-spotted
Ik wacht met smart op de MSI gaming variant.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Volgens techpowerup 37% sneller dan de 980Ti op 2560x1440, dat is best wel flink hoor.bluebear schreef op zaterdag 21 mei 2016 @ 10:24:
ksnap het niet... de 1080 is niet geweldig. De reference kaart is zeer onderwelmend. Hij is niet zoveel sneller dan de titan of de 980ti, ondanks de hardware matige veranderingen. Het enige nieuwe lijken de VR implementaties.. Waar komt deze hype vandaan?
Maar misschien vooral het proces, deze chip is nog maar 314 vierkante mm. Je kan nog wat ruimte en power sparen met hbm2 en een nog 2x zo snelle gpu maken.
En over niet al te lange tijd zullen alle gpu's die nu verkocht worden vervangen zijn en kan je 970/290 performance verwachten voor ~250 euro, met veel lager verbruik.

Mechwarrior Online: Flapdrol
Clocks na 10 a 20 min gamen op een 1080GTX
Computerbase dus ook weer goed bezig!
[ Voor 62% gewijzigd door Help!!!! op 21-05-2016 11:49 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Gooi je de temp limit omhoog, dan gaat niet alleen de clockspeed wat omhoog maar ook het stroomverbruik met 40 (!) watt. Daar moet ook wel een voltage increase bij zitten lijkt me, op alleen MHz krijg je nooit zo'n stijging.
Als je dit leest, heb je teveel tijd.
En sowieso verstandig meer reviews af te wachten (van custom cards) na de initiele hype bij introducties.
Meestal wordt dan pas duidelijk wat voor vlees je echt in de kuip hebt en wat de verstandige (upgrade) aankoopbeslissing is.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
NVidia kan een kaart uitbrengen met een memory boost naar ik weet niet hoeveel Mhz, zodat ze dat nummer op de doos kunnen schrijven, uitstekende performance reviews krijgen (open test bench + vrij kort testen in elke game zodat de kaart niet al te heet wordt en throttled) en de mensen slikken het allemaal.
80 graden is gewoon heet, dus zo efficient is de kaart ook niet.
Maar deze performance in je eigen gesloten kast, thuis, krijg je niet... zoals de benches van Computerbase laten zien. Ja, als je de temp limit omhoog gooit throttled hij niet, hij wordt alleen NOG heter, en het verbruik gaat omhoog. Geen stookkacheltje meer nodig in je huis.
Dit zijn zaken waar AMD op afgeschreven werd (hitte en verbruik), waarom is het nu plots OK voor NVidia?
omdat reference 290 ofzo richting 95°C ging?bluebear schreef op zaterdag 21 mei 2016 @ 11:48:
Dat is het em juist.
NVidia kan een kaart uitbrengen met een memory boost naar ik weet niet hoeveel Mhz, zodat ze dat nummer op de doos kunnen schrijven, uitstekende performance reviews krijgen (open test bench + vrij kort testen in elke game zodat de kaart niet al te heet wordt en throttled) en de mensen slikken het allemaal.
80 graden is gewoon heet, dus zo efficient is de kaart ook niet.
Maar deze performance in je eigen gesloten kast, thuis, krijg je niet... zoals de benches van Computerbase laten zien. Ja, als je de temp limit omhoog gooit throttled hij niet, hij wordt alleen NOG heter, en het verbruik gaat omhoog. Geen stookkacheltje meer nodig in je huis.
Dit zijn zaken waar AMD op afgeschreven werd (hitte en verbruik), waarom is het nu plots OK voor NVidia?
Nvidia's reference is al jaren rond de 80°C.
Als je dit leest, heb je teveel tijd.
Omdat deze kaart geen teringherrie maakt, in tegenstelling tot bladblazer van de 290(x) reference.bluebear schreef op zaterdag 21 mei 2016 @ 11:48:
Dit zijn zaken waar AMD op afgeschreven werd (hitte en verbruik), waarom is het nu plots OK voor NVidia?
En de performance is nog gewoon goed.
Mechwarrior Online: Flapdrol
De marketing en mindshare van nVidia zijn gewoon ijzersterk. Zelfs met een rebrand zouden ze prima wegkomen...bluebear schreef op zaterdag 21 mei 2016 @ 11:48:
Dit zijn zaken waar AMD op afgeschreven werd (hitte en verbruik), waarom is het nu plots OK voor NVidia?
Oh wacht! Dat is Pascal ook
en dan throttled hij dus... wil je wel de boost clock, wordt hij ook zo'n 90 graden...SmokingCrop schreef op zaterdag 21 mei 2016 @ 11:53:
[...]
omdat reference 290 ofzo richting 95°C ging?![]()
Nvidia's reference is al jaren rond de 80°C.
Getuige wat reviews, maakt de reference founders edition GTX1080 fan ook een teringherrie als hij op spint naar full throttle, wat nodig is om een magere overclock in stand te houden in een normale behuizing.haarbal schreef op zaterdag 21 mei 2016 @ 11:55:
[...]
Omdat deze kaart geen teringherrie maakt, in tegenstelling tot bladblazer van de 290(x) reference.
En de performance is nog gewoon goed.
Maar die teringherrie zal wel weer omschreven worden als gamers muziek oid. De mantle der liefde is dik in deze.
Wat een onzin, de gtx480 kreeg toch ook een berg negatieve reviews vanwege de temperatuur en de herrie?dahakon schreef op zaterdag 21 mei 2016 @ 12:14:
[...]
Getuige wat reviews, maakt de reference founders edition GTX1080 fan ook een teringherrie als hij op spint naar full throttle, wat nodig is om een magere overclock in stand te houden in een normale behuizing.
Maar die teringherrie zal wel weer omschreven worden als gamers muziek oid. De mantle der liefde is dik in deze.
De 1080 presteert goed en is redelijk stil.
Mechwarrior Online: Flapdrol
Bron: Tweaktown FB.
GTX980M doet het met een TDP van 122w, 1080 desktop 175w voor games. Wel een erg groot verschil om te overbruggen. Lijkt me marketing-bullshit, maar het komt dus van Asus af.
Als je dit leest, heb je teveel tijd.
Stel dat het voltage dan ook met 20% omlaag kan en het verbruik schaalt met clock*voltage^2 zit je nog maar op een 90W tdp.
Ok, beetje vieze aannames, is maar als quick guesstimate best aardig denk.
Mechwarrior Online: Flapdrol
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.