Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Quadro en Instinct?
Geef alsjeblieft het origineel in plaats van het copypaste werk. Daar staat gebruikelijk meer informatie in.
https://www.digitimes.com/news/a20180629PD204.html
The cryptocurrency mining chill has weakened demand for graphics cards, with suppliers planning to axe prices trying to clear their inventory. Sales of ASIC mining systems have also been significantly impacted by the stagnant demand, according to sources from the upstream supply chain.
The sources pointed out that graphics card prices are expected to see an average drop of around 20% in July, while the dramatic slowdown in orders for mining ASICs will also negatively affect revenues at Taiwan Semiconductor Manufacturing Company (TSMC) as well as its IC design service partners, such as Global Unichip, in 2018.
The dwindling profitability has sent small-to-medium mining firms gradually bowing out from the market, while large mining firms have also cut their procurements of new machines.
Currently, the worldwide graphics card market has an inventory of around several million units and Nvidia has around a million of GPUs waiting to be released, said the sources. With cryptocurrency miners also expected to begin selling their used graphics cards to the retail channel, vendors are expected to introduce major price cuts to compete.
Nvidia's next-generation GPUs made using TSMC's 12nm and 7nm processes are also expected to be postponed to late fourth-quarter 2018 until after inventory returns to safe levels, the sources said.
[ Voor 7% gewijzigd door Verwijderd op 02-07-2018 19:00 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
https://www.tweaktown.com...faster-1080-ti/index.html
https://wccftech.com/rumo...aked-faster-than-1080-ti/
Waarschijnlijk met een korreltje zout te nemen, maar misschien toch interessant.
[ Voor 3% gewijzigd door choogen op 22-07-2018 13:19 ]
Ja ik geloof er geen bal van. 2.5GHZ lijkt me niet echt haalbaar op 12nm. Stiekem hoop ik het wel maar ik verwacht eerlijk gezegd niet meer dan de 25% prestatie winst die we met Pascal hebben gezien.choogen schreef op zondag 22 juli 2018 @ 13:16:
Gerucht: "Benchmark GTX 1170 opgedoken, wordt sneller dan GTX1080Ti":
https://www.tweaktown.com...faster-1080-ti/index.html
https://wccftech.com/rumo...aked-faster-than-1080-ti/
Waarschijnlijk met een korreltje zout te nemen, maar misschien toch interessant.
Wie goed doet, die goed ontmoet.
Lijkt me juist wel haalbaar op 12nm, het is maar 500mhz boven de 2000mhz wat al makkelijk haalbaar is op 16nm. De benchmark zelf geloof ik niet echt. Ik vermoed dat het gewoon ook Volta is met minder Tensor en Cuda cores, maar dan met hogere clocks en finetune. Buiten Tensor om is het gewoon weer maxwell/Pascal?AtlAntA schreef op zondag 22 juli 2018 @ 13:22:
[...]
Ja ik geloof er geen bal van. 2.5GHZ lijkt me niet echt haalbaar op 12nm. Stiekem hoop ik het wel maar ik verwacht eerlijk gezegd niet meer dan de 25% prestatie winst die we met Pascal hebben gezien.
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
"Maar" 500 MHz? Even 25% hoger klokken op een getweakt procedé? 12 Nm is gewoon hetzelfde als 16 Nm hoor. Dit is in de verste verte niet te vergelijken met de sprong van 28 naar 16/14. Dit hupje komt zit eerder in de buurt van wat we met 65/55 kregen.Gekke Jantje schreef op maandag 23 juli 2018 @ 08:58:
[...]
Lijkt me juist wel haalbaar op 12nm, het is maar 500mhz boven de 2000mhz wat al makkelijk haalbaar is op 16nm. De benchmark zelf geloof ik niet echt. Ik vermoed dat het gewoon ook Volta is met minder Tensor en Cuda cores, maar dan met hogere clocks en finetune. Buiten Tensor om is het gewoon weer maxwell/Pascal?
Vergeet niet dat we de laatste jaren alleen volledige node jumps hebben gezien; 45 en 32 hebben we ook overgeslagen (en 22/20 ook, maar dat had andere redenen). 65/55 was de laatste half-node-jump die we hebben gezien en dat deed niet veel.
Overschat niet wat ze uit "12nm" kunnen halen. Het zal vooral wat efficiënter zijn, maar grof hogere kloksnelheden zitten er waarschijnlijk niet in.
[ Voor 29% gewijzigd door Gekke Jantje op 23-07-2018 11:15 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Als de berekening van Techpowerup een beetje blijkt te kloppen, dan gaat Nvidia voor monsters. Dit zou GT102 moeten worden...Werelds schreef op maandag 23 juli 2018 @ 11:06:
[...]
"Maar" 500 MHz? Even 25% hoger klokken op een getweakt procedé? 12 Nm is gewoon hetzelfde als 16 Nm hoor. Dit is in de verste verte niet te vergelijken met de sprong van 28 naar 16/14. Dit hupje komt zit eerder in de buurt van wat we met 65/55 kregen.
Vergeet niet dat we de laatste jaren alleen volledige node jumps hebben gezien; 45 en 32 hebben we ook overgeslagen (en 22/20 ook, maar dat had andere redenen). 65/55 was de laatste half-node-jump die we hebben gezien en dat deed niet veel.
Overschat niet wat ze uit "12nm" kunnen halen. Het zal vooral wat efficiënter zijn, maar grof hogere kloksnelheden zitten er waarschijnlijk niet in.

https://www.techpowerup.c...ower-delivery-gtx-1180-ti
Ik zie ook niet hoe ze op deze manier ook nog clockspeeds even naar 2,5GHz kan verhogen. Dat kost je een gigantische hoeveelheid extra transistoren, als de architectuur het al toelaat, en je kan zomaar tegen een barrière aanlopen zoals lekstroom. Los daarvan de vraag of de 12nm halve node het wel trekt. Zeker omdat er met zulke formaat chips, sprake van zal zijn dat Nvidia hun op maat gemaakte 12nm procedé gaat gebruiken voor tenminste de GT102, mogelijk ook de GT104.
28nm naar 16nm gaf Nvidia de mogelijkheid om de GTX1070 sneller te maken dan de GTX980Ti. Die mogelijkheid zie ik nu echt niet. Ik verwacht eerder de "GTX1180" rond of net over de GTX1080Ti.Gekke Jantje schreef op maandag 23 juli 2018 @ 08:58:
Lijkt me juist wel haalbaar op 12nm, het is maar 500mhz boven de 2000mhz wat al makkelijk haalbaar is op 16nm. De benchmark zelf geloof ik niet echt. Ik vermoed dat het gewoon ook Volta is met minder Tensor en Cuda cores, maar dan met hogere clocks en finetune. Buiten Tensor om is het gewoon weer maxwell/Pascal?
Verder zijn er wel meer verschillen tussen GeForce Maxwell/Pascal aan de ene kant en Volta en GP100 aan de andere kant. Tensorcores ga je niet zien omdat dit een GeForce product is met de gebruikelijke segmentatie. Ik verwacht toch al weinig nieuws omdat Maxwell een enorm succes was en in 2014 al duidelijk was dat AMD geen nieuwe architectuur kon ontwikkelen wat Maxwell de baas kon zijn, want geen geld en alle focus lag op Zen. Dat is belangrijk voor de chronologie omdat rond de tijd dat Maxwell werd gelanceerd, de ontwikkeling van Turing moet zijn begonnen.
Het enige interessante kan FP16 compute zijn. Pascal haar FP16 compute was kunstmatig kreupel gemaakt voor segmentatie, maar dat kan Nvidia nu eigenlijk niet meer doen. Dit vanwege RTX. Nvidia hun raytracing lijkt weliswaar voornamelijk rasterization te zijn, en weinig echte raytracing, maar zelfs het kleine beetje zal om vele teraflops vragen, en FP16 is een veel efficiëntere manier om de benodigde berekeningen te behalen. Verder heeft Nvidia de laatste jaren al vrij systematisch een lagere teraflops waarde dan vergelijkbare AMD chips. FP16 in een 1/1 verhouding met FP32 kan dan alsnog te weinig zijn. Ik vraag me dus af of Nvidia niet ook naar een 2/1 verhouding gaat, net zoals Vega nu al heeft. Dan zouden basale raytracing effecten mogelijk moeten worden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
[ Voor 26% gewijzigd door Gekke Jantje op 23-07-2018 12:18 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Maar dan komt bij mij de vraag op waarom Nvidia überhaupt een GTX 1180 zou willen uitbrengen, wanneer die kaart maar nauwelijks beter presteert dan de huidige GTX1080Ti? Gaat het er dan alleen maar om een kaart uit te brengen die overweg kan met raytracing (en dan ook nog in een vrij basale vorm, waar je in je laatste alinea's op wijst)?DaniëlWW2 schreef op maandag 23 juli 2018 @ 12:01:
[...]
28nm naar 16nm gaf Nvidia de mogelijkheid om de GTX1070 sneller te maken dan de GTX980Ti. Die mogelijkheid zie ik nu echt niet. Ik verwacht eerder de "GTX1180" rond of net over de GTX1080Ti.
NVIDIA GeForce 11-series First Wave Launch Dates Leaked
YouTube: GTX 1180, 1170 & 1160 Release Dates Leaked!

30/9 is een zondag.. Dus tja.
[ Voor 41% gewijzigd door Help!!!! op 23-07-2018 13:30 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Verwijderd
Dan kan je nog wel een paar maanden bij optellen voordat de kaarten goed leverbaar zijn en nog enigszins in prijs zakken.Help!!!! schreef op maandag 23 juli 2018 @ 13:22:
fwiw:
NVIDIA GeForce 11-series First Wave Launch Dates Leaked
YouTube: GTX 1180, 1170 & 1160 Release Dates Leaked!
[afbeelding]
30/9 is een zondag.. Dus tja.
Dan kom je al snel in 2019 te zitten.
Zo’n GTX 1170 zie ik wel zitten maar dan alleen als hij onder de €375 komt.
E375 lijkt me nogal onwaarschijnlijk als je ziet wat ze nu nog voor een 1070 (durven) te vragen.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Als hij maar een klein beetje sneller is dan de 1080Ti kunnen ze weer de hoofdprijs vragen, net als met de 1080, die ook niet heel veel sneller was dan de 980Ti bij launch, zeker niet vergeleken met aftermarket modellen.choogen schreef op maandag 23 juli 2018 @ 12:40:
Maar dan komt bij mij de vraag op waarom Nvidia überhaupt een GTX 1180 zou willen uitbrengen, wanneer die kaart maar nauwelijks beter presteert dan de huidige GTX1080Ti? Gaat het er dan alleen maar om een kaart uit te brengen die overweg kan met raytracing (en dan ook nog in een vrij basale vorm, waar je in je laatste alinea's op wijst)?
Productiekosten. Die zijn bij de nieuwe kaarten op den duur waarschijnlijk lager dan gelijk presterende (wat betreft performance en verbruik) pascal kaarten.
Mechwarrior Online: Flapdrol
Verwijderd
Waarom? Nou omdat je die dan voor €700 in de (web)winkels liggen met dank aan de cryptominers die de prijs van de GTX1080Ti, toch al belachelijk, nog hoger hebben weten te houden. Het gebrek van AMD concurrentie helpt ook niet echt. Zeg nou zelf, €700 is toch een koopje voor een GTX1080Ti?choogen schreef op maandag 23 juli 2018 @ 12:40:
[...]
Maar dan komt bij mij de vraag op waarom Nvidia überhaupt een GTX 1180 zou willen uitbrengen, wanneer die kaart maar nauwelijks beter presteert dan de huidige GTX1080Ti? Gaat het er dan alleen maar om een kaart uit te brengen die overweg kan met raytracing (en dan ook nog in een vrij basale vorm, waar je in je laatste alinea's op wijst)?
Verder moet Nvidia wel iets doen om raytracing mogelijk te maken. Ze hebben zichzelf in die hoek gemanoeuvreerd met RTX, en gaan dat zeker gebruiken als verkoopargument om iedereen van Maxwell en Pascal af te krijgen. FP16 compute is dan met gemak de goedkoopste en snelste manier om wat rauwe rekenkracht te bereiken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Okay, vanuit de fabrikant gezien is dat wel een zinnig argument. Maar welke consument gaat een kaart kopen die weinig toevoegt aan het huidige aanbod? Natuurlijk zijn niet alle consumenten zo goed op de hoogte van de ins-&-outs van GPU's als op dit forum. En daarnaast bestaan er natuurlijk types die altijd het beste van het beste willen, ook al scheelt het bijv. maar 10% in prestaties. Maar toch...het zou mij niet over de streep trekken om een nieuwe kaart te halen.haarbal schreef op maandag 23 juli 2018 @ 13:57:
[...]
Productiekosten. Die zijn bij de nieuwe kaarten op den duur waarschijnlijk lager dan gelijk presterende (wat betreft performance en verbruik) pascal kaarten.
Ik ben niet bijdehand bezig. "12" nm is wél gewoon "16" nm, in de zin dat het geen shrink is, zoals wel wordt aangenomen. Er verandert niets aan de afmetingen van de transistors.Gekke Jantje schreef op maandag 23 juli 2018 @ 11:12:
We gaan het zien, 12 nm is ook geen 16 nm en ik weet ook wel dat het niet zo'n grote prong is van 28 naar 16 nm. Hahaha, OMG dat je dat er nog bij moet vertellen, beetje bij de hand hoor
"16", "14" en "12" nm van de verschillende fabs zijn allemaal nagenoeg identiek wat de fysieke dimensies betreft. Tussen "16" en "12" van TSMC (waar het hier om gaat) zit geen enkel verschil in de dimensies, waar dat bij 65/55 wel nog het geval was; ook tussen 45/40 en 32/28 wijken de dimensies af. Al vanaf 45nm wordt het echter veel lastiger alles kleiner te maken, waardoor je bij 45/40 en 32/28 ook al niet meer op dezelfde manier kunt vergelijken als bij 65/55.
Als het nog niet duidelijk was, ga ik het nu maar eens even benadrukken: "12" nm is geen shrink. 65->55 was dat wel (half). 45 -> 28 -> "16/14/12" uiteraard ook (full). Het is een verbeterd procedé, niet meer dan dat. Dat geeft vaak wel iets meer ruimte, maar het is geenszins genoeg voor een kloksnelheid bump van 25%. Als Nvidia dat klaar speelt ligt dat aan hun opbouw, niet aan de node.
Voor iedereen die geen kaart heeft van de huidige generatie is het een goede (betere?) optie. Waarschijnlijk.choogen schreef op maandag 23 juli 2018 @ 14:28:
Maar welke consument gaat een kaart kopen die weinig toevoegt aan het huidige aanbod?
Volgens mij was er wel sprake van een geringe afname in metal pitch, waardoor de dichtheid net iets hoger zou liggen. Precieze waarden kan ik alleen niet vinden. Niet dat het enorm zal zijn. De rest van de ontwerpregels zouden identiek zijn. Eigenlijk is het de vierde generatie 16nm producé van TSMC. Wederom minder lekstroom en goedkoper om te produceren, wat grotere chips mogelijk maakt.Werelds schreef op maandag 23 juli 2018 @ 14:35:
[...]
Ik ben niet bijdehand bezig. "12" nm is wél gewoon "16" nm, in de zin dat het geen shrink is, zoals wel wordt aangenomen. Er verandert niets aan de afmetingen van de transistors.
"16", "14" en "12" nm van de verschillende fabs zijn allemaal nagenoeg identiek wat de fysieke dimensies betreft. Tussen "16" en "12" van TSMC (waar het hier om gaat) zit geen enkel verschil in de dimensies, waar dat bij 65/55 wel nog het geval was; ook tussen 45/40 en 32/28 wijken de dimensies af. Al vanaf 45nm wordt het echter veel lastiger alles kleiner te maken, waardoor je bij 45/40 en 32/28 ook al niet meer op dezelfde manier kunt vergelijken als bij 65/55.
Als het nog niet duidelijk was, ga ik het nu maar eens even benadrukken: "12" nm is geen shrink. 65->55 was dat wel (half). 45 -> 28 -> "16/14/12" uiteraard ook (full). Het is een verbeterd procedé, niet meer dan dat. Dat geeft vaak wel iets meer ruimte, maar het is geenszins genoeg voor een kloksnelheid bump van 25%. Als Nvidia dat klaar speelt ligt dat aan hun opbouw, niet aan de node.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Exactemundo.DaniëlWW2 schreef op maandag 23 juli 2018 @ 14:56:
Eigenlijk is het de vierde generatie 16nm produce van TSMC.
Het is gewoon een marketing naam voor wat waarschijnlijk de "ultieme" iteratie is.
Verwijderd
Tenzij de marketingmedewerker van Nvidia netjes de datum heeft aangepast aan de regio. Stel bijvoorbeeld dat de kaarten om 8/9 uur 's ochtends in het westen van de USA beschikbaar komen dan is het in Oost-Europa, Azië en Australië nog zondag.Help!!!! schreef op maandag 23 juli 2018 @ 13:22:
30/9 is een zondag.. Dus tja.
Welke logica hanteer jij hier? Westkust USA komt later dan alle genoemde regio'sVerwijderd schreef op maandag 23 juli 2018 @ 17:50:
[...]
Tenzij de marketingmedewerker van Nvidia netjes de datum heeft aangepast aan de regio. Stel bijvoorbeeld dat de kaarten om 8/9 uur 's ochtends in het westen van de USA beschikbaar komen dan is het in Oost-Europa, Azië en Australië nog zondag.
Verwijderd
Geen idee, de geschiedenis wijst het uit. Hoe deed Nvidia dit in het verleden? Voor elk land hetzelfde tijdstip op dezelfde dag of 1 tijdstip en dat in elk land op hetzelfde moment de kaarten mochten worden verkocht? Het laatste ligt voor mij ook meer voor de hand maar ik weet het niet.sjekneck schreef op dinsdag 24 juli 2018 @ 01:00:
[...]
Welke logica hanteer jij hier? Westkust USA komt later dan alle genoemde regio's
Even iets anders, het is toch van de rutten besnuffeld dat zelfs na het 'instorten' (sterk gedaalde vraag) van die 'mining' de nieuwe kaarten vertraagd worden omdat Nvidia veel te veel kaarten had gemaakt omdat het verwachtte dat het al die kaarten aan 'miners' zou verkopen? Die 'miners' verpesten voor ruim meer dan 1 jaar de markt voor gamers.
[ Voor 4% gewijzigd door Paprika op 24-07-2018 03:56 ]
16nm is niet helemaal het zelfde als 12nm anders noemde ze het bij TSMC wel 16nm, 12nm heeft weer een "tighter metal pitch" Als het helemaal het zelfde was veranderde TSMC ook niet de naam.Werelds schreef op maandag 23 juli 2018 @ 14:35:
[...]
Ik ben niet bijdehand bezig. "12" nm is wél gewoon "16" nm, in de zin dat het geen shrink is, zoals wel wordt aangenomen. Er verandert niets aan de afmetingen van de transistors.
"16", "14" en "12" nm van de verschillende fabs zijn allemaal nagenoeg identiek wat de fysieke dimensies betreft. Tussen "16" en "12" van TSMC (waar het hier om gaat) zit geen enkel verschil in de dimensies, waar dat bij 65/55 wel nog het geval was; ook tussen 45/40 en 32/28 wijken de dimensies af. Al vanaf 45nm wordt het echter veel lastiger alles kleiner te maken, waardoor je bij 45/40 en 32/28 ook al niet meer op dezelfde manier kunt vergelijken als bij 65/55.
Als het nog niet duidelijk was, ga ik het nu maar eens even benadrukken: "12" nm is geen shrink. 65->55 was dat wel (half). 45 -> 28 -> "16/14/12" uiteraard ook (full). Het is een verbeterd procedé, niet meer dan dat. Dat geeft vaak wel iets meer ruimte, maar het is geenszins genoeg voor een kloksnelheid bump van 25%. Als Nvidia dat klaar speelt ligt dat aan hun opbouw, niet aan de node.
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Dat is het.Olaf van der Spek schreef op maandag 23 juli 2018 @ 14:43:
[...]
Voor iedereen die geen kaart heeft van de huidige generatie is het een goede (betere?) optie. Waarschijnlijk.
Ik heb nog een R9 290 kaart in gebruik en ben nu zover dat ik wil upgraden. Vrouw is gewaarschuwd voor een grote (dure) aankoop dus nu alleen nog even een kaart uitzoeken. Naja niet dus... Volg al een tijd elke aanbieding voor 1080's en 1080 Ti's maar een stemmetje in mijn hoofd bleef maar roepen dat ik op de nieuwe serie moet wachten. Nu min of meer de knoop doorgehakt en besloten te wachten. Dit ook omdat de prijzen van de 1080 serie nu ook weer niet zo ver gedaald zijn dat je ze er niet meer voor kunt laten liggen.
Als straks echt de GTX1180 uit komt dan ben ik bereid daar een behoorlijk bedrag voor neer te leggen. Uiteraard is er een maximum wat ik moreel zou willen betalen voor een kaart want ja, ik loop al wat jaren mee en kom nog uit de tijd dat je voor een paar honderd euro (ja jongeman.. zelfs gulden) een high end kaart kon kopen. Wat was de markt toen goed he.. crypto's hadden we nog niet gelukkig en als je kaart wat minder soepel Doom 2 kon spelen dan kocht je na een jaar weer een betere kaart uit de nieuwste reeks.
Waar ik op hoop is dat de GPU bakkers juist door de hoge prijzen flink geinvesteerd hebben in het produceren van kaarten. Als je een product voor 800+ kunt verkopen dan wil je daar toch zoveel mogelijk van op de markt krijgen?
Ik lees vol hoop maar met veel achterdocht alle nieuwtjes over de nieuwe kaarten. Van slecht in elkaar geflanste fake mails tot Vietnameze websites. Hopend dat mijn wachten beloond wordt met een een rib uit mijn lijf in het najaar.
Wise men speak because they have something to say; Fools because they have to say something
Doom 2 was software rendering.. toch?JohnnyV76 schreef op dinsdag 24 juli 2018 @ 11:15:
want ja, ik loop al wat jaren mee en kom nog uit de tijd dat je voor een paar honderd euro (ja jongeman.. zelfs gulden) een high end kaart kon kopen. Wat was de markt toen goed he.. crypto's hadden we nog niet gelukkig en als je kaart wat minder soepel Doom 2 kon spelen dan kocht je na een jaar weer een betere kaart uit de nieuwste reeks.
Pas met Quake was hardware rendering een ding.
En ja, helaas zijn dat soort stappen verleden tijd.
[ Voor 4% gewijzigd door Olaf van der Spek op 24-07-2018 11:34 ]
Haha... niet gedacht dat iemand uberhaupt een idee had wat Doom 2 wasOlaf van der Spek schreef op dinsdag 24 juli 2018 @ 11:33:
[...]
Doom 2 was software rendering.. toch?
Pas met Quake was hardware rendering een ding.
En ja, helaas zijn dat soort stappen verleden tijd.
Wise men speak because they have something to say; Fools because they have to say something
http://www.tsmc.com/engli...undry/technology/16nm.htmGekke Jantje schreef op dinsdag 24 juli 2018 @ 07:39:
[...]
16nm is niet helemaal het zelfde als 12nm anders noemde ze het bij TSMC wel 16nm, 12nm heeft weer een "tighter metal pitch" Als het helemaal het zelfde was veranderde TSMC ook niet de naam.
16/12. Ze noemen beiden in 1 adem.
En ja, minimum metal pitch ligt lager voor 12FFC, wat inderdaad een iets hogere dichtheid mogelijk maakt. Bij half-node jumps horen echter nog meer wijzigingen; gate length of interconnect pitch zijn normaal gesproken ook anders (niet noodzakelijkerwijs kleiner!). Vergelijk 32/28 of 65/55 maar eens. De fins werden toen ook kleiner, waardoor de dichtheid nog hoger uit kwam. Dat is nu niet het geval. Het is enkel de MMP die minder wordt, wat er op duidt dat TSMC iets verbeterd heeft waardoor ze iets minder metaal nodig hebben tussen de fins zonder te lekken.
Dat hebben ze echter al vaker gedaan. Met bijvoorbeeld 16FFC. Hier heb je echter het grote probleem: TSMC's FFC procedé's zijn bedoeld voor kleine chips (lees: mobiel). Wat voor desktop GPU's gebruikt wordt is 16FF, 16FF+, 16FFN en 12FFN, waarbij je TSMC die laatste twee niet eens ziet noemen op hun site. En de kans is heel groot dat die niet dezelfde MMP als de FFC varianten hebben.
Om je nu wat concrete voorbeelden te geven wat het verschil tussen een harde half-node stop en de huidige situatie is:
Chip | Transistors (miljoen) | Grootte (mm²) | Dichtheid (m transistors/mm²) | Procedé |
---|---|---|---|---|
G92a | 754 | 324 | 2,33 | 65nm |
G92b | 754 | 260 | 2,90 | 55nm |
GT200a | 1400 | 576 | 2,43 | 65nm |
GT200b | 1400 | 470 | 2,98 | 55nm |
GK110 | 7080 | 561 | 12,62 | 28nm |
GM200 | 8000 | 601 | 13,31 | 28nm |
GP102 | 12000 | 471 | 25,48 | 16FF |
GP100 | 15300 | 610 | 25,08 | 16FFN |
GV100 | 21100 | 815 | 25,89 | 12FFN |
Let op hoe de dichtheid bij de harde sprongen (65->55) tussen de 20% en 25% hoger uit komt. Dat gaf bij GT200 een kloksnelheid verbetering van 7,6%, bij G92 zo'n 9,3%. Op 28nm heeft TSMC nooit grote verbeteringen gehad, dus de dichtheid verandert daar nauwelijks. De kloksnelheid van Maxwell lag wel hoger, maar dat kwam vooral doordat het een geheel andere chip was. Tussen Pascal en Volta verschilt er echt helemaal niets. Dat beetje verschil in dichtheid komt simpelweg doordat het andere chips zijn en de kloksnelheden liggen nagenoeg gelijk.
Mijn punt is niet dat jij gelijk of ongelijk hebt. Is het aankomende "12nm" procedé anders dan het eerder gebruikte "16nm" procedé? Zeker. Maar het is niet anders in de zin dat het echt 16nm vs 12nm is zoals dat met 20/22, 32/28, 45/40, 65/55 het geval was. Sowieso betwijfel ik of Nvidia 12FFC kan gebruiken, maar zelfs al kunnen ze dat moet je niet rekenen op een hele grote sprong qua dichtheid of kloksnelheid. Niet op basis van TSMC's verbeteringen in elk geval.
Dat is al de hele tijd mijn punt: overschat de noemer "12nm" niet. De fins zijn nog steeds exact even groot als bij "16nm" en het geheel is nog steeds gelijkwaardig aan Intel's en GF's 14nm - het is en blijft meer marketing dan werkelijkheid. Er zit net iets minder metaal tussen de fins en that's it.
Nee, Nvidia pakt hoogstwaarschijnlijk hun custom 12nm FFN procedé. Speciaal ontwikkeld om enorme chips te kunnen produceren. Aangezien Nvidia niet naar 7nm gaat, moeten ze wel naar enorme chips overstappen om de bijna traditionele 30% verbetering in prestaties te halen. Ik zou niet verbaast zijn als GV104 toevallig rond de 471mm2 blijkt te zijn en GV102 groter dan 600mm2. Ja, het lijkt nu toch weer Volta te worden. Serieus Nvidia, geef de naam gewoon want dit begint irritant te worden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nu vraag ik me wel af, gezien 7nm al vrij ver lijkt te zijn, hoe lang leven dit platform zal hebben.
Of zal nVidia (met gebrek aan AMD concurrentie) heel lang gaan wachten voordat ze op 7nm overgaan. Bijv. totdat 7nm overwegend mature is.
Dus waarschijnlijk eerst weer alle 7nm capacity gebruiken voor professionele kaarten en dan pas over 1 a 1.5yr met gamecards komen....
[ Voor 16% gewijzigd door Help!!!! op 24-07-2018 13:11 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Zal GV102 de GTX 1180 gaan worden en GV104 de GTX 1170? Dan lijkt het me best mogelijk dat de GTX 1170 ongeveer dezelfde performance heeft als de 1080Ti. De GTX 1180 zou dan een goede 30% sneller kunnen zijn dan een GTX 1080Ti.
In deze situatie blijft er dan alleen weinig ruimte over voor een eventuele 1180Ti.
Een andere mogelijkheid lijkt me dat de GV102 een uitgeklede GV100 is en wordt gepositioneerd als de GTX 1180Ti en ongeveer 30% sneller is dan de GTX 1080Ti.
De GV104 wordt dan gebruikt in de GTX 1180 en GTX 1170. Gezien de Titan V (GV100) ongeveer 30% sneller is dan de GTX 1080Ti zou een GTX 1180 (GV104) ongeveer gelijk kunnen zijn qua performance aan de GTX 1080Ti.
De GTX 1170 zou dan een GV104 chip kunnen gebruiken waar enkele cores zijn uitgeschakeld en qua performance gelijk kunnen zijn aan de GTX 1080.
Zou Turing dan voor 7nm worden gebruikt? Ben benieuwd.
Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x
Nvidia gaat waarschijnkijk wachten tot EUV er is, en dan nog een jaar ofzo om er zeker van te zijn dat het werkt. TSMC zou EUV ergens in de lente van 2019 introduceren voor een verbeterd 7nm procedé. Dat is ook hard nodig want een 7nm wafer is naar schatting tweemaal zo duur als een 16/14/12nm wafer. Ga je ook nog van double naar quadpatterning per laag metaal die je aanbrengt op de basis wafer. Dus een verdubbeling van aantal handelingen per laag, en dus kansen dat er iets misgaat en je chip niet werkt. Hebben we het nog niet over extra lagen metaal gehad of problematische materialen. Je betaalt dus meer, en zal slechtere yields krijgen. Hier 300 of 400mm2 klasse chips mee produceren is vragen om een "Fermi 2.0" scenario.Help!!!! schreef op dinsdag 24 juli 2018 @ 13:10:
Het lijkt nu dus een redelijk uitgebreide launch lijkt te worden in 18Q3 en Q4 op 12nm. 1180+ tm 1160.
Nu vraag ik me wel af, gezien 7nm al vrij ver lijkt te zijn, hoe lang leven dit platform zal hebben.
Of zal nVidia (met gebrek aan AMD concurrentie) heel lang gaan wachten voordat ze op 7nm overgaan. Bijv. totdat 7nm overwegend mature is.
Dus waarschijnlijk eerst weer alle 7nm capacity gebruiken voor professionele kaarten en dan pas over 1 a 1.5yr met gamecards komen....
Er wordt nu al op de achtergrond gespeculeerd dat TSMC het ook moeilijk heeft om functionele 7nm chips te produceren. Ik heb geen enkele onderbouwing voor gezien, maar ik zou het niet uitsluiten dat het voor de grotere chips inderdaad problematisch is. Bij TSMC zit 7nm in een opbouwfase. Risicoproductie is klaar, de ontwerpen van verschillende bedrijven zijn ingediend en gereedgemaakt voor productie, en nu bouwen ze bij TSMC capaciteit op voor massaproductie.
Nvidia kan hier niet op wachten, en dat lijken ze ook niet te doen. Nvidia is in een oorlog met Intel beland om de controle over de mobiele GPU markt, en HPC chips. Als Nvidia niet kan leveren en een onbetrouwbare partner blijkt, dan gaan die OEM's wel naar Intel voor de Kaby Lake + Vega chips, of zelfs naar AMD voor hun APU's. Zet dat af tegen de 12nm optie. De machines hiervoor staan gewoon al bij TSMC aangezien het geen fundamenteel ander procede is dan 16nm die ze nu al gebruiken. Die machines kunnen dus gewoon aangepast worden en meteen beginnen met Volta chips produceren, met hoge yields.
AMD zit in een heel andere positie. Ik verwacht eigenlijk niks van ze op gebied van gaming GPU's, tenminste niet dit jaar, of het begin van volgend jaar. Gebeurd het, dan mooi, maar ik reken er niet op. AMD moet alles nog steeds op Zen, ditmaal Zen 2 gaan inzetten. Zoals ik al toelichten in het AMD topic, gaat dat een dure grap worden. AMD zal dus enorm volume moeten draaien, hogere marges of een combinatie van beiden. Leuk die videokaarten, maar als ze geen product kunnen verschepen, dan verliezen ze alleen maar geld. Op een gaming Vega 20 zie ik AMD niks verdienen, dus ik betwijfel of die er komt. Een Navi zien we wel wanneer die verschijnt. Hopelijk voordat het normaal is geworden dat je minimaal €400 betaalt voor een "GTX1160"...
@hubhib Ik ging er vanuit dat Nvidia met een GT102, GT104 en GT106 zou komen, maar de wissel naar toch GV en het ontbreken van GV 106 maakt mij ook weer aan het twijfelen.
Wat nu zou kunnen is dat GV102 de basis gaat vormen voor de xx80Ti en de xx80, en de GV104 de basis voor de xx70 en xx60. Dat zou wel betekenen dat de xx60 potentieel erg duur zou worden. Serieuze concurrentie is er toch niet...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Aan de andere kant, een GV104 in de vorm van een GTX 1180 die ~ 15% sneller is dan een GTX 1080Ti zou voor veel huidige GTX 1080 eigenaren ook een mooie upgrade zijn. Geef hem dezelfde prijs als de GTX 1080Ti en dan kun je extra vragen voor de GTX 1180Ti.
Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x
Verwijderd
Ik weet het, ik was er slordig mee.Paprika schreef op dinsdag 24 juli 2018 @ 03:55:
sjekneck bedoelt dat het vroeger is bij de west kust. Ik ben nu in LA en het is hier nu pas 18.55 (maandagavond).
Kijk, je begrijpt dus precies hoe Nvidia denkt. Nieuw product dat nauwelijks sneller is dan de vorige generatie op dat prijspunt en dan hetzelfde vragen. Koopje.hubhib schreef op dinsdag 24 juli 2018 @ 15:24:
@DaniëlWW2 Ik kan mij vaag nog een GTX 260 herinneren die voor $400+ in de markt werd gezet.
Aan de andere kant, een GV104 in de vorm van een GTX 1180 die ~ 15% sneller is dan een GTX 1080Ti zou voor veel huidige GTX 1080 eigenaren ook een mooie upgrade zijn. Geef hem dezelfde prijs als de GTX 1080Ti en dan kun je extra vragen voor de GTX 1180Ti.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat was toen achteraf helemaal niet zo'n gek bedrag voor die tijd. Het was een dure chip. AMD dwong met de 4870 een prijsverlaging af. Echter vervolgens wist AMD daar geen winst op te draaien. Dus ja wie had dan de zinnige prijs? Nvidia die een winstgevend prijspunt had of AMD die een break even punt koos?hubhib schreef op dinsdag 24 juli 2018 @ 15:24:
@DaniëlWW2 Ik kan mij vaag nog een GTX 260 herinneren die voor $400+ in de markt werd gezet.
Aan de andere kant, een GV104 in de vorm van een GTX 1180 die ~ 15% sneller is dan een GTX 1080Ti zou voor veel huidige GTX 1080 eigenaren ook een mooie upgrade zijn. Geef hem dezelfde prijs als de GTX 1080Ti en dan kun je extra vragen voor de GTX 1180Ti.
Verder leek het er al een tijd op dat Nvidia doet aan iets dat ik 'engineered gains' noem. Ik vermoed dat ze een bepaald performance target hebben en daar een zo klein mogelijke chip op zetten. Los van de observaties die je gedurende de jaren kunt waarnemen heeft Nvidia vorig jaar ook een keer een video geplaatst over hun virtualisatie hok waarbij ze een toekomstige gpu hardware matig volledig virtualiseren, dat past ook in dat straatje.
Historisch zie je in ieder geval vaak +- 33% en +- 15% gains voor architectuur en generatie. Let op hiermee doel ik op indexatie waardes. Dus 35% hogere indexatie waarde is 100-35=65. 100/65=54% omgekeerd vergeleken.
[ Voor 4% gewijzigd door sdk1985 op 24-07-2018 17:21 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Bron? Voor zover ik weet waren dat absoluut geen dure chips van AMD. RV770 was 256mm2 groot terwijl GT200 576mm2 groot was.sdk1985 schreef op dinsdag 24 juli 2018 @ 17:21:
[...]
Dat was toen achteraf helemaal niet zo'n gek bedrag voor die tijd. Het was een dure chip. AMD dwong met de 4870 een prijsverlaging af. Echter vervolgens wist AMD daar geen winst op te draaien. Dus ja wie had dan de zinnige prijs? Nvidia die een winstgevend prijspunt had of AMD die een break even punt koos?
Dat is al gedaan;XFlame schreef op maandag 23 juli 2018 @ 14:28:
Zou een refresh mogelijk zijn (a la 680 > 770)? 1080 > 1170, 1070 > 1060.
GTX 1060 6GB > GTX 1060 6GB 9 Gbps
GTX 1070 > GTX 1070 Ti
GTX 1080 > GTX 1080 11Gbps
Al is de GTX 1070 Ti niet direct een refresh, maar eerder een extra model. Nu nog een refresh uitbrengen is nutteloos. Daarvoor kost het veel te veel en zal het niks nieuws brengen. Huidige kaarten zijn daarvoor al te lang op de markt. Is gewoon tijd voor een nieuwe generatie.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verschil is wel dat een GTX 260, 260 Core 216, 275, 280 en 285 allemaal dezelfde chip zijn (285, 275 zijn wel 55nm; de 216 was er op zowel 65 als 55).hubhib schreef op dinsdag 24 juli 2018 @ 15:24:
@DaniëlWW2 Ik kan mij vaag nog een GTX 260 herinneren die voor $400+ in de markt werd gezet.
Bij release had je de 280 en de 260; waarbij laatstgenoemde 80% van de rauwe rekenkracht had en dat ook bijna exact leverde qua performance (simpelere tijden
De verdeling was toen anders. Een 260 van toen is een 1070 van nu. De huidige verdeling hebben we pas vanaf Fermi
Klopt, later kregen we een refresh met de GTX 285 en GTX 275, die een veel betere prijs/prestatie verhouding hadden. De GTX 260 had natuurlijk zoals je zegt dezelfde vette chip als de GTX 280.Werelds schreef op woensdag 25 juli 2018 @ 10:38:
[...]
Verschil is wel dat een GTX 260, 260 Core 216, 275, 280 en 285 allemaal dezelfde chip zijn (285, 275 zijn wel 55nm; de 216 was er op zowel 65 als 55).
Bij release had je de 280 en de 260; waarbij laatstgenoemde 80% van de rauwe rekenkracht had en dat ook bijna exact leverde qua performance (simpelere tijden).
De verdeling was toen anders. Een 260 van toen is een 1070 van nu. De huidige verdeling hebben we pas vanaf Fermi
Het zou een beetje hetzelfde zijn als wanneer de GTX 1070 dezelfde chip zou gebruiken als de Titan X, met wat cores uitgeschakeld. De kosten zouden voor nVidia veel hoger zijn in die situatie.
Ten tijde van Fermi werd de GF104 chip inderdaad ingezet voor de GTX 460 en was de GF100 voorbehouden aan de GTX 480/470. Tegenwoordig is de Gx104 chip een prijsklasse omhoog gegaan en vinden we hem terug in de GTX 1080/1070.
[ Voor 10% gewijzigd door hubhib op 25-07-2018 11:11 ]
Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x
http://ir.amd.com/financial-information/sec-filings en dan de 10-K annual filings.madmaxnl schreef op dinsdag 24 juli 2018 @ 22:12:
[...]
Bron? Voor zover ik weet waren dat absoluut geen dure chips van AMD. RV770 was 256mm2 groot terwijl GT200 576mm2 groot was.
De 4870 deed mee vanaf zomer 2008, de opvolger kwam eind september 2009 (5870 voor $379, wel low supply).
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Verwijderd
Als jij zo bang bent naast de pot te wissen, wachten. Niemand weet wanneer het komt, september wordt genoemd. Helaas moeten we voor AMD nog wat langer wachten.TweakerVincent schreef op vrijdag 27 juli 2018 @ 19:00:
Ik wil mijn GPU upgraden en ben bereid tot 1000 euro oid te investeren maar ik heb geen idee wanneer de nieuwe generatie uitkomt. Lees overal wisselende berichten. Wil the Witcher 3 en BF1/5 4k kunnen spelen met hopelijk een 1080ti of een nieuwe. Beetje zuur als ik nu een 1080ti koop en over 1/2 mnd de boot mis. Wat zouden jullie doen?
Lijkt me ook beste plan. Dan maar ff 1080p spelenVerwijderd schreef op vrijdag 27 juli 2018 @ 22:03:
[...]
Als jij zo bang bent naast de pot te wissen, wachten. Niemand weet wanneer het komt, september wordt genoemd. Helaas moeten we voor AMD nog wat langer wachten.
Lijkt mij sterk dat de opvolger van de 1080ti dit jaar nog komt. Als de volgende generatie eind augustus uit komt dan kan het zo maart volgend jaar worden voordat de volgende ti kaart komt.TweakerVincent schreef op vrijdag 27 juli 2018 @ 19:00:
Ik wil mijn GPU upgraden en ben bereid tot 1000 euro oid te investeren maar ik heb geen idee wanneer de nieuwe generatie uitkomt. Lees overal wisselende berichten. Wil the Witcher 3 en BF1/5 4k kunnen spelen met hopelijk een 1080ti of een nieuwe. Beetje zuur als ik nu een 1080ti koop en over 1/2 mnd de boot mis. Wat zouden jullie doen?
Wie goed doet, die goed ontmoet.
Hij vraagt dan ook niet naar de letterlijke opvolger van de 1080ti.AtlAntA schreef op zaterdag 28 juli 2018 @ 06:52:
[...]
Lijkt mij sterk dat de opvolger van de 1080ti dit jaar nog komt. Als de volgende generatie eind augustus uit komt dan kan het zo maart volgend jaar worden voordat de volgende ti kaart komt.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Eensch. Maar als hij twiijfelt tussen een 1080ti of een een 1180 dan kan hij net zo goed nu een 1080ti kopen. Grote kans dat de 1180 niet of nauwelijks sneller zal zijn dan de 1080ti. Wil je een snellere kaart dan de 1080ti voor rond de 1000 euro? Dan heb je weinig andere keus dan wachten op de 1180ti of je budget oprekken en de volgende titan afwachten.Help!!!! schreef op zaterdag 28 juli 2018 @ 10:12:
[...]
Hij vraagt dan ook niet naar de letterlijke opvolger van de 1080ti.
Wie goed doet, die goed ontmoet.
Wise men speak because they have something to say; Fools because they have to say something
Ondertussen kun je nu al gamen, hoef je niet een release af te wachten noch voorraad. En mocht het qua verkoopprijs wel meevallen kun je altijd nog overstappen. Ik heb vier jaar gedaan met mijn 290X Gaming X van MSI. Simpelweg omdat AMD met weinig beters kwam en het volstond voor mijn games op 1080p. Pas kort geleden heb ik een Asus Cerberus 1070 Ti op de kop kunnen tikken via de V&A voor €350.
Ook ik had een volgende release kunnen afwachten met nog een half jaar te gaan zo ongeveer. Maar wat zou ik dan voor dat bedrag kunnen krijgen? Geen nieuwe 1170, misschien een 1160. En ja die kan een huidige 1070 misschien evenaren (zoals een 1170 een 1080 wellicht zal evenaren en de 1180 een Ti versie) Maar tegen welke prijs? Verwacht toch wel mininaal €400 of meer. Nu heb ik geld bespaard om games te kunnen kopen, kan ik nu gamen en hoef ik niet te wachten.
En dat ik dan 2 jaar oude tech koop die wat gefinetuned is.. Mja het zal mij een rotzorg zijn. Het is een overduidelijke upgrade tov wat ik had. En er zal altijd wel iets nieuwers om de hoek op de loer liggen om uitgebracht te worden. Maar ik hoef niet perse het nieuwste van het nieuwste. Ik wil niet jaar in, jaar uit mijn gpu moeten upgraden. Heb wel wat beters te doen.
Daarbij heb ik lang genoeg gewacht tot ik een leuke deal tegen kwam. Want door de cryptocurrency mining en bijbehorende prijsverhoging zowel nieuw als tweedehands heb ik langer dan nodig op mijn 290x lopen gamen. Maar geduldig afwachten tot je wat leuks tegen komt is wel de moeite waard. Of dat nu een toffe deal in de V&A is of gewoon wachten op de nieuwe generatie. Ieder zijn ding. Voor beide kanten valt wat te zeggen.
Daar wordt heel verschillend over gedacht. Bij PCGamer bijvoorbeeld verwacht men voor de 1180 een prestatietoename van 25% t.o.v. de 1080Ti:AtlAntA schreef op zaterdag 28 juli 2018 @ 18:39:
[...]
Eensch. Maar als hij twijfelt tussen een 1080ti of een een 1180 dan kan hij net zo goed nu een 1080ti kopen. Grote kans dat de 1180 niet of nauwelijks sneller zal zijn dan de 1080ti.
But regardless of how Nvidia gets there, we expect performance to be around 25 percent better than the GTX 1080 Ti FE, just like the GTX 1080 was around 25 percent faster than the GTX 980 Ti.
Over prijzen zeggen ze het volgende:
And then there's the price, and there's plenty of uncertainty. The graphics card shortage caused by memory supply and cryptocurrency miner demands is basically gone, and there are lots of GPUs selling at or below MSRP now. I've heard rumors of anywhere from $600 to $1,000 for the GTX 1180, but the higher price rumors mostly came when you couldn't even find a GTX 1080 Ti in stock. Assuming GTX 1180 hits performance expectations, the initial cards should officially launch at $699-$749 for Founders Edition models, and the custom cards will come a month or two later and cost $100 less. There's a chance Nvidia might increase initial prices to $799 or more, however—it can always reduce prices in the future if necessary.
https://www.pcgamer.com/gtx-1180-release-date/
Daar kun je natuurlijk de visies van andere (tech)website weer tegenoverstellen.
Verwijderd
Ik moest deze zin 3 keer lezen voordat ik begreep wat jij bedoelt maar inderdaad, die *80 Ti komen veel (0,5-1 jaar?) later dan de *80 en de *70, de *60 en lager komen waarschijnlijk een maandje later uit. Er zijn technische redenen waarom ze het zo doen, dat heeft te maken met defecten (bij defecten worden gedeeltes van de volledige GPU verkocht als een lager model) en yields (hoeveel procent van de kernen op zo'n wafer goed is gelukt, wat stijgt naarmate het productieproces langer wordt gebruikt en wordt geoptimaliseerd).AtlAntA schreef op zaterdag 28 juli 2018 @ 06:52:
[...]
Lijkt mij sterk dat de opvolger van de 1080ti dit jaar nog komt. Als de volgende generatie eind augustus uit komt dan kan het zo maart volgend jaar worden voordat de volgende ti kaart komt.
Het ligt eraan hoeveel meer je wil betalen om het wat eerder te hebben. Die 1180 zal (uiteindelijk, het kan een paar maanden duren) minder gaan kosten dan de 1080 Ti en de prijzen van de 1080 Ti zullen dalen wanneer de 1100-serie uitkomt. Je hebt dan wel een paar maanden later dat performance-niveau, volgens de huidige verwachtingen. Heb je dat ervoor over? Daarnaast presteerde de 1070 ongeveer even goed als de 980 Ti, de 1080 zat ruim boven het performance-niveau van de 980 Ti, voor honderden € minder.Eensch. Maar als hij twiijfelt tussen een 1080ti of een een 1180 dan kan hij net zo goed nu een 1080ti kopen.
@choogenDat zegt m.i. veel meer dan de geruchten over de 1100-reeks. Het verleden is de beste indicator voor de toekomst.
Terzijde, ik zou zelf kiezen voor een AMD-kaart en dat combineren met een FreeSync-monitor, of naast die Nvidia-kaart ook een G-Sync monitor kopen. Het is zonde om €800-900 te besteden aan een kaart en dan nog steeds met tears te spelen. Mijn advies: wacht op de 1180 als je voor Nvidia kiest, of op Navi als je voor FreeSync kiest. Dit zeg ik omdat ik er waarde aan hecht dat je zuinig je geld besteedt en maximale performance krijgt voor je geld. Als je meer dan genoeg te besteden hebt en het maakt je geen snars uit en jij hebt die extra kosten over om een paar maanden eerder dat performance-niveau te krijgen dan kan je nu een 1080 Ti kopen, maar besef dat je aanzienlijk meer betaalt voor aanzienlijk minder dan wanneer je op de 1180 wacht.
[ Voor 76% gewijzigd door Verwijderd op 29-07-2018 16:47 ]
'The event will be loaded with new, exclusive, hands-on demos of the hottest upcoming games, stage presentations from the world’s biggest game developers, and some spectacular surprises.
Unfortunately, this technology is not coming to gamers anytime soon. The publication of the research paper is just a first step in a long process before we get to see ATAA in games.
[ Voor 33% gewijzigd door Help!!!! op 31-07-2018 07:59 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Het event zal bol staan van nieuwe, exclusieve hands-on demo’s van de grootste aankomende games, podiumpresentaties van toonaangevende game-ontwikkelaars en een paar spectaculaire verrassingen!
Deze happening is niet enkel voor mensen werkzaam in de industrie.. jullie lezers en kijkers kunnen ook aanwezig zijn. Ze hoeven zich enkel te registeren (zie de link onderaan dit persbericht) en op maandag 20 augustus zich te melden voor de festiviteiten. De deuren gaan om 17:30 open en het event begint om 18:00 CET. Er is echte beperkte ruimte beschikbaar, dus iedereen dient zich snel aan te melden. Voor iedereen die niet in staat is om fysiek aanwezig te zijn, zal er tevens en livestream van het event uitgezonden worden.
Wanneer?
Maandag 20 augustus 2018
18:00 – middernacht
Waar?
We verklappen vooralsnog nog niet te veel hierover, maar als de datum van het event dichterbij komt, zullen we jullie alle details verstrekken.
Je kunt meer informatie vinden op onze blog: https://www.geforce.com/w...celebration-gamescom-2018
Gerelateerde links:
Registratiepagina (waaronder details over media- en influencer accreditatie):
https://www.eventbrite.co...ation-tickets-48361475475
Kan ook een AI kaart zijn gezien de nvlink connectors.
[ Voor 13% gewijzigd door ColinZ op 02-08-2018 13:08 ]
GDDR6 chips, denk het dus niet.ColinZ schreef op donderdag 2 augustus 2018 @ 12:53:
GTX 1180/2080 PCB
Kan ook een AI kaart zijn gezien de nvlink connectors.
Maar ik heb eens hetzelfde trucje geprobeerd dat Techpowerup ook deed voor de GV102. Super accuraat zal het niet zijn, maar het zal in de buurt komen. Ik kwam uit op circa 372mm2. Neem maar met een korreltje zout maar het zal waarschijnlijk ergens rond die waarde zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
GDDR6 is juist prima geschikt voor AI/DL workloads. Leuke boost over GDDR5(x), maar goedkoper dan HBM2.
De huidige GP104/102 kaarten zijn immers al populair als "budget" kaarten in die sector.
Natuurlijk ook een mogelijkheid, maar gezien de magere interesse van developers in multigpu niet echt aannemelijk.Gekke Jantje schreef op donderdag 2 augustus 2018 @ 15:03:
Nvlink voor multigpu, ik zal al ergens dat dan 2 videokaarten zich gedragen als 1 videokaart. Betekend dit dat er geen AFR en SFR meer word gebruikt?
Reken er maar niet opGekke Jantje schreef op donderdag 2 augustus 2018 @ 15:03:
Nvlink voor multigpu, ik zal al ergens dat dan 2 videokaarten zich gedragen als 1 videokaart. Betekend dit dat er geen AFR en SFR meer word gebruikt?
Zelfs op de Titan V kun je niets met die connectors. Is gewoon uitgeschakeld, gaan ze echt niet in schakelen voor mindere chips. Sowieso hebben we die bandbreedte niet nodig voor games.
Wat AFR/SFR betreft, dat hoeft nu al niet meer. Met Vulkan en DX12 kunnen developers iets anders implementeren, maar er is zo goed als geen animo voor. Het wel of niet hebben van NVLink verandert daar niets aan, het zou niet makkelijker zijn. Zo eenvoudig als jij het stelt (dat ze zich als "één" zouden gedragen) is het helaas niet.
[ Voor 3% gewijzigd door Werelds op 02-08-2018 16:54 ]
En dat is mijn punt nu juist.ColinZ schreef op donderdag 2 augustus 2018 @ 15:35:
[...]
GDDR6 is juist prima geschikt voor AI/DL workloads. Leuke boost over GDDR5(x), maar goedkoper dan HBM2.
De huidige GP104/102 kaarten zijn immers al populair als "budget" kaarten in die sector.
Nvidia produceert en segmenteert nu al meer dan tien jaar chips tussen hun GeForce en professionele productlijn. Het zijn altijd dezelfde chips, maar de veel duurdere Quadro's krijgen extra features en ondersteuning vanuit CUDA. Ze krijgen geen extra hardware want dat kost veel R&D budget. Nvidia heeft met de GP100 en GV100 hier nog een laag boven geplaatst. Die chips zijn helemaal gesegmenteerd, met bijbehorende prijzen en winsten.
Het hele punt van GP/GV100 is een overkill van een alleskunner maken en die aan iedereen verkopen die een deel van de extra capaciteit nodig heeft. Wil je tensercores? Tja, moet je een GV100 kopen. Wil je de zeer lage latency's van HBM2 voor zeer serieus AI werk? Minstens een GP100, maar liever de GV100. FP16 compute? GP/GV100 etc.
Nvidia zorgt er met hun nog steeds defacto monopoly* dat iedereen een GP/GV100 moet kopen, ook al hebben ze maar een van deze dingen nodig. Daarom zal Nvidia niet snel met aparte, dedicated HPC lijn komen. Het kost ze honderden miljoenen aan R&D en beschadigd hun verdienmodel ook nog eens. Dit PCB is dus hoogstwaarschijnlijk GV104, een primair gaming chip die met een gigantische premium voorzien zal worden van het Quadro stickertje en de bijbehorende extra software.
*AMD doet sinds een jaar een beetje mee met Vega en hun sterk ontwikkelende, eigen platform dat voornamelijk bestaat uit CUDA te laten functioneren op AMD hardware. Op termijn gaat dat voor problemen zorgen als AMD daadwerkelijk deze kant op blijft ontwikkelen, en er het geld ook voor blijven besteden kan. Een Vega kan een GP102 met gemak aan, als de software voor je taken beschikbaar is. Op termijn kan dat er wel voor gaan zorgen dat Nvidia meer dedicated chips zal moeten ontwikkelen, maar voorlopig zijn we nog echt niet zo ver.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Elon Musk's Tesla to drop Nvidia hardware in favour of its own AI chips
&
NVIDIA AIB Manli: GA104-400 Registered, GeForce GTX 2070 and 2080 Listed
[ Voor 30% gewijzigd door Help!!!! op 02-08-2018 19:20 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Met huidige GP104/102 kaarten bedoelde ik eigenlijk gewoon de GeForce varianten. Niet iedereen heeft de specifieke feature set van Quadro nodig. Tensor cores of snelle fp16 is niet altijd een vereiste.DaniëlWW2 schreef op donderdag 2 augustus 2018 @ 16:56:
[...]
En dat is mijn punt nu juist.
Nvidia produceert en segmenteert nu al meer dan tien jaar chips tussen hun GeForce en professionele productlijn. Het zijn altijd dezelfde chips, maar de veel duurdere Quadro's krijgen extra features en ondersteuning vanuit CUDA.
Nvidia zal die gebruikers toch naar Quadro producten proberen te bewegen, maar gezien de vaak forse meerprijs, zal dat niet makkelijk gaan worden.
Momenteel is er weinig reden voor een andere MSRP voor de nieuwe x80 dan we gewend zijn. Die zaten de vorige keer op $599 en dan $699 voor de Founders Edition.choogen schreef op zondag 29 juli 2018 @ 14:30:
[...]
Daar wordt heel verschillend over gedacht. Bij PCGamer bijvoorbeeld verwacht men voor de 1180 een prestatietoename van 25% t.o.v. de 1080Ti:
But regardless of how Nvidia gets there, we expect performance to be around 25 percent better than the GTX 1080 Ti FE, just like the GTX 1080 was around 25 percent faster than the GTX 980 Ti.
Over prijzen zeggen ze het volgende:
And then there's the price, and there's plenty of uncertainty. The graphics card shortage caused by memory supply and cryptocurrency miner demands is basically gone, and there are lots of GPUs selling at or below MSRP now. I've heard rumors of anywhere from $600 to $1,000 for the GTX 1180, but the higher price rumors mostly came when you couldn't even find a GTX 1080 Ti in stock. Assuming GTX 1180 hits performance expectations, the initial cards should officially launch at $699-$749 for Founders Edition models, and the custom cards will come a month or two later and cost $100 less. There's a chance Nvidia might increase initial prices to $799 or more, however—it can always reduce prices in the future if necessary.
https://www.pcgamer.com/gtx-1180-release-date/
Daar kun je natuurlijk de visies van andere (tech)website weer tegenoverstellen.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Niets nieuws eigenlijk. Vorig jaar werd al duidelijk dat Tesla waarschijnlijk overstapt naar door AMD ontworpen custom chips.
En nu is het weer 2000 series en Ampère. Dammit Nvidia, communiceer nu gewoon eens de naam zeg,
Oh dat lukt ze wel hoor. Beetje meer VRAM hier, wat cruciale features kunstmatig uitschakelen daar en je zal toch echt aan een Quadro moeten.ColinZ schreef op donderdag 2 augustus 2018 @ 19:59:
[...]
Met huidige GP104/102 kaarten bedoelde ik eigenlijk gewoon de GeForce varianten. Niet iedereen heeft de specifieke feature set van Quadro nodig. Tensor cores of snelle fp16 is niet altijd een vereiste.
Nvidia zal die gebruikers toch naar Quadro producten proberen te bewegen, maar gezien de vaak forse meerprijs, zal dat niet makkelijk gaan worden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik hoopte dat je met NV link af was van SLI/(explicit multi adapter voor dx12) en ten alle tijde optimale dual GPU as one had, maar dat zou idd wel te mooi zijn als dat ook in games zo zou werken.Werelds schreef op donderdag 2 augustus 2018 @ 16:54:
[...]
Reken er maar niet op
Zelfs op de Titan V kun je niets met die connectors. Is gewoon uitgeschakeld, gaan ze echt niet in schakelen voor mindere chips. Sowieso hebben we die bandbreedte niet nodig voor games.
Wat AFR/SFR betreft, dat hoeft nu al niet meer. Met Vulkan en DX12 kunnen developers iets anders implementeren, maar er is zo goed als geen animo voor. Het wel of niet hebben van NVLink verandert daar niets aan, het zou niet makkelijker zijn. Zo eenvoudig als jij het stelt (dat ze zich als "één" zouden gedragen) is het helaas niet.
Niet op voorraad.
Omdat gameontwikkelaars niet de moeite nemen zou het mooi zijn dat Nvidia met een eigen oplossing komt wat volledig op hardware en driver niveau werkt en dat de game engine en API's er niet meer toe doet. Maar ik denk ook dat Nvidia multigpu op de duur volledig zal laten vallen.Werelds schreef op donderdag 2 augustus 2018 @ 16:54:
[...]
Reken er maar niet op
Zelfs op de Titan V kun je niets met die connectors. Is gewoon uitgeschakeld, gaan ze echt niet in schakelen voor mindere chips. Sowieso hebben we die bandbreedte niet nodig voor games.
Wat AFR/SFR betreft, dat hoeft nu al niet meer. Met Vulkan en DX12 kunnen developers iets anders implementeren, maar er is zo goed als geen animo voor. Het wel of niet hebben van NVLink verandert daar niets aan, het zou niet makkelijker zijn. Zo eenvoudig als jij het stelt (dat ze zich als "één" zouden gedragen) is het helaas niet.
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
edward2 schreef op vrijdag 3 augustus 2018 @ 00:55:
Ik hoopte dat je met NV link af was van SLI/(explicit multi adapter voor dx12) en ten alle tijde optimale dual GPU as one had, maar dat zou idd wel te mooi zijn als dat ook in games zo zou werken.
NVLink is niets meer dan wat de naam al zegt: een link. Het heeft niets te maken met de communicatie tussen de GPU's, synchronisatie of wat dan ook. Dat ligt allemaal nog steeds aan de software kant. De enige manier waarop Nvidia of AMD dat zou kunnen doen is door een extra processor op de PCB's te plaatsen die daar slim in probeert te zijn. Ik denk dat ik niet hoef uit te leggen waarom dat onwaarschijnlijk is voor consumenten GPU'sGekke Jantje schreef op vrijdag 3 augustus 2018 @ 08:33:
Omdat gameontwikkelaars niet de moeite nemen zou het mooi zijn dat Nvidia met een eigen oplossing komt wat volledig op hardware en driver niveau werkt en dat de game engine en API's er niet meer toe doet. Maar ik denk ook dat Nvidia multigpu op de duur volledig zal laten vallen.
Dat is ook meteen het sleutel woord: probeert. Net als met SLI/CFX nu proberen Nvidia en AMD daar zo slim mogelijk de workload te verdelen, echter is de enige die precies wat de workload inhoudt de developer. Nvidia en AMD kunnen nooit op voorhand weten welke data nodig is voor welke instructies.
Daar komt bij dat vergeleken met HPC, games relatief weinig data per keer door de verschillende interfaces stouwen. Access latency is in beide gevallen geen groot probleem, maar in HPC kan het best zijn dat je achter elkaar op 6 GB data zit te werken. Als dat dan van een 500 GB/s geheugen interface door een 300 GB/s interconnect moet is dat geen gigantische ramp omdat je dat hoogstwaarschijnlijk toch niet op 500 GB/s helemaal kunt verwerken. Zelfs die 300 is wellicht nog te veel (hangt heel erg van de workload af hoor
Voor games ligt dat anders. Daar gebruik je 300 MB hier, 700 daar, nog eens 150 ergens anders. In totaal kan het best zijn dat je 6 GB data hebt, maar je gebruikt het niet allemaal in één keer. Het zijn kleinere stukjes die wel zo snel mogelijk bij de GPU moeten zijn. Met een interconnect van 200 GB/s (zoals het geval is van de NVLink Bridge) introduceer je dan dus een bottleneck. Vooral omdat die 200 GB/s als ik het me goed herinner de combined throughput is en het niet full-duplex is; dus eigenlijk heb je maar 100 GB/s beschikbaar, en als het druk is ook maar de helft van de tijd. Moet ik straks even opzoeken, ik weet niet 100% zeker of ik me dit goed herinner, maar volgens mij zat het zo. De
Daarom zullen we voor games gewoon bij de huidige opties blijven: "automagisch" multi-GPU met AFR, SFR of enige andere methode waarbij alle GPU's altijd alle data in hun geheugen hebben, of een oplossing waar devs zelf beheren wat waar naar toe gaat. En dat hebben we toch al enige tijd
Het aantal multi-GPU gebruikers is echter minuscuul dus zo'n hoge prioriteit heeft het niet. Ik zou wel graag eens een dev zien die het écht goed implementeert, puur om te demonstreren wat er kan. Juist omdat dat wellicht een impuls aan het aantal multi-GPU gebruikers zou kunnen geven.
Ja ik begrijp dat er enige intelligentie/interconnect (ingebakken) moet zitten om e.e.a. te managen, hetzij via een peperdure bridge (zoals GV100 Quadro?), hetzij op het PCB/GPU's zelf, al of niet aangestuurd door een softlayer.Werelds schreef op vrijdag 3 augustus 2018 @ 13:05:
[...]
[...]
NVLink is niets meer dan wat de naam al zegt: een link. Het heeft niets te maken met de communicatie tussen de GPU's, synchronisatie of wat dan ook.
Maar idd, afgezien dat het waarschijnlijk een shitload aan werk is, in de consumenten lijn veel te duur.
Niet op voorraad.
Zelfs die dure Quadro bridge managed helemaal nietsedward2 schreef op vrijdag 3 augustus 2018 @ 13:13:
[...]
Ja ik begrijp dat er enige intelligentie/interconnect (ingebakken) moet zitten om e.e.a. te managen, hetzij via een peperdure bridge (zoals GV100 Quadro?), hetzij op het PCB/GPU's zelf, al of niet aangestuurd door een softlayer.
Maar idd, afgezien dat het waarschijnlijk een shitload aan werk is, in de consumenten lijn veel te duur.
Die $599 die je daar aan uit geeft is niet veel meer dan wat een SLI bridge is. Het maakt het mogelijk NVLink te gebruiken, maar op zichzelf doet het niets.
En ik heb even gekeken, ik had het fout, het is wel full duplex. Met GV100 krijg je maximaal 50 GB/s full duplex (100 GB/s totaal dus) uit een enkele bridge, met GP100 is dat maximaal 40 GB/s (80 totaal). Je kunt ook twee bridges gebruiken, voor maximums van 100 (200) en 80 (160) respectievelijk.
Op de mezzanine versie van GV100 krijg je nog iets meer, namelijk 150 GB/s (300 totaal).
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Ik heb het een tijdje gevolgd en sommige reviewers doen SLI nog wel maar helaas worden dat steeds minder. Er zijn games geweest waarbij Nvidia wel een SLI profile uit heeft gebracht maar waar er amper verschil in prestatie was vergeleken met een enkele kaart. En in sommige games was het verschil 80%. Wat ik wil zeggen is dat een SLI profiel niet veel hoeft te zeggen. De ontwikkelaars van de game zullen ook hun duit in het zakje moeten doen.Gekke Jantje schreef op zaterdag 4 augustus 2018 @ 09:42:
Het valt mij wel op dat Nvidia nog regelmatig SLI profielen uit brengt, eigenlijk wel met iedere nieuwe game ready driver voor oude en nieuwe games. Ik vraag me af hoe het zit met de SLI prestatie over meerdere games maar helaas zie je nooit meer dat soort review dus he tis maar de vraag of SLI nog wel of geen nut heeft.
Wie goed doet, die goed ontmoet.
nieuws: Chinese fabrikant toont videokaart van 'nieuwe generatie' GeForce GTX
De introductie van een nieuwe serie lijkt bijna een zekerheid op dit punt. De vraag is voor mij vooral; wat gaan ze kosten?
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Verwijderd
SLI is in het algemeen erg oninteressant.AtlAntA schreef op zondag 5 augustus 2018 @ 09:01:
[...]
Ik heb het een tijdje gevolgd en sommige reviewers doen SLI nog wel maar helaas worden dat steeds minder. Er zijn games geweest waarbij Nvidia wel een SLI profile uit heeft gebracht maar waar er amper verschil in prestatie was vergeleken met een enkele kaart. En in sommige games was het verschil 80%. Wat ik wil zeggen is dat een SLI profiel niet veel hoeft te zeggen. De ontwikkelaars van de game zullen ook hun duit in het zakje moeten doen.
- hoog stroomverbruik en veel lawaai
- slechte optimalisatie
- vaak zelfs een slechtere performance aangezien de minima-FPS lager worden en je stutter krijgt
Tenslotte is SLI geen mogelijkheid bij Vulkan of DX12, dan ligt het volledig bij de developers die hier in het algemeen (terecht naar mijn mening) niet in willen investeren. Het is niet voor niets dat SLI weinig wordt getest, erg weinig kijkers/lezers hebben een tweede grafische kaart in hun systeem en je bent beter af met 1 duurdere kaart dan met 2 kaarten. Bijvoorbeeld 1 Vega56 vs. 2 RX 580 of 1 GTX 1080 vs. 2 GTX 1060. Er zijn nichecasescenarios (leuk woord voor scrabble
[ Voor 8% gewijzigd door Verwijderd op 06-08-2018 16:48 ]
GTX 1070 Ti SLI+FACT review.
https://www.guru3d.com/ar..._2_way_sli_review,20.html
[ Voor 14% gewijzigd door Gekke Jantje op 07-08-2018 11:31 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
https://www.guru3d.com/ar...-2-way-sli-review,10.html .
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
@sdk1985
Ja, het kan goed werken maar wat heb je eraan als het slechts voor 1 per 20 spellen die je speelt goed werkt.
[ Voor 31% gewijzigd door Verwijderd op 07-08-2018 14:49 ]
Daarom zitten er ook FCAT measurements in dezelfde review, met frametimes. Zie bijvoorbeeld de FCAT metingen van dezelfde game: https://www.guru3d.com/ar..._2_way_sli_review,18.htmlVerwijderd schreef op dinsdag 7 augustus 2018 @ 14:45:
Jantje, microstutter zie je vaak niet in de FPS, een seconde is daar veel te lang voor. Als je bijvoorbeeld in de eerste 0,2 seconde 1 frame hebt en in de laatste 0,8 seconde 100 FPS dan lijkt de FPS OK te zijn maar toch zal je die stutter goed merken. Idem voor als je in 0,1 seconde 1 frame hebt.
Daarin valt te zien dat een aantal games het best goed doet in SLI:
- (DX12) Battlefield 1
- (DX12) Deus Ex: Mankind Divided
- (DX11) Tom Clancy Ghost Recon Wildlands
- (DX12) Sniper Elite 4
[ Voor 24% gewijzigd door hidde212 op 07-08-2018 14:55 ]
...and your ass will follow
[ Voor 21% gewijzigd door Gekke Jantje op 07-08-2018 15:01 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Verwijderd
Ik was daar mee bezig, ik wou mijn vorige reactie uitbreiden maar nu zal ik het hier doen. Het principe zou duidelijk moeten zijn zonder die plaatjes maar plaatjes maken het gemakkelijker duidelijk.hidde212 schreef op dinsdag 7 augustus 2018 @ 14:50:
[...]
Daarom zitten er ook FCAT measurements in dezelfde review, met frametimes. Zie bijvoorbeeld de FCAT metingen van dezelfde game: https://www.guru3d.com/ar..._2_way_sli_review,18.html
Daarin valt te zien dat een aantal games het best goed doet in SLI:De rest presteert gelijk of slechter dan een enkele GTX1070. Daarmee is wat mij betreft de situatie gelijk of slechter dan het een aantal jaar geleden was.
- (DX12) Battlefield 1
- (DX12) Deus Ex: Mankind Divided
- (DX11) Tom Clancy Ghost Recon Wildlands
- (DX12) Sniper Elite 4
Hier de 5 plaatjes.
Voor wie nu enkel kijkt naar de hoogte, het gaat vooral om de spikes. Je wil ideaal gesproken geen spikes hebben, niet naar omhoog en niet naar omlaag. Far Cry Primal and Thief zou ik niet met SLI willen spelen.
Hoe stabieler de framerendertijd is hoe beter bestuurbaar het spel is. Ik zal dit illustreren met mijn eigen ervaring in een spel. Door een CPU-bottleneck heb ik bij ACIV (Black Flag) op de Assassin's eiland dat de FPS zakt van 50-62 (afhankelijk van de instellingen) naar ongeveer 30 zo gauw de camera in de buurt komt van waar al die NPC's zijn. De reden: het spel is singlethreaded (shame, Ubisoft) en die enkele kern kan de bewegingen van de NPC's niet bijbenen, in ieder geval niet met DX11 waarbij je voor elke nieuwe frame tal van keren communicatie hebt tussen de CPU en de grafische kaart.
Ik kan niet beoordelen of dat het wel of niet goed is geoptimaliseerd buiten deze problemen.
Op zich is 30 FPS speelbaar, het gamet misschien niet zo lekker maar consolegamers hebben erg veel gegamed met 30 FPS. Het is de plotselinge verandering tussen 60 FPS en 30 FPS die het spel onspeelbaar maakt op dat deel aangezien je een bepaalde snelheid veronderstelt bij je muisbewegingen en die niet klopt doordat de FPS zo snel zo sterk zakt.
Bij sommige van die spellen gaat het redelijk goed, bij andere spellen zie je dat de pieken zelfs ruim hoger uitkomen dan wanneer je 1 enkele kaart gebruikt.
Verwijderd
Bij GTX 1060 ontbreekt de SLi mogelijkheidVerwijderd schreef op maandag 6 augustus 2018 @ 16:44:
[...]
Het is niet voor niets dat SLI weinig wordt getest, erg weinig kijkers/lezers hebben een tweede grafische kaart in hun systeem en je bent beter af met 1 duurdere kaart dan met 2 kaarten. Bijvoorbeeld 1 Vega56 vs. 2 RX 580 of 1 GTX 1080 vs. 2 GTX 1060.
Verwijderd
Dat was ik alweer vergeten.Verwijderd schreef op dinsdag 7 augustus 2018 @ 15:07:
[...]
Bij GTX 1060 ontbreekt de SLi mogelijkheid
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Als je de micro stutter niet merkte dan zal je de hogere fps ook niet gemerkt hebben. Die hoge fps wil je om een soepele ervaring te hebben en er is vastgesteld dat je die vroeger echt niet had. Kan prima dat jij de dips nooit hebt gemerkt maar dat geldt dan dus ook voor de baten de je normaal zoo associëren met een hogere framerate.Gekke Jantje schreef op dinsdag 7 augustus 2018 @ 15:00:
Ik merkte nooit echt de microstuttutters op in de meeste games vandaar ook dat ik in het verleden SLI ben blijven gebruiken, ik heb iets van 8 SLI setups gehad dus ik weet ook wel waar ik over praat. In veel gevallen had ik altijd betere frametimes. 9 van de 10 games werkte vrijwel goed met SLI. Maar aan de andere kant zijn er ook 9 van de 10 games waar bij SLI helemaal niet werkte.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Crysis 1 was anders behoorlijk op te merken, maar indd als je al 60+ fps haalde merk je het nog maar nauwelijks op. Crysis 1 voelde serieus soepeler aan door SLI. 28-30 FPS VS 48-50 FPS zo uit mijn hoofd op 1680x1050sdk1985 schreef op dinsdag 7 augustus 2018 @ 15:47:
[...]
Als je de micro stutter niet merkte dan zal je de hogere fps ook niet gemerkt hebben. Die hoge fps wil je om een soepele ervaring te hebben en er is vastgesteld dat je die vroeger echt niet had. Kan prima dat jij de dips nooit hebt gemerkt maar dat geldt dan dus ook voor de baten de je normaal zoo associëren met een hogere framerate.
YouTube: 8800GT SLI Crysis Benchmark 1680x1050
De random dips merkte ik wel op (zei ik nog in een post hier voor), alleen kwam het niet in een mate voor dat het storend was. Als het nu constant was om de zoveel seconden dan was lastig geweest.
[ Voor 11% gewijzigd door Gekke Jantje op 07-08-2018 16:03 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Daarnaast hitte en allerlei andere nadelen zoals gebrekkige ondersteuning.
De implementatie is wat mij betreft dus achteraf eigenlijk nooit op een niveau geweest dat het een aanrader was. Dus ik mis het ook helemaal niet.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Verwijderd
Jij merkt dat misschien nauwelijks maar er zijn veel gamers die het wel merken.Gekke Jantje schreef op dinsdag 7 augustus 2018 @ 15:59:
[...]
Crysis 1 was anders behoorlijk op te merken, maar indd als je al 60+ fps haalde merk je het nog maar nauwelijks op.
Dat verschilt enorm tussen mensen, zoals zo'n beetje alles sterk verschilt tussen mensen.
Het punt is dat hoe meer je het een merkt hoe meer je het ander merkt. Als je de hogere FPS merkt dan merk je die microstutter ook en nog sterker. Het verbetert niet de game-ervaring. Zoals je in de plaatjes hierboven kan zien zijn er spellen waarvoor SLI werkt maar voor de meeste spellen wordt het er alleen maar slechter van als je SLI gebruikt. Als je enkel SLI gebruikt voor die enkele spellen dan is dat een dure investering, koop dan liever een betere kaart (wat jij nu ook hebt gedaan als ik me niet vergis).Gekke Jantje schreef op dinsdag 7 augustus 2018 @ 15:31:
Af en toe een frametime spike merkte ik wel op met SLI maar als dat af en toe gebeurde was het niet zo'n groot probleem. De zelfde frametime spikes heb je overigens ook zonder SLI in sommige games, Battlefield 1 is daar een voorbeeld van en dat ligt dan niet aan de drivers of de CPU.
Het lijkt me aan te raden om dat soort spellen van een SSD te spelen. Het laden van data van de harde schijf naar de RAM gaat trager met een harde schijf. + natuurlijk al die tijd dat je naar een loadingscreen aan het kijken bent, ook niet iets om vrolijk van te worden.AC Origins heeft ook dat gedrag als ik de game via de HDD afspeel, zeker wanneer de HDD op dat moment met andere dingen bezig is.
[ Voor 7% gewijzigd door Verwijderd op 07-08-2018 16:59 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Ik zeg dat ik het ook merk maar dat het niet altijd even veel is en in iedere game. Zie ook reviews waarin word gezegd dat er nauwelijks nog microstuttering is op een spike na soms, en dat is ook te zien aan de grafiekjes, iets wat je ook regelmatig met een enkele kaart kunt hebben.Verwijderd schreef op dinsdag 7 augustus 2018 @ 16:58:
[...]
Jij merkt dat misschien nauwelijks maar er zijn veel gamers die het wel merken.
Dat verschilt enorm tussen mensen, zoals zo'n beetje alles sterk verschilt tussen mensen.
[...]
Wat ook werkt op mensen is zeggen dat er iets gebeurd wat er niet is, toch merkt men dan zo iets omdat het is gezegd.
Met games als Crysis 1 zal iedereen wel opmerken dat de game vloeiender loopt door SLI. Je zal minder beeldjes zien ipv met een enkele kaart, ook al heb je af en toe een frametime spike. De game ervaring word in dit soort gevallen voor iedereen dan beter, het verbeterd dan dus wel de game ervaring alleen geldt dat niet voor iedere game.
Ik ben niet blind, en mij valt altijd erg veel op, meer dan wat de FPS gamer ziet. In de meeste games die ik speelde was de game ervaring ook beter door SLI, hoe dat vandaag de dag nog is weet ik niet. In het verleden maakte het ook nog wel eens uit welke chipset je had.
[ Voor 18% gewijzigd door Gekke Jantje op 07-08-2018 17:55 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
[ Voor 11% gewijzigd door edward2 op 07-08-2018 20:22 ]
Niet op voorraad.
Verwijderd
In het midden latende of dat dat klopt, ik zou de grafiekjes moeten zien om er iets over te zeggen, waarom is het dan niet een betere optie om gewoon in 1 keer een betere kaart te kopen?Gekke Jantje schreef op dinsdag 7 augustus 2018 @ 17:43:
Met games als Crysis 1 zal iedereen wel opmerken dat de game vloeiender loopt door SLI. Je zal minder beeldjes zien ipv met een enkele kaart, ook al heb je af en toe een frametime spike.
Als je met een 5k resolutie speelt en dan ook nog eens alle instellingen op zeer hoog wil hebben en je speelt met twee Vega64-kaarten of twee 1080 ti kaarten, dat kan ik me voorstellen, al is het een hele dure grap maar als iemand die early adopter fee kan en wil betalen, ga je gang. Voor alle overige gamers die niet steeds de allerduurste nieuwe generatie kaart kopen, koop wel de hoogste generatie en laat het bij 1. Dat is hoe ik het zie. Laat dit ook maar even aan @edward2 voorleggen.
Die enkele microstutter kan voor mij zeker meer een probleem zijn dan de continue lagere FPS, ik kan leven met een lagere FPS als die bijvoorbeeld op 80 uitkomt, die microstutters zijn voor mij gamebrekend omdat de controle veel slechter wordt.
[ Voor 29% gewijzigd door Verwijderd op 07-08-2018 21:49 ]
Meer dan wat "de FPS gamer" ziet? o_OGekke Jantje schreef op dinsdag 7 augustus 2018 @ 17:43:
Ik ben niet blind, en mij valt altijd erg veel op, meer dan wat de FPS gamer ziet.
Verder hebben jullie het over de "spikes" in de FCAT plots, terwijl dat juist geen microstuttering is. Dat zijn gewoon keiharde stutters.
Microstuttering speelt zich binnen de seconde af. Op zo'n FCAT plot over 30 seconden zie je dat niet direct aan piekjes. Daarom hoor je bij dat soort grafiekjes ook gewoon de standaard deviatie te krijgen, percentielen of in elk geval iets waarmee je iets nauwkeurigere cijfers krijgt.
Neem bijvoorbeeld Sniper Elite 4 uit die Guru3D review.
Ziet er op het eerst oog goed uit, echter zijn de frametijden bij SLI weldegelijk een stuk onstabieler dan met single GPU. Dat zie je aan de "dikte" van de lijn. Met name van 20 tot 25 seconden is die een stuk dikker en heb je daar gewoon aardig wat microstuttering.
BF1 op DX12 uit diezelfde review is een nog veel beter voorbeeld:
Even los van de grote pieken, is zelfs tussen die pieken de lijn een stuk dikker. Van 20 tot 30 seconden varieert de frametijd daar gewoon van wat zo'n 5ms lijkt te zijn, tot 8-9 ms met daarnaast ook nog eens keiharde stutters tot 10ms of hoger.
Dat is alle behalve soepel en iemand die daar gevoelig voor is (ik bijvoorbeeld) zal zich daar mateloos aan irriteren. En dat is ook meteen de clou van het verhaal: niet iedereen vindt het storend. Niet iedereen ziet dat. Degenen die het niet zien, zien over het algemeen het verschil tussen 60 en 120/144 FPS ook niet. Sterker nog, veel van die mensen zien niet eens het verschil tussen macOS en Windows, waarbij eerstgenoemde de 60 FPS nooit haalt en de UI er daardoor in mijn ogen "laggy" uit ziet.
SLI/CFX is vooral boeiend op extreem hoge resoluties zoals waar @edward2 op speelt. Je frametijden liggen dan sowieso al een stuk hoger, maar zullen ook relatief constant zijn waardoor je een stuk minder microstuttering hebt. Wil je op 120/144 gamen, kun je juist beter geen SLI/CFX nemen omdat je juist dan waarschijnlijk dusdanige framerates kunt halen dat de frametijden juist wel erg variëren. En zelfs 1-2ms variatie kan dan al funest zijn, omdat dat het verschil kan maken tussen wel of geen tearing (zonder V-Sync) of tussen een frame input lag (met V-Sync). Op 144 Hz heb je immers slechts net geen 7ms tussen frames. 1ms is dan al meteen 14,29% van je totaal beschikbare tijd tussen frames.
Having said that, ga je naar triple-GPU (voor zover dat nog kan
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.