Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Toettoetdaan schreef op dinsdag 17 mei 2016 @ 15:46:
[...]

Wat ze met het geheugen hebben gedaan is echt indrukwekkend d:)b
Voor de rest lijkt her vooral Maxwell + de winst van een nieuwe node.
Het is idd gewoon Maxwell op 16nm FinFET+ met iets meer stream processors en GDDR5X (in het geval van de GTX 1080) met enkele tweaks. Verwacht je iets anders dan? :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op dinsdag 17 mei 2016 @ 15:49:
[...]

Het is idd gewoon Maxwell op 16nm FinFET+ met iets meer stream processors en GDDR5X (in het geval van de GTX 1080) met enkele tweaks. Verwacht je iets anders dan? :p
Ach ja na een "te" lange tijd op 28nm zijn we in de gpu wereld node shrinks en bijkomende voordelen niet meer gewend en is een 30-35 % prestatie verschil opeens een wonder en verbuffend O-)

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Verwijderd schreef op dinsdag 17 mei 2016 @ 15:52:
[...]


Ach ja na een "te" lange tijd op 28nm zijn we in de gpu wereld node shrinks en bijkomende voordelen niet meer gewend en is een 30-35 % prestatie verschil opeens een wonder en verbuffend O-)
Gemiddeld 66% sneller dan de GTX980? Niet slecht toch?
(Aangezien de 1080 daarvan de directe opvolger is, en niet van de 980Ti).

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20

Acties:
  • +1 Henk 'm!

  • Cyclonic
  • Registratie: Januari 2006
  • Laatst online: 23:58
795 euro... ik ging uit van 740 max. Even de landen bedanken die de euro waarde om zeep geholpen hebben.. Dan maar eens afwachten wat MSI gaat doen met de prijzen met de Twinfroser en lichtning.

Acties:
  • 0 Henk 'm!

  • Ergo
  • Registratie: November 2014
  • Laatst online: 06-08 09:43
Benchmarks zien er erg goed, alleen ik zie nog steeds geen support voor asynchronous compute.
als AMD dit goed aanpakt dan kunnen ze een hele grote stap maken quo marktaandeel in de gpu markt.
op tomb raider na, heeft de 1080 een tegenvallende lead. als je dx11 met dx12 vergelijkt zie je dat ze of gelijk blijven of dat de 1080 zelfs frames verliest onder dx12.
SmokingCrop schreef op dinsdag 17 mei 2016 @ 15:42:
"During a briefing call today, NVIDIA confirmed that their latest line-up of graphics cards will indeed natively support Async compute. Furthermore, they clarified that this has been achieved without the need for context switching. When discussing Async Compute, NVIDIA discussed the current testing procedure and explained basing results on Ashes of the Singularity isn’t the best idea. They elaborated on this and explained that more games would be released very soon using this intriguing technology. Whether or not, NVIDIA’s implementation is as effective as the competition remains to be seen. Nevertheless, it’s great to see NVIDIA tackling this controversial topic head-on and explaining that Pascal will have native support for Async Compute."
http://www.eteknix.com/nv...rts-asynchronous-compute/
ja heel leuk dat ashes volgens hun geen goeie game is om DX12 performance te testen maar in de nieuwe Hitman en bij Tomb raider( die nvidia backed is en tevens de enige titel waar AMD frames verliest met dx12?) zie je nog steeds geen gains. ik ben benieuwd wat AMD gaat laten zien op 1 juni.

YouTube: GeForce GTX 1080 DirectX 11 vs DirectX 12 Benchmarks

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Werelds schreef op dinsdag 17 mei 2016 @ 15:42:
Mooie zachte launch, bijna een paper launch zelfs ;)

Ik moet het Nvidia's marketing afdeling nageven: well played. Sowieso al 10 dagen voordat de FE beschikbaar wordt, vervolgens nog eens 2-3 weken voordat de rest beschikbaar wordt. Dat is dus een maandje lang de hardcore fanboys melken terwijl ze rustig aan zorgen dat ze aan de massa kunnen leveren. En tegen die tijd komt de 1070 ook.

Prestaties zitten waar verwacht. Het is verder dus ook gewoon Maxwell op steroïden. Waar ik wel van onder de indruk ben is het geheugen. Voor de verandering heeft hun nieuwe compressie wel een merkbaar effect. 4K/SSAA hebben een stuk minder impact in verhouding.
Helemaal mee eens :)
Wel knap inderdaad veel minder geheugen bandbreedte maar dat zie je niet terug in de prestaties van de kaart.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Jeroenneman schreef op dinsdag 17 mei 2016 @ 15:55:
[...]


Gemiddeld 66% sneller dan de GTX980? Niet slecht toch?
(Aangezien de 1080 daarvan de directe opvolger is, en niet van de 980Ti).
Ook 66% duurder :+. Dus ik vergelijk hem met de GTX980Ti, ik wil eigenlijk zien hoe een non reference GTX980Ti zich verhoudt met de GTX1080.

Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Sp3ci3s8472 schreef op dinsdag 17 mei 2016 @ 15:57:
[...]


Ook 66% duurder :+. Dus ik vergelijk hem met de GTX980Ti, ik wil eigenlijk zien hoe een non reference GTX980Ti zich verhoudt met de GTX1080.
Ik wil de non reference 1080's zien :P
Maar eigenlijk wil ik de verschillende 1070's met hun geluidsniveau getest zien, zodat ik weet welke ik moet kopen. ^.^

[ Voor 16% gewijzigd door SmokingCrop op 17-05-2016 16:00 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Sp3ci3s8472 schreef op dinsdag 17 mei 2016 @ 15:57:
[...]


Ook 66% duurder :+. Dus ik vergelijk hem met de GTX980Ti, ik wil eigenlijk zien hoe een non reference GTX980Ti zich verhoudt met de GTX1080.
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/
http://www.techpowerup.com/reviews/ASUS/GTX_980_Ti_Matrix/
Snelste? GTX 980 Ti, dus bekijk ze eens naast elkaar beide reviews.
Lekker nutteloos altijd die geluidstests.

[ Voor 22% gewijzigd door -The_Mask- op 17-05-2016 15:59 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/10/
Die 2,0-GHz-Schallmauer wollte das Testsample damit leider nicht dauerhaft durchbrechen. Kurzfristig liegen zwar mehr als 2,0 GHz an, jedoch spätestens nach fünf Minuten liegt die Frequenz darunter. In Anno 2205 arbeitet die GeForce GTX 1080 letztendlich mit etwa 1.870 MHz anstatt 1.720 MHz und in Star Wars: Battlefront mit 1.970 MHz anstatt 1.780 MHz. Je nach Spiel steigt die Geschwindigkeit damit um zehn bis elf Prozent an.
Google translate:
The 2.0 GHz sound barrier was the test sample so that not to break permanently. In the short term are indeed at greater than 2.0 GHz, but not later than five minutes, the frequency is lower. In Anno 2205, the GeForce GTX 1080 works finally with about 1,870 MHz instead of 1720 MHz and in Star Wars: Battlefront with 1,970 MHz instead of 1780 MHz. Depending on the game, the speed increases in order to ten to eleven percent.
Oftewel de reference koeler houdt een leuke overclock niet lang vol.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

NVIDIA GeForce GTX 1070 Specifications Revealed

NVIDIA's second graphics card based on its GP104 "Pascal" silicon, the more affordable GeForce GTX 1070, hits the shelves on June 10, 2016. At the May 7th event, the company was surprisingly quiet about its specifications, until now. It turns out that slower memory isn't the only thing setting the GTX 1070 apart from the GTX 1080. The company will also cut down the CUDA core count, a proportionate number of TMU count, and lower the GPU clock speeds.

NVIDIA set the MSRP for the GeForce GTX 1070 at US $379, $50 higher than the launch-price of the GTX 970, the most popular SKU based on the GM204 silicon. The company also plans to sell a premium reference-design card, dubbed the GeForce GTX 1070 Founders Edition, at $449, at a $70 premium. NVIDIA hopes to make the GTX 1070 the go-to card for Summer 2016 PC upgrades.

Afbeeldingslocatie: http://www.techpowerup.com/img/16-05-17/87a.jpg

The specifications follow.

GeForce GTX 1070
  • 16 nm "GP104" silicon, 7.2 billion transistors, "GP104-200-A1" ASIC
  • 1,920 CUDA cores, 15 out of 20 streaming multiprocessors enabled on the GP104 silicon
  • 120 TMUs, 64 ROPs
  • 256-bit GDDR5 memory, 8 GB standard memory amount
  • Max GPU Boost frequency 1600 MHz
  • 6.75 TFLOP/s single-precision floating point performance
  • 150W TDP, single 8-pin PCIe power connector
  • 3x DisplayPort 1.4, 1x HDMI 2.0b
  • 2-way SLI with SLI HB bridge support
http://www.techpowerup.co...0-specifications-revealed

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Is iets vreemds aan dat bericht, aangezien 1920 x 1600 x 2 maar uitkomt op 6,1TF en geen 6,75TF.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
-The_Mask- schreef op dinsdag 17 mei 2016 @ 15:49:
[...]

Het is idd gewoon Maxwell op 16nm FinFET+ met iets meer stream processors en GDDR5X (in het geval van de GTX 1080) met enkele tweaks. Verwacht je iets anders dan? :p
Nope, Maxwell was al prima :)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
SmokingCrop schreef op dinsdag 17 mei 2016 @ 15:42:
"During a briefing call today, NVIDIA confirmed that their latest line-up of graphics cards will indeed natively support Async compute. Furthermore, they clarified that this has been achieved without the need for context switching. When discussing Async Compute, NVIDIA discussed the current testing procedure and explained basing results on Ashes of the Singularity isn’t the best idea. They elaborated on this and explained that more games would be released very soon using this intriguing technology. Whether or not, NVIDIA’s implementation is as effective as the competition remains to be seen. Nevertheless, it’s great to see NVIDIA tackling this controversial topic head-on and explaining that Pascal will have native support for Async Compute."
http://www.eteknix.com/nv...rts-asynchronous-compute/
Godver, zeg dat het niet waar is. Gaan ze daar nu een Nvidia-specifieke oplossing voor..."aanbieden" zullen we maar zeggen?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
-The_Mask- schreef op dinsdag 17 mei 2016 @ 16:02:
US $379, $50 higher than the launch-price of the GTX 970
Dat is in ieder geval al beter. :)

Wat mij trouwens wel opvalt bij alle PCB plaatjes is dit:
Afbeeldingslocatie: http://i.imgur.com/yWuJVC6.png

Lijkt mij dat ze toch al lang wisten dat die 2e connector niet nodig zou gaan zijn gezien de specs?

Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
Werelds schreef op dinsdag 17 mei 2016 @ 15:42:

Prestaties zitten waar verwacht. Het is verder dus ook gewoon Maxwell op steroïden. Waar ik wel van onder de indruk ben is het geheugen. Voor de verandering heeft hun nieuwe compressie wel een merkbaar effect. 4K/SSAA hebben een stuk minder impact in verhouding.
-Simultaneous Multi-Projection
-Multi-monitor
-GPU Boost 3.0
-New SLI HB bridges
- HDMI 2.0b en DisplayPort 1.4
- Fast Sync
-Nvidia Ansel
-VR Audio
-dynamic load balacing

Wat moet Nvidia doen om wel vernieuwend te zijn dan en om geen ''Maxwell op steroïden'' te zijn?

Acties:
  • 0 Henk 'm!

  • PaYnE81
  • Registratie: Augustus 2012
  • Laatst online: 11-09 20:44

PaYnE81

XBL VandalizerNL

-The_Mask- schreef op dinsdag 17 mei 2016 @ 16:02:

NVIDIA GeForce GTX 1070 Specifications Revealed

NVIDIA's second graphics card based on its GP104 "Pascal" silicon, the more affordable GeForce GTX 1070, hits the shelves on June 10, 2016. At the May 7th event, the company was surprisingly quiet about its specifications, until now. It turns out that slower memory isn't the only thing setting the GTX 1070 apart from the GTX 1080. The company will also cut down the CUDA core count, a proportionate number of TMU count, and lower the GPU clock speeds.

NVIDIA set the MSRP for the GeForce GTX 1070 at US $379, $50 higher than the launch-price of the GTX 970, the most popular SKU based on the GM204 silicon. The company also plans to sell a premium reference-design card, dubbed the GeForce GTX 1070 Founders Edition, at $449, at a $70 premium. NVIDIA hopes to make the GTX 1070 the go-to card for Summer 2016 PC upgrades.

[afbeelding]

The specifications follow.

GeForce GTX 1070
  • 16 nm "GP104" silicon, 7.2 billion transistors, "GP104-200-A1" ASIC
  • 1,920 CUDA cores, 15 out of 20 streaming multiprocessors enabled on the GP104 silicon
  • 120 TMUs, 64 ROPs
  • 256-bit GDDR5 memory, 8 GB standard memory amount
  • Max GPU Boost frequency 1600 MHz
  • 6.75 TFLOP/s single-precision floating point performance
  • 150W TDP, single 8-pin PCIe power connector
  • 3x DisplayPort 1.4, 1x HDMI 2.0b
  • 2-way SLI with SLI HB bridge support
http://www.techpowerup.co...0-specifications-revealed
Dat is inderdaad apart...

Lijkt er wel op dat het 970 memory verhaal zich niet gaat herhalen dit keer, ROPs zijn gelijk gelukkig. Vraag me alleen wel af hoe die extra shader units gecut zijn want de TMU count is wel omlaag gegaan...

Acties:
  • +1 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Paprika schreef op dinsdag 17 mei 2016 @ 16:06:

Lijkt mij dat ze toch al lang wisten dat die 2e connector niet nodig zou gaan zijn gezien de specs?
Doen ze wel vaker. Makkelijker voor fabrikanten welke niet een heel ander PCB willen ontwerpen, maar alleen een eigen koeler bijvoorbeeld. Geeft de mogelijkheid tot bijvoorbeeld twee 6 pins connectors, twee 8 pins connectors of een enkele 6 en een enkele 8 pins connectors. Ook kun je er voor kiezen om alleen de achterste connector te gebruiken en die van de zijkant te laten vervallen. Kan ook zijn dat nVidia op het laatst heeft besloten om van twee maal 6 naar één maal 8 pins te gaan.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Werelds schreef op dinsdag 17 mei 2016 @ 16:06:
[...]

Godver, zeg dat het niet waar is. Gaan ze daar nu een Nvidia-specifieke oplossing voor..."aanbieden" zullen we maar zeggen?
Niet zo gek toch? Developers klooien met DX12 ook maar wat aan, en eigenlijk zijn er maar een paar games waarin DX12 de moeite is:

Quantum Break kampt met problemen.
Gears of War was gewoon een farce qua launch, met DX12 add-ons op een engine van tig jaar oud
Hitman is zo brak in DX12 dat TPU er niet eens in wil testen

Dan houd je RoTR en AoS over als DX12 games die niet "kapot" zijn.

Als Nvidia je dan aanbiedt om je te helpen met optimaliseren en zorgt dat je wel iets hebt wat enigzins werkt: graag denk ik.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
Werelds schreef op dinsdag 17 mei 2016 @ 16:06:
[...]

Godver, zeg dat het niet waar is. Gaan ze daar nu een Nvidia-specifieke oplossing voor..."aanbieden" zullen we maar zeggen?
Dat zeggen ze niet, ze zeggen alleen dat ze de resultaten van ashes niet representatief vinden.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Werelds schreef op dinsdag 17 mei 2016 @ 16:06:
[...]

Godver, zeg dat het niet waar is. Gaan ze daar nu een Nvidia-specifieke oplossing voor..."aanbieden" zullen we maar zeggen?
Ik hoop niet dat het is wat jij denkt dat het is?
Als dat zo is Async met eigen sausje. AMD hardware oplossing wordt in die games onbruikbaar omdat er geen gebruik gemaakt wordt van de standaard en performance van AMD kaarten klapt onderuit..... Zal niet de eerste keer zijn dat zo iets gebeurt. Laten we maar hopen dat dat het niet wordt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
-The_Mask- schreef op dinsdag 17 mei 2016 @ 16:10:
[...]

Doen ze wel vaker. Makkelijker voor fabrikanten welke niet een heel ander PCB willen ontwerpen, maar alleen een eigen koeler bijvoorbeeld. Geeft de mogelijkheid tot bijvoorbeeld twee 6 pins connectors, twee 8 pins connectors of een enkele 6 en een enkele 8 pins connectors. Ook kun je er voor kiezen om alleen de achterste connector te gebruiken en die van de zijkant te laten vervallen. Kan ook zijn dat nVidia op het laatst heeft besloten om van twee maal 6 naar één maal 8 pins te gaan.
Thanks!

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op dinsdag 17 mei 2016 @ 16:06:
[...]

Godver, zeg dat het niet waar is. Gaan ze daar nu een Nvidia-specifieke oplossing voor..."aanbieden" zullen we maar zeggen?
Ben bang van wel, of ze moeten die nieuwe oplossing opensource gaan aanbieden.

Maar omdat AMD de console markt in handen heeft zullen veel console games eerder voor AMD zijn versie van Async gebruiken, dus tja waarom Nvidia dit dan wil gaan boycotten snap ik niet.

Acties:
  • 0 Henk 'm!

  • PaYnE81
  • Registratie: Augustus 2012
  • Laatst online: 11-09 20:44

PaYnE81

XBL VandalizerNL

Werelds schreef op dinsdag 17 mei 2016 @ 16:06:
[...]

Godver, zeg dat het niet waar is. Gaan ze daar nu een Nvidia-specifieke oplossing voor..."aanbieden" zullen we maar zeggen?
GameWorks brengt nVidia best wel wat knaakjes op, duwen ze daar gewoon in, let maar op ...

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
vinom schreef op dinsdag 17 mei 2016 @ 15:22:
Tweakers heeft zelf geen artikel ?:(
Uur en 20 min verder, geen review, geen nieuwsartikel, zelfs niks van medewerker van Tweakers gezien. :F

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
-The_Mask- schreef op dinsdag 17 mei 2016 @ 16:20:
[...]

Uur en 20 min verder, geen review, geen nieuwsartikel, zelfs niks van medewerker van Tweakers gezien. :F
Het zou niet de eerste keer zijn dat Tweakers geen nieuwe review sample krijgt van nVidia ...

Specs


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 00:04

Tomas Hochstenbach

Redacteur componenten
-The_Mask- schreef op dinsdag 17 mei 2016 @ 15:39:
[...]


[...]

Lekker domme opmerking, als de videokaart sneller is en je dus meer frames per seconde hebt, heb je dus ook meer belasting op bijvoorbeeld de CPU en gaat het verbruik van de gehele PC dus omhoog.

Verbruik is dus ook gelijk met de GTX 980, zie: http://www.techpowerup.co.../GeForce_GTX_1080/24.html

Fixen Tomas :>
Onze 1080 klokte simpelweg hoger dan bij TPU. In-game heb ik 'n niet onder de 1.800 MHz gezien. Wellicht was het op de testlocatie van TPU wat koeler dan in NL de afgelopen dagen :)

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

lightdestroyer schreef op dinsdag 17 mei 2016 @ 16:22:
[...]

Het zou niet de eerste keer zijn dat Tweakers geen nieuwe review sample krijgt van nVidia ...
Niet gek, aangezien de reviewkwaliteit steeds verder achteruitging.

Kijk de GTX980 review er eens op na. Maar liefst 6(!) games werden er getest. Ook slechts twee lullige pagina's achtergrondmaterie, en niet echt veel vergelijkingsmateriaal.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • +1 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
Om eerlijk te zijn is Tweakers ook wel de laatste plaats waar ik kijk voor GPU reviews...

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
Nature schreef op dinsdag 17 mei 2016 @ 16:07:
-Simultaneous Multi-Projection
-Multi-monitor
-GPU Boost 3.0
-New SLI HB bridges
- HDMI 2.0b en DisplayPort 1.4
- Fast Sync
-Nvidia Ansel
-VR Audio
-dynamic load balacing

Wat moet Nvidia doen om wel vernieuwend te zijn dan en om geen ''Maxwell op steroïden'' te zijn?
Je hebt hierboven al laten merken dat je geen flauw benul hebt wat AC is, maar laat ik dit lijstje eens doornemen:
Nature schreef op dinsdag 17 mei 2016 @ 16:07:
- Yay, iets nieuws t.o.v. Maxwell...voor 0,001% van de markt.
- Software
- Software
- Yay, iets nieuws voor 2% van de markt
- Ach gossie, ze gaan met hun tijd mee
- Software
- Software
- Software
- Software
Nee, het is niets meer dan Maxwell op steroïden. Al die software implementaties kunnen even goed voor Maxwell werken (en is in veel gevallen ook zo; sommige delen zitten in firmware op de kaart (niet de chip), dus die zijn niet zo eenvoudig). De nieuwe SLI bridges zijn leuk, maar voor de meesten irrelevant (en dat heeft dan ook nog vrij weinig met Pascal te maken). En hetzelfde geldt voor SMP. SMP is het enige dat daadwerkelijk nieuw in Pascal is, de SLI bridges hebben namelijk niets met de chip te maken.

Wanneer wij (want ik ben niet de enige) zeggen dat het gewoon Maxwell is hebben we het over de daadwerkelijke architectuur. Niet over alle zooi die er omheen hangt.
Astennu schreef op dinsdag 17 mei 2016 @ 16:12:
Ik hoop niet dat het is wat jij denkt dat het is?
Als dat zo is Async met eigen sausje. AMD hardware oplossing wordt in die games onbruikbaar omdat er geen gebruik gemaakt wordt van de standaard en performance van AMD kaarten klapt onderuit..... Zal niet de eerste keer zijn dat zo iets gebeurt. Laten we maar hopen dat dat het niet wordt.
Ik vrees dus van wel. Ik hoop echt dat ik fout lees, maar als ik daar de subtekst lees is dat wel waar het op af lijkt te stevenen.
haarbal schreef op dinsdag 17 mei 2016 @ 16:12:
Dat zeggen ze niet, ze zeggen alleen dat ze de resultaten van ashes niet representatief vinden.
Tussen de regels doorlezen. Ashes gebruikt AC niet eens echt zwaar, maar het beetje dat ze gebruiken is al te veel voor Nvidia.
Jeroenneman schreef op dinsdag 17 mei 2016 @ 16:11:
Niet zo gek toch? Developers klooien met DX12 ook maar wat aan, en eigenlijk zijn er maar een paar games waarin DX12 de moeite is:

Quantum Break kampt met problemen.
Gears of War was gewoon een farce qua launch, met DX12 add-ons op een engine van tig jaar oud
Hitman is zo brak in DX12 dat TPU er niet eens in wil testen

Dan houd je RoTR en AoS over als DX12 games die niet "kapot" zijn.

Als Nvidia je dan aanbiedt om je te helpen met optimaliseren en zorgt dat je wel iets hebt wat enigzins werkt: graag denk ik.
Hitman is al lang gepatched, waarom TPU nog steeds niet DX12 gebruikt weet ik niet. Draait ook beter in DX12 op zowel Nvidia als AMD.

QB en GeoW zijn beide inderdaad waardeloos, maar dat heeft minder te maken met het feit dat ze DX12 gebruiken als wel met het feit dat het simpelweg afgrijselijk slecht gebouwde ports/games zijn. Met name QB is gewoon belachelijk slecht in z'n geheel ("texture popup komt gewoon door hoe onze engine werkt" 8)7 ) en een schande voor Remedy. GeoW is gewoon slecht geport.

[ Voor 3% gewijzigd door Werelds op 17-05-2016 16:30 ]


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Werelds schreef op dinsdag 17 mei 2016 @ 16:28:

Hitman is al lang gepatched, waarom TPU nog steeds niet DX12 gebruikt weet ik niet. Draait ook beter in DX12 op zowel Nvidia als AMD.
De reden staat er gewoon boven :9

"The game's DirectX 12 implementation, however, is too riddled with bugs to be integrated into our test-bench for now."

Hoe het echt zit weet ik niet, want ik ga de game maar aanschaffen als alle episodes uit zijn..

edit, van de auteur op forum:
"DX12 was completely broken with Hitman at time of rebench (last April). It's apparently better now. I'll look DX12 again for next rebench, maybe they get more fixes out. "

[ Voor 27% gewijzigd door SmokingCrop op 17-05-2016 16:36 ]


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Jeroenneman schreef op dinsdag 17 mei 2016 @ 16:26:
[...]


Niet gek, aangezien de reviewkwaliteit steeds verder achteruitging.

Kijk de GTX980 review er eens op na. Maar liefst 6(!) games werden er getest. Ook slechts twee lullige pagina's achtergrondmaterie, en niet echt veel vergelijkingsmateriaal.
Je kan dit dan nog eens combineren met sommige nda leaks op dit forum en je hebt een mogelijke verklaring inderdaad ..
Nu eerlijk is eerlijk, hardware.info zijn review is verre van slecht, goede achtergrond informatie (alle toch goed vertaald .. ) dus tis niet zo dat we als Nederlandstaligen plots zonder fatsoenlijke review(s) vallen.

Maar meer is toch altijd beter.

PS: Nu ik eindelijk screen shots heb van de presentatie (jaa jaa .. ik heb geen nda maar ik heb dan ook geen enkele inside bron XD) kan ik eens aan de nieuwe topic start werken.
Fermi gaat er sowieso uit, Kepler ben ik aan het twijfelen, denk niet dat je nog veel Kepler kaarten kan kopen atm. Feedback is altijd welkom voor de nieuwe TS..
/me Lightdestroyer is nog steeds geen grafisch wonderkind .. paint all the way
GTX1080 zal sowieso vallen onder (high) mid-end btw, sorry nVidia maar enkel al de grote van de chip laat duidelijk zien dat dit geen high end chip is.

Btw ik heb het nog niemand zien opmerken, maar blijkbaar zijn de yields deze keer enorm hoog, de GTX1080 heeft gewoon alle shaders die er fysiek zijn geactiveerd. Ik heb al andere launches geweten van high-end kaarten :+

Specs


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
SmokingCrop schreef op dinsdag 17 mei 2016 @ 16:32:
[...]

De reden staat er gewoon boven :9

"The game's DirectX 12 implementation, however, is too riddled with bugs to be integrated into our test-bench for now."

Hoe het echt zit weet ik niet, want ik ga de game maar aanschaffen als alle episodes uit zijn..

edit, van de auteur op forum:
"DX12 was completely broken with Hitman at time of rebench (last April). It's apparently better now. I'll look DX12 again for next rebench, maybe they get more fixes out. "
En vrijwel elke andere site krijgt het wel gewoon voor elkaar? ;)

Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
nieuws: Nvidia GeForce GTX 1080 is ongeveer 30 procent sneller dan 'stock' 98...
Lijkt me vrij duidelijk dat ze geen sample gekregen hebben..
Werelds schreef op dinsdag 17 mei 2016 @ 16:45:
[...]
En vrijwel elke andere site krijgt het wel gewoon voor elkaar? ;)
Ze zijn daar ook maar mensen eh :9

[ Voor 23% gewijzigd door SmokingCrop op 17-05-2016 16:46 ]


Acties:
  • 0 Henk 'm!

  • batumulia
  • Registratie: Mei 2007
  • Laatst online: 12-09 13:29
SmokingCrop schreef op dinsdag 17 mei 2016 @ 16:45:
nieuws: Nvidia GeForce GTX 1080 is ongeveer 30 procent sneller dan 'stock' 98...
Lijkt me vrij duidelijk dat ze geen sample gekregen hebben..


[...]

Ze zijn daar ook maar mensen eh :9
Xtuv in 'nieuws: Nvidia GeForce GTX 1080 is ongeveer 30 procent sneller dan '...
Xtuv
@tijmenvn • 17 mei 2016 16:45
Helaas geen sample, dus geen review :(
Daar balen wij hard van en we gaan er alles aan doen om dat in de toekomst te voorkomen.

[ Voor 10% gewijzigd door batumulia op 17-05-2016 16:48 ]

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
SmokingCrop schreef op dinsdag 17 mei 2016 @ 16:45:
Ze zijn daar ook maar mensen eh :9
Tuurlijk :P

Maar TPU her-test dan ook niet elke keer. Doen de meeste sites niet, kost veel te veel tijd. Neem het ze ook niet kwalijk, maar ze moeten wel hun opmerking even bijwerken ;)

Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
Werelds schreef op dinsdag 17 mei 2016 @ 16:28:

Nee, het is niets meer dan Maxwell op steroïden. Al die software implementaties kunnen even goed voor Maxwell werken (en is in veel gevallen ook zo; sommige delen zitten in firmware op de kaart (niet de chip), dus die zijn niet zo eenvoudig). De nieuwe SLI bridges zijn leuk, maar voor de meesten irrelevant (en dat heeft dan ook nog vrij weinig met Pascal te maken). En hetzelfde geldt voor SMP. SMP is het enige dat daadwerkelijk nieuw in Pascal is, de SLI bridges hebben namelijk niets met de chip te maken.

Wanneer wij (want ik ben niet de enige) zeggen dat het gewoon Maxwell is hebben we het over de daadwerkelijke architectuur. Niet over alle zooi die er omheen hangt.
Dynamic load balancing is hardware based, bespreek het maar met je club van alwetende figuren, features die Nvidia introduceren zijn prima en al zouden sommige software based zijn so what zo'n beetje alle software ter aarde is niet hardware based..... en al zou iets 2% v/d markt bedienen is dat veel te noemen andere software die dat bereiken is er niet veel, met grotere implementatie van VR zal dat veel meer worden.

Acties:
  • 0 Henk 'm!

Verwijderd

Zouden de yields toch niet zo goed zijn ? De 1070 is toch wel een grote cut en ze gebruiken De FE editie om kosten van verlies op dies te compenseren ?

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Nature schreef op dinsdag 17 mei 2016 @ 16:50:
[...]


Dynamic load balancing is hardware based, bespreek het maar met je club van alwetende figuren, features die Nvidia introduceren zijn prima en al zouden sommige software based zijn so what zo'n beetje alle software ter aarde is niet hardware based..... en al zou iets 2% v/d markt bedienen is dat veel te noemen andere software die dat bereiken is er niet veel, met grotere implementatie van VR zal dat veel meer worden.
Wel de vraag is of fast sync hardware based is ofwel software (aka krijgen de ouder reeksen ook deze update of niet ? )

Enkel al deze optie vind ik en wellicht veel gamers veel belangrijker dan dat VR gedoe in de marge (srsly hoeveel % van de nVidia gebruikers gaan er dit jaar een VR bril aanschaffen?? 0.125% ??)
VR Audio vraagt momenteel zelf een dedicated GTX1080 kaart, wat mij eigenlijk niet verbaasd, receivers met upscalingsmogelijkheden van stereo naar dtsX/dolby atmos zijn ook niet goedkoop en hebben ook zware cpu's nodig om dit verwezenlijken.
Ik wil nog de eerste gamer zien die een 2de of 3de GTX 1080 kaart koopt enkel voor VR Audio die nog dient geïmplimenteerd te worden. AMD's variant was ook al zo'n groot succes...
De meeste mensen met een serieuze surround installatie hebben namelijk al een receiver die deze functionaliteit min of meer kan en welke de kamer waarin de audio installatie staat mee in rekening neemt, de enige doelgroep is mogelijk mensen met een logitech surround setje?? 600-700 euro investeren voor een 100-200 euro audio set, smart move!! _/-\o_ . Enige denkbare doelgroep zijn de gamers met "surround" koptelefoons dan.

Maar architecturaal vind ik deze kaart gewoon Maxwell hoor (zelf niet op steroids). Extra features en hardwarematige aanpassingen veranderen niets aan de onderliggende architectuur hoor. Zelf de verhoudingen zijn in de gamers kaarten ongewijzigd gebleven. (GP100 zou wel een andere ratio mee krijgen).

Wat je wel kan zeggen dat deze kaarten verre van een simpele die-shrink of rebranding zijn. Al is dat meer doordat er een hoop extra CUDA cores zijn bijgekomen >:)

Grappige is dat van 8800GT -> 9800GT bijna iedereen riep dat het een simpele rebrand was, toen had je nochtans ook een die-shrink + hardware matige extra features (hybrid sli werkte nml niet op gerebranded 8800gt kaarten :p), en nu zouden we zelf niet mogen zeggen dat het dezelfde onderliggende architectuur is? |:(

Nu het is wellicht geen geheim dat de Maxwell architectuur eigenlijk sowieso gepland was voor een kleinere node en niet voor de 28..

Specs


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Verwijderd schreef op dinsdag 17 mei 2016 @ 16:57:
Zouden de yields toch niet zo goed zijn ? De 1070 is toch wel een grote cut en ze gebruiken De FE editie om kosten van verlies op dies te compenseren ?
Als ze geen grote cut uitvoeren heb je het "risico" dat een overklokte 1070 kaart veel te dicht bij een 1080 kaart komt.
Veel meer moet je daar niet achter zoeken, de data compressie algoritmes zijn namelijk op beide kaarten gelijk en als de claims van nVidia qua efficiëntie kloppen zal er niet al te veel verschil zijn tussen de twee kaarten.
Maximaal 20% atm qua bandbreedte, en zoals iedereen weet schaalt deze vaak niet lineair mee .., reken daar het betere compressie algoritme mee op en je zit hoogstens bij bandbreedte beperkte scenario's aan 7-9% verschil ..

Als je dan niet serieus gaat cutten in aantal CUDA cores (clockspeeds kan zelf het kleinste kind tegenwoordig optrekken indien er een deftige koeler op de kaart staat + vrm's .. ) zit je met een véél goedkopere kaart die het amper slechter doet, zeker als je full hd speelt.

Remember deze keer heeft de GTX 1070 kaart geen slechtere ratio verhouding meegekregen zoals bij de GTX970 .. (Als de geruchten kloppen natuurlijk)

Specs


Acties:
  • 0 Henk 'm!

  • Ergo
  • Registratie: November 2014
  • Laatst online: 06-08 09:43
Werelds schreef op dinsdag 17 mei 2016 @ 16:06:
[...]

Godver, zeg dat het niet waar is. Gaan ze daar nu een Nvidia-specifieke oplossing voor..."aanbieden" zullen we maar zeggen?
Hoe het er nu uitziet niet, in onderstaand bericht van mij eerder heb ik ook een linkje met benchmarks gepost.
Nate-Senpai schreef op dinsdag 17 mei 2016 @ 15:56:
Benchmarks zien er erg goed, alleen ik zie nog steeds geen support voor asynchronous compute.
als AMD dit goed aanpakt dan kunnen ze een hele grote stap maken quo marktaandeel in de gpu markt.
op tomb raider na, heeft de 1080 een tegenvallende lead. als je dx11 met dx12 vergelijkt zie je dat ze of gelijk blijven of dat de 1080 zelfs frames verliest onder dx12.


[...]


ja heel leuk dat ashes volgens hun geen goeie game is om DX12 performance te testen maar in de nieuwe Hitman en bij Tomb raider( die nvidia backed is en tevens de enige titel waar AMD frames verliest met dx12?) zie je nog steeds geen gains. ik ben benieuwd wat AMD gaat laten zien op 1 juni.

YouTube: GeForce GTX 1080 DirectX 11 vs DirectX 12 Benchmarks

[ Voor 4% gewijzigd door Ergo op 17-05-2016 17:19 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
Werelds schreef op dinsdag 17 mei 2016 @ 16:28:
Nee, het is niets meer dan Maxwell op steroïden. Al die software implementaties kunnen even goed voor Maxwell werken (en is in veel gevallen ook zo; sommige delen zitten in firmware op de kaart (niet de chip), dus die zijn niet zo eenvoudig). De nieuwe SLI bridges zijn leuk, maar voor de meesten irrelevant (en dat heeft dan ook nog vrij weinig met Pascal te maken). En hetzelfde geldt voor SMP. SMP is het enige dat daadwerkelijk nieuw in Pascal is, de SLI bridges hebben namelijk niets met de chip te maken.

Wanneer wij (want ik ben niet de enige) zeggen dat het gewoon Maxwell is hebben we het over de daadwerkelijke architectuur. Niet over alle zooi die er omheen hangt.
Ze hebben wel die pixel based pre emption meuk, dat moet wel in hardware zitten. Dat maakt wellicht ook die fast sync mogelijk.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Toch weer ~20% meer memory compressie, zo zou de effectieve bandbreedte boven die van de 980Ti komen te liggen met ~384 gb/sec?

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
edward2 schreef op dinsdag 17 mei 2016 @ 17:21:
Toch weer ~20% meer memory compressie, zo zou de effectieve bandbreedte boven die van de 980Ti komen te liggen met ~384 gb/sec?
ligt eraan, in battlefront is het maar 11%.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Iemand al reviews gezien waar ze wat meer compute stuff testen? (ars technica had ik al gezien) Anand doet dat vaak ook wel maar die is wat traag met de review uitbrengen.. Toms hardware heeft alleen pro viewport testjes..

specs


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
haarbal schreef op dinsdag 17 mei 2016 @ 17:18:
[...]

Ze hebben wel die pixel based pre emption meuk, dat moet wel in hardware zitten. Dat maakt wellicht ook die fast sync mogelijk.
Inderdaad, maar zowel de fast sync, als de pre-emption als het betere data compressie algoritme lijkt me iets dat je achteraf extra toevoegt in een module.. al dan niet op het einde van de data verwerkings"ketting".

Grappige is zoals men nu de data compressie algoritme omschrijft het gewoon de omschrijving is van een mpeg/jpeg encodatie :>, en dan nog geen complexe (of was het gif die als het kleur tegenover de vorige pixel niet verandert deze dan niet opnieuw nodig had .. tis lang geleden die encodatie lessen).
Binnenkort gaan ze nog eens het wiel uitvinden en beseffen dat een hardwarematige h264 encode nog beter compresseert. >:).
Wie had dat kunnen inbeelden, video beelden die je in een stream behandelt en als output hebt kan je encoden gelijk een video!!!
Wellicht daardoor ook dat je die dubbele buffer hebt: de frame dat gevraagd wordt om naar het scherm te sturen kan je dan snel hardware matig decoderen uit het intern geheugen en deze dan als volledige "prent"/"frame" doorsturen naar het scherm.

Ik zou graag eens een schematisch overzicht van de volledige beeldverwerking willen zien van een gerenderd frame op de nieuwe Pascal gpu's.

/me Lightdestroyer denkt dat deze compressie oa 1 van de redenen is waarom nVidia SLI niet langer meer als de toekomst beschouwt.. je kan moeilijker efficiënte mpeg encodes uitvoeren op je frames als je maar 1 frame per 2 lokaal ter beschikking hebt .., het kan natuurlijk maar het is minder optimaal

Specs


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Niet bijster veel sneller dus, tussen de 3-10%, waar een GTX980Ti vaak nog met een eigen OC 9% hoger kan scoren. Mensen die nu een GTX980Ti met OC hebben zitten nog prima.

Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/arkhamknight_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/arkhamknight_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/gtav_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/gtav_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/bf4_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/bf4_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/crysis3_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/crysis3_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/acs_3840_2160.png
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/acsyndicate_3840_2160.png

Korte opmerking, ik heb spellen gepakt waar de GTX980Ti in beide resultaten +/- gelijk presteerd, dit omdat er spellen zijn die geen standaard benchmark hebben en de resultaten te veel afwijken tussen de reviews.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
Nature schreef op dinsdag 17 mei 2016 @ 16:50:
Dynamic load balancing is hardware based
DLB in hardware? Oh? Lees de beschrijving nog eens. Van PC Perspective (bij gebrek aan een uitgebreid Anand artikel :():
Pascal addresses this by enabling dynamic load balancing that monitors the GPU for when work being added, allowing the secondary workload to take the bubbles in the system to be used for compute.
Als ze dit in de GPU wilden doen had er een extra scheduler bij moeten komen die sowieso buiten de SM's had moeten zitten, liefst zelfs buiten de TPC of (idealiter) helemaal buiten de clusters (zoals AMD's ACE's). Dat is niet het geval.

Met andere woorden, de load wordt nu beter in de gaten gehouden aan de software kant (HyperQ) en ze hebben vast wel de schedulers binnen de SM's iets aangepast zodat ze in de driver meer informatie kunnen krijgen. Dat is geen revolutie, dat is een matige tweak aan het bestaande ontwerp van de scheduler. Ik kan het amper een evolutie noemen.

Wellicht heb ik het fout, maar er is nog nergens informatie verschenen die beweert dat het in hardware zit. En als dat het geval was, dan hadden ze ineens veel beter met bijvoorbeeld Ashes om moeten kunnen springen.
lightdestroyer schreef op dinsdag 17 mei 2016 @ 17:08:
Wel de vraag is of fast sync hardware based is ofwel software (aka krijgen de ouder reeksen ook deze update of niet ? )
haarbal schreef op dinsdag 17 mei 2016 @ 17:18:
Ze hebben wel die pixel based pre emption meuk, dat moet wel in hardware zitten. Dat maakt wellicht ook die fast sync mogelijk.
Dat zit deels wel in de hardware ja, maar dat heeft volgens mij niets met fast sync te maken (ik wil meer informatie verdorie, staat er meer in het volledige slide deck?). Fast sync klinkt als een intelligente frame limiter, die kiest welke frames wel of niet te behouden op basis van BLANK intervallen.

De pre-emption op zich gebeurt voor zover ik kan zien nog steeds aan de software kant, het verschil zit hem in het feit dat de clusters nu veel sneller kunnen schakelen. Driver kan nu dus aangeven dat een taak voorrang krijgt tegen een cluster en zodra deze dan z'n laatste bewerking voltooid heeft slaat hij dat op en gaat verder met de de hoge prioriteit taak. Ze maken nergens melding dat de clusters zelf hun taken analyseren en we weten dat dat niet buiten de clusters kan, aangezien daar geen schedulers of wat dan ook zitten.

[ Voor 4% gewijzigd door Werelds op 17-05-2016 17:48 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Sp3ci3s8472 schreef op dinsdag 17 mei 2016 @ 17:44:
[...]


Niet bijster veel sneller dus, tussen de 3-10%, waar een GTX980Ti vaak nog met een eigen OC 9% hoger kan scoren. Mensen die nu een GTX980Ti met OC hebben zitten nog prima.

[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]

Korte opmerking, ik heb spellen gepakt waar de GTX980Ti in beide resultaten +/- gelijk presteerd, dit omdat er spellen zijn die geen standaard benchmark hebben en de resultaten te veel afwijken tussen de reviews.
Computerbase neemt ook nog een GTX980 Ti gaming mee naast de normale GTX980 Ti.
De Refferenced is aanzienlijk trager dan de aftermarket modellen. Die hebben aanzienlijk hogere clocks. In dit geval is de Gigabyte Gaming kaart 20% sneller dan de refferenced kaart en is het verschil met de GTX1080 op max mode (Hogere TDP setting?) nog maar 15%:

http://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/


Die TDP setting is wel interessant. het verbruik is dan 39watt hoger (16%) en gemiddeld was hij 5,6% sneller. Ik denk dat die kaarten die over de 2100 MHz heen gaan richting de 2400 een behoorlijk verbruik hebben.

[ Voor 7% gewijzigd door Astennu op 17-05-2016 17:55 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Werelds schreef op dinsdag 17 mei 2016 @ 17:46:
[...]

DLB in hardware? Oh? Lees de beschrijving nog eens. Van PC Perspective (bij gebrek aan een uitgebreid Anand artikel :():


[...]

Als ze dit in de GPU wilden doen had er een extra scheduler bij moeten komen die sowieso buiten de SM's had moeten zitten, liefst zelfs buiten de TPC of (idealiter) helemaal buiten de clusters (zoals AMD's ACE's). Dat is niet het geval.

Met andere woorden, de load wordt nu beter in de gaten gehouden aan de software kant (HyperQ) en ze hebben vast wel de schedulers binnen de SM's iets aangepast zodat ze in de driver meer informatie kunnen krijgen. Dat is geen revolutie, dat is een matige tweak aan het bestaande ontwerp van de scheduler. Ik kan het amper een evolutie noemen.

Wellicht heb ik het fout, maar er is nog nergens informatie verschenen die beweert dat het in hardware zit. En als dat het geval was, dan hadden ze ineens veel beter met bijvoorbeeld Ashes om moeten kunnen springen.


[...]


[...]

Dat zit deels wel in de hardware ja, maar dat heeft volgens mij niets met fast sync te maken (ik wil meer informatie verdorie, staat er meer in het volledige slide deck?). Fast sync klinkt als een intelligente frame limiter, die kiest welke frames wel of niet te behouden op basis van BLANK intervallen.

De pre-emption op zich gebeurt voor zover ik kan zien nog steeds aan de software kant, het verschil zit hem in het feit dat de clusters nu veel sneller kunnen schakelen. Driver kan nu dus aangeven dat een taak voorrang krijgt tegen een cluster en zodra deze dan z'n laatste bewerking voltooid heeft slaat hij dat op en gaat verder met de de hoge prioriteit taak. Ze maken nergens melding dat de clusters zelf hun taken analyseren en we weten dat dat niet buiten de clusters kan, aangezien daar geen schedulers of wat dan ook zitten.
En ik maar denken dat ik de enige was die aan het wachten was op anandtech 8) .
Maar je hebt volledig gelijk.. ik denk dat er enorm veel mensen uitkijken naar de volledige technische uitleg/dia presentatie en tot nu toe is eigenlijk anandtech nog 1 van de weinige sites die diepgaander ingaat op de hardware zoals bij nieuwe videokaarten, cpu's, soc's enzoverder .. hopelijk zal dat zo blijven nu Anand voor Apple werkt :(
Alle reviews die ik tot nu toe gelezen heb zijn precies gewoon een geschreven versie van de PR dia show van nVidia (no offence, niet slecht maar ze vertellen allen hetzelfde en slaan allen de belangrijkste hardware aanpassingen over .. )
Maar zoals mijn prof altijd zei: je kan alles van een software oplossing vertalen naar hardware, en je kan een hardware oplossing altijd perfect in software uitvoeren. Dus zonder bijkomende informatie kunnen we enkel maar gewoon gokken wat software matig en wat hardware matig wordt afgehandeld bij Pascal. Temeer nVidia nogal heel trots is dat ze zoveel mogelijk flexibel/software matig kunnen oplossen zonder aan de onderliggende CUDA cores te moeten komen...
Spijtig dan weer dat ze dit dan vaak enkel en alleen voor hun laatste serie(s) willen doen en hun vorige series tegenwoordig snel laten vallen... zegt een gtx760 eigenaar :P. De voordeel van zo'n oplossing vs hardwarematig is dat je dan juist oudere kaarten ook kan updaten! |:(
Moest het een AMD kaart zijn wist je dat er veel meer kans was dat ze alles zoveel mogelijk hardwarematig hadden uitgevoerd (tenkoste van eventueel de performantie troon, that worked out fine till now :+ )
Astennu schreef op dinsdag 17 mei 2016 @ 17:54:
[...]


Computerbase neemt ook nog een GTX980 Ti gaming mee naast de normale GTX980 Ti.
De Refferenced is aanzienlijk trager dan de aftermarket modellen. Die hebben aanzienlijk hogere clocks. In dit geval is de Gigabyte Gaming kaart 20% sneller dan de refferenced kaart en is het verschil met de GTX1080 op max mode (Hogere TDP setting?) nog maar 15%:

http://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/


Die TDP setting is wel interessant. het verbruik is dan 39watt hoger (16%) en gemiddeld was hij 5,6% sneller. Ik denk dat die kaarten die over de 2100 MHz heen gaan richting de 2400 een behoorlijk verbruik hebben.
Mits een betere koeler kan je wellicht het hogere verbruik een groot stuk terugdringen, warmer == veel meer verbruiken tegenwoordig, dit geld zeker bij deze kleinere procédé's.
De standaard reference koeler van 100+ euro is namelijk verre van goed te noemen. Behalve als je 82+ Celsius goed noemt wanneer een aftermarket koeler gemakkelijk naar 56-62 graden gaat.

Maar dat zal nVidia niet graag in de reviews willen zien: 100+ euro meer betalen voor kaarten die een heel stuk minder kunnen overklocken en die potentieel zelf bij stock clocks een stuk meer verbruiken.
Reken daarbij nog het feit op dat sommige fabrikanten bij de GTX980ti de power supply danig verbeterd hebben, dit doen ze niet zomaar (welja tlevert natuurlijk wel een extra selling point natuurlijk)

[ Voor 17% gewijzigd door lightdestroyer op 17-05-2016 18:08 ]

Specs


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Astennu schreef op dinsdag 17 mei 2016 @ 17:54:
[...]


Computerbase neemt ook nog een GTX980 Ti gaming mee naast de normale GTX980 Ti.
De Refferenced is aanzienlijk trager dan de aftermarket modellen. Die hebben aanzienlijk hogere clocks. In dit geval is de Gigabyte Gaming kaart 20% sneller dan de refferenced kaart en is het verschil met de GTX1080 op max mode (Hogere TDP setting?) nog maar 15%:

http://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/


Die TDP setting is wel interessant. het verbruik is dan 39watt hoger (16%) en gemiddeld was hij 5,6% sneller. Ik denk dat die kaarten die over de 2100 MHz heen gaan richting de 2400 een behoorlijk verbruik hebben.
Inderdaad, verschil is best klein.

Wat me opvalt in de Computerbase review is dat de GTX1080 op Max tdp setting op 1080p gelimiteerd is. Hoog tijd voor DX12, ook voor Nvidia :P.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Sp3ci3s8472 schreef op dinsdag 17 mei 2016 @ 18:06:
[...]


Inderdaad, verschil is best klein.

Wat me opvalt in de Computerbase review is dat de GTX1080 op Max tdp setting op 1080p gelimiteerd is. Hoog tijd voor DX12, ook voor Nvidia :P.
Tonen ze de CPU usage op 1080p ? Het zou zomaar kunnen dat we (eindelijk) weer eens cpu gelimiteerd zijn, cpu's zijn de laatste jaren echt niet in stappen van 30% sneller geworden..

Specs


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

lightdestroyer schreef op dinsdag 17 mei 2016 @ 18:10:
[...]

Tonen ze de CPU usage op 1080p ? Het zou zomaar kunnen dat we (eindelijk) weer eens cpu gelimiteerd zijn, cpu's zijn de laatste jaren echt niet in stappen van 30% sneller geworden..
Helaas niet, maar als je de resultaten bekijkt zie je op 1080p maar 2% winst waar op 1440p en 4k 6% wordt gehaald.

offtopic:
Anand moet terug naar Anandtech!

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Jeroenneman schreef op dinsdag 17 mei 2016 @ 16:11:
[...]


Niet zo gek toch? Developers klooien met DX12 ook maar wat aan, en eigenlijk zijn er maar een paar games waarin DX12 de moeite is:
Maar dat heeft helemaal niks met DX12 of Async Compute nodig, maar zegt alles over de bedrijven welke de games maken. Games met DX12 zijn meestal nu niet meer dan even DX12 erbij drukken, want dan kunnen we het verkopen als een DX12 game!!!11 Dat het dan vervolgens voor geen meter loopt vinden ze schijnbaar geen probleem.
Als Nvidia je dan aanbiedt om je te helpen met optimaliseren en zorgt dat je wel iets hebt wat enigzins werkt: graag denk ik.
En welke games met nVidia's Gameworks werken dan goed?

Nee doe mij maar gewoon een fatsoenlijke DX12 game welke van begin af aan met DX12 in het hoofd is gemaakt en waar ook werkelijk de game pas wordt gelanceerd op het moment dat die af is. In plaats van die halve gare ports die worden gelanceerd terwijl ze nog in alpha of bèta stadium zijn.
lightdestroyer schreef op dinsdag 17 mei 2016 @ 16:22:
[...]

Het zou niet de eerste keer zijn dat Tweakers geen nieuwe review sample krijgt van nVidia ...
Dat ligt dan echt 100% aan hun zelf.
TomasH schreef op dinsdag 17 mei 2016 @ 16:22:
[...]

Onze 1080 klokte simpelweg hoger dan bij TPU. In-game heb ik 'n niet onder de 1.800 MHz gezien. Wellicht was het op de testlocatie van TPU wat koeler dan in NL de afgelopen dagen :)
Je bedoeld warmer? W1zzard, de reviewer/eigenaar van TPU is iig een Duitser.

Dit doet die van TPU:
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/clock_analysis.jpg
Jeroenneman schreef op dinsdag 17 mei 2016 @ 16:26:
[...]


Niet gek, aangezien de reviewkwaliteit steeds verder achteruitging.
Ja idd te triest voor woorden.
Zeara schreef op dinsdag 17 mei 2016 @ 16:27:
Om eerlijk te zijn is Tweakers ook wel de laatste plaats waar ik kijk voor GPU reviews...
Tegenwoordig wel, 5 of 6 jaar geleden, met Marc Rademakers als review was er weinig mis mee. Niet de beste reviews, maar zeker niet slecht en beter als HWI.
lightdestroyer schreef op dinsdag 17 mei 2016 @ 16:35:
[...]

Je kan dit dan nog eens combineren met sommige nda leaks op dit forum en je hebt een mogelijke verklaring inderdaad ..
Welke NDA leaks? De enige die ik mij kan herinneren was van lltech4 en dat is toch al jaren geleden en was ook nog ATi/AMD spul.
Fermi gaat er sowieso uit, Kepler ben ik aan het twijfelen, denk niet dat je nog veel Kepler kaarten kan kopen atm. Feedback is altijd welkom voor de nieuwe TS..
Gewoon alleen de nieuwste kaarten, voor oudere kaarten is een link naar een vorig topic prima.
/me Lightdestroyer is nog steeds geen grafisch wonderkind .. paint all the way
Wat is er mis met paint, ik doe ook alles in paint. :p
GTX1080 zal sowieso vallen onder (high) mid-end btw, sorry nVidia maar enkel al de grote van de chip laat duidelijk zien dat dit geen high end chip is.
Ding heet ook niet voor niks GP104
Btw ik heb het nog niemand zien opmerken, maar blijkbaar zijn de yields deze keer enorm hoog, de GTX1080 heeft gewoon alle shaders die er fysiek zijn geactiveerd. Ik heb al andere launches geweten van high-end kaarten :+
Welke Gx104 chip had dan niet alles ingeschakeld?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 00:04

Tomas Hochstenbach

Redacteur componenten
-The_Mask- schreef op dinsdag 17 mei 2016 @ 18:23:
[...]

Je bedoeld warmer? W1zzard, de reviewer/eigenaar van TPU is iig een Duitser.

Dit doet die van TPU:
[/img]http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/clock_analysis.jpg[/img]
Warmer idd. Jammer dat er op de x-as van die grafiek niets staat, nu weet je niet of hij na een minuutje op 1700 MHz uitkwam of na een half uur. Plus het is Furmark, in games zal het allemaal wel wat minder heavy zijn.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
TomasH schreef op dinsdag 17 mei 2016 @ 18:44:
[...]

Warmer idd. Jammer dat er op de x-as van die grafiek niets staat, nu weet je niet of hij na een minuutje op 1700 MHz uitkwam of na een half uur. Plus het is Furmark, in games zal het allemaal wel wat minder heavy zijn.
Het is niet Furmark, is gewoon het moment dat de kaart warmer wordt, dan wordt die langzamer. En op het moment dat die rond de 83 graden komt blijft de klok rond hetzelfde schommelen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
NVIDIA GeForce GTX 1080 with Arctic Accelero Xtreme IV
http://videocardz.com/601...d-with-aftermarket-cooler
En meteen een kleine 30 graden koeler :)

NVIDIA GeForce GTX 1070 has 1920 CUDA Cores
http://videocardz.com/601...-1070-has-1920-cuda-cores
http://www.techpowerup.co...0-specifications-revealed

[ Voor 48% gewijzigd door calsonic op 17-05-2016 19:12 ]


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 00:04

Tomas Hochstenbach

Redacteur componenten
-The_Mask- schreef op dinsdag 17 mei 2016 @ 19:02:
[...]

Het is niet Furmark, is gewoon het moment dat de kaart warmer wordt, dan wordt die langzamer. En op het moment dat die rond de 83 graden komt blijft de klok rond hetzelfde schommelen.
Ah, in de tekst staat juist "(not using Furmark)". Te snel gelezen. Wij noteerden ook iets van 82/83 graden, wat blijkbaar de target is, maar dan bleef hij alsnog rond de 1.800 MHz. Kortom, hij kon wat hoger geklokt blijven bij die temperatuur. Het 'schommelpunt' lag dus wat hoger qua kloks.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
-The_Mask- schreef op dinsdag 17 mei 2016 @ 19:02:
[...]

Het is niet Furmark, is gewoon het moment dat de kaart warmer wordt, dan wordt die langzamer. En op het moment dat die rond de 83 graden komt blijft de klok rond hetzelfde schommelen.
Hier wordt er met een Arctic Accelero Xtreme IV getest en het zelfde probleem blijft zich voor doen. Lijkt mij eerder een power limit probleem.

Acties:
  • 0 Henk 'm!

  • Uberdude
  • Registratie: Mei 2011
  • Laatst online: 09-09 23:24
Verbaast me dat geen een reviewer de 980ti sli vs de 1080 heeft getest

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
lightdestroyer schreef op dinsdag 17 mei 2016 @ 18:03:
En ik maar denken dat ik de enige was die aan het wachten was op anandtech 8) .
Tuurlijk niet :P

- TPU voor het stroom verbruik en de simpele summary charts voor een eerste indruk
- PC Perspective voor wat meer inzicht in de daadwerkelijke prestaties
- Anandtech voor alle details

Dat zijn de 3 sites waar ik tegenwoordig echt iets om geeft. ComputerBase heeft fijne charts en updaten hun benchmarks vaak als ze een fout constateren (of er een hotfix voor een spel/driver komt). Zelfde geldt voor PCGH.

Voor de rest? [H] is te beperkt, Hilbert is...naja, Hilbert, HWI is...mja, HWI. En dan zijn er nog de tal van andere sites, Canucks en dergelijke. Die bieden wat mij betreft allemaal geen meerwaarde bij de eerste releases, die worden pas relevant als je custom versies wil zien omdat niet elke site die kan/wil/mag reviewen.
Maar je hebt volledig gelijk.. ik denk dat er enorm veel mensen uitkijken naar de volledige technische uitleg/dia presentatie en tot nu toe is eigenlijk anandtech nog 1 van de weinige sites die diepgaander ingaat op de hardware zoals bij nieuwe videokaarten, cpu's, soc's enzoverder .. hopelijk zal dat zo blijven nu Anand voor Apple werkt :(
Ik denk het wel, hij heeft het allemaal in capabele handen achter gelaten. Sterker nog, sommige van de reviews zijn nog beter gevonden. En dan zijn er van die verrassingen zoals de Corsair SP/AP fan review van vorig jaar, die was prachtig. Eindelijk eens wat mainstream aandacht daarvoor.
Moest het een AMD kaart zijn wist je dat er veel meer kans was dat ze alles zoveel mogelijk hardwarematig hadden uitgevoerd (tenkoste van eventueel de performantie troon, that worked out fine till now :+ )
Bij AMD is het meer dat hun software de hardware tegen houdt, niet dat hun hardware implementaties trager zijn dan software implementaties :P

Acties:
  • 0 Henk 'm!

  • batumulia
  • Registratie: Mei 2007
  • Laatst online: 12-09 13:29
Wat me een beetje tegenvalt van Guru3D is het feit dat Hilbert de Fury X niet meeneemt in the AOTS async test. Heeft NVidia dan zo'n dikke vinger in de pap dat sites niet meer objectief kunnen reviewen zonder de volgende keer zonder kaart van NVidia te zitten?

Edit:

Nevermind, zie nu dat de Fury X wel is toegevoegd. Sneaky sneaky. Toen ik vanmiddag keek stond hij er nog niet bij.

[ Voor 19% gewijzigd door batumulia op 17-05-2016 20:21 ]

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 13-09 21:15
Uberdude schreef op dinsdag 17 mei 2016 @ 19:39:
Verbaast me dat geen een reviewer de 980ti sli vs de 1080 heeft getest
Hoezo? Twee GTX980 in SLI is al ongeveer gelijk aan of sneller dan een GTX1080, twee GTX980Ti's zijn veel sneller dan een GTX1080. Zie ook hier, met de samenvatting op 14.30.

Er zijn ook heel wat reviews met DX11 vs DX12 tests en het verschil bij de GTX1080 is 0 komma noppes, oftewel ik twijfel er ten zeerste aan of ze ook maar iets van Asynchronous Computing mogelijkheden hebben ingebouwd in deze reeks. In DX12 tests komt zelfs een Fury X al akelig dichtbij de GTX1080 (de Fury X is dan ongeveer 10% trager). Op dat gebied moet ik zeggen: I'm not impressed.

Afgezien daarvan: leuke kaart, grofweg zo'n 20% sneller dan een GTX980Ti. Redelijk wat, maar het verschil tussen de GTX980Ti en GTX980 is ongeveer hetzelfde dus... mja, ik had meer verwacht. De tijd zal uitwijzen tot hoever de kaarten met 3rd party koeler kunnen overclocken. Bij Tek Syndicate zeiden ze dat ze de kaart ongeveer 200Mhz hoger hadden geclocked en daarmee werd hij ongeveer 86 graden. Veel meer dan 200-250Mhz zal het met de stock koeler dus waarschijnlijk niet worden. Wellicht dat een MSI Lightning, Gigabyte Windforce of Zotac AMP Extreme versie hier tzt nog wel een extra 100 tot 200Mhz bovenop kan doen.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


Acties:
  • 0 Henk 'm!

Verwijderd

kijkt iemand hier de pc perspective live feed , net een heel stuk over SMP, best wel indrukwekkend maar snap nogsteeds niet hoe dit werkt :P

[ Voor 12% gewijzigd door Verwijderd op 17-05-2016 20:26 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
Werelds schreef op dinsdag 17 mei 2016 @ 19:40:
Voor de rest? [H] is te beperkt, Hilbert is...naja, Hilbert, HWI is...mja, HWI. En dan zijn er nog de tal van andere sites, Canucks en dergelijke. Die bieden wat mij betreft allemaal geen meerwaarde bij de eerste releases, die worden pas relevant als je custom versies wil zien omdat niet elke site die kan/wil/mag reviewen.
Hilbert heeft hem wel door de FCAT gehaald, dus dat is op zich geinig.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Werelds schreef op dinsdag 17 mei 2016 @ 19:40:
[...]

- TPU voor het stroom verbruik en de simpele summary charts voor een eerste indruk
PCper heeft nu ook wel interessante nieuwe tool voor stroomverbruik. Ziet er naar mijn gevoel goed uit.

http://www.pcper.com/revi...rings-Pascal-Gamers/PC-Pe

@-The_Mask-: Is dit wat :? :)

Overigens leuk kaartje de FE 1080GTX. Gemiddeld 25% winst tov mijn 980ti op mijn resolutie 25*14.

Wel beetje erg duur en dat hele Asynchronous Compute idee van nvidia, mwoah weet het niet. Klinkt allemaal weer gekunsteld.
Durf te wedden dat hun volgende architectuur het precies zo doet als CGN. :+

[ Voor 24% gewijzigd door Help!!!! op 17-05-2016 20:34 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Trixh
  • Registratie: Juli 2012
  • Laatst online: 22:35
Weet niet of dit al gepost was maar bij deze :

Meer info over 1070
http://nl.hardware.info/n...s-van-de-geforce-gtx-1070

Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
De indeling op de chip is goed zo lijkt me, maar wat moet je eraan doen, ondersteboven in spiegelbeeld zetten en even door elkaar husselen en kijken hoe het eruit komt en dan in elkaar plakken? Zodat het anders is...
Is de Fury een rebrand van de Tonga, met amper iets nieuws op tafel te leggen behalve HBM eigenlijk?
Met de logica...

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
haarbal schreef op dinsdag 17 mei 2016 @ 20:27:
Hilbert heeft hem wel door de FCAT gehaald, dus dat is op zich geinig.
Mja, maar de resultaten van Hilbert hecht ik eerlijk gezegd weinig waarde aan. Hij her-test heel weinig en soms zuigt hij resultaten gewoon uit z'n duim lijkt het. Ik zal nooit vergeten hoe volgens zijn review een zwaar overgeklokte 5770 blijkbaar minder stroom verbruikte dan een stock versie. Ik weet niet meer precies hoeveel, maar het was belachelijk veel; echt iets van 30-40% minder, dus dan houdt het voor mij al heel snel op qua geloofwaardigheid :P
Nature schreef op dinsdag 17 mei 2016 @ 20:39:
De indeling op de chip is goed zo lijkt me, maar wat moet je eraan doen, ondersteboven in spiegelbeeld zetten en even door elkaar husselen en kijken hoe het eruit komt en dan in elkaar plakken? Zodat het anders is...
Is de Fury een rebrand van de Tonga, met amper iets nieuws op tafel te leggen behalve HBM eigenlijk?
Met de logica...
Ja, Fiji is een opgeblazen versie van Tonga in vrijwel alle opzichten. Kleine stukjes Hawaii, maar vooral veel Tonga. Heb je iemand hier het tegendeel zien beweren? Of heeft er hier iemand beweerd dat we hier een "rebrand" van Maxwell hebben? Dat is niet wat we zeggen. We zeggen dat de architectuur nagenoeg identiek is aan Maxwell.

Maxwell was een evolutie van Kepler. Qua architectuur waren het vooral tweaks, de grote verbeteringen zaten echter in de shader prestaties. Die waren gigantisch veel efficiënter. Kepler was een heel ander beest dan Fermi. En Fermi ook dan GT200. GT200 was dan weer een opgeblazen G80 met wat tweaks.

GCN Gen 1/2/3 (of 1.0, 1.1, 1.2, whatever) mag duidelijk zijn. AMD noemt ze niet voor niets generaties, AMD doet niet alsof het nieuwe architecturen zijn. Het zijn nieuwe iteraties van de GCN architectuur.

Wat Nvidia nu uit heeft gebracht is Maxwell Gen 2. Of eigenlijk Gen 3, aangezien GM20x al Gen 2 is. GM304 was veel toepasselijker geweest. GP100 zit wel weer anders in elkaar met al z'n FP64 units.

Acties:
  • 0 Henk 'm!

  • Cyclonic
  • Registratie: Januari 2006
  • Laatst online: 23:58
Zit nu echt met een probleem, ik had rond de 700 gereserveerd voor een nieuwe kaart, ben al 1 maand aan het wachten aangezien mijn oude GPU kapot is. Nu kan ik misschien een 980 goodkoop uit de V&A halen en dan upgraden naar Vega of 1080TI maar als ik deze prijzen al zie dan wil ik niet eens weten wat ze durven te vragen voor een 1080TI... Denk dat ik maar eens ga afwachten wat de prijzen gaan doen met Polaris 10.

Dan maar nog een paar weekjes op de IGP Hearthstone spelen :p

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 22:11

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Cyclonic schreef op dinsdag 17 mei 2016 @ 21:27:
Zit nu echt met een probleem, ik had rond de 700 gereserveerd voor een nieuwe kaart, ben al 1 maand aan het wachten aangezien mijn oude GPU kapot is. Nu kan ik misschien een 980 goodkoop uit de V&A halen en dan upgraden naar Vega of 1080TI maar als ik deze prijzen al zie dan wil ik niet eens weten wat ze durven te vragen voor een 1080TI... Denk dat ik maar eens ga afwachten wat de prijzen gaan doen met Polaris 10.

Dan maar nog een paar weekjes op de IGP Hearthstone spelen :p
Ik volg je niet helemaal, een non-reference 1080 gaat toch prima in je budget passen?

En dat een 1080Ti niet op korte termijn uitkomt dat wist je als het goed is al een aardige tijd geleden dus ik snap niet goed waarom dit nu opeens een probleem is?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^^
Tja lijkt me echt koffiedik kijken. Waar komt AMD mee. Is polaris (10) wat. Hoe wordt Vega + HBM2 en wanneer komt die. Het zou ook kunnen dat nVidia eerst met een Titan komt en een 1080ti pas over een jaar :?.

Maar ergens tussen 700 en 1000 zal het wel gaan kosten, dat lijkt vrij zeker :P

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Cyclonic
  • Registratie: Januari 2006
  • Laatst online: 23:58
Wolf schreef op dinsdag 17 mei 2016 @ 21:33:
[...]


Ik volg je niet helemaal, een non-reference 1080 gaat toch prima in je budget passen?

En dat een 1080Ti niet op korte termijn uitkomt dat wist je als het goed is al een aardige tijd geleden dus ik snap niet goed waarom dit nu opeens een probleem is?
Denk echt niet dat we kaarten gaan zien van 689 voorlopig, dit is gewoon een marketing stunt om de kaarten voor meer te verkopen, ik denk echt niet dat MSI,Asus,EvGA hun eigen non reference design onder de 790 euro gaan verkopen. En wanneer gaan die kaarten dan komen? 1 maand na de release? 2 maanden?.

Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
Werelds schreef op dinsdag 17 mei 2016 @ 21:03:
[...]

[...]

Heb je iemand hier het tegendeel zien beweren? Of heeft er hier iemand beweerd dat we hier een "rebrand" van Maxwell hebben? Dat is niet wat we zeggen. We zeggen dat de architectuur nagenoeg identiek is aan Maxwell.
Diegene haalde de 9800GT erbij en melde omdat dat een rebrand is de Pascal dat ook is. Dat Nvidia met Pascal alles anders anders moet doen is gewoon niet zo, in principe is alles dat er is en zal zijn in meer of mindere mate een doorontwikkeling, maar de wat grotere ontwikkelingen tezamen in één jasje kan je een architectuur noemen en dan jij je afvragen of er genoeg ontwikkelingen zijn om het een een nieuwe architectuur te noemen en dat is je goed recht, er zijn alleen nagenoeg alleen maar mensen die het er wel over eens zijn dat het een nieuwe is.
Nvidia brengt het op hun site als een nieuwe architectuur nu ben jij het er niet mee eens en misschien ook enige anderen maar de consensus is dat het wel degelijk een nieuwe is, sites zijn lovend al dan niet lyrisch ook sites die er van bekend zijn erg kritisch te zijn.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
T' is maar hoe je het bekijkt denk ik. Je kunt diep in de details duiken maar ook heel simpel zeggen de laatste topkaart 980Ti kostte E650 de nieuwe ongeveer hetzelfde.

Tja dan heb ik op 25*14 ongeveer 25% - 30% betere prestaties. Prima natuurlijk maar ergens verwacht je ook wel weer meer van Tick+Tock bij een zelfde prijspeil. Na zo lang op 28nm te hebben gezeten.

Alles is relatief. Prima kaart maar lyrisch, nee dat ben ik ook weer niet. Als het dit niet had gehaald, had ik het zwaar tegen vinden vallen.

[ Voor 6% gewijzigd door Help!!!! op 17-05-2016 22:06 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Daar ben ik het wel mee eens, heeft weinig met mijn AMD fanboyisme te maken, als Vega hetzelfde kost als de Fury X en ook maar zo'n 25-30% sneller is, tegen een ook niet heel veel lager energieverbuik, vind ik dat ook gewoon matig werk van AMD.

Als je de 980ti en 780ti met elkaar vergelijkt, die dus beide 28nm zijn, is een 980ti inmiddels, volgens TPU, 43% sneller op 1440p. Dat noem ik een sprong. Van een veel kleiner proces, aangepaste architectuur + veel hogere clocks had ik echt meer verwacht.

Ik hoop dat de andere nieuwe kaarten, van beide fabrikanten, wel echt een sprong zullen zijn.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • Uberdude
  • Registratie: Mei 2011
  • Laatst online: 09-09 23:24
Ah er is al een youtuber die sli heeft kunnen testen YouTube: Overclocked Nvidia GTX 1080 VS 980 Ti | Benchmarks & SLI - Various Games

Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 22:25
Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080/images/perfrel_2560_1440.png
Dus ik zat er niet ver naast met Pascal. Eerst de prijs
sdk1985 schreef op vrijdag 22 april 2016 @ 14:33:
De GTX 980 zat nog op een MSRP van $549, daarvoor zaten we een tijd op $499. Gezien de inflatie lijkt me dat niet bepaald geloofwaardig. Een prijs van $599 is wel een beetje de max voor een nieuw 8 model. Als er al een prijs van $870 dollar rond zweeft dan betreft dat eerder een Ti model zoals de 980 Ti (nu $649),
Nu de performance:
sdk1985 schreef op zondag 01 mei 2016 @ 16:48:
[...]

Op basis van historie is +32% de meest waarschijnlijke uitkomst. Eventuele performance overschotten worden dan omgetoverd in marge.
nieuws: Nvidia GeForce GTX 1080 is ongeveer 30 procent sneller dan 'stock' 98...

Wie gaat zich melden, ik ben er behoorlijk op afgekraakt ;) ?

Overigens had ik zelf ook liever +100% gezien maar ja, het zijn niet de techneuten die de bedrijfsvoering doen. In ieder geval niet bij Nvidia en Intel.

[ Voor 193% gewijzigd door sdk1985 op 17-05-2016 23:41 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Werelds schreef op dinsdag 17 mei 2016 @ 21:03:
Wat Nvidia nu uit heeft gebracht is Maxwell Gen 2. Of eigenlijk Gen 3, aangezien GM20x al Gen 2 is. GM304 was veel toepasselijker geweest. GP100 zit wel weer anders in elkaar met al z'n FP64 units.
Nooit begrepen waarom GTX750ti als Maxwell 1 wordt uitgeduid en GM204 als gen 2... :/
Werelds schreef op dinsdag 17 mei 2016 @ 21:03:
Ja, Fiji is een opgeblazen versie van Tonga in vrijwel alle opzichten. Kleine stukjes Hawaii, maar vooral veel Tonga. Heb je iemand hier het tegendeel zien beweren? Of heeft er hier iemand beweerd dat we hier een "rebrand" van Maxwell hebben? Dat is niet wat we zeggen. We zeggen dat de architectuur nagenoeg identiek is aan Maxwell.
Eigenlijk niet meer dan logisch, om iedere generatie het wiel opnieuw proberen uit te vinden is nogal omslachtig en enorm duur. Intel doet in de CPU wereld min of meer het zelfde met iedere generatie die ze uitbrengen.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Help!!!! schreef op dinsdag 17 mei 2016 @ 20:28:
[...]

PCper heeft nu ook wel interessante nieuwe tool voor stroomverbruik. Ziet er naar mijn gevoel goed uit.

http://www.pcper.com/revi...rings-Pascal-Gamers/PC-Pe

@-The_Mask-: Is dit wat :? :)
Ja :D

Perfect zo hoor je het verbruik te meten, dit is de enige juiste manier.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
Nog even gezocht naar die fast sync. Het is triple buffering. 8)7

Op zich leuk dat die triple buffering setting werkt, maar serieus, noem het gewoon triple buffering.


edit: blijkbaar heeft fast sync een kleine twist, de gpu kan frames ook overslaan als de cpu al een recentere frame heeft voorbereid.

kwam deze ook tegen.
Afbeeldingslocatie: http://abload.de/img/ashes_10800eu40.png

[ Voor 42% gewijzigd door haarbal op 17-05-2016 23:58 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sdk1985 schreef op dinsdag 17 mei 2016 @ 22:31:
Wie gaat zich melden, ik ben er behoorlijk op afgekraakt ;) ?
Laat ik maar eerst zijn dan. Gefeliciteerd! Je zat er met de 32% sneller als een GTX 980 flink naast! :9 Had je zo'n 70% gezegd was je spekkoper geweest.

Daarnaast heb ik net op beide posts van je geklikt en je wordt zo te zien op beide posts niet afgekraakt. Volgens mij ging dat echt over andere dingen. :P

[ Voor 5% gewijzigd door -The_Mask- op 18-05-2016 00:10 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
Help!!!! schreef op dinsdag 17 mei 2016 @ 20:28:
[...]

PCper heeft nu ook wel interessante nieuwe tool voor stroomverbruik. Ziet er naar mijn gevoel goed uit.

http://www.pcper.com/revi...rings-Pascal-Gamers/PC-Pe
Had het gezien ja, Ryan is lekker bezig de laatste tijd.
Nature schreef op dinsdag 17 mei 2016 @ 21:41:
Diegene haalde de 9800GT erbij en melde omdat dat een rebrand is de Pascal dat ook is. Dat Nvidia met Pascal alles anders anders moet doen is gewoon niet zo, in principe is alles dat er is en zal zijn in meer of mindere mate een doorontwikkeling, maar de wat grotere ontwikkelingen tezamen in één jasje kan je een architectuur noemen en dan jij je afvragen of er genoeg ontwikkelingen zijn om het een een nieuwe architectuur te noemen en dat is je goed recht, er zijn alleen nagenoeg alleen maar mensen die het er wel over eens zijn dat het een nieuwe is.
Nvidia brengt het op hun site als een nieuwe architectuur nu ben jij het er niet mee eens en misschien ook enige anderen maar de consensus is dat het wel degelijk een nieuwe is, sites zijn lovend al dan niet lyrisch ook sites die er van bekend zijn erg kritisch te zijn.
#1: 9800 GT was een rebrand. Een rebrand van de 8800 GT. Juli 2008 uit gekomen, 10 maanden na de 8800 GT (Oktober 2007)
#2: G92 was een refresh van G80
#3: En daar heb je ook meteen wat we bedoelen: G92 = G80 met wat kleine tweaks. En zo werd het ook gebracht. Pascal = Maxwell met wat kleine tweaks. Nu wordt het echter als een nieuwe architectuur gebracht.

Daarnaast is de consensus helemaal niet dat het een nieuwe architectuur is. Elke site die daadwerkelijk zelf iets zegt over de architectuur en dus niet blind Nvidia's review guide over neemt zegt dat er vrijwel niets veranderd is ten opzichte van Maxwell, behalve dan dat er nu een SMP blok tussen de geometry shaders ("Polymorph Engine") zit.

Link maar eens een site die daadwerkelijk zelf zegt dat Pascal vernieuwend is. Waarom vind je het nu zo erg dat wij Pascal niet spectaculair vinden als architectuur? Heeft niets te maken met wat we van de chip zelf vinden hoor.
ColinZ schreef op dinsdag 17 mei 2016 @ 22:46:
Eigenlijk niet meer dan logisch, om iedere generatie het wiel opnieuw proberen uit te vinden is nogal omslachtig en enorm duur. Intel doet in de CPU wereld min of meer het zelfde met iedere generatie die ze uitbrengen.
Klopt ook wel en dit is ook gewoon een refresh. Het is ook de tijd voor een refresh (iets te laat eigenlijk, maar dat heeft vooral met TSMC te maken). Nature wil dat echter niet toegeven en/of snappen. En Nvidia ook niet, want qua marketing werkt dit veel beter. Om de één of andere reden mogen we refreshes niet meer refreshes noemen. Maar goed, als ik die logica volg dan is GK110 ook gewoon een andere architectuur dan GK104. Daar is immers nog veel meer in veranderd dan in GP104 ten opzichte van GM204 8)7

Acties:
  • 0 Henk 'm!

  • Cyclonic
  • Registratie: Januari 2006
  • Laatst online: 23:58
YouTube: Nvidia Geforce GTX 1080 meets Accelero Xtreme IV: Die 2-GHz-Taktmauer ist gefallen

Leuke review van een duits blad, hebben een Accelero Xtreme IV cooler erop gezet en lopen bij 2100 tegen artifacts aan maar de kaart is wel maar 50-60 graden, dus dat wordt eens afwachten als we non reference boards gaan zien zoals een Lightning van MSI.

Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
Wanneer veel sites jouw standpunten niet overnemen zie ik dat het wel aardig klopt wat Nvidia zegt, je vraagt waarom ik het zo erg zou vinden is dit ik vind het niet erg, feitelijk interesseert het me niet veel ik neem gewoon aan wat de hoofdmoot zegt.

Waar ik als eerst mee kwam was dat jij zei dat de 1080 niet vernieuwend was, ik kwam toen met een lijst met nieuwe features die Nvidia introduceert met de 1080 toen zei jij dat niet genoeg mensen dat gebruiken e.d etc etc.
Daarna zit je mij in de verdediging te jagen tot we op andere zaken komen ver van wat ik in de eerste instantie zei, zaken die me niet erg aan het hart gaan
Mocht je nog iets willen zeggen doe dan maar PM ik ga hier iig niet verder op in.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Sp3ci3s8472 schreef op dinsdag 17 mei 2016 @ 18:13:
[...]


Helaas niet, maar als je de resultaten bekijkt zie je op 1080p maar 2% winst waar op 1440p en 4k 6% wordt gehaald.

offtopic:
Anand moet terug naar Anandtech!
Ik zal er morgen eens in duiken. Want oc liet meer winst zien. Daar hebben ze het verbruik helaas niet gemeten. Maar gok dat dat net als bij maxwell kaarten gewoon gelijk zal zijn aan het ingestelde tdp limiet.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

-The_Mask- schreef op dinsdag 17 mei 2016 @ 23:42:
[...]

Ja :D

Perfect zo hoor je het verbruik te meten, dit is de enige juiste manier.
:) Had al het vermoeden dat dit iets goeds was. :) :P

Wel heel interessant dat ze dit nu gaan inzetten. Zeker ook de grafiekjes waarin je het verbruik dan ziet fluctueren gedurende game / applicatie gebruik. :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Rarz
  • Registratie: Januari 2001
  • Laatst online: 06-08 10:14
Als je op dit moment in de Pricewatch filtert op GTX1080, zie je twaalf verschillende versies van de GTX1080, die allemaal exact dezelfde specs hebben. Als de prijzen er bij komen hoef je niet zolang na te denken over welke je aan zou willen schaffen.

When in question, when in doubt, run in circles, scream and shout.


Acties:
  • 0 Henk 'm!

  • hubhib
  • Registratie: December 2006
  • Laatst online: 10-09 22:55
Dus eigenlijk is deze midrange gp104 chip (die ten tijde van bv gf100 voor zo'n 250 euries over de toonbank zou gaan) alleen maar zo snel omdat hij zo ontiegelijk hoog geclocked is? Volgens mij ontlopen de 980ti en 1080 elkaar nauwelijks als je het clock voor clock, shader Core voor shader Core gaat bekijken. Desalniettemin, toch knap dat ze zo veel fps uit een midrange chipje hebben weten te persen.

Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 22:11

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Er duikt al hier en daar een webshop op die de prijs van de 980Ti verlaagt:

pricewatch: MSI GTX 980 Ti GAMING 6G

CD-Romland gaat al op de 550,- zitten. Klinkt als een redelijke nieuwprijs t.o.v de 1080.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Nu online
Rarz schreef op woensdag 18 mei 2016 @ 08:34:
Als je op dit moment in de Pricewatch filtert op GTX1080, zie je twaalf verschillende versies van de GTX1080, die allemaal exact dezelfde specs hebben. Als de prijzen er bij komen hoef je niet zolang na te denken over welke je aan zou willen schaffen.
Founder Edition hebben allemaal dezefde bottom prijs, NV controlled.

Acties:
  • 0 Henk 'm!

  • Jordyyyyy
  • Registratie: Januari 2010
  • Laatst online: 14-09 05:27
Rarz schreef op woensdag 18 mei 2016 @ 08:34:
Als je op dit moment in de Pricewatch filtert op GTX1080, zie je twaalf verschillende versies van de GTX1080, die allemaal exact dezelfde specs hebben. Als de prijzen er bij komen hoef je niet zolang na te denken over welke je aan zou willen schaffen.
Aangezien de prijs waarschijnlijk niet veel zal verschillen, kun je kijken wat de fabrikanten voor garanties bieden. Zo heeft EVGA vaak een zeer goed garantiebeleid met een aantal jaar extra garantie en staat ASUS bekend als een van de slechtste fabrikanten als het aankomt op garantie.

Maar het beste is natuurlijk eventjes wachten tot de kaarten met custom koelers op de markt mogen, dan heb je meestal betere (koel)prestaties en deze keer ook nog een tegen een waarschijnlijk aanzienlijk lagere prijs.

Acties:
  • 0 Henk 'm!

  • Michaelg
  • Registratie: Februari 2006
  • Laatst online: 13-09 10:03
The Source schreef op woensdag 18 mei 2016 @ 08:50:
[...]

Founder Edition hebben allemaal dezefde bottom prijs, NV controlled.
Mag/kun je inmiddels al aangeven wanneer msi verwacht zijn custom kaarten te lanceren? Of is het hier nog te vroeg voor. :P

https://www.youtube.com/channel/UCb9hDbClUJUNw_a0v7qCBKA | https://www.strava.com/athletes/33148913


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Nu online
Michaelg schreef op woensdag 18 mei 2016 @ 09:39:
[...]


Mag/kun je inmiddels al aangeven wanneer msi verwacht zijn custom kaarten te lanceren? Of is het hier nog te vroeg voor. :P
Nog steeds NDA, maar Koen van Hardware.info had hier een goede opmerking over. Dus check dat even zou ik zeggen. Ik vlieg vanavond naar NL, mijn werk zit erop. Final clockspeeds voor onze SKUs hebben we nog steeds niet besloten omdat er best wel veel verschil is tussen de yieldrates.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
The Source schreef op woensdag 18 mei 2016 @ 09:47:
[...]

Nog steeds NDA, maar Koen van Hardware.info had hier een goede opmerking over. Dus check dat even zou ik zeggen.
Deze dus:
Er zijn wel indicaties dat partners spoedig met custom kaarten zullen komen. EVGA liet ons weten vermoedelijk rond de tweede week van juni goedkopere GTX 1080’s met de eigen ACX 2.0 koeler te kunnen leveren. Voor de GTX 1070 zal vermoedelijk hetzelfde gelden: de eerste weken zal alleen de duurdere referentiekaart te koop zijn.
Ik vlieg vanavond naar NL, mijn werk zit erop. Final clockspeeds voor onze SKUs hebben we nog steeds niet besloten omdat er best wel veel verschil is tussen de yieldrates.
Goed spieken bij de concurrenten dus. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Sp3ci3s8472 schreef op dinsdag 17 mei 2016 @ 18:13:
[...]


Helaas niet, maar als je de resultaten bekijkt zie je op 1080p maar 2% winst waar op 1440p en 4k 6% wordt gehaald.

offtopic:
Anand moet terug naar Anandtech!
Ik zal er morgen eens in duiken. Want oc liet meer winst zien. Daar hebben ze het verbruik helaas niet gemeten. Maar gok dat dat net als bij maxwell kaarten gewoon gelijk zal zijn aan het ingestelde tdp limiet.
Als ik hier naar kijk:
http://www.computerbase.d...bschnitt_uebertaktbarkeit

Zie je duidelijk dat de Max versie maar 6-8% winst heeft en dat de OC versie daar 10% overheen gaat. Lijkt mij dus geen CPU bottleneck.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fusion_XT
  • Registratie: Januari 2004
  • Laatst online: 20-07-2023

Fusion_XT

Helemaal LEIP !

The Source schreef op woensdag 18 mei 2016 @ 09:47:
[...]

Nog steeds NDA, maar Koen van Hardware.info had hier een goede opmerking over. Dus check dat even zou ik zeggen. Ik vlieg vanavond naar NL, mijn werk zit erop. Final clockspeeds voor onze SKUs hebben we nog steeds niet besloten omdat er best wel veel verschil is tussen de yieldrates.
Je mag van mij ook gewoon de Gaming OC heatsink van de 980TI erop gooien en zeg iets van 1750 base clock en 1850 boost clock. Prima te doen hoor, €699 in de winkel, koop ik er meteen 2. Ja deal? top!

:9 Zit al een week met de eerste Titan te mutsen en dies zooooo traag op 3440x1440 :X

Need my 1080 fix ..

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
Nature schreef op woensdag 18 mei 2016 @ 00:33:
Wanneer veel sites jouw standpunten niet overnemen zie ik dat het wel aardig klopt wat Nvidia zegt, je vraagt waarom ik het zo erg zou vinden is dit ik vind het niet erg, feitelijk interesseert het me niet veel ik neem gewoon aan wat de hoofdmoot zegt.
Nogmaals, link eens wat van die sites dan? Ik heb er nog geen één gezien.
Waar ik als eerst mee kwam was dat jij zei dat de 1080 niet vernieuwend was, ik kwam toen met een lijst met nieuwe features die Nvidia introduceert met de 1080 toen zei jij dat niet genoeg mensen dat gebruiken e.d etc etc.
De helft van de lijst waar jij mee aan kwam zetten heeft geen donder met de 1080 als kaart (laat staan Pascal als "architectuur") te maken. Dingen als VR Audio zitten gewoon in VR Works, het multi monitor verhaal en Fast Sync in de driver, Ansel zal wel in GFE komen, enzovoort. HDMI en DP noemen als "vernieuwend" is gewoon ronduit belachelijk. Minder zou schandelijk zijn.

En nogmaals, ik had het over de architectuur. Niet de kaart, niet alle rand zooi. Boost zit niet in de architectuur (zie ook GK104 die zowel Boost 1.0 als Boost 2.0 heeft gehad). SLI HB zit niet in de architectuur. Dan blijven uiteindelijk SMP en DLB over, waarbij DLB alsnog waarschijnlijk grotendeels aan de software kant zit.

Ik val echt van m'n stoel van verbazing hoor.
Daarna zit je mij in de verdediging te jagen tot we op andere zaken komen ver van wat ik in de eerste instantie zei, zaken die me niet erg aan het hart gaan
Ik jaag je niet in de verdediging. Ik weerleg alleen jouw statements. Als je niet wil dat iemand op je posts reageert moet je ook geen discussie starten. Als jij je aangevallen voelt spijt me dat heel erg, dat was niet de bedoeling, maar ik heb verder alleen op jouw posts gereageerd.

Ik ga dan ook niet verder in een PM, dit zijn discussies die gewoon in dit topic thuis horen naar mijn mening; en anders hoor ik het wel van een mod.

[ Voor 3% gewijzigd door Werelds op 18-05-2016 11:29 ]

Pagina: 1 ... 22 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.