Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

sdk1985 schreef op maandag 28 maart 2016 @ 21:02:
Voor grote studio's zal het inderdaad technisch/geld/tijd niet zo problematisch zijn. Daar ben ik het wel mee eens.

Het gevaar dat ik zie is echter het scenario waarbij Nvidia kaarten ineens *insert groot getal* minder FPS halen, of het scenario waarbij Radeon kaarten hogere detail settings unlocken. Als 80% van je userbase Nvidia draait dan is er de potentie dat een deel hier zich kwaad over gaat maken. In dat geval kun je een flink aantal rode duimpjes op Steam krijgen. Denk aan flames als "pro amd game, dont buy" en hoe slecht de engine wel niet is. Als dat wordt geupvote dan is dat een PR nachtmerrie. Ik zou daar zelf in ieder geval heel voorzichtig mee zijn. In ieder geval zolang de markt niet dichter bij een 50/50 situatie zit.
Vergeet je de duimpjes met leuzen als Gimpworks dan niet? Die zijn er tegenwoordig steeds meer. Het is jammer dat het op deze manier werkt. Als je als game ontwikkelaar daar rekening mee moet gaan houden dan is het einde eigenlijk zoek.

Ik zie liever dat ontwikkelaars de sterke punten van beide fabrikanten gebruiken. AC hindert de performance van Nvidia niet, terwijl Gameworks dat wel vaak doet bij AMD.

Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
Werelds schreef op maandag 28 maart 2016 @ 20:34:
[...]

Wat is er volgens jou niet realistisch aan AotS? Nogmaals, het spel/de benchmark doet niets idioots. Het doet alleen iets dat voorheen niet mogelijk was door de D3D11 overhead.
De benchmark staat voor zover ik lees op extreme er zijn zo veel voer/vliegtuigen op een woestijnachtige haast vormeloze ondergrond zoveel mogelijk lasers tegelijk van alle kanten, dat lijkt me niet een normaal spel ik vind het er ook waardeloos uitzien maar dat is een mening, wel een die veel mensen delen overigens maar dat terzijde. Zonder deze ophef zou dit spel van deze studio niemand zijn opgevallen zijn behalve een hele kleine groep gamers.
De normale manier hoe je het spel zou spelen zou minder intensief zijn.
We hebben het niet over tessellated water onder de map in Crysis 2 (wat overigens sowieso niet aan Nvidia te wijten is, dat was Crytek zelf schuld).
Vind ik wel top dat je dat zegt want veel mensen die het niet op hebben met Nvidia brengen die situatie erbij daarom zei ik het alvast.
HairWorks/TressFX zijn niet zo zwaar voor de huidige GPU's, dus laat Nvidia het met 64xT draaien omdat hun GPU's dat toch wel kunnen bruteforcen. Het gevolg? 20% performance verlies op zelfs een 980 Ti, en zo'n 40% op bijvoorbeeld Hawaii (Fiji heeft iets meer tessellators en heeft er iets minder last van). Nadat wat gebruikers de tessellation factor limiteerden in Catalyst is er een patch gekomen die effectief hetzelfde doet (HW low vs high): tessellation factor verlagen. Resultaat? Op low verlies je op Hawaii dan slechts zo'n 10% performance...even veel als op een 980 Ti op low (dus ook op Nvidia win je gewoon 10% FPS).
Het is niet leuk maar zo gaat het blijkbaar je kan The witcher 3 of elk ander spel of GPU ook niet kopen.
Shield auto onderdelen? 8)7
''shield auto onderdelen en weet ik niet wat ze in de kelder doen.'' dwz shield tablet/console en auto onderdelen.

''Tot die tijd gebruik ik Hairworks PhysX etc producten die ik mwa niet verkeerd vind, TressFX zou ik ook willen gebruiken alleen is er maar 1 spel mee.''
TressFX zit TR2013 en Rise of the Tomb Raider; en komt daarnaast in Deus Ex. HairWorks zit in CoD: Ghosts, The Witcher 3 en FC4.
1 oud spel die ik meteen heb uitgespeeld toen hij uit kwam en RotTR ga ik misschien nog proberen er zijn zo veel vette spellen nu. Dus ik gebruik nu Hairworks Gameworks en PhysX.

Laatst opgerakeld deze AMD medewerker was een beetje in de war op 07:25 Physx op AMD 4890 kaart :P YouTube: ATI Radeon HD 4890 Graphics: The Inside Scoop
ik trek nog geen conclusies met betrekking tot Pascal. Ik besteed sowieso weinig aandacht aan deze geruchten. Vooral ook omdat dezelfde geruchten claimen dat er meer FP64 performance komt ;)
Ik vind dat je er best veel aandacht aan besteedt ;) geintje. Laten we hopen dat er fijne tijden aankomen met toekomstige hardware.

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
The way its ment to be played blijft sowieso de beste slogan _O_

Acties:
  • 0 Henk 'm!

Verwijderd

Nature schreef op maandag 28 maart 2016 @ 22:54:
[...]


De benchmark staat voor zover ik lees op extreme er zijn zo veel voer/vliegtuigen op een woestijnachtige haast vormeloze ondergrond zoveel mogelijk lasers tegelijk van alle kanten,dat lijkt me niet een normaal spel ik vind het er ook waardeloos uitzien maar dat is een mening, wel een die veel mensen delen overigens maar dat terzijde.. Zonder deze ophef zou dit spel van deze studio niemand zijn opgevallen zijn behalve een hele kleine groep gamers.
De normale manier hoe je het spel zou spelen zou minder intensief zijn.
gevaarlijke uitspraak, mensen die negatief over iets zijn zullen op internet eerder van zich laten horen dan mensen die gewoon positief zijn over het spel. Daardoor lijkt het alsof een groot deel jou mening deelt maar volgens mij is dit in werkelijkheid maar een klein groepje mensen. Ik zelf ben wel positief te spreken over dit spel en vind de schaal en de hoeveelheid units juist positief en uitdagend.

Overigens vind ik het een beetje raar om een spel/studio die een nieuwe techniek gebruikt te boycotten of negatief in het daglicht te zetten terwijl die nieuwe techniek juist bijzonder goed laat zien dat er meer FPS te halen valt uit dezelfde hardware onder DX12. Als we dat bij alle game's en studios zouden doen dan is er helemaal geen vooruitgang meer.

Niet dat ik je persoonlijk wil aanvallen of bestempelen maar het valt me op dat veel "fanboys" Aots onderuit proberen te halen om Nvidia te "verdedigen".


Nog even een youtube links van hoe de game eruit ziet op extreme settings.
YouTube: Ashes of the Singularity - DirectX 12 Benchmark - Extreme preset \[980Ti+4790K]

Als fan van "Supreme commander" vind ik het er wel gelikt uitzien, vooral ook hoeveel details je ziet als je inzoomt. Mischien houd je niet zo van het SciFi sausje.

[ Voor 16% gewijzigd door Verwijderd op 28-03-2016 23:48 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Nature schreef op maandag 28 maart 2016 @ 22:54:
De benchmark staat voor zover ik lees op extreme er zijn zo veel voer/vliegtuigen op een woestijnachtige haast vormeloze ondergrond zoveel mogelijk lasers tegelijk van alle kanten, dat lijkt me niet een normaal spel ik vind het er ook waardeloos uitzien maar dat is een mening, wel een die veel mensen delen overigens maar dat terzijde. Zonder deze ophef zou dit spel van deze studio niemand zijn opgevallen zijn behalve een hele kleine groep gamers.
De normale manier hoe je het spel zou spelen zou minder intensief zijn.
Geen normaal spel? Weinig RTS gespeeld? :P

Ik raad je aan om het spel zelf eens te proberen, ook al is het je genre niet. Ten eerste is het geen vormeloze ondergrond. Sterker nog, het is een van de weinig RTS games waar er niet alleen met de hoogte gespeeld wordt, maar men dit vooral ook op een natuurlijke manier doet. Verder is het spel heel duidelijk geïnspireerd door Supreme Commander en Total Annihilation; beide razend populaire games onder RTS liefhebbers (en terecht) en dat is dan ook de voornaamste doelgroep. In het team zitten ook een hoop ex-werknemers van Firaxis, de makers van Civilization, dus dat verklaart de keuze voor een RTS game.

Jouw statement dat het niemand opgevallen zou zijn raakt dus kant noch wal; dat het jouw genre niet is kan best, maar zowel het bedrijf als de game zelf hadden zeker al aandacht voor het hele DX12 verhaal.

Wat de aantallen betreft? Als je SC en TA niet kent: de benchmark tovert niet eens zo veel units op het scherm als in SC2 met regelmaat voorkwam tijdens normale gameplay. En dat spel kwam in 2010 uit. Dus nee, ook dat is niet overdreven. Iedereen die dat claimt is duidelijk niet op de hoogte van de meest populaire games van de afgelopen 10 jaar en al zeker geen RTS liefhebber.

Zie ook Laurens91's reactie met een filmpje. Vergelijk dat filmpje vervolgens eens met gameplay beelden van Supreme Commander 1 (2007) of 2 (2010). Is echt niet zo idioot veel.
Vind ik wel top dat je dat zegt want veel mensen die het niet op hebben met Nvidia brengen die situatie erbij daarom zei ik het alvast.
Dat is hetzelfde soort volk dat klaagt over AotS, alleen dan aan de andere kant van het hek. Iets met een klok en een klepel ;)
Het is niet leuk maar zo gaat het blijkbaar je kan The witcher 3 of elk ander spel of GPU ook niet kopen.
Ach kom nou, dat is toch een zwak statement? Het is nergens voor nodig.

Stel je nu eens voor dat Pascal inderdaad niet met AC om kan gaan en AMD een gigantische investering krijgt en dat allemaal in marketing steekt waardoor alle grote games in de komende 2 jaar keihard op AC gaan leunen. Ik garandeer je dat je dit statement dan zou herzien. En het gejank van Nvidia fanboys zou oorverdovend zijn.

Wij zijn PC gamers, wij willen het maximale uit onze PC's en games halen. Met zo'n onzin als hierboven kan dat simpelweg niet. Het komt niemand ten goede, ook Nvidia gebruikers niet. Ik heb zelf HairWorks dan ook fijn op low gezet. Sterker nog, ik zet meestal de Nvidia rotzooi uit, omdat het meestal niets toe voegt maar wel m'n framerate halveert. Dat was met m'n G80/G92 zo, dat was met m'n GF104 zo, dat was met m'n GK104 zo en dat is met m'n GM204 nog steeds zo.
''shield auto onderdelen en weet ik niet wat ze in de kelder doen.'' dwz shield tablet/console en auto onderdelen.
Komma's gebruiken dan ;)
Laatst opgerakeld deze AMD medewerker was een beetje in de war op 07:25 Physx op AMD 4890 kaart :P YouTube: ATI Radeon HD 4890 Graphics: The Inside Scoop
Nee hoor, hij is niet in de war :P

Hij heeft het over physics, als in "natuurkunde". Dat is een klein deel van wat PhysX doet. PhysX spreek je uit als phys-ex, niet physics en is dan ook een merknaam. Toentertijd was er nog sprake van Havok dat een hoop op de GPU zou gaan doen, echter is dat er nooit van gekomen sinds ze overgenomen zijn door Intel.

Overigens is ook dat perfect mogelijk op AMD GPU's. PhysX zou best mogelijk zijn als Nvidia dat implementeerde ;)
Ik vind dat je er best veel aandacht aan besteedt ;) geintje. Laten we hopen dat er fijne tijden aankomen met toekomstige hardware.
Doe ik ook, krijg je met een hobby en passie waar je al 20+ jaar aan doet ;)

[ Voor 6% gewijzigd door Werelds op 29-03-2016 02:15 ]


Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
sdk1985 schreef op maandag 28 maart 2016 @ 19:44:
Is het niet wat te vroeg om nu al zeker te weten dat Async compute niet goed gaat werken op Pascal? Het komt op mij over als een erg hypothetische discussie.

Maar goed, ik doe even mee met doemdenken. Stel dat Nvidia helemaal niets kan met Async Compute en AMD is er geweldig in. Wat gebeurd er dan? Het probleem wat AMD eigenlijk zijn hele levensduur al heeft is dat ze een design win niet weten te vertalen naar financieel succes. Ati Radeon is tegenwoordig onderdeel van AMD en tot nu toe lijkt hierdoor Radeon aan dezelfde "ziekte" te leiden. Radeon is innovatief, hier op GoT zijn we lyrisch, maar vervolgens wordt er weinig impact behaald en sterft het potentiele voordeel een stille dood.
Weet je wat het is? Nvidia heeft om de een of andere reden het image superieur te zijn. Je ziet het in deze thread bij MetalSonic, maar ook in de computer winkels. Ik was laatst in de computerwinkel aan het neuzen en iemand liet een computer samenstellen door de medewerker. Wat hoor ik als het over videokaarten gaat: "je wilt geen AMD kaart, want die gebruikt veel meer stroom dan Nvidia. Stop er maar een Nvidia kaart in."
Geen woord gerept over de pro's en con's van beide kampen, wat het gebruik van de klant is, wat de onderlinge accesoires zijn of iets dergelijks. Enkel blind staren op het TDP wat bij beide kaarten niet eens hetzelfde betekend. (dit voorbeeld was dan in Nieuw Zeeland, maar zal wereldwijd gebeuren)

Of er van de kant van Nvidia met geld gestrooid word zodat leken vooral maar Nvidia aangesmeerd wordt of dat dit gewoon onwetendheid van de medewerkers van een computerzaak is, ik weet het niet. Ik heb wel contact met een eigenaar van een computerzaak (in canada) waar het bijna onmogelijk is om AMD kaarten in de schappen te krijgen omdat er ergens hoger in de aanvoer de kraan wordt dichtgedraaid. En je kan mij (en de eigenaar) niet wijsmaken dat het aanbod van AMD zo bizar slecht is dat ze geen kaarten aan winkels kunnen leveren. (dit is dus niet enkel de nieuwe kaarten, maar kaarten van alle leeftijden)

Acties:
  • 0 Henk 'm!

Verwijderd

Hoewel ik een laag verbruik wel belangrijk vind, (beter voor milieu bla bla bla) zegt het inderdaad niks over performance.

Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
bluebear schreef op dinsdag 29 maart 2016 @ 07:19:

ik weet het niet. Ik heb wel contact met een eigenaar van een computerzaak (in canada) waar het bijna onmogelijk is om AMD kaarten in de schappen te krijgen omdat er ergens hoger in de aanvoer de kraan wordt dichtgedraaid.
Misschien is het Greenpeace die de boel blokkeert. ;)

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
Stroomverbruik lijkt me meer een symptoon dan een oorzaak. Dat was namelijk tijd lang hét kritiek punt op Nvidia. Nu wordt het "tegen" AMD gebruikt.

Mogelijk heeft het puur met aanbod te maken. Een jaar of 4 sinds de overname van Ati heeft erin de jaarverslagen van AMD gestaan dat ze meer gpu's hadden kunnen verkopen mits de productie dat aan had gekund. Als je de gpu's niet maakt dan kun je ze ook niet verkopen :P. Ik weet overigens niet hoe dat anno 2015/2016 zit (omdat wel al zo lang op 28nm zitten).

[ Voor 8% gewijzigd door sdk1985 op 29-03-2016 16:25 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Case_C
  • Registratie: Maart 2012
  • Laatst online: 22:40

Case_C

[Team Carrack]

De naam gaat dus met hoge waarschijnlijkheid toch GTX 1080 en GTX 1070 worden als we deze heatsink covers kunnen geloven. Wel een aardig agressief uitziend stuk aluminium :) , de looks van de kaarten gaan dus eindelijk na zoveel jaar een keer veranderen.
http://news.mydrivers.com/1/476/476079.htm
Afbeeldingslocatie: http://img1.mydrivers.com/img/20160330/60895a94634a40d7bdd7de9f920d1ad9.jpg

[ Voor 5% gewijzigd door Case_C op 30-03-2016 09:58 ]


Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
Werelds schreef op dinsdag 29 maart 2016 @ 00:24:
[...]

Geen normaal spel? Weinig RTS gespeeld? :P

Ik raad je aan om het spel zelf eens te proberen, ook al is het je genre niet. Ten eerste is het geen vormeloze ondergrond. Sterker nog, het is een van de weinig RTS games waar er niet alleen met de hoogte gespeeld wordt, maar men dit vooral ook op een natuurlijke manier doet. Verder is het spel heel duidelijk geïnspireerd door Supreme Commander en Total Annihilation; beide razend populaire games onder RTS liefhebbers (en terecht) en dat is dan ook de voornaamste doelgroep. In het team zitten ook een hoop ex-werknemers van Firaxis, de makers van Civilization, dus dat verklaart de keuze voor een RTS game.

Jouw statement dat het niemand opgevallen zou zijn raakt dus kant noch wal; dat het jouw genre niet is kan best, maar zowel het bedrijf als de game zelf hadden zeker al aandacht voor het hele DX12 verhaal.

Wat de aantallen betreft? Als je SC en TA niet kent: de benchmark tovert niet eens zo veel units op het scherm als in SC2 met regelmaat voorkwam tijdens normale gameplay. En dat spel kwam in 2010 uit. Dus nee, ook dat is niet overdreven. Iedereen die dat claimt is duidelijk niet op de hoogte van de meest populaire games van de afgelopen 10 jaar en al zeker geen RTS liefhebber.

Zie ook Laurens91's reactie met een filmpje. Vergelijk dat filmpje vervolgens eens met gameplay beelden van Supreme Commander 1 (2007) of 2 (2010). Is echt niet zo idioot veel.


[...]

Dat is hetzelfde soort volk dat klaagt over AotS, alleen dan aan de andere kant van het hek. Iets met een klok en een klepel ;)


[...]

Ach kom nou, dat is toch een zwak statement? Het is nergens voor nodig.

Stel je nu eens voor dat Pascal inderdaad niet met AC om kan gaan en AMD een gigantische investering krijgt en dat allemaal in marketing steekt waardoor alle grote games in de komende 2 jaar keihard op AC gaan leunen. Ik garandeer je dat je dit statement dan zou herzien. En het gejank van Nvidia fanboys zou oorverdovend zijn.

Wij zijn PC gamers, wij willen het maximale uit onze PC's en games halen. Met zo'n onzin als hierboven kan dat simpelweg niet. Het komt niemand ten goede, ook Nvidia gebruikers niet. Ik heb zelf HairWorks dan ook fijn op low gezet. Sterker nog, ik zet meestal de Nvidia rotzooi uit, omdat het meestal niets toe voegt maar wel m'n framerate halveert. Dat was met m'n G80/G92 zo, dat was met m'n GF104 zo, dat was met m'n GK104 zo en dat is met m'n GM204 nog steeds zo.


[...]

Komma's gebruiken dan ;)


[...]

Nee hoor, hij is niet in de war :P

Hij heeft het over physics, als in "natuurkunde". Dat is een klein deel van wat PhysX doet. PhysX spreek je uit als phys-ex, niet physics en is dan ook een merknaam. Toentertijd was er nog sprake van Havok dat een hoop op de GPU zou gaan doen, echter is dat er nooit van gekomen sinds ze overgenomen zijn door Intel.

Overigens is ook dat perfect mogelijk op AMD GPU's. PhysX zou best mogelijk zijn als Nvidia dat implementeerde ;)


[...]

Doe ik ook, krijg je met een hobby en passie waar je al 20+ jaar aan doet ;)
HMm ik zit ook vaak de Nvidia features uit van games van 2015 of later, dit inderdaad omdat ik framerate toch belangrijker vind... Ik schat zo dat ik bij de volgende generatie videokaarten Nvidia features van nu wel kan aanzetten icm een goede framerate :)

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
bluebear schreef op dinsdag 29 maart 2016 @ 07:19:
[...]


Weet je wat het is? Nvidia heeft om de een of andere reden het image superieur te zijn. Je ziet het in deze thread bij MetalSonic, maar ook in de computer winkels. Ik was laatst in de computerwinkel aan het neuzen en iemand liet een computer samenstellen door de medewerker. Wat hoor ik als het over videokaarten gaat: "je wilt geen AMD kaart, want die gebruikt veel meer stroom dan Nvidia. Stop er maar een Nvidia kaart in."
Geen woord gerept over de pro's en con's van beide kampen, wat het gebruik van de klant is, wat de onderlinge accesoires zijn of iets dergelijks. Enkel blind staren op het TDP wat bij beide kaarten niet eens hetzelfde betekend. (dit voorbeeld was dan in Nieuw Zeeland, maar zal wereldwijd gebeuren)

Of er van de kant van Nvidia met geld gestrooid word zodat leken vooral maar Nvidia aangesmeerd wordt of dat dit gewoon onwetendheid van de medewerkers van een computerzaak is, ik weet het niet. Ik heb wel contact met een eigenaar van een computerzaak (in canada) waar het bijna onmogelijk is om AMD kaarten in de schappen te krijgen omdat er ergens hoger in de aanvoer de kraan wordt dichtgedraaid. En je kan mij (en de eigenaar) niet wijsmaken dat het aanbod van AMD zo bizar slecht is dat ze geen kaarten aan winkels kunnen leveren. (dit is dus niet enkel de nieuwe kaarten, maar kaarten van alle leeftijden)
De aanschaf van een product is voor het grootste gedeelte een emotionele keuze. Daarom is er in de reclames ook zoveel tijd/ aandacht voor de emotie en of de beleving van het product. Nvidia heeft bij mij een dikke streep voor door sentiment. De eerste video kaart die ik kocht was een Geforce 3 ti200 (ofzoiets) maar daardoor kon ik ineens Warcraft 3 op een veel hogere resolutie spelen met veel meer opties etc _O_..

Ik heb één keer een AMD kaart gekocht, een XFX 7970 GHZ, ik moet eerlijk zijn dat de performance best goed was. Ik kon er veel games op ultra mee spelen maar man oh man wat maakte dat ding een pokke herrie. Hiervoor kan ik dan natuurlijk niet AMD de schuld geven mja 't wordt meegenomen.... Mijn favoriete game series van vroeger waren UT99 , unreal etc en wie was daar de sponsor van :z

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Case_C schreef op woensdag 30 maart 2016 @ 09:56:
De naam gaat dus met hoge waarschijnlijkheid toch GTX 1080 en GTX 1070 worden als we deze heatsink covers kunnen geloven. Wel een aardig agressief uitziend stuk aluminium :) , de looks van de kaarten gaan dus eindelijk na zoveel jaar een keer veranderen.
http://news.mydrivers.com/1/476/476079.htm
[afbeelding]
Zoiets is natuurlijk wat overdreven om iets te faken, zeker gezien de achtergrond en de structurele aanpassingen, dat kost teveel geld om zonder reden te faken. Zouden ze dan toch kort bij productie zijn of zouden het prototypes zijn ?

Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 23:25
MetalSonic schreef op woensdag 30 maart 2016 @ 13:23:

Ik heb één keer een AMD kaart gekocht, een XFX 7970 GHZ, ik moet eerlijk zijn dat de performance best goed was. Ik kon er veel games op ultra mee spelen maar man oh man wat maakte dat ding een pokke herrie. Hiervoor kan ik dan natuurlijk niet AMD de schuld geven mja 't wordt meegenomen....
Je zegt zelf al dat het helemaal niet aan AMD ligt... Hoe kun je dat dan meenemen in je keuze voor AMD of Nvidia.
Ik zou eerder zoiets hebben, de volgende keer neem ik geen XFX.

Ik heb nu een Club3D 290x. Ding doet het supergoed, maar maakt ook best wat geluid onder load. Volgende keer dus geen Club3D meer maar een ander merkje.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik weet nog niet eens meer van welk merk mijn videokaart is, ik weet wel dat de R9 290X GPU goed getemperd wordt met een Arctic Accelero Extreme en zeer stil is. /r/pcmasterrace

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Vraag mij al een tijdje het volgende af. Wat gebeurt er met het SLI (premium) labeltje op moederborden zodra alle games over gaan op DX12?
Het is al tijden zo dat er niks extra's meer nodig is om SLI op een moederbord te faciliteren, dat Nvidia dat niet toestaat op non SLI borden staat daar los van. Nu er zo meteen multiadapter opstellingen tussen Nvidia/AMD/Intel mogelijk zijn lijkt het mij nog raar dat een SLI label nodig is. Kan natuurlijk ook zo zijn dat Nvidia dit moedwillig gaat tegenwerken op borden die geen SLI maar wel Crossfire certificering hebben.

Wellicht dat er iemand is die hier meer van weet.

offtopic:
@MetalSonic kuch edit knop :+.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Zeara schreef op woensdag 30 maart 2016 @ 18:02:
Ik zou eerder zoiets hebben, de volgende keer neem ik geen XFX.
Nee dan doe je precies hetzelfde, alleen dan bij XFX ipv AMD. Op die manier is er namelijk geen enkele fabrikant waarvan je een kaart kan kopen, aangezien elke wel luidruchtige kaarten heeft verkocht.

Het enige wat je kan doen is 8)7 omdat je zelf van te voren je niet hebt ingelezen over het product.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

-The_Mask- schreef op woensdag 30 maart 2016 @ 18:16:
[...]

Nee dan doe je precies hetzelfde, alleen dan bij XFX ipv AMD. Op die manier is er namelijk geen enkele fabrikant waarvan je een kaart kan kopen, aangezien elke wel luidruchtige kaarten heeft verkocht.

Het enige wat je kan doen is 8)7 omdat je zelf van te voren je niet hebt ingelezen over het product.
Niet helemaal XFX is de verantwoordelijke partij, niet AMD. Een kennis van mij had eenzelfde kaart, doordat XFX de vrm's niet goed koelde werd hij onstabiel, dan is het best logisch dat je dan minder snel nog een XFX neemt.
Laat niet weg dat ik van mening ben dat je eerst een aantal reviews moet lezen die dit soort dingen goed behandelt voor je een vervolg aankoop doet en XFX helemaal afschrijft.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ja het is XFX, dat wordt ook nergens ontkent, maar dat betekent niet dat het bij elke XFX zo is. Daarnaast had vooral de koper zich beter moeten inlezen, als die dat doet stopt XFX ook snel genoeg met zulke kaarten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 23:25
-The_Mask- schreef op woensdag 30 maart 2016 @ 18:16:
[...]

Nee dan doe je precies hetzelfde, alleen dan bij XFX ipv AMD. Op die manier is er namelijk geen enkele fabrikant waarvan je een kaart kan kopen, aangezien elke wel luidruchtige kaarten heeft verkocht.

Het enige wat je kan doen is 8)7 omdat je zelf van te voren je niet hebt ingelezen over het product.
Ik lees mijzelf altijd goed in over het product. Hoofdreden in mijn geval voor deze 290x was de prijs. Die lag op het moment lager dan een 290. Neemt niet weg dat ik voortaan alles wat ik zie van Club3D (of Powercolor) met deze fans niet koop of kan aanraden.

Daarbij was dit de enige review voor handen.

Afbeeldingslocatie: http://www.kitguru.net/wp-content/uploads/2014/05/noise3.png

Maar goed, inderdaad altijd goed inlezen! En ik ben zeker niet ontevreden met mijn 290x. Ik game hoofdzakelijk met mijn koptelefoon op. En ik kan altijd nog maar eens kijken naar het fanprofiel.

[ Voor 5% gewijzigd door Zeara op 30-03-2016 18:41 ]


Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
-The_Mask- schreef op woensdag 30 maart 2016 @ 18:26:
Ja het is XFX, dat wordt ook nergens ontkent, maar dat betekent niet dat het bij elke XFX zo is. Daarnaast had vooral de koper zich beter moeten inlezen, als die dat doet stopt XFX ook snel genoeg met zulke kaarten.
In die tijd had ik net mijn allereerste game pc gebouwd, mede met advies van Tweakers. Ik gebruik die kast nog steeds. Er zijn hier en daar wat onderdelen aangepast. Toen ik mijn pc kocht dacht ik niet aan geluidsproductie. Ik wilde een maximale fps, en daarin was ik toen geslaagd. Ik had toen de pc net in mijn bezit was even één van de snelste game pc's...

Ik heb ervan geleerd zullen we maar zeggen, sinds de XFX zoek ik kaarten waarbij hij in eerste instantie heel stil moet zijn. Mede hierdoor heb ik geen sprong gemaakt van MSI GTX 980 naar een TI versie. Hiervoor had ik btw een MSI GTX 970... Voor mijzelf kan ik nu slechts zeggen dat MSI precies levert wat ik wil _/-\o_

Edit: net de nieuwste driver update gedownload, hopelijk nu geen last meer van een scherm dat plotseling op tilt slaat met een rare kleur (waarbij ik dan echt de computer moet resetten) :F

[ Voor 8% gewijzigd door MetalSonic op 31-03-2016 00:49 ]


Acties:
  • 0 Henk 'm!

  • CMSTRR
  • Registratie: Mei 2013
  • Laatst online: 27-04-2024

CMSTRR

HP Elitebook 820 G3


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Ehmmm........ ik ga hier niet op klikken, wat is het?

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • MEN-O
  • Registratie: Oktober 2006
  • Laatst online: 12-09 15:12
Ja, leuk ; 1 april was gisteren.

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
Zoete troep ;( , alhoewel ik bij een lange autorit af en toe wel een redbul pak :>

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 12-09 21:26
De CEO van NVidia spreekt morgen 18:00 uur Nederlandse tijd op de GPU Technology Conference. Hopelijk meer info over Pascal.
http://www.gputechconf.com/

Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
hopelijk kunnen ze deze keer wel een pcb'tje laten zien ipv een oude laten zien en zeggen dat het de nieuwe is :)

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Misschien een publieke verontschuldiging voor hun recente drivers ? ;(

Daar dit toch het nieuws/discussie topic is (en drivers even belangrijk is dan de hardware .. zonder software geen werkende hardware, zonder hardware ... )

Grote problemen bij een aantal gebruikers van Nvidia GeForce-driver 364.72

De laatste whql driver van nVidia welke nog steeds! niet teruggetrokken is geeft meer en meer problemen bij veel mensen.
Redelijk bizar eigenlijk, van niet werkende flash, constante error meldings tijdens gamen (had ik voor .. dacht dat het aan windows lag daar het een host service was die crashte) tot volledig blokkerende computers ..

Mijn aanrader is om terug te gaan naar de vorige van begin maart (de .51).

Het is één van de eerste keren dat ik zo'n slechte driver meemaak.. én dat die niet binnen de dag wordt teruggetrokken... nVidia doet precies of er niets aan de hand is.
En dat na het debacle van drivers die problemen hadden met 2 of meerdere schermen .; lossen ze het eindelijk eens op dan komen ze direct met een nog groter probleem in de volgende driver .. |:(

Iets zegt me dat ze die .72 driver gewoon aan het pushen zijn als een zot voor de "VR" ondersteuning .. tis blijkbaar nog lang niet uit het beta stadium ..lanceer dan een beta driver voor de mensen die persé nu al VR willen uitproberen maar push geen corrupte driver naar iedereen.
Ocharme als je nu windows 10 hebt .. daar krijg je tot nu toe constant de .72 in je maag gespitst of je nu wilt of niet ..

Specs


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Daarom staat de auto update hier uit ;). Ben maar al te blij dat geforce experience niet verplicht is, als die tijd komt dan blijf ik wel op een oude driver zitten.

Beetje jammer dat ze een driver blijven pushen waarvan ze zelf weten dat het niet goed werkt; kan me niet voorstellen dat ze hopen dat mensen dat niet door hebben uiteindelijk.

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
weet er iemand of je 't live kan streamen?

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
GTC 2016 is hier live te volgen

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
Thanks zit het nu te kijken, soort virtual reality, concurrent van Oculust rift? Wel vermakelijk, hopelijk komt er zo info over de nieuwe kaart :z

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
MetalSonic schreef op dinsdag 05 april 2016 @ 18:47:
[...]

Thanks zit het nu te kijken, soort virtual reality, concurrent van Oculust rift? Wel vermakelijk, hopelijk komt er zo info over de nieuwe kaart :z
Nee, ze laten een real time demo zien van Mount Everest en Mars. De bril is gewoon een oculus rift.

Hier is trouwens een blog van anandtech zodat je kan zien wat je gemist hebt.

EDIT: Tesla P100 (Pascal, 16nm FinFET, HBM2, 5.3TF FP64, 10.6TF FP32, 21.2TF FP16)

[ Voor 24% gewijzigd door ColinZ op 05-04-2016 19:32 ]


Acties:
  • 0 Henk 'm!

  • rolandos582
  • Registratie: Juni 2011
  • Laatst online: 12-09 21:59

Acties:
  • 0 Henk 'm!

  • dikkedennis
  • Registratie: Juni 2011
  • Laatst online: 10-03-2024
Ik vraag me sterk af of we pascal nog gaan zien in 2016, geen zinnig woord over tijdens de keynote behalve "it will launch.... soon"

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Pascal, in ieder geval de non-consumer versie heeft HBM2. Hij heeft het erover dat ze nu in productie zijn.

Nvidia richt echt al zijn pijlen op AI, Deep Learning, Pattern Recognition etc. Haast de hele presentatie tot nu toe gaat daarover. Wat opvallend is is dat ze voor Pascal (non-consumer?) een hoger aantal flops 16bits precision hebben dan 32bits.

Wel grappig om te zien tijdens de presentatie, het woord BIG en LARGEST komen vaak terug, waarmee ze doelen op big Pacal. Weten we ook meteen waar die obsessie voor de grootste chip vandaan komt, van de CEO dus :P.

[ Voor 25% gewijzigd door Sp3ci3s8472 op 05-04-2016 20:08 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Sp3ci3s8472 schreef op dinsdag 05 april 2016 @ 20:06:
Pascal, in ieder geval de non-consumer versie heeft HBM2. Hij heeft het erover dat ze nu in productie zijn.
http://semiaccurate.com/f...hp?p=259098&postcount=521

Als die opmerking geen 1 april grap was van iemand, dan is 'in productie zijn' een erg ruim begrip.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

dahakon schreef op dinsdag 05 april 2016 @ 20:08:
[...]


http://semiaccurate.com/f...hp?p=259098&postcount=521

Als die opmerking geen 1 april grap was van iemand, dan is 'in productie zijn' een erg ruim begrip.
Ik quote precies wat Jen-Hsun Huang zegt, we weten allemaal ondertussen dat hij het perfect normaal vind om neppe gpus te laten zien tijdens zijn presentaties :+.
Overigens hij struikelde op dat punt over zijn woorden, dus dat zegt ook wellicht wat.

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
Indrukwekkend, zo'n zelfrijdende auto maar ik wil info over de nieuwe GPU killer, als er dit jaar niks nieuws komt van Nvidia ga ik maar kijken bij AMD (met tegenzin). Kom op Nvidia, way its meant to be played _O_

Acties:
  • 0 Henk 'm!

  • dikkedennis
  • Registratie: Juni 2011
  • Laatst online: 10-03-2024
Ze hebben het inmiddels al meer dan een kwartier over auto's. Waar gaat dit heen

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

dikkedennis schreef op dinsdag 05 april 2016 @ 20:12:
Ze hebben het inmiddels al meer dan een kwartier over auto's. Waar gaat dit heen
Wees blij dat je niet een half uur hebt geluisterd naar alle AI en deeplearning :z ; tijdens dat stuk van de presentatie werd er wel meer over Pascal gesproken.
Pascal heeft dus eindelijk pre-emption, en hear hear hij bracht het alsof hij het wiel had uitgevonden |:(.

Van het Anandtech life blog :P.
01:27PM EDT - Jen-Hsun is "very frickin excited" about it

01:27PM EDT - Pre-emption
Verwacht dus dat binnenkort Nvidia Async Compute helemaal de hemel in gaat prijzen zodra Pascal over de toonbank gaat :|.

[ Voor 22% gewijzigd door Sp3ci3s8472 op 05-04-2016 20:25 ]


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Op de P100 zitten weer in tegenstelling tot maxwell behoorlijk wat FP64 cores. Ik zit niet zo in de stof qua cpu opbouw, maar kun je die eigenlijk ook inzetten met fp32 werk of zijn ze dan "nutteloos" ? (Ik begreep eerder van Nvidia dat maxwel bedoelt was voor gamen en fp32 werk, en dat er daarom was gekozen voor minimale aantallen fp64 units.)

[ Voor 3% gewijzigd door maratropa op 05-04-2016 20:48 ]

specs


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

maratropa schreef op dinsdag 05 april 2016 @ 20:46:
Op de P100 zitten weer in tegenstelling tot maxwell behoorlijk wat FP64 cores. Ik zit niet zo in de stof qua cpu opbouw, maar kun je die eigenlijk ook inzetten met fp32 werk of zijn ze dan "nutteloos" ? (Ik begreep eerder van Nvidia dat maxwel bedoelt was voor gamen en fp32 werk, en dat er daarom was gekozen voor minimale aantallen fp64 units.)
Als je kijkt naar het aantal flops dan kan je waarschijnlijk zelf wel herleiden hoe het zit :P.
5.3TF FP64, 10.6TF FP32, 21.2TF FP16

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
Een 40% hogere baseclock tov maxwell bij de P100 geeft goede hoop voor de GTX kaarten :). Aan het tdp te zien (300W) zit het met de performance per watt ook wel snor. We zouden best eens een grote klapper kunnen krijgen. Een 50% betere prestatie voor hetzelfde dollar bedrag lijkt me heerlijk. AMD moet dit echter wel faciliteren, het is belangrijk dat ook Polaris slaagt. Anders krijgen we van die goedkope dingen die als high-end worden gesleten "niet omdat het moet, maar omdat het kan". Over de positionering van de GTX 960 ben ik nog altijd totaal niet te spreken.

[ Voor 86% gewijzigd door sdk1985 op 06-04-2016 01:56 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
sdk1985 schreef op woensdag 06 april 2016 @ 01:49:
Een 40% hogere baseclock tov maxwell bij de P100 geeft goede hoop voor de GTX kaarten :). Aan het tdp te zien (300W) zit het met de performance per watt ook wel snor. We zouden best eens een grote klapper kunnen krijgen. Een 50% betere prestatie voor hetzelfde dollar bedrag lijkt me heerlijk. AMD moet dit echter wel faciliteren, het is belangrijk dat ook Polaris slaagt. Anders krijgen we van die goedkope dingen die als high-end worden gesleten "niet omdat het moet, maar omdat het kan". Over de positionering van de GTX 960 ben ik nog altijd totaal niet te spreken.
TDP zegt momenteel nog weinig he, over de Perf/Watt. Het enige wat je kunt stellen is dat ze (theoretisch) binnen de specificaties wilden blijven (niet geheel onbelangrijk voor professionele doeleinden) en dat daar een bepaalde theoretisch piek-prestatie bij hoort.

Maar als je kijkt naar die piekprestatie, dan zie je dat GP100 grofweg een dubbele Hawaii/Grenada is in SP/DP throughput. Hawaii/Grenada zit op 5.2TF SP/ 2.6TF DP en heeft daar een TDP aan gekoppeld van kleiner dan 275 Watt. Dit is met 32GB 'slurpende' gDDR5 tegenover het gebruik van HBM2. Simpelgezegd, dat is geen verdubbeling van theoretische prestaties bij een proces-verkleining die ruim meer dan het dubbele zou moeten kunnen opleveren binnen eenzelfde TDP, ondanks het gebruik van HBM2 geheugen.

Hoeveel de prestaties verder omhoog zullen gaan ten opzichte van de vorige generatie is natuurlijk ook nog een beetje onduidelijk, maar dat deze voor dezelfde prijs zou worden gaan verkocht, is vrees ik dagdromen. 14/16nm Finfet is gewoonweg niet zo heel goedkoop om te gebruiken, terwijl 28nm bij de laatste generatie al niet zo heel duur meer was en bovendien maximaal benut kon worden in chip-ontwerp.

Hoe dan ook, het was erg stil omtrend GP104/106.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
We gaan een GP102 of iets dergelijks krijgen. Iets tussen GP100 voor HPC en GP104 als mid-size consumenten chip.

Dit is een pure HPC chip, net als GK210 dat is. Sterker nog, GP100 lijkt heel sterk op GK210. Het verschil is alleen dat GP100 meteen voor HPC is ontworpen, terwijl GK210 een evolutie van GK110 is.

Ze hebben ook helemaal niets gezegd over eventuele verdere wijzigingen op het gebied van geometry, TMU's, ROP's of wat dan ook. GP100's block diagram ziet er in feite uit als een hele grote Maxwell, waarbij ze nu 2 SM's per TPC hebben in plaats van 1 en FP64 ALU's hebben toegevoegd om weer terug op het niveau van Kepler te komen.

Die herorganisatie van 2 SM's per TPC zou best wel eens in de consumenten chip kunnen komen. Zo komen ze een stuk dichter bij de flexibiliteit van GCN en dan kan Hyper-Q effectiever worden. Maar zoals het er nu naar uit ziet, denk ik dat Hyper-Q gewoon blijft en ze geen hardware scheduler krijgen. Met andere woorden, Nvidia gebruikers blijven afhankelijk van driver optimalisaties.

De prestaties ben ik ook niet echt van onder de indruk. Zoals dahakon al aan geeft, AMD kan gewoon Grenada nemen en dan net als Nvidia het hele ding verdubbelen. Dan zitten ze al aan de cijfers die Nvidia geeft. Maar dan met een kleinere chip. Als ze Fiji zouden nemen en net als Nvidia een stel FP64 units toevoegen om van 1:16 naar 1:4 (of beter) te gaan en ook weer het aantal clusters verdubbelen zouden ze Nvidia keihard langs gaan in rauwe kracht. Vergeet niet dat Fiji al 13900 FP32 GFLOPS heeft. Zelfs zonder klok wijziging of efficiëntere ALU's, maar met een 1:3 DP rate zouden ze dan al aan 4633 FP64 GFLOPS komen. Met andere woorden, het zijn mooie cijfers, maar het zegt allemaal geen reet over Pascal voor graphics.

Het is zo jammer dat AMD niet de middelen heeft om echt in de HPC wereld te stappen, want ze zouden het Nvidia verdomd moeilijk kunnen maken.

Edit: block diagram staat trouwens hier: https://devblogs.nvidia.com/parallelforall/inside-pascal

[ Voor 5% gewijzigd door Werelds op 06-04-2016 12:07 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sdk1985 schreef op woensdag 06 april 2016 @ 01:49:
Een 40% hogere baseclock tov maxwell bij de P100 geeft goede hoop voor de GTX kaarten :). Aan het tdp te zien (300W) zit het met de performance per watt ook wel snor. We zouden best eens een grote klapper kunnen krijgen
:?
Als je dit gaat doortrekken naar een GeForce is het juist erg slecht, hoe kom je erbij dat die er goed uitziet?

Is overigens niet zo vreemd Maxwell was duidelijk niet gericht op double precision, terwijl deze GP100 GPU daar duidelijk wel voor bedoeld is.

Maar als je kijkt naar cudacores en kloksnelheid dan komt die er heel beroerd vanaf. Enkele GTX 980 Ti's boosten nu al richting de 1500MHz vanuit de fabriek. Dan heb je dus alleen maar 27% meer aan cudacore's, terwijl het verbruik ook zo'n 20% omhoog gaat.

De performance/watt zou dus bedroevend zijn voor het nieuwe productieprocess en de prestatiewinst zou dat ook zijn mocht de performance per core ongeveer vergelijkbaar zijn.

Is dus duidelijk dat hier geen GeForce kaart van komt, anders zou het een grote grap worden naar alle waarschijnlijkheid.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Als ze er genoeg van kunnen maken komt er denk ik wel een geforce versie.

De prestatiewinst ten opzichte van 980Ti staat misschien niet in verhouding tot de verhoogde productiekosten, maar amd verkoopt ook r9 nano's voor iets boven de 500 euro. Als nvidia hier een 1000 euro kaart van maakt hebben ze alsnog een goede marge.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Nee natuurlijk niet, ze zouden zichzelf totaal in de vingers snijden, ding zou totaal niet verkopen. Beroerde performance/watt, beroerde performance/euro en ook gewoon dan erg duur, veel verbruikend en helemaal niet veel sneller als een huidige kaart.

Als je het zou vergelijken met een toekomstige GP104 of vergelijkbare kaart van AMD zou deze GPU als GeForce versie de grootste grap van de laatste jaren zijn zo het nu lijkt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Als je de maxwell tesla met de pascal tesla vergelijkt heeft hij meer fp32 "cuda cores", hogere clocks, een veel lompere memory interface en betere performance/watt.

Hij moet sowieso een stuk sneller zijn.

Als amd een meer op gaming gerichte high end gpu uitbrengt zal de GP100 idd het onderspit moeten delven.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
-The_Mask- schreef op woensdag 06 april 2016 @ 12:08:
[...]

:?
Als je dit gaat doortrekken naar een GeForce is het juist erg slecht, hoe kom je erbij dat die er goed uitziet?

Is overigens niet zo vreemd Maxwell was duidelijk niet gericht op double precision, terwijl deze GP100 GPU daar duidelijk wel voor bedoeld is.

Maar als je kijkt naar cudacores en kloksnelheid dan komt die er heel beroerd vanaf. Enkele GTX 980 Ti's boosten nu al richting de 1500MHz vanuit de fabriek. Dan heb je dus alleen maar 27% meer aan cudacore's, terwijl het verbruik ook zo'n 20% omhoog gaat.

De performance/watt zou dus bedroevend zijn voor het nieuwe productieprocess en de prestatiewinst zou dat ook zijn mocht de performance per core ongeveer vergelijkbaar zijn.

Is dus duidelijk dat hier geen GeForce kaart van komt, anders zou het een grote grap worden naar alle waarschijnlijkheid.
Ik vergeleek echter niet met de consumenten kaarten maar met de, door tweakers toegevoegde, oude garde. Uit die tabel blijkt dat de GM200 948 Mhz en de GK 110 er 745 deed. Hoe hoger de frequentie, des te meer vermogen je trekt. Ergens zit de sweet spot. Mijn aanname is dan ook dat Nvidia heel goed zelf deze sweet spot kan bepalen en deze blijkbaar nu een stuk hoger ligt. Wat dus wat mij betreft goed nieuws is voor een eventuele consumenten versie. Immers daar is de sweet spot veel minder van belang dan in een datacenter/rekencluster.

Om bij de GTX980 te blijven:
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph8526/67792.png
22% meer vermogen voor een 15-20% toename in prestaties is het, zo lang je nog meer kunt uitbreiden, in een cluster niet waard. Op grote schaal zijn diminishing returns zijn niet handig voor de kosten aan koeling en vermogen.

Overigens zijn er nog wel meer positieve hints te vinden. Zo zijn er met een toename van 1.5% in grootte en 20% tdp meer dan 91% transistoren extra te vinden. Dat kan ik geen tegenvaller noemen. Uit diezelfde tabel blijkt de stap van Kepler naar Maxwell in ieder geval een stuk minder spectaculair; een 12% toename in een 9% grotere die. Logisch want het is beide 28nm.

Wat zat er eigenlijk voor de K40? Wie weet geeft dat nog een leuke vergelijking mbt de toename tijdens 40nm>28nm.

[ Voor 21% gewijzigd door sdk1985 op 06-04-2016 15:42 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Werelds schreef op woensdag 06 april 2016 @ 12:03:
We gaan een GP102 of iets dergelijks krijgen. Iets tussen GP100 voor HPC en GP104 als mid-size consumenten chip.

Dit is een pure HPC chip, net als GK210 dat is. Sterker nog, GP100 lijkt heel sterk op GK210. Het verschil is alleen dat GP100 meteen voor HPC is ontworpen, terwijl GK210 een evolutie van GK110 is.

Ze hebben ook helemaal niets gezegd over eventuele verdere wijzigingen op het gebied van geometry, TMU's, ROP's of wat dan ook. GP100's block diagram ziet er in feite uit als een hele grote Maxwell, waarbij ze nu 2 SM's per TPC hebben in plaats van 1 en FP64 ALU's hebben toegevoegd om weer terug op het niveau van Kepler te komen.

Die herorganisatie van 2 SM's per TPC zou best wel eens in de consumenten chip kunnen komen. Zo komen ze een stuk dichter bij de flexibiliteit van GCN en dan kan Hyper-Q effectiever worden. Maar zoals het er nu naar uit ziet, denk ik dat Hyper-Q gewoon blijft en ze geen hardware scheduler krijgen. Met andere woorden, Nvidia gebruikers blijven afhankelijk van driver optimalisaties.

De prestaties ben ik ook niet echt van onder de indruk. Zoals dahakon al aan geeft, AMD kan gewoon Grenada nemen en dan net als Nvidia het hele ding verdubbelen. Dan zitten ze al aan de cijfers die Nvidia geeft. Maar dan met een kleinere chip. Als ze Fiji zouden nemen en net als Nvidia een stel FP64 units toevoegen om van 1:16 naar 1:4 (of beter) te gaan en ook weer het aantal clusters verdubbelen zouden ze Nvidia keihard langs gaan in rauwe kracht. Vergeet niet dat Fiji al 13900 FP32 GFLOPS heeft. Zelfs zonder klok wijziging of efficiëntere ALU's, maar met een 1:3 DP rate zouden ze dan al aan 4633 FP64 GFLOPS komen. Met andere woorden, het zijn mooie cijfers, maar het zegt allemaal geen reet over Pascal voor graphics.

Het is zo jammer dat AMD niet de middelen heeft om echt in de HPC wereld te stappen, want ze zouden het Nvidia verdomd moeilijk kunnen maken.

Edit: block diagram staat trouwens hier: https://devblogs.nvidia.com/parallelforall/inside-pascal
En de AMD FirePro S9300 X2 dan? of was dat een 1 april grap :?

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Bullus schreef op woensdag 06 april 2016 @ 15:35:
[...]


En de AMD FirePro S9300 X2 dan? of was dat een 1 april grap :?
Ik zeg niet dat ze geen HPC producten hebben of maken, ik zeg dat ze het kapitaal niet hebben om met Nvidia te concurreren in die markt. AMD heeft zeker HPC producten en die kunnen ook echt wel tegen Nvidia op als het op rauwe kracht aan komt. Maar Nvidia heeft veel meer kapitaal tot hun beschikking om de marketing te verzorgen, om relaties voor retail producten te creëren en onderhouden, om software te schrijven. Met name dat laatste is een heikelpunt. CUDA is niet in elke situatie beter of sneller dan OpenCL; sommige dingen kan OpenCL stukken beter. Nvidia heeft echter al veel oplossingen beschikbaar voor veel "bekende" taken voor een HPC cluster.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
NVIDIA “Pascal” GeForce 1000 series arriving at Computex :)
http://videocardz.com/589...ries-arriving-at-computex
http://wccftech.com/nvidi...-1080-1070-computex-2016/

[ Voor 18% gewijzigd door calsonic op 08-04-2016 18:35 ]


Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39

Acties:
  • +1 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Vind je? Goede clickbait, dat is wat ik zou denken :)

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
Racing_Reporter schreef op zaterdag 09 april 2016 @ 10:22:
[...]

Vind je? Goede clickbait, dat is wat ik zou denken :)
Neuh goed nieuws, fijn dat bekend is wanneer er nieuwe producten komen

Acties:
  • +2 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

MetalSonic schreef op zaterdag 09 april 2016 @ 10:58:
[...]

Neuh goed nieuws, fijn dat bekend is wanneer er nieuwe producten komen
Gezien de reputatie van beide websites:

Afbeeldingslocatie: http://www.bulkrocksaltsuppliers.com/wp-content/uploads/2015/07/need-boat-load-frac-sand.png

PS: met mijn clicks ga ik ze niet verblijden. Met Maskman dus ;)

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 21:11

XanderDrake

Build the future!

Ik lees het ook op Fudzilla.

Ja goed nieuws, maar ik zat er soort van naast: ik dacht videokaarten in mei. De gpu is soort van beschikbaar nu, videokaarten natuurlijk niet. Maar goed, beter dan wat andere, meer rode posters dachten: die zaten al op 2017 :> (afhankelijk of ze met of zonder HBM2 bedoelde)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

XanderDrake schreef op zondag 10 april 2016 @ 21:01:
[...]

Ik lees het ook op Fudzilla.
Ik krijg een droge mond van al dat zout :+.
Ja goed nieuws, maar ik zat er soort van naast: ik dacht videokaarten in mei. De gpu is soort van beschikbaar nu, videokaarten natuurlijk niet. Maar goed, beter dan wat andere, meer rode posters dachten: die zaten al op 2017 :> (afhankelijk of ze met of zonder HBM2 bedoelde)
Mei was ook wel heel erg vroeg als inschatting. Dat is haast hetzelfde als zeggen dat AMD vorige jaar september ook al een Polaris gpu hadden, wat misschien dichter bij de waarheid zit aangezien ze een werkende kaart lieten zien in november (Polaris 11).

Ik geloof dat ze beide in juni hun kaarten presenteren op Computex, dat de kaarten pas ergens tussen juli-september uitkomen en dat AMD iets eerder zal zijn.

Strooit nog wat zout want dit is ook natte vinger werk.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 22:28

edward2

Schieten op de beesten

http://www.sweclockers.co...aj-gtx-970-avloses-i-juni

Hier wordt ook nog een keer naar mei verwezen, al lijkt dat ook niet over beschikbaarheidvoor consumenten te gaan (lastig dat Zweeds).
NVIDIA GeForce GTX 980 en GTX 980 Ti kan vervangen mei - de GTX 970 is geslaagd in juni
grafische kaarten
2016/04/08 17:33

Deze zomer neemt de Nvidia een liefhebber segment met Pascal. Het zal de eerste opvolger van de GeForce GTX 980 en GTX 980 Ti, die kort daarna gevolgd door een GTX 970 vervanging.

De hardware-georiënteerde technologie tentoonstelling Computex 2016 in Taiwan zal een van de meer interessante in vele jaren. Net op tijd voor het evenement lanceert Intel Broadwell-E met maximaal 10 cores voor X99 moederborden, die wordt geflankeerd door de nieuwe grafische architecturen Polaris en Pascal van AMD en Nvidia.

VBulletin heeft eerder gemeld dat Nvidia de opvolger zelfs de GTX 980 Ti, zal vrijgeven van de Geforce GTX 970 en GTX 980, en misschien op Computex. Nu onthult een bron van meer concrete informatie over de lancering plannen, waar het grote nieuws is dat de GTX 980 Ti is bevestigd te worden vervangen.

Volgens de plannen als Nvidia begonnen naar buiten partner moet GeForce GTX 980 en GTX 980 Ti vervangen mei, waar de meeste punten aan het eind van de maand in de kijker op Computex te stelen, die start 31 mei communiceren Dit wordt gevolgd in juni door een grafische kaart die erin slagen de populaire bestseller GTX 970

De informatie wordt versterkt niet in het minst door Nvidia en partner fabrikanten begonnen hun voorraden Geforce GTX wissen 980 Ti, GTX 980 en GTX 970. Interessant is dat de fabrikanten nog steeds de mogelijkheid om nieuwe orders toe te voegen voor de Geforce GTX Titan X, ook al is het in termen van prestaties in plaats GTX 980 Ti wordt vervangen.

Door alle rekeningen vervangen door het trio van twee grafische kaarten, die waarschijnlijk op verschillende genoemde Geforce GTX 1080 en GTX 1070. eerdere gelegenheden zijn Het duo zal het nieuwe geheugen standaard GDDR5X, een verdere ontwikkeling van GDDR5 waarvan 43 (10 Gbps) biedt en 71 procent gebruiken (12 Gbps) hogere bandbreedte dan de huidige GDDR5 bij 7 Gbps, die wordt gebruikt door de GTX 970, GTX 980 en GTX 980 Ti.

Een detail dat nog steeds gehuld in mysterie is de keuze van de grafische chip. Echter, is het waarschijnlijk dat het niet gaat om de onlangs aangekondigde monsters circuit GP100 , maar in plaats daarvan is ongeveer GP104. De laatste zal een directe vervanging voor zijn GM204 , gebruikt door rechter Geforce GTX 970 en GTX 980

Ook opmerkelijk zijn de aanhoudende onduidelijkheid over de naam van het schema voor de nieuwe grafische kaarten. Geruchten spreken van Nvidia verlaat de klassieke voorvoegsel GTX en in plaats daarvan combineren de Romeinse cijfer X (10) met het Arabische getal systeem dat standaard vandaag. Dit zou betekenen dat de GeForce GTX 1080 zou in plaats daarvan worden genoemd Geforce X80.

[ Voor 84% gewijzigd door edward2 op 11-04-2016 12:42 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Afbeeldingslocatie: http://www.techpowerup.com/img/16-04-11/26a.jpg
Bron: https://www.chiphell.com/thread-1563086-1-1.html

Dit zou GP104 moeten zijn, bron is alleen verwijderd.

Die size zou vergelijkbaar moeten zijn met die van de GK104 chip van de GTX 680/770. Geheugen op de afbeelding is GDDR5 met een maximale snelheid van 2GHz oftewel 8GT/s.

[ Voor 32% gewijzigd door -The_Mask- op 11-04-2016 12:52 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Wat onze Ier ervan denkt, met name interessant wat hij over GDDR5x te zeggen heeft. Dat is blijkbaar nog helemaal niet "echt" bechikbaar.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 21:11

XanderDrake

Build the future!

-The_Mask- schreef op maandag 11 april 2016 @ 12:44:
[afbeelding]
Bron: https://www.chiphell.com/thread-1563086-1-1.html

Dit zou GP104 moeten zijn, bron is alleen verwijderd.

Die size zou vergelijkbaar moeten zijn met die van de GK104 chip van de GTX 680/770. Geheugen op de afbeelding is GDDR5 met een maximale snelheid van 2GHz oftewel 8GT/s.
Dat ding is minder dan de helft het formaat van de GP100. Vind ik wel een grote discrepantie.

Ik lees op Digitimes dat de inventory clearing van Maxwell gpus is begonnen (dus op de prijs letten!). Ze horen OEMs praten over leverbare kaarten in juni.
Pass the salt? Ik ga de voorspellingen bij houden

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
XanderDrake schreef op maandag 11 april 2016 @ 13:08:
[...]

Dat ding is minder dan de helft het formaat van de GP100. Vind ik wel een grote discrepantie.
Het lijkt mij een heel erg realistisch formaat voor een GP104.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 21:11

XanderDrake

Build the future!

-The_Mask- schreef op maandag 11 april 2016 @ 13:14:
[...]

Het lijkt mij een heel erg realistisch formaat voor een GP104.
Je hebt gewoon gelijk. Bijv: GK104 vs GK110, 3500 mil transistors vs 7100 mil.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • ArthurMorgan
  • Registratie: Januari 2001
  • Niet online
"GDDR5" Dat zou mij echt tegenvallen. Dat het niet HBM2 zou worden was al wel duidelijk, maar ik had toch eigenlijk wel verwacht dat het in elk geval GDDR5X zou worden zodat daar ook winst gepakt zou worden.

Ik heb nu een normale 980. Een nieuwe kaart vind ik alleen echt te verantwoorden als er echt een substantiële snelheidswinst tov de 980TI geleverd gaat worden. Lijkt er nu meer op dat ze toch voor de kleine stapjes voorwaarts gaan. Bedrijfstechnisch logisch, maar met de dubbele stap voorwaarts wb de architectuur

I hear voices in my head, they counsel me, they understand.


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het mag zelfs DDR3 zijn, zolang de prestaties beter zijn maakt het niet uit. Zo heeft de AMD Fury ook 4096bit memory bandwidth en een andere kaart heeft dan weer 384bit, het is niet alsof dat automatisch betekend dat de performance maal tien is. Maar maak je geen zorgen, de marketing afdeling zal gegarandeerd wat buzzwoorden verzinnen tegen de launch waar mensen over kunnen zwijmelen.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Geen GDDR5X voor een GP104 betekent waarschijnlijk wel dat de geheugenbus minimaal 384bit moet zijn om genoeg bandbreedte te hebben. Ik zie het namelijk niet zo snel gebeuren dat ze nog eens met de helft van de geheugenbandbreedte van Maxwell toekunnen door optimalisaties.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 21:11

XanderDrake

Build the future!

Steeds meer sites en bronnen melden een juni launch voor GeForce producten. Het zou dan gaan over de GP104.
Ik ben heel benieuwd wat ze met het geheugen van doen. HBM2 is leuk, maar als ze met GDDR5X een verdubbeling kunnen maken tov GDDR5, dan is dat waarschijnlijk ook voldoende voor deze generatie, toch?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • ArthurMorgan
  • Registratie: Januari 2001
  • Niet online
Wat ik gelezen heb.... (insert vat zout) zou de 1070 gewoon GDDR5 en de 1080 wel de X versie hebben. Ik neig steeds meer om echt te wachten op de benchmarks (In mijn geval vooral GTA V). Het blind instappen lijkt me toch wat te risicovol op dit moment. Ik wil echt een goede stap voorwaarts maken. Moet er wel weer een jaar of 3 mee doen. En zo slecht is mijn huidige kaart ook niet :)

I hear voices in my head, they counsel me, they understand.


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Trevor schreef op woensdag 13 april 2016 @ 12:35:
Wat ik gelezen heb.... (insert vat zout) zou de 1070 gewoon GDDR5 en de 1080 wel de X versie hebben. Ik neig steeds meer om echt te wachten op de benchmarks (In mijn geval vooral GTA V). Het blind instappen lijkt me toch wat te risicovol op dit moment. Ik wil echt een goede stap voorwaarts maken. Moet er wel weer een jaar of 3 mee doen. En zo slecht is mijn huidige kaart ook niet :)
Klopt, ook wordt er gesproken over (insert nog meer zout) dat nvidia 3 kaarten gaat lanceren: GTX 1080 Ti (GP104-400A1), GTX 1080 (GP104-200A1) en GTX1070 (GP104-150A1).

Vraag me af hoeveel van deze "geruchten" achteraf waar blijken te zijn. Met het aantal berichten wat sites zoals wccftech posten moeten ze toch wel een keer goed zitten. :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
HBM2 voor een GP104 gaat niet gebeuren, daar is ook nooit sprake van geweest en GDDR5X voor een volledige GP104 en dan GDDR5 voor de licht gekadastreerde versie is ook niet heel logisch.

[ Voor 11% gewijzigd door -The_Mask- op 13-04-2016 14:01 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

-The_Mask- schreef op woensdag 13 april 2016 @ 14:00:
HBM2 voor een GP104 gaat niet gebeuren, daar is ook nooit sprake van geweest en GDDR5X voor een volledige GP104 en dan GDDR5 voor de licht gekadastreerde versie is ook niet heel logisch.
Inderdaad, wordt ook op de site van de geheugen fabrikant zelf gemeld dat GDDR5X nog niet voor grote levering klaar is. Zie anders het filmpje van AdorableTV, die legt dat mooi uit.
Als die GTX1080 pas aan het einde van het jaar komt dan zou hij GDDR5X kunnen hebben denk ik.

Denk ook dat ze nog prima afkunnen met GDDR5, moeten ze wel voor een iets grotere bus (384 of 512) gaan zoals de GTX980TI heeft.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Sp3ci3s8472 schreef op woensdag 13 april 2016 @ 16:12:
[...]

Denk ook dat ze nog prima afkunnen met GDDR5, moeten ze wel voor een iets grotere bus (384 of 512) gaan zoals de GTX980TI heeft.
Dat vraag ik me dus af. De 104 chips zijn altijd de kleine broertjes geweest van de 100 series. Lijkt mij daarom vreemd om die kaarten te koppelen met 384 of 512bit bussen, alleen om de lagere throughput mee te compenseren.

Ben er zelf van overtuigd dat, in ieder geval, de volledige GP104 (GTX1080?) 256-bit GDDR5X krijgt.

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 00:40
-The_Mask- schreef op woensdag 13 april 2016 @ 14:00:
HBM2 voor een GP104 gaat niet gebeuren, daar is ook nooit sprake van geweest en GDDR5X voor een volledige GP104 en dan GDDR5 voor de licht gekadastreerde versie is ook niet heel logisch.
Ik heb een poosje geleden vluchtig een kijkje genomen naar GDDR5 en op welk procédé dat werd geproduceerd. Wat ik kon vinden was, volgens mij, 20/22nm. Zou GDDR5 op 14/16nm niet hogere snelheden kunnen bereiken waardoor bandbreedte niet echt een probleem is? Of is het ontwerp van GDDR5 in de basis niet geschikt voor hogere snelheden?

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
GDDR5 zit al een tijdje aan een plafond van ~2GHz, ofwel 8gbps. Het zal lastig worden dit nog verder op te schroeven, zonder dat het verbruik de pan uit gaat rijzen. Het is een reden waarom AMD lang geleden is begonnen met het ontwikkelen van HBM. Het is ook de reden waarom Micron uiteindelijk is begonnen met een aanpassing in de gDDR5 standaard om de doorvoersnelheid te verdubbelen. Enige nadeel daarbij is dat de initiele kloksnelheden niet zo hoog komen als het snelste gDDR5 (die 2GHz/8gbps), waardoor het eerste massaal beschikbare gDDR5x een doorvoersnelheid van 10-11gbps zal halen, ofwel een kloksnelheid ergens tussen de 1.25GHz en 1.4GHz.

Nu was er een claim van pin en memory-controller compatibility, zodat je gDDR5 zo zou moeten kunnen vervangen voor gDDR5x, maar hoe dit zich in de werkelijkheid gaat gedragen, is nu nog koffiedik kijken.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

offtopic:
Opmerkelijk dat je 'GHz' wel consequent goed noteert maar 'Gbps' (Gigabit per second) niet, 'gbps' is namelijk niets. En als we dan toch gaan kijken op details }) , het is ook GDDR5 en GDDR5X, de kleine 'g' is niet nodig :)

EDIT: je bedoelt blijkbaar 8 Gbit per sec, dus per pin.

[ Voor 42% gewijzigd door Phuncz op 13-04-2016 20:51 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
ColinZ schreef op woensdag 13 april 2016 @ 17:35:
[...]

Dat vraag ik me dus af. De 104 chips zijn altijd de kleine broertjes geweest van de 100 series. Lijkt mij daarom vreemd om die kaarten te koppelen met 384 of 512bit bussen, alleen om de lagere throughput mee te compenseren.
Een geheugenbus van 384 bit is niet zo vreemd, dat geeft sowieso altijd nog veel minder geheugenbandbreedte dan GP100 met HBM2.
Ben er zelf van overtuigd dat, in ieder geval, de volledige GP104 (GTX1080?) 256-bit GDDR5X krijgt.
Als dat beschikbaar is, is dat een logische keuze idd.
NitroX infinity schreef op woensdag 13 april 2016 @ 17:41:
[...]

Ik heb een poosje geleden vluchtig een kijkje genomen naar GDDR5 en op welk procédé dat werd geproduceerd. Wat ik kon vinden was, volgens mij, 20/22nm. Zou GDDR5 op 14/16nm niet hogere snelheden kunnen bereiken waardoor bandbreedte niet echt een probleem is? Of is het ontwerp van GDDR5 in de basis niet geschikt voor hogere snelheden?
Het bestaat niet, snelste GDDR5 geheugen loopt op 2GHz oftewel 8Gbps, ter vergelijking de GTX 980 heeft nu 7Gbps GDDR5.

Dus GP104 met een 256 bit geheugenbus met 8Gbps GDDR5 geeft maar 14% meer bandbreedte. Je kunt er vanuit gaan dat dit nooit genoeg gaat zijn, ze gaan nooit genoeg geheugencompressie in de nieuwe generatie kunnen maken om genoeg bandbreedte te krijgen voor een GP104 lijkt mij. Dus geen optie.

Met hetzelfde 8Gbps GDDR5 kun je echter met een 384 bit geheugenbus 71% meer bandbreedte creëren. Dit lijkt mij in principe prima te kunnen, met misschien nog wat betere compressie kun je in de praktijk wel zo'n 80% of meer geheugenbandbreedte beschikbaar hebben. 80% meer GPU kracht zou ook moeten kunnen, dus dit zou prima kunnen.

Als GDDR5X beschikbaar is dan is een 256 bit geheugenbus prima, eerste generatie heeft als het goed is 10 en 12 Gbps chips. 12Gbps GDDR5x is ook een verbetering van 71% ten opzichte van de 7Gbps van de GTX 980. 256 bit GDDR5x 12Gbps geeft dezelfde bandbreedte als 8Gbps GDDR5 aan een 384 bit geheugenbus.

Maar zoiets verwacht ik dus 256 bit geheugenbus met GDDR5x en 12Gbps chipjes of 384 bit geheugenbus met GDDR5 8Gbps, of misschien wel beide, wie weet.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

DX12 preview van HardOCP.
http://www.hardocp.com/ar..._framerate/1#.Vw6jSkAmBgM

Interessant om te zien.

Wat me verder opvalt in de test bij de Nvidia kaart is dat ze weinig winst weten te boeken met extra cores in DX12, terwijl je wel extra winst ziet wanneer de clockspeed omhoog gaat. Trek je eigen conclussie...
Afbeeldingslocatie: http://www.hardocp.com/images/articles/1460040024Wl2AHtuhmm_3_1.png

[ Voor 47% gewijzigd door Sp3ci3s8472 op 13-04-2016 22:02 ]


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Sp3ci3s8472 schreef op woensdag 13 april 2016 @ 21:53:
DX12 preview van HardOCP.
http://www.hardocp.com/ar..._framerate/1#.Vw6jSkAmBgM

Interessant om te zien.

Wat me verder opvalt in de test bij de Nvidia kaart is dat ze weinig winst weten te boeken met extra cores in DX12, terwijl je wel extra winst ziet wanneer de clockspeed omhoog gaat. Trek je eigen conclussie...
[afbeelding]
Wel jammer dat ze testen met een Titan uit 2013...

Niettemin: volgens mij alleen een bevestiging van wat we al wisten. DX11 en DX12 tonen weinig verschil voor Nvidia, omdat die bij DX11 al niet echt Limited waren. AMD heeft er veel meer aan, omdat ze worden teruggehouden door slechte drivers.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Nee het grote verschil is de architectuur van beide GPU fabrikanten.

DirectX 12 laat de kracht van GCN zien.

[ Voor 35% gewijzigd door -The_Mask- op 14-04-2016 08:23 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
Jeroenneman schreef op donderdag 14 april 2016 @ 07:51:
[...]

AMD heeft er veel meer aan, omdat ze worden teruggehouden door slechte drivers.
dat is natuurlijk onzin...

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

bluebear schreef op donderdag 14 april 2016 @ 09:40:
[...]


dat is natuurlijk onzin...
U vraagt, wij draaien:

You'll see from the minimum frame-rates that the GTX 750 Ti holds more of its performance than the R7 360, and that's because AMD's driver actually consumes quite a lot more CPU power than its Nvidia equivalent - something to be aware of at the budget end of the market.

http://www.eurogamer.net/...card-upgrade-guide?page=2

As we saw in Star Swarm and continue to see here, AMD’s DirectX 11 throughput is relatively poor, topping out at 1.1 draw calls for both DX11ST and DX11MT. AMD simply isn’t able to push much more than that many calls through their drivers, and without real support for DX11 multi-threading (e.g. DX11 Dirver Command Lists), they gain nothing from the DX11MT test.

But on the opposite side of the coin, this means they have the most to gain from DirectX 12
.

http://www.anandtech.com/...i-overhead-feature-test/3

Uitleg over het specifieke gebruik van Command List en multi-threading in DX11.

http://forums.anandtech.c...p?p=31520674&postcount=28


Aangezien iedereen altijd loopt af te geven op Nvidia voor het niet supporten van Async Compute: AMD doet precies hetzelfde door nog steeds geen Command Lists te gebruiken binnen DX11. Maar in plaats van dat te fixen, heeft AMD gegokt op DX12.

Dat is prima te verdedigen, maar het is gewoon een feit dat Nvidia bij DX11 titels gewoon een efficientere methode gebruikt. Zodra DX12 mainstream is geworden, dan zal AMD pas echt voordeel hebben van een strategie die ze waarschijnlijk al meerdere jaren gepland hebben.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Jeroenneman schreef op donderdag 14 april 2016 @ 07:51:
[...]


Wel jammer dat ze testen met een Titan uit 2013...
Inderdaad, beetje een rare keuze. Ik zou eerder een Maxwell kaart verwachten.
Niettemin: volgens mij alleen een bevestiging van wat we al wisten. DX11 en DX12 tonen weinig verschil voor Nvidia, omdat die bij DX11 al niet echt Limited waren. AMD heeft er veel meer aan, omdat ze worden teruggehouden door slechte drivers.
Maar dat is het apparte, je ziet dat de Nvidia kaarten wel baat hebben bij een hogere clockspeed. De enige 2 situaties die ik mij kan voorstellen zijn.
De cores worden te veel belast met AI, Physics en andere dingen en daar zijn er maar bijvoorbeeld 2 beschikbaar voor drawcalls; of Nvidia heeft gewoon heel weinig baat bij de verminderde overhead van DX12.
Ik neig naar nummer een maar het is lastig te bewijzen aangezien we alleen maar de framerate weten en niet de belasting op de individuele cores.

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Sp3ci3s8472 schreef op donderdag 14 april 2016 @ 11:00:
[...]

Inderdaad, beetje een rare keuze. Ik zou eerder een Maxwell kaart verwachten.


[...]

Maar dat is het apparte, je ziet dat de Nvidia kaarten wel baat hebben bij een hogere clockspeed. De enige 2 situaties die ik mij kan voorstellen zijn.
De cores worden te veel belast met AI, Physics en andere dingen en daar zijn er maar bijvoorbeeld 2 beschikbaar voor drawcalls; of Nvidia heeft gewoon heel weinig baat bij de verminderde overhead van DX12.
Ik neig naar nummer een maar het is lastig te bewijzen aangezien we alleen maar de framerate weten en niet de belasting op de individuele cores.
Zie verhaal hierboven. Multi-threading had Nvidia al redelijk voor elkaar op DX11. Als je je load al hebt verspreid, dan is het enige wat nog uitmaakt, hoe snel de cores zijn. AMD had multi-threading onder DX11 minder onder de knie (zij het door keuzes, zij het door architectuur, zij het door drivers), en zien dus een boost zowel in threading, als in kloksnelheidincrease.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Het is niet alleen de multithreading. De dx11 overhead is bij nvidia ook lager als er maar 1 core gebruikt wordt.

Mechwarrior Online: Flapdrol


Acties:
  • +6 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Jeroenneman schreef op donderdag 14 april 2016 @ 10:49:
U vraagt, wij draaien:

You'll see from the minimum frame-rates that the GTX 750 Ti holds more of its performance than the R7 360, and that's because AMD's driver actually consumes quite a lot more CPU power than its Nvidia equivalent - something to be aware of at the budget end of the market.

http://www.eurogamer.net/...card-upgrade-guide?page=2

As we saw in Star Swarm and continue to see here, AMD’s DirectX 11 throughput is relatively poor, topping out at 1.1 draw calls for both DX11ST and DX11MT. AMD simply isn’t able to push much more than that many calls through their drivers, and without real support for DX11 multi-threading (e.g. DX11 Dirver Command Lists), they gain nothing from the DX11MT test.

But on the opposite side of the coin, this means they have the most to gain from DirectX 12
.

http://www.anandtech.com/...i-overhead-feature-test/3

Uitleg over het specifieke gebruik van Command List en multi-threading in DX11.

http://forums.anandtech.c...p?p=31520674&postcount=28


Aangezien iedereen altijd loopt af te geven op Nvidia voor het niet supporten van Async Compute: AMD doet precies hetzelfde door nog steeds geen Command Lists te gebruiken binnen DX11. Maar in plaats van dat te fixen, heeft AMD gegokt op DX12.

Dat is prima te verdedigen, maar het is gewoon een feit dat Nvidia bij DX11 titels gewoon een efficientere methode gebruikt. Zodra DX12 mainstream is geworden, dan zal AMD pas echt voordeel hebben van een strategie die ze waarschijnlijk al meerdere jaren gepland hebben.
Jeroenneman schreef op donderdag 14 april 2016 @ 11:03:
Zie verhaal hierboven. Multi-threading had Nvidia al redelijk voor elkaar op DX11. Als je je load al hebt verspreid, dan is het enige wat nog uitmaakt, hoe snel de cores zijn. AMD had multi-threading onder DX11 minder onder de knie (zij het door keuzes, zij het door architectuur, zij het door drivers), en zien dus een boost zowel in threading, als in kloksnelheidincrease.
Het verhaal over MT klopt, maar dat is slechts 1 kant van het verhaal. Je gooit overhead en MT hier door elkaar; en begrijpt MT dan ook nog verkeerd. Kijk nog eens naar de charts van Anandtech. Let op hoe Nvidia dezelfde aantallen draw calls haalt op een 750 Ti, een 680 en een 980. Hier zouden bij jou gigantische alarmbellen moeten gaan rinkelen. D3D11MT kan inderdaad helpen en in het geval van Civ V is dat ook zo. Echter gebruikt vrijwel geen enkele game dit en heeft dit verder dus ook geen reet met Nvidia's betere performance in D3D11 in z'n algemeen te maken.

Laat ik even twee dingen voorop stellen:
- Nvidia heeft een veel betere D3D11 driver, dat ga ik niet ontkennen of weerleggen. Dat heeft echter niets, nada, niente, noppes, nichts, rien met D3D11MT te maken.
- Het maximaal mogelijke aantal drawcalls staat niet noodzakelijkerwijs gelijk aan performance

D3D11MT zit niet aan Nvidia's kant. Ja, Nvidia biedt een implementatie aan, maar als een game het niet implementeert, krijg je er dus ook geen performance winst uit. Waarom implementeren games het dan niet? Omdat het in de praktijk vreselijk irritant is om te gebruiken. Ondanks het feit dat het een gigantische managed API is met een overhead waar je U tegen zegt, is D3D11MT niet inherent thread safe. Dat vergt dus extra werk, tenzij je engine meteen al voor D3D11MT is gebouwd. Vervolgens heb je inderdaad leuk meerdere contexts, maar uiteindelijk gaat het alsnog door slechts een enkele core heen omdat D3D11 simpelweg niet daadwerkelijk multithreaded is. Het schaalt niet zoals het zou moeten. Vandaar ook dat je bij Nvidia slechts 15% meer draw calls ziet met MT. Je hebt nog steeds een CPU bottleneck die niet door een driver of een developer opgelost kan worden.

Civ V had veel baat bij D3D11MT omdat ze veel compute werk hadden. Dusdanig veel dat ze tegen een CPU limit aanliepen waardoor hun render werk niet eens op tijd bij de GPU kon komen, met als eind resultaat een lagere framerate. Civ V is echter ook één van heel weinig games die écht iets met compute shaders doen.

Op het gebied van MT is het grote verschil tussen D3D11 en D3D12 (en Mantle, en Vulkan) dat de laatste je niet alleen meerdere contexts (queues) laat bijhouden, maar dat deze die ook nog eens daadwerkelijk parallel verstuurt. Waar alle lists in 11 alsnog door slechts 1 thread verwerkt worden, is dat in 12 niet meer het geval. Dus zelfs op dit gebied doet 12 het beter dan 11 en zou je dus weldegelijk winst moeten zien met meerdere cores als de driver ze ook parallel verwerkt. En daarvan weten we dat Nvidia dat niet 100% doet; daar zit HyperQ eerst nog tussen.

En dit is ook meteen waarom Nvidia minder profijt heeft van meerdere cores: het gaat uiteindelijk allemaal door een enkele core heen in HyperQ. Waar AMD daadwerkelijk in principe tot wel 64 cores zou moeten kunnen gebruiken (ik vraag me nu dus af of dit ook daadwerkelijk zo is...iemand toevallig een E5-2699v4 om eens te zien of ze tot 22 kunnen komen? :+) omdat hun queues in hardware zitten, is dat bij Nvidia niet het geval. HyperQ is daar de bottleneck.


Gebrek aan een MT implementatie is niet waardoor AMD het zo veel slechter doet in D3D11. Dat is de overhead. De overhead van D3D11 heeft ook met MT de grootste impact op het aantal draw calls dat je naar de GPU verstuurt krijgt. Deze overhead wil zeggen dat waar jij slechts 1 ding wil doen, D3D11 intern eerst 20 andere dingen doet en controleert voordat het bij de driver aan komt. Met andere woorden, alles wat je doet hangt eerst even een paar cycles in limbo. Je kunt alles ook op 10 verschillende manieren doen, waarbij het telkens net even iets anders bij de driver aan komt. De driver moet zich vervolgens ook conformeren aan D3D11, wat als gevolg heeft dat de drivers belachelijk groot zijn en deze ook zelf moeten uitvogelen wat D3D nou precies wil bereiken.

En dit is waar Nvidia het slim heeft aangepakt. Dit is waar Nvidia kortere wegen heeft gecreëerd. Hoe ze het precies doen durf ik je niet met zekerheid te zeggen, maar dit zit hoogstwaarschijnlijk in preemption. Het pad dat eender welke opdracht door de driver volgt is simpelweg een stuk korter bij Nvidia. AMD heeft meer een 1:1 aanpak gehanteerd; dat is de eenvoudigste (en dus goedkoopste) manier om conform met de specs te zijn.


Waarom heeft AMD hier dan niets aan gedaan? Kan van alles zijn. Het zal deels te maken hebben met een gebrek aan geld. Ze moeten ergens investeren en de software is dat lange tijd simpelweg niet geweest. Er is echter ook nog het verhaal van GCN. Tegen het eind van 2011 had AMD die win van Sony en MS al binnen aan de hand van hun GCN ontwerpen. En het zal niet lang (althans, in deze industrie :P) hierna geweest zijn dat ze hebben gezien hoe belachelijk de overhead van D3D11 is en ze gestart zijn met het ontwikkelen van Mantle. Zeker niet de beste keuze als het op D3D11 performance aan komt, maar uiteindelijk heeft het wel goed uitgepakt.


En waarom zien we dan niet ook 10x meer performance, aangezien de draw call limieten zo veel hoger liggen? Omdat die benchmarks de simpelste drawcalls maken die mogelijk zijn. Het is nog veel synthethischer dan de grafische benchmarks van 3DMark. In de praktijk zul je die 15, 20, 30 miljoen nooit halen omdat je veel complexere constructies hebt. Daar zitten onder andere roundtrips tussen en drawcalls komen ook zelden in hun eentje voor. Dat zijn hele bendes. Vandaar dat AoS dus ook niet meteen 10x beter presteert.

Acties:
  • 0 Henk 'm!

  • jmk
  • Registratie: Mei 2004
  • Laatst online: 17:40

jmk

Ik probeer net zoveel van videokaarten te snappen zodat ik weet welke ik het beste kan kopen. :) Ik vind het heel moeilijk om conclusies te trekken. Er is natuurlijk ook niet zoveel bekend.

- Zal de GTX 1070 net zo zuinig zijn als de 970, maar dan wat sneller? De zuinigheid, temperatuur en geluidsproductie van NVIDIA kaarten spreek me heel erg aan dus ik hoop niet dat ze hierop minder gaan scoren. Om diezelfde reden heb ik liever geen AMD kaart.

- Zal de GTX 1070 zeer goed DX12 ondersteunen?

- Zal de prijs ook rond de € 350-375 liggen?

Ik wacht in ieder geval met heel veel belangstelling de reviews en benchmarks af deze zomer. :)

Yippie kayak, other buckets!


Acties:
  • +1 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
jmk schreef op maandag 18 april 2016 @ 14:06:
Ik probeer net zoveel van videokaarten te snappen zodat ik weet welke ik het beste kan kopen. :) Ik vind het heel moeilijk om conclusies te trekken. Er is natuurlijk ook niet zoveel bekend.

- Zal de GTX 1070 net zo zuinig zijn als de 970, maar dan wat sneller?
Waarschijnlijk zuiniger en sneller.
De zuinigheid, temperatuur en geluidsproductie van NVIDIA kaarten spreek me heel erg aan dus ik hoop niet dat ze hierop minder gaan scoren. Om diezelfde reden heb ik liever geen AMD kaart.
Maxwell is de eerste generatie waarbij nVidia een duidelijk betere performance per watt heeft, de generatie ervoor ontliep het elkaar niet zoveel en de generaties daarvoor had juist AMD de betere performance per watt. Het kan dus ook best zijn dan AMD degene is die bij de volgende generatie weer de betere performance per watt heeft.
- Zal de GTX 1070 zeer goed DX12 ondersteunen?
Er zijn geruchten dan ook Pascall Async Compute mist, maar het is afwachten tot de kaarten komen om er iets nuttigs over te zeggen.
- Zal de prijs ook rond de € 350-375 liggen?
Kun je niet beter afwachten op reviews? Je kunt nu toch niks kopen, dus er is ook niks om je druk over te maken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • jmk
  • Registratie: Mei 2004
  • Laatst online: 17:40

jmk

Dank je wel voor alle antwoorden!
Ik geloof je ook direct want als jij het niet weet weet niemand het. :)
-The_Mask- schreef op maandag 18 april 2016 @ 15:14:
[...]
Waarschijnlijk zuiniger en sneller.


[...]

Maxwell is de eerste generatie waarbij nVidia een duidelijk betere performance per watt heeft, de generatie ervoor ontliep het elkaar niet zoveel en de generaties daarvoor had juist AMD de betere performance per watt. Het kan dus ook best zijn dan AMD degene is die bij de volgende generatie weer de betere performance per watt heeft.

[...]

Er zijn geruchten dan ook Pascall Async Compute mist, maar het is afwachten tot de kaarten komen om er iets nuttigs over te zeggen.

[...]
Kun je niet beter afwachten op reviews? Je kunt nu toch niks kopen, dus er is ook niks om je druk over te maken.
Ja ik wacht gewoon af tot de eerste reviews komen. En ik houd dit topic in de gaten, dan begin ik er misschien wat meer van te snappen.

Eigenlijk is de GTX 970 een enorm goede kaart maar ik wacht toch maar op de reviews van de 1070 zodat ik het beste ben voorbereid op de toekomst. Hopelijk valt het mee met de DX12 en de Async Compute support. Ik wil namelijk niet vaker dan eens in de 4 jaar meer dan 200 euro uitgeven aan een videokaart.

Yippie kayak, other buckets!


Acties:
  • 0 Henk 'm!

  • J.S. Bach
  • Registratie: September 2008
  • Niet online

J.S. Bach

Geen dag zonder Bach

Ik ga sowieso upgraden. En het word vrijwel wel een 1080 GTX. Maar het is gewoon afwachten wanneer die komen....
Ik heb nu GTX770 in sli draaien, en het werkt nog goed....

Johann Sebastian Bach


Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 18:32
Mijn Dilemma op moment is ik ga toch komende 2 jaar niet over stappen naar 4k/1440P Monitor(en). Zit me dan ook zeer af te vragen of het wel verstandig is eerste generatie Pascal aan te schaffen als ik de komende paar maand een nieuw systeem ga bouwen? Kan ik eventueel nog wel even met de huidige generatie GPU.

Of toch nog even wachten op een Pascal GPU.

Ik zie op moment ook geen games in de Pipeline die veel power gaan vragen? Of ik mis titels?
Zie toevallig Mirros Edge 2 op de FP maar is een game die ik weer later ga halen, Star Citizen misschien maar denk dat het tegen die tijd dat de game uitkomt ook wel mee valt.
(al een poos niet getest gezien mijn huidig systeem daarop achter loopt voor optimalisatie.)

Rise of the Tomb Raider schijnt met nog met de huidge kaarten nog niet op Max te draaien. Uiteindelijk maar een handje vol titels. Gister toevallig nog wat rond gezocht naar games die een nieuwe GFX standaard neer zetten of ik zoek verkeerd.

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Nivida_intel schreef op dinsdag 19 april 2016 @ 20:58:
Ik ga sowieso upgraden. En het word vrijwel wel een 1080 GTX. Maar het is gewoon afwachten wanneer die komen....
Ik heb nu GTX770 in sli draaien, en het werkt nog goed....
Keuze op basis van?

Als je dit leest, heb je teveel tijd.


Acties:
  • +1 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ach laat het zijn R_R, als je in dit topic komt enkel om te zeggen welk onaangekondigd product hij sowieso koopt zonder ook maar één review of vergelijking gezien te hebben, dan ga je hem ook niet anders kunnen overtuigen want er is dan toch geen objectiviteit aanwezig.

Acties:
  • 0 Henk 'm!

Verwijderd

en als je dan ook zijn username erbij betrekt wordt het plaatje helemaal duidelijk ;)

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Phuncz schreef op woensdag 20 april 2016 @ 18:19:
Ach laat het zijn R_R, als je in dit topic komt enkel om te zeggen welk onaangekondigd product hij sowieso koopt zonder ook maar één review of vergelijking gezien te hebben, dan ga je hem ook niet anders kunnen overtuigen want er is dan toch geen objectiviteit aanwezig.
Weet ik, maar trolls en fanboys ontmaskeren is een leuke sub-hobby ;)

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Racing_Reporter schreef op donderdag 21 april 2016 @ 13:59:
[...]

Weet ik, maar trolls en fanboys ontmaskeren is een leuke sub-hobby ;)
Denk eerder dat het een indicatie is dat je te veel tijd om handen hebt ;)

Trouwens, een voorkeur hebben voor een bepaald merk betekend niet meteen dat je een fanboy/troll bent.
Ik vind, als voorbeeld, Audi ook een mooier merk dan BMW of Mercedes, en zou bij de aankoop van een nieuwe wagen ook eerst gaan kijken wat Audi in haar assortiment heeft staan.
Betekend dat dan dat ik een Audi fanboy ben?
Pagina: 1 ... 15 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.