Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

Sp3ci3s8472 schreef op donderdag 11 juni 2015 @ 21:54:
Vast omdat mensen met een AMD kaarten vaker een upgrade doen? of doordat er zoveel 8xxx/9xxx serie kaarten kapot zijn gegaan hebben ze een tweedehands GTX 260 gekocht. :p
De 8000-9000 serie ging volgens mij pas kapot na 3-4 jaar, dus dat is moeilijk om te meten, het zal lijken op een normale upgrade-curve.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
3-4 jaar? 2 - 3 jaar komt eerst...

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
Ik heb die 2 jaar niet gehaald met m'n 8800's hoor. De eerste stierf na 14 maanden, de 2e uit RMA na 6 maanden. En na die 20 maanden was het al zo ver dat ze G92 als vervanging gaven, omdat ze wisten dat G80 ruk was, ik heb toen dus ook een 9800 GTX+ als vervanging gekregen.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

Ja een gemiddelde is heel moeilijk te berekenen. Ik heb van eind 2007 tot Juni 2012 gedaan met mijn 8800GTS 512mb (G92) in SLI (dus kans-op-falen-keer-twee :p) puur omdat ze vervangen werden met mijn huidige GTX 670. Ze doen het vast nog.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:39

Sp3ci3s8472

@ 12 graden...

XanderDrake schreef op vrijdag 12 juni 2015 @ 10:51:
Ja een gemiddelde is het heel moeilijk te berekenen. Ik heb van eind 2007 tot Juni 2012 gedaan met mijn 8800GTS 512mb (G92) in SLI (dus kans-op-falen-keer-twee :p) puur omdat ze vervangen werden met mijn huidige GTX 670. Ze doen het vast nog.
Heb je geluk gehad :P.

Hier een 8800GTS 512 die 2.5 jaar heeft geleeft en de ander 2 jaar.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:56
Mijn 8800gtx heeft het ook wel een tijdje uitgehouden, vervangen door een 2ehands gtx260 voor 60 euro, daarna heeft ie het nog een paar jaar gedaan, maar ondertussen wel kapot.

Heb wel een keer de plastic kap eraf gehaald en al het stof weggehaald, scheelde meer dan 10 graden.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 17:28
Sp3ci3s8472 schreef op donderdag 11 juni 2015 @ 21:54:
[...]


Waarom zou je voor blizzard spellen steam gebruiken, ze hebben niet voor niks een apparte client. Zelf heb ik steam maar Diablo 3 draait ik alleen via battle.net.

Vast omdat mensen met een AMD kaarten vaker een upgrade doen? of doordat er zoveel 8xxx/9xxx serie kaarten kapot zijn gegaan hebben ze een tweedehands GTX 260 gekocht. :p
Omdat mmo gamers niet persé alleen hun geliefde mmo spelen toch? Misschien de die hards :+ .

Mbt dat andere punt. Tja misschien dat AMD gebruikers vaker hun kaart in de kast laten liggen ipv te verkopen omdat ze er aan gehecht zijn :+ ? Doe dat zelf overigens ook, heb nog AGP kaarten en zelfs een Voodoo liggen :P . Maar goed de meest waarschijnlijke verklaring van die mysterieuze dalingen lijkt mij nog steeds het defect gaan. Het is wat dat betreft jammer dat je niks meer van hardware.fr hoort over de component return rates. Zo had Sapphire met de 7870 en 7970 een tijdje 15% uitval. Bij Nvidia zag je dat Asus er negatief uit stak.

Bij mij vloog overigens een condensator in de fik van een 5900XT en de 6800GT gaf na een jaar of 5 arti's. Dus het is niet zo dat Nvidia kaarten eeuwig mee gaan, zeker niet zelfs :P . Mijn oudste Nvidia kaart die nog wekelijks wordt gebruikt is een EVGA GTX 260 uit 2008. Leuk voor Payday 2, Civilization, etc via LAN.

[ Voor 50% gewijzigd door sdk1985 op 12-06-2015 15:17 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

Oudste nVidia kaart die ik nog heb liggen... Een 6200 256mb op PCI. Voor als ik mijn AGP/PCI-E poort had gesloopt/GPU bios flash faal. Je kon er nog BF2 op 800*600 mee spelen :+

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Anoniem: 668222

Jammer dat er geen Tress FX word gebruik in the Witcher 3, het ziet er minder mooi uit en het beweegt lang niet zo realistisch maar Tress FX heeft VEEL minder gpu kracht nodig en valt de game ook wat beter te draaien op mid end hardware.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:56
Betere performance kan ook met hairworks, als cd projekt de tessellation en antialiasing verminderen, maar dan ziet het er weer karig uit. De simulatie op zich schijnt niet zo zwaar te zijn.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 06-06 14:58
Anoniem: 668222 schreef op maandag 15 juni 2015 @ 15:45:
Jammer dat er geen Tress FX word gebruik in the Witcher 3, het ziet er minder mooi uit en het beweegt lang niet zo realistisch maar Tress FX heeft VEEL minder gpu kracht nodig en valt de game ook wat beter te draaien op mid end hardware.
De afweging op mid end hardware komt niet alleen aan op een stukje techniek die optioneel iets kan opleveren visueel. Ik denk dat mid end gpu gebruikers liever hebben dat ze de settings op high kunnen draaien, dan hairworks/TressFx aan kunnen zetten. Daarnaast is TW3 sowieso best een zware game voor veel systemen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Juist dat wil nVidia niet. Laat de tesselator van AMD maar in het honderd lopen. Leuk idee, stuur het in naar nVidia, niet naar de ontwikkelaar. Hun handen waren gebonden op het moment dat een of andere hoge pief van hun een contract met nVidia afsloot.

Acties:
  • 0 Henk 'm!

Anoniem: 668222

Zonde bronnen geloof ik dat niet, ik geloof wel de filmpjes in het AMD topic en met name wat Nvidia zegt over vooruitgang voor de gamers. Als AMD niet de hw voor heeft of de ontwikkelaar het niet beter optimaliseert voor die hardware is het de game ontwikkelaar zijn schuld en niet die van Nvidia want de game ontwikkelaar heeft de codes om het te optimaliseren en AMD moet zin drivers er voor optimaliseren.

Op hoop dat Fury weer wat beter met tessellation om kan gaan, heb je ook niet meer dat gezeur over gameworks op AMD kaarten.

[ Voor 29% gewijzigd door Anoniem: 668222 op 16-06-2015 10:07 ]


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 22:45

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

XanderDrake schreef op vrijdag 12 juni 2015 @ 15:27:
Oudste nVidia kaart die ik nog heb liggen... Een 6200 256mb op PCI. Voor als ik mijn AGP/PCI-E poort had gesloopt/GPU bios flash faal. Je kon er nog BF2 op 800*600 mee spelen :+
Heb hier nog ergens me Viper 550 Nvidia TNT(2)? liggen, volgens mij was dat net voldoende voor BF1942..

Toen had je nog voldoende aan 16mb video ram :Y)

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 06-06 14:58
madmaxnl schreef op dinsdag 16 juni 2015 @ 00:47:
Juist dat wil nVidia niet. Laat de tesselator van AMD maar in het honderd lopen. Leuk idee, stuur het in naar nVidia, niet naar de ontwikkelaar. Hun handen waren gebonden op het moment dat een of andere hoge pief van hun een contract met nVidia afsloot.
Dat is een beste poging tot trollen zeg. Volgens mij heeft nVidia de contract claim van AMD waar je op doelt pas nog in een interview stellig ontkent. Het zogenaamde contract waar je op doelt zou inhouden dat de ontwikkelaar niet gelijktijdig met AMD mag samenwerken voor gpu optimalisaties als er een gameworks/nvidia samenwerking is.
Dit is een ongeloofwaardige claim, want een ontwikkelaar zou zichzelf in de vingers snijden door AMD gebruikers te negeren en potentieel inkomsten te missen als deze groep niet goed je game kan spelen.
Daarnaast zouden ze controle op hun eigen product uit handen geven aan een gpu maker......lijkt me zeeeeeerrr onwaarschijnlijk. Daarnaast zou dit al lang gelekt zijn, want veel mensen moeten hiervan weten, binnen nVidia en binnen de ontwikkelaars met de "wurg"contracten.

[ Voor 6% gewijzigd door sjekneck op 16-06-2015 11:23 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Prima, ontken het maar, uit het verleden weten we precies waartoe nVidia instaat is. Gelukkig weten we ook dat nVidia nooit iets onterecht ontkent heeft...

Je kunt me wel wegzetten als trol, maar Gameworks van nVidia goedpraten zie ik dan weer als trol.


Enfin, waarom werkt AMD dan niet samen met ontwikkelaars die Gameworks, moeten, gebruiken? Zeker omdat ze dan in de media kunnen zeggen hoe vervelend nVidia wel niet is?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:39

Sp3ci3s8472

@ 12 graden...

sjekneck schreef op dinsdag 16 juni 2015 @ 11:20:
[...]

Dat is een beste poging tot trollen zeg. Volgens mij heeft nVidia de contract claim van AMD waar je op doelt pas nog in een interview stellig ontkent. Het zogenaamde contract waar je op doelt zou inhouden dat de ontwikkelaar niet gelijktijdig met AMD mag samenwerken voor gpu optimalisaties als er een gameworks/nvidia samenwerking is.
Dit is een ongeloofwaardige claim, want een ontwikkelaar zou zichzelf in de vingers snijden door AMD gebruikers te negeren en potentieel inkomsten te missen als deze groep niet goed je game kan spelen.
Daarnaast zouden ze controle op hun eigen product uit handen geven aan een gpu maker......lijkt me zeeeeeerrr onwaarschijnlijk. Daarnaast zou dit al lang gelekt zijn, want veel mensen moeten hiervan weten, binnen nVidia en binnen de ontwikkelaars met de "wurg"contracten.
Dat kan wel zo zijn maar hoe kan AMD hun drivers optimaliseren voor GameWorks code waar ze de source niet van hebben en ook niet mogen inzien? Ze moeten voor een binary blob optimaliseren, dat werkt voor geen meter. Ze kunnen dus ook nooit code aanbieden die het voor hun kaarten sneller kan maken. Want het is gewoon logisch dat een bepaalt algoritme om x te bereiken op de ene kaart sneller is dan op een andere die een heel ander algoritme nodig heeft om het snel uit te kunnen voeren.
Zowel nVidia als AMD zeggen dat gamedeveloppers geen goede code schrijven en dat er altijd moet worden geoptimaliseerd en bugs gefixed via de drivers. Dat ze vaak ook code aan ontwikkelaars geven zodat het wel fatsoenlijk draait, probleem met de oudere dx versies is dat het "werkt" ongeacht wat je erin gooit. Dat het werkt wil niet zeggen dat het ook fatsoenlijk draait, het kost ontwikkelaars en gpu makers daardoor veel werk om het fatsoenlijk te laten draaien.
Dus ook al zou de game developper de source code van GameWorks hebben, indien ze niet genoeg ervaring hebben om het goed te gebruiken zonder de boel te breken dan kunnen ze niet goed optimaliseren voor bepaalde kaarten (AMD/Intel).

Dit is in mijn opinie de reden dat GameWorks slecht is voor de gameindustrie, AMD en Intel kunnen er niet fatsoenlijk voor optimaliseren.
AMD geeft een heleboel code gewoon vrij weg, zelfde voor Crytek met hun SMAA. Waarom een ontwikkelaar vrijwillig kiest voor TXAA ipv SMAA (de betere methode) is raar, zelfde voor TressFX het is vrij beschikbaar en draait evengoed op AMD en nVidia kaarten.

http://www.hardocp.com/ar...ard_review/4#.VYAYrkDSBRJ
Our recommendation, for AA in this game, is to just use MSAA. 2X MSAA doesn't cost much performance, and will help. 4X MSAA is the option you want to strive for, it takes a performance hit, but not as huge as in some other games. At 4X MSAA, image quality of AA is very good in this game. We'd prefer to have No AA on Alpha Textures, than blurring the heck out of these with FXAA or TXAA. Just like Crysis 3, we can't recommend TXAA due to the loss in texture quality. TXAA therefore, is moot.

[ Voor 10% gewijzigd door Sp3ci3s8472 op 16-06-2015 14:39 . Reden: bron ]


Acties:
  • 0 Henk 'm!

Anoniem: 668222

Het probleem is meer dat AMD voor bepaalde taken geen goede hardware heeft zoals tessellation, de rest zoals HBAO+ en TURBULANCE werkt goed op AMD kaarten.
http://www.forbes.com/sit...-3-and-nvidias-hairworks/

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Mwa, dat klopt niet helemaal. Over het algemeen is het gewoon prima, alleen word er in Hairworks een enorm hoge factor tesselation gebruikt, en daar is AMD stukken zwakker mee.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
AMD heeft een specifiek stukje gemaakt dat zich richt op tesselation. Theoretisch probleem hierbij is dat het een bottelnek kan zijn. In de praktijk is dit vaak niet het geval omdat, als nVidia zich nergens mee bemoeit, er gekozen wordt voor een logische tesselation factor. D.w.z. dat er gekozen wordt voor het resultaat (het beeld). Op een gegeven moment heeft het om hoog schroeven van de tesselation factor geen zichtbaar resultaat (praktijk, dat wat er toe doet). In theorie wordt het mooier, maar enige wat je hiervan in de praktijk merkt t.o.v. een lagere, maar nog net zo mooie, tesselation factor is dat je FPS lager is en dat kun je wel merken.

Het enige wat nVidia doet is de bottelnek bij AMD triggeren met als gevolg dat AMD een relatief grotere performance impact heeft. nVidia zelf gaat er in absolute zin ook op achteruit dus ook mensen met een nVidia kaart zoude zich eens achter hun oren moeten krabben of dit nu wel is wat ze willen. Immers worden er dingen berekend die in de praktijk alleen je performance terug brengen.

[ Voor 15% gewijzigd door madmaxnl op 16-06-2015 16:37 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
AMD heeft gewoon niet ingezet op idiote aantal samples. HairWorks draait met 64 tessellation samples. Dat is gewoon je reinste onzin. Ook al zou het slechts 1% performance kosten ten opzichte van 16 samples is dat gewoon niet zichtbaar. Dat heeft geen donder te maken met "optimalisatie" van AMD's kant, het is achterlijk om überhaupt met zo veel samples te draaien. Hoe kleiner een object, hoe minder een hoge tessellation factor zichtbaar is - en tegelijkertijd hoe zwaarder het wordt. 64 samples op een stel haren is dus ook te dom voor woorden.

En ligt dat aan de developers? Wellicht, maar Nvidia doet duidelijk ook geen moeite om het ook voor hun eigen klanten soepeler te laten lopen, want van 16 naar 64 samples is gewoon een lineaire vermindering in performance en dat merk je ook op een 980 Ti nog.

Ik zie ook niemand een MSAA optie in z'n game bouwen die maar twee standen heeft: uit of met 32 samples. Dat slaat toch nergens op? Hetzelfde geldt voor tessellation, anisotropic filtering en alles waar je sample counts bij hebt. Die sample counts kunnen veranderd worden voor een verdomd goede reden. Een hogere stand is het niet altijd waard. MSAA is het eenvoudigste voorbeeld, omdat dat nog steeds aardig wat performance kost. Van 2 naar 4 zie je nog; 4 naar 8 ook nog wel, maar 8 naar 16 zie je tijdens gameplay al niet meer. Dan moet je al naar stills gaan zitten kijken.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 06-06 14:58
madmaxnl schreef op dinsdag 16 juni 2015 @ 14:36:
Prima, ontken het maar, uit het verleden weten we precies waartoe nVidia instaat is. Gelukkig weten we ook dat nVidia nooit iets onterecht ontkent heeft...

Je kunt me wel wegzetten als trol, maar Gameworks van nVidia goedpraten zie ik dan weer als trol.
Ik praat gameworks niet goed ik zwakte jouw verhaal wat af.
Enfin, waarom werkt AMD dan niet samen met ontwikkelaars die Gameworks, moeten, gebruiken? Zeker omdat ze dan in de media kunnen zeggen hoe vervelend nVidia wel niet is?
Pure gok op basis van nuchter nadenken. AMD biedt geen personeel aan uit eigen keuken die het optimaliseren van een game inhouse support op eigen kosten.
AMD biedt wel de technieken, maar dat implementeren heeft een developer helemaal geen zin in, want zelf doen kost tijd/geld. Zeker multiplatform games gaan ze geen moeite doen om voor de pc te optimaliseren. Risico te groot en potentiële extra winst is veel te laag. Zodra het loopt is vaak al voldoende voor de meeste en smijten ze het in de schappen.
En toen kwam nVidia met het idee om pc gaming een edge te geven door het finetunen van coden uit handen te nemen en extra's in te zetten die meerwaarde geven op de console release.
Sp3ci3s8472 schreef op dinsdag 16 juni 2015 @ 14:36:
[...]


Dat kan wel zo zijn maar hoe kan AMD hun drivers optimaliseren voor GameWorks code waar ze de source niet van hebben en ook niet mogen inzien? Ze moeten voor een binary blob optimaliseren, dat werkt voor geen meter. Ze kunnen dus ook nooit code aanbieden die het voor hun kaarten sneller kan maken. Want het is gewoon logisch dat een bepaalt algoritme om x te bereiken op de ene kaart sneller is dan op een andere die een heel ander algoritme nodig heeft om het snel uit te kunnen voeren.
Zowel nVidia als AMD zeggen dat gamedeveloppers geen goede code schrijven en dat er altijd moet worden geoptimaliseerd en bugs gefixed via de drivers. Dat ze vaak ook code aan ontwikkelaars geven zodat het wel fatsoenlijk draait, probleem met de oudere dx versies is dat het "werkt" ongeacht wat je erin gooit. Dat het werkt wil niet zeggen dat het ook fatsoenlijk draait, het kost ontwikkelaars en gpu makers daardoor veel werk om het fatsoenlijk te laten draaien.
Dus ook al zou de game developper de source code van GameWorks hebben, indien ze niet genoeg ervaring hebben om het goed te gebruiken zonder de boel te breken dan kunnen ze niet goed optimaliseren voor bepaalde kaarten (AMD/Intel).

Dit is in mijn opinie de reden dat GameWorks slecht is voor de gameindustrie, AMD en Intel kunnen er niet fatsoenlijk voor optimaliseren.
AMD geeft een heleboel code gewoon vrij weg, zelfde voor Crytek met hun SMAA. Waarom een ontwikkelaar vrijwillig kiest voor TXAA ipv SMAA (de betere methode) is raar, zelfde voor TressFX het is vrij beschikbaar en draait evengoed op AMD en nVidia kaarten.

http://www.hardocp.com/ar...ard_review/4#.VYAYrkDSBRJ

[...]
AMD krijgt geen toegang omdat dit de directe concurrent is van nVidia, heeft dat verder uitleg nodig? Niet netjes, maar echt raar is het niet.

nVidia gaat met gameworks support leveren en gaat devvers helpen om de code (voor nvidia) goed te krijgen, dus voor de ontwikkelaar is het een nobrainer en zeggen ze al gauw ja. Het is dan niet vreemd dat nVidia bv geen Tress FX, maar wel hairworks gaat gebruiken :z
Vanuit een economisch perspectief kun je het nVidia niet kwalijk nemen dat ze het zo proberen om hun merk meerwaarde te geven tegenover AMD/intel.

Moet AMD daar blij mee zijn? Nee, natuurlijk niet. Ze kunnen proberen zelf gameworks omver te duwen door devvers easy tools te geven, zodat die niet meer met nVidia in zee hoeven te gaan en ze hen niet meer nodig om effecten makkelijk toe te passen.
Ze kunnen ook gaan meedoen met nvidia en bakken resources gebruiken om amdworks op te zetten en eigen producten te gaan optimaliseren voor de devvers.

Het enige wat voor de pc markt goed is aan gameworks is dat het hiermee mogelijk sommige titels makkelijker naar het pc platform weet te krijgen. De drempel is dan mogelijk lager geworden om een pc release te verantwoorden voor sommige uitgevers. Minder risico voor hen omdat nVidia mede investeert.
Verder is gameworks alleen maar gunstig voor nVidia gebruikers door de ondersteuning aan eigen producten.

In een ideale wereld zouden nVidia en AMD goed samenwerken en nemen ze beide genoegen met 50% van de markt O-)

Acties:
  • 0 Henk 'm!

280562

Ik zou het fijn vinden (moderators?) als het verboden zou zijn om in een topic dat nVidia in de titel heeft, om in zo'n topic het woord "amd" te gebruiken. En vice-versa. Gewoon een ban-voor-het-leven. Simpel. Dat zou de wereld (en tweakers) een stuk prettiger maken.

Het is me opgevallen dat een aantal sites sub-fora aanmaakt voor threads over AMD en over nVidia zaken. Ik denk om de fanboys uit elkaar te houden. Slim. Het meeste geruzie is van technisch niveau nul. Daar wil ik m'm tijd liever niet aan verdoen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:39

Sp3ci3s8472

@ 12 graden...

sjekneck schreef op dinsdag 16 juni 2015 @ 17:23:
[...]
Het enige wat voor de pc markt goed is aan gameworks is dat het hiermee mogelijk sommige titels makkelijker naar het pc platform weet te krijgen. De drempel is dan mogelijk lager geworden om een pc release te verantwoorden voor sommige uitgevers. Minder risico voor hen omdat nVidia mede investeert.
Verder is gameworks alleen maar gunstig voor nVidia gebruikers door de ondersteuning aan eigen producten.

In een ideale wereld zouden nVidia en AMD goed samenwerken en nemen ze beide genoegen met 50% van de markt O-)
Klopt, het is makkelijker om een console port op die manier op te vrolijken om het zo maar te zeggen. Gelukkig is vooral Ubisoft degene die GameWorks gebruikt, na de laatste paar fuckups van hun kant zullen klanten minder snel hun portemenee trekken :P.

Hoop dat die ideale wereld nog een keer komt, 50/50 is niet eens nodig. Zolang ze elkaar maar niet zichtbaar tegenwerken en het ecosysteem verpesten dan ben ik al zat blij :+.
280562 schreef op dinsdag 16 juni 2015 @ 17:35:
Ik zou het fijn vinden (moderators?) als het verboden zou zijn om in een topic dat nVidia in de titel heeft, om in zo'n topic het woord "amd" te gebruiken. En vice-versa. Gewoon een ban-voor-het-leven. Simpel. Dat zou de wereld (en tweakers) een stuk prettiger maken.

Het is me opgevallen dat een aantal sites sub-fora aanmaakt voor threads over AMD en over nVidia zaken. Ik denk om de fanboys uit elkaar te houden. Slim. Het meeste geruzie is van technisch niveau nul. Daar wil ik m'm tijd liever niet aan verdoen.
Beetje jammer, ik vind de discussie wel wat toevoegen.
Je ziet sjekneck en mij toch elkaar toch niet in de haren vliegen? Het is goed mogelijk om op een normale manier met elkaar te discusieren. Als je denkt dat dit niet nieuwswaardig is dan zit je in het verkeerde topic want zowel Project Cars en The Witcher 3 zijn in het nieuws geweest doordat er GameWorks in zit.

Dat dit toevallig slecht is voor AMD kaarten dat komt dan terug in de discussie. Het lijkt er ook op in benchmarks dat de 6xx en 7xx generatie niet goed presteren in project cars in vergelijking met de 9xx serie, zulke dingen moeten aan het ligt worden gebracht. Ik denk dat niemand blij wordt met planned obsolescence. Misschien dat dit in nieuwe drivers al weer beter is maar als een GTX 780 vergelijkbaar presteerd met een GTX 960 (en 280x) dan zou ik daar als 780 eigenaar niet blij van worden want die kaart is de directe concurent van de R9 290.

Acties:
  • 0 Henk 'm!

280562

Ik heb de discussie die jullie voeren amper gelezen. *knip* dan is de rest ook niet relevant en slechts om reacties uit te lokken.

[ Voor 71% gewijzigd door br00ky op 17-06-2015 11:49 ]


Acties:
  • 0 Henk 'm!

  • petjax
  • Registratie: Juni 2012
  • Laatst online: 04-05-2024
Sp3ci3s8472 schreef op dinsdag 16 juni 2015 @ 18:16:
[...]


Dat dit toevallig slecht is voor AMD kaarten dat komt dan terug in de discussie. Het lijkt er ook op in benchmarks dat de 6xx en 7xx generatie niet goed presteren in project cars in vergelijking met de 9xx serie, zulke dingen moeten aan het ligt worden gebracht. Ik denk dat niemand blij wordt met planned obsolescence. Misschien dat dit in nieuwe drivers al weer beter is maar als een GTX 780 vergelijkbaar presteerd met een GTX 960 (en 280x) dan zou ik daar als 780 eigenaar niet blij van worden want die kaart is de directe concurent van de R9 290.
Dus jij vindt de R9 290 beter?/sterker?/sneller? dan de GTX 780?

Voor mij heel interessant want ik twijfel tussen deze 2 kaarten, en ik weet wel dat dit vragen naar de bekende weg is op een nvidia topic.

Maar op zijn minst krijg ik de sterke kant van de GTX 780 te horen[met een scheutje/slok vooroordeel? lol] buiten het stroomverbruik want dat interesseert me niet.

Maar ik verwacht toch ook dat er mensen zijn die gewoon zeggen waar het op staat, eerlijkheid duurt het langst toch?.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:39

Sp3ci3s8472

@ 12 graden...

petjax schreef op dinsdag 16 juni 2015 @ 18:59:
[...]


Dus jij vindt de R9 290 beter?/sterker?/sneller? dan de GTX 780?

Voor mij heel interessant want ik twijfel tussen deze 2 kaarten, en ik weet wel dat dit vragen naar de bekende weg is op een nvidia topic.

Maar op zijn minst krijg ik de sterke kant van de GTX 780 te horen[met een scheutje/slok vooroordeel? lol] buiten het stroomverbruik want dat interesseert me niet.

Maar ik verwacht toch ook dat er mensen zijn die gewoon zeggen waar het op staat, eerlijkheid duurt het langst toch?.
Niet echt de vraag voor dit topic :p.

Ze zijn aan elkaar gewaagd, op lagere resoluties is de GTX780 sneller, op hogere resoluties is de 290 sneller. Het hangt ook af van welke spellen je speelt, dus kijk daar eerst naar.
Zorg in ieder geval dat je cpu snel zat is in beide gevallen :P.

http://www.anandtech.com/bench/product/1036?vs=1068

@petjax
Lees de topic regels maar door. Je kan deze vraag beter in het componenten aankoopadvies forum vragen of een nieuw topic aanmaken in videokaarten en beeldschermen als je met een specifieke vraag zit.
Als je niet van plan was een van die kaarten te kopen dan kan je dit negeren :+.

[ Voor 15% gewijzigd door Sp3ci3s8472 op 16-06-2015 19:27 . Reden: bespaart een extra post :P ]


Acties:
  • 0 Henk 'm!

  • petjax
  • Registratie: Juni 2012
  • Laatst online: 04-05-2024
Waarom niet? of gaat het alleen over nvidia als een geheel en niet over individuele delen?.
Dan mijn excuses, want ik dacht waar beter te vragen over een nvidia kaart dan hier? want dat merken gedoe is niet aan mij besteed, over de hele lijn genomen verschilt het niet veel toch?, maar ja een echte Ajaxcied wordt ook nooit een Feyenoorder toch? LOL

Acties:
  • 0 Henk 'm!

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 21:54

br00ky

Moderator Harde Waren
Omdat dit een nieuwstopic is, géén aankoopadvies topic :).

Acties:
  • 0 Henk 'm!

  • petjax
  • Registratie: Juni 2012
  • Laatst online: 04-05-2024
br00ky schreef op woensdag 17 juni 2015 @ 11:48:
[...]

Omdat dit een nieuwstopic is, géén aankoopadvies topic :).
OK ik begrijp het, mijn excuses, my bad. http://tweakimg.net/g/s/b...weakimg.net/g/s/smile.gif

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

AMD's nieuwste generatie is uiteindelijk best OK. Veel performance voor het geld, vaak sneller dan de nVidia 900 serie tegenhangers op hogere resoluties. Alleen zijn het wel gewoon respins, dus geen innovaties behalve snellere clocks: het verbruik is vaak echt mega, de 390X verbruikt zo 100watt meer dan de GTX 980, heeft geen HDMI2.0, etc etc.
Daardoor heb ik het gevoel dat als nVidia hogere clocks en nieuwe naam geeft aan de GTX 985/975/965 kaarten dat het dan weer gelijk op gaat. Of juist de prijs laat dalen, 50 $/€ goedkoper.

Wat zijn de kansen hierop?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Anoniem: 668222

Prestaties zijn aardig gelijk voor de meest gespeelde resoluties en nog in het voordeel van Nvidia.
Alleen als je ook daadwerkelijk op 4K gaat spelen heb je voordeel met AMD kaarten.
De echte 4k kaartengaan we de aankomende jaren nog niet zien denk ik?

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

Anoniem: 668222 schreef op vrijdag 19 juni 2015 @ 08:50:
Prestaties zijn aardig gelijk voor de meest gespeelde resoluties en nog in het voordeel van Nvidia.
Alleen als je ook daadwerkelijk op 4K gaat spelen heb je voordeel met AMD kaarten.
De echte 4k kaartengaan we de aankomende jaren nog niet zien denk ik?
OK. Maar dat is niet mijn vraag.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Anoniem: 668222

XanderDrake schreef op vrijdag 19 juni 2015 @ 08:57:
[...]

OK. Maar dat is niet mijn vraag.
De kans lijkt me vrij klein gezien Nvidia niets uit hoeft te brengen want ze gaan gelijk op.

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 22:45

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

XanderDrake schreef op vrijdag 19 juni 2015 @ 08:38:
AMD's nieuwste generatie is uiteindelijk best OK. Veel performance voor het geld, vaak sneller dan de nVidia 900 serie tegenhangers op hogere resoluties. Alleen zijn het wel gewoon respins, dus geen innovaties behalve snellere clocks: het verbruik is vaak echt mega, de 390X verbruikt zo 100watt meer dan de GTX 980, heeft geen HDMI2.0, etc etc.
Daardoor heb ik het gevoel dat als nVidia hogere clocks en nieuwe naam geeft aan de GTX 985/975/965 kaarten dat het dan weer gelijk op gaat. Of juist de prijs laat dalen, 50 $/€ goedkoper.

Wat zijn de kansen hierop?
nVidia zal de prijs alleen laten zakken, als de prijs/prestatie van AMD een stuk beter is. En AMD die zit helemaal niet te wachten op een prijzenoorlog, dus die zet geen druk op nVidia. AMD positioneert de kaarten zo dat ze een iets betere prijs/prestatie als nVidia hebben, maar dat vindt nVidia wel best. Een heel groot deel koopt toch nVidia gewoon op de naam, die kijkt niet eens naar prijs/prestatie, prestatie/watt of geluid of überhaubt de prestaties. Groot deel kijkt gewoon naar de hoeveel geheugen, de prijs en het nVidia stickertje.
bron: -The_Mask- in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 130"

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

SAiN ONeZ schreef op vrijdag 19 juni 2015 @ 09:09:
[...]


nVidia zal de prijs alleen laten zakken, als de prijs/prestatie van AMD een stuk beter is. En AMD die zit helemaal niet te wachten op een prijzenoorlog, dus die zet geen druk op nVidia. AMD positioneert de kaarten zo dat ze een iets betere prijs/prestatie als nVidia hebben, maar dat vindt nVidia wel best. Een heel groot deel koopt toch nVidia gewoon op de naam, die kijkt niet eens naar prijs/prestatie, prestatie/watt of geluid of überhaubt de prestaties. Groot deel kijkt gewoon naar de hoeveel geheugen, de prijs en het nVidia stickertje.
bron: -The_Mask- in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 130"
Helaas denk ik inderdaad dat dit het geval zal zijn. Alleen wij zijn niet blind. Ik ben een lichte nVidian en heb de neiging om die GPUs te kopen, maar ik ben niet zo dom om nu een langzamere videokaart te kopen voor hetzelfde of meer geld.

Kanttekening is wel dat dit alleen geldt voor resoluties van hoger dan Full HD terwijl ik dan ook nog een nieuw scherm moet kopen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Anoniem: 668222

Men kijkt vooral naar de prestaties daar ben ik van bewust. Mensen die naar meer geheugen en namen kijken kopen vaak kant en klare pc's dus het is niet helemaal waar wat hier word beweerd.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat kun je wel zeggen, maar dat is in mijn ogen niet de realiteit. Mijn ervaring na vele jaren verkoop van PC onderdelen en complete PC's, dat de meeste mensen wél naar het geheugen en de naam kijken. Zelden dat iemand toegeeft dat ie er niks van kent en advies vraagt, de meeste hebben al besloten wat het moet worden qua merk (AMD of Nvidia) en hoeveel geheugen minimaal. Ze zoeken enkel nog bevestiging van je om de onzekerheid te doorbreken. Ik heb het nu niet over de ervaren en kennisrijke PC enthusiast maar over de gemiddelde consument die (iets met) een GPU koopt.

[ Voor 27% gewijzigd door Phuncz op 19-06-2015 09:39 ]


Acties:
  • 0 Henk 'm!

Anoniem: 668222

Phuncz schreef op vrijdag 19 juni 2015 @ 09:36:
Dat kun je wel zeggen, mijn ervaring na vele jaren verkoop van PC onderdelen en complete PC's, dat de meeste mensen wél naar het geheugen en de naam kijken. Zelden dat iemand toegeeft dat ie er niks van kent en advies vraagt, de meeste hebben al besloten wat het moet worden qua merk (AMD of Nvidia) en hoeveel geheugen minimaal.
Niet verwacht dat er zoveel naïeven zijn onder de losse onderdelen aankopen, kan het haast niet geloven :+

[ Voor 3% gewijzigd door Anoniem: 668222 op 19-06-2015 09:40 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

Phuncz schreef op vrijdag 19 juni 2015 @ 09:36:
Dat kun je wel zeggen, maar dat is in mijn ogen niet de realiteit. Mijn ervaring na vele jaren verkoop van PC onderdelen en complete PC's, dat de meeste mensen wél naar het geheugen en de naam kijken. Zelden dat iemand toegeeft dat ie er niks van kent en advies vraagt, de meeste hebben al besloten wat het moet worden qua merk (AMD of Nvidia) en hoeveel geheugen minimaal. Ze zoeken enkel nog bevestiging van je om de onzekerheid te doorbreken. Ik heb het nu niet over de ervaren en kennisrijke PC enthusiast maar over de gemiddelde consument die (iets met) een GPU koopt.
Ik heb ook jaren in een computerwinkel gewerkt. Deze mensen heb je zeker, maar de meeste slaan er wel een review of twee op na. Het gaat wel over honderden euros he? Dat raad ik ook altijd aan in de winkel.
OK als het stuivertje wisselen is tussen twee kaarten is het vaak dat men kiest voor zijn/haar favo merk. Maar als er een duidelijke winnaar is dan is men ook niet dom.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Anoniem: 521772

Heeft iemand een idee waarom asus watch met het uitbrengen van de 980 ti strix? Volgens mij is het een grote fout en zijn er al veel mensen die een 980 ti besteld hebben. Wat mij ook opvalt is dat SIcomputers alle kaarten voor de laagste prijs aanbied en alle kopers heeft. Waarom dalen de andere sites niet in prijs?

Acties:
  • 0 Henk 'm!

Anoniem: 668222

Over dx12 in Fable 4.

[ Voor 99% gewijzigd door Anoniem: 668222 op 22-06-2015 12:17 ]


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:53

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:39

Sp3ci3s8472

@ 12 graden...

Je weet dat dit GCN en Maxwell 2.0 only features (asynchronous shading) zijn? :+
Er werd in meer detail over gesproken in de pcgamingshow E3 conference.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

Ik snap ondertussen de PR en reclame rond DX12 niet echt meer. Vroegâr was een nieuwe versie van DirectX een heel ding, duurde jaren voor het volledig ontwikkeld was, latest features and effects, enz. Voor nVidia en AMD was bijv. DX10 een zeer groot verkooppunt voor de G80 en R300.

Nu zie ik deze argumentering een stuk minder voor DX12. Het is prima dat DX12 ook gedeeltelijk werkt op DX11 kaarten, maar ik denk dat ze een stuk meer zouden verdienen aan de release van een nieuwe GPU als ze het koppelen aan "Full DX12 support, future proof !?!?1!!".
De focus lijkt nu wel te liggen op hoe breed ondersteunend de GPUs van tegenwoordig zijn met allerlei API's en feature-levels. Een onduidelijkere boodschap lijkt me.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • hubhib
  • Registratie: December 2006
  • Laatst online: 22:14
XanderDrake schreef op maandag 22 juni 2015 @ 13:30:
Ik snap ondertussen de PR en reclame rond DX12 niet echt meer. Vroegâr was een nieuwe versie van DirectX een heel ding, duurde jaren voor het volledig ontwikkeld was, latest features and effects, enz. Voor nVidia en AMD was bijv. DX10 een zeer groot verkooppunt voor de G80 en R300.

Nu zie ik deze argumentering een stuk minder voor DX12. Het is prima dat DX12 ook gedeeltelijk werkt op DX11 kaarten, maar ik denk dat ze een stuk meer zouden verdienen aan de release van een nieuwe GPU als ze het koppelen aan "Full DX12 support, future proof !?!?1!!".
De focus lijkt nu wel te liggen op hoe breed ondersteunend de GPUs van tegenwoordig zijn met allerlei API's en feature-levels. Een onduidelijkere boodschap lijkt me.
Ik als consument vind de huidige trend best aangenaam. Ik heb nog nooit zo lang gedaan met hardware als de laatste paar jaar. Mijn 2500K uit 2011 kan nog prima mee komen en ook mijn inmiddels vervangen Radeon 7970(nu GTX 980) komt nog goed mee in de huidige games. Ergens begint het wel te kriebelen om ook mijn processor te vervangen, maar dit zal niet meer uit pure noodzaak zijn zoals vroeger.

Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x


Acties:
  • 0 Henk 'm!

  • tijmenvn
  • Registratie: Mei 2011
  • Laatst online: 16-12-2024
Ik denk dat je op een gegeven moment niet meer het verschil gaat merken als je zoveel fasen aan de stroomtoevoer gaat toevoegen. Misschien dat je hiermee met LN2 een extra 50-100MHz eruit kan krijgen. Maar voor water en luchtkoeling, denk ik dat dit niet veel beter zal zijn dan andere aftermarket oplossingen die ca. 8 fasen hebben bijvoorbeeld

Ik lees nu ook pas het bericht dat het een LN2 editie is :p. ik denk dat ze het met me eens zijn dus :9

[ Voor 7% gewijzigd door tijmenvn op 22-06-2015 14:31 ]

AMD Ryzen 7 9800X3D // Noctua NH-U12A Chromax Black // ASUS X870-P // 64GB G.Skill Trident Z5 6000MT/s C30 // NVIDIA RTX4090 FE // Samsung 980 Pro 2TB // Corsair AX1200i // Phanteks Enthoo Evolv ATX // Alienware AW3423DW (3440x1440 QD-OLED)


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

hubhib schreef op maandag 22 juni 2015 @ 13:47:
[...]


Ik als consument vind de huidige trend best aangenaam. Ik heb nog nooit zo lang gedaan met hardware als de laatste paar jaar. Mijn 2500K uit 2011 kan nog prima mee komen en ook mijn inmiddels vervangen Radeon 7970(nu GTX 980) komt nog goed mee in de huidige games. Ergens begint het wel te kriebelen om ook mijn processor te vervangen, maar dit zal niet meer uit pure noodzaak zijn zoals vroeger.
QFT ! En DX12 gaat die levensduur alleen maar verlengen vermoed ik. Als games ineens efficiënter kunnen werken. Laten we hopen dat het ook goed naar onder schaalt.

Acties:
  • 0 Henk 'm!

  • tijmenvn
  • Registratie: Mei 2011
  • Laatst online: 16-12-2024
Phuncz schreef op maandag 22 juni 2015 @ 19:28:
[...]

QFT ! En DX12 gaat die levensduur alleen maar verlengen vermoed ik. Als games ineens efficiënter kunnen werken. Laten we hopen dat het ook goed naar onder schaalt.
Je kunt het op die manier zien ja. Je kunt het ook zien als een punt tegen Intel dat ze zo zonder competitie amper innoveren. Het enige wat zij voor desktopprocessoren doen, is de procéde verkleinen. Wat het voor hun goedkoper maakt. Vervolgens een iets efficiëntere architectuur. En ja, zo vragen ze nog steeds hetzelfde voor de i7 4790K als dat ze deden voor de i7 2600K, terwijl deze maar marginaal sneller is. Maar veel goedkoper voor Intel is om te maken. Van mij part mogen ze 6-8 core trend inmiddels wel naar het mainstream platform brengen. En 4 PCI-E lanes meer vanaf de CPU zodat we eindelijk SLI setups met PCI-E 3.0 x4 SSD's kunnen combineren :)

AMD Ryzen 7 9800X3D // Noctua NH-U12A Chromax Black // ASUS X870-P // 64GB G.Skill Trident Z5 6000MT/s C30 // NVIDIA RTX4090 FE // Samsung 980 Pro 2TB // Corsair AX1200i // Phanteks Enthoo Evolv ATX // Alienware AW3423DW (3440x1440 QD-OLED)


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het probleem ligt in mijn ogen niet bij Intel, maar bij het gebrek aan concurrentie. Sowieso zijn DX12 en andere CtM API's juist bedoeld om (veel) overhead weg te halen om zo bottlenecks te doen verdwijnen. Er maar steeds krachtigere CPU's tegenaangooien is een doodlopend straatje, soms moet de software ook eens weer vanaf nul herbekeken worden. Zo is het ook verfrissend dat Microsoft Windows al sinds Vista geen hogere systeemeisen meer kent door de steeds doorgevoerde optimalisaties.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

Phuncz schreef op maandag 22 juni 2015 @ 19:28:
[...]

QFT ! En DX12 gaat die levensduur alleen maar verlengen vermoed ik. Als games ineens efficiënter kunnen werken. Laten we hopen dat het ook goed naar onder schaalt.
Heb je daarvoor niet een Full Supported DX12 gpu voor nodig :P ?

Het gaat mij meer over de PR en advertenties. Volgens mij kunnen alle fabrikanten hier meer mee verdienen, dus waarom ze het niet doen weet ik niet.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 21:27

OMD

Wccftech zegt wel vaker wat.

Vanuit commercieel standpunt gezien hoeven ze niets te verlagen. De 980ti zit op het zelfde prijspunt als de Fury maar presteerd in veel gevallen beter. Dan kunnen ze de prijs wel verlagen maar ze winnen al met prestatie. Is ook maar mijn idee hoor, kunnen geen rechten aan worden ontleend :p

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
OMD schreef op zaterdag 27 juni 2015 @ 21:30:
Wccftech zegt wel vaker wat.

Vanuit commercieel standpunt gezien hoeven ze niets te verlagen. De 980ti zit op het zelfde prijspunt als de Fury maar presteerd in veel gevallen beter. Dan kunnen ze de prijs wel verlagen maar ze winnen al met prestatie. Is ook maar mijn idee hoor, kunnen geen rechten aan worden ontleend :p
Tuurlijk, het is een gerucht wat moeilijk te verifiëren valt. Dat gezegd hebbende, met de AMD Fury zaten ze erg vaak goed qua geruchten, dus wie weet.

Ze zouden hiermee wat extra druk kunnen zetten op AMD, maar Nvidia is normaal nogal gesteld op hun marges, dus heb er zelf ook een hard hoofd in.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:53

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Nvidia probeert wat nieuws met reclame maken
Afbeeldingslocatie: https://scontent.xx.fbcdn.net/hphotos-xpf1/v/t1.0-9/11059327_1094031590625755_6605737616889984181_n.jpg?oh=f3d300f0f79890b97ae176c6f7563941&oe=5629DC95

https://www.facebook.com/...0567743320&type=1&theater

Acties:
  • 0 Henk 'm!

  • MaXeRs
  • Registratie: November 2008
  • Laatst online: 14:46
XanderDrake schreef op maandag 22 juni 2015 @ 13:30:
Ik snap ondertussen de PR en reclame rond DX12 niet echt meer. Vroegâr was een nieuwe versie van DirectX een heel ding, duurde jaren voor het volledig ontwikkeld was, latest features and effects, enz. Voor nVidia en AMD was bijv. DX10 een zeer groot verkooppunt voor de G80 en R300.

Nu zie ik deze argumentering een stuk minder voor DX12. Het is prima dat DX12 ook gedeeltelijk werkt op DX11 kaarten, maar ik denk dat ze een stuk meer zouden verdienen aan de release van een nieuwe GPU als ze het koppelen aan "Full DX12 support, future proof !?!?1!!".
De focus lijkt nu wel te liggen op hoe breed ondersteunend de GPUs van tegenwoordig zijn met allerlei API's en feature-levels. Een onduidelijkere boodschap lijkt me.
Komt door de consoles,die hebben de ontwikkeling een flink stuk gestagneerd,wat wil je ook met bij release al verouderde hardware ,dan moet je als ontwikkelaar flink aan de bak om de consument ervan te overtuigen om overstag te gaan.
Kosten baatte plaatje. Vroegah ! toen dit niet zozeer speelde was de ontwikkeling van dx meer gericht op de hardware de ontwikkeling wel kon bijbenen.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

http://www.fudzilla.com/n...dia-quadros-out-in-august

Een nieuwe quadro komt in augustus uit, maar aan de specs te zien is het geen nieuwe gpu, eerder een respin van Maxwell.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

http://www.fudzilla.com/n...eadying-maxwell-gm206-250

Er komen waarschijnlijk een aantal mid end gpus erbij, denk aan GTX 950 of dergelijke. Misschien toch nog een totaal nieuwe serie van respins op komst?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
De langzaamste Maxwell 2 en 900 serie kaart is nu de GTX 960, lijkt mij idd vrij logisch dat ze nog met meer Maxwell 2 kaarten komen. De volgende generatie op 16nm (of misschien 14nm) duurt toch nog minimaal een jaar.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
En ik denk dat iedereen wel aan het wachten is op de GT960ti ...
Hopelijk met een wat grotere memory bus
(En de allerlaatste rage, minstens 8gb ram erop !!! >:) |:( )

Specs


Acties:
  • 0 Henk 'm!

  • Anonymoussaurus
  • Registratie: April 2014
  • Niet online

Anonymoussaurus

Medewerker van Oxygen Updater

Degene die TDR's hebben met gamen/surfen met Chrome of whatever. Er is een update uitgebracht door Nvidia die het probleem schijnt op te lossen (zie meeste reacties).

Bron met download: https://forums.geforce.co...rce-hotfix-driver-353-38/

Medewerker van Oxygen Updater: discord.gg/5TXdhKJ


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 17:28
lightdestroyer schreef op vrijdag 03 juli 2015 @ 12:56:
En ik denk dat iedereen wel aan het wachten is op de GT960ti ...
Hopelijk met een wat grotere memory bus
(En de allerlaatste rage, minstens 8gb ram erop !!! >:) |:( )
Ik wacht daar al sinds januari op; een 960 Ti van +- 250 euro. Als ik had geweten dat het zo lang zou duren dan had ik een GTX 970 aangeschaft. Nu is het voor mij een beetje onzinnig om een 9 maanden oude kaart aan te schaffen die ook nog eens +- 10-20 euro duurder is geworden.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
lightdestroyer schreef op vrijdag 03 juli 2015 @ 12:56:
En ik denk dat iedereen wel aan het wachten is op de GT960ti ...
Hopelijk met een wat grotere memory bus
(En de allerlaatste rage, minstens 8gb ram erop !!! >:) |:( )
Voor een GTX 960 Ti kunnen ze alleen maar een GM204 GPU pakken, de GM206 GPU heeft immers alles al ingeschakeld. Mocht die komen dan is een GM204 waarvan een aantal stream processors en een stukje geheugenbus zijn uitgeschakeld het meest logische.

Ik zou zeggen een GM204 GPU, met 1536 stream processors ingeschakeld, 48 ROPS ingeschakeld en een 192 bit geheugeninterface, dus zeg maar een kwart van de chip is uitgeschakeld.

Maar de vraag is of ze dat wel willen, ze gebruiken nu de defecte chips voor in de laptops. De GeForce GTX 965M heeft nu maar de helft (!!!) van het aantal stream processors ingeschakeld en dat zelfde geld voor de geheugenbus. Een GeForce GTX 970M heeft met 1280 streamprocessors en een 192 bit geheugeninterface al iets meer ingeschakeld maar ook hier wordt veel uitgeschakeld. Zelfs de GeForce GTX 980M komt met 1536 streamprocessors, maar maximaal tot drie kwart ingeschakeld al is de geheugenbus in dit geval wel 256 bit.

Dit laat dus duidelijk zien dat ze alle defecte chips al prima kunnen gebruiken voor in laptops. Waarschijnlijk hebben ze niet meer defecte chips en willen ze liever niet een perfecte chip welke ook als GTX 980 verkocht kon worden voor veel minder verkopen als GTX 960 Ti. Vandaar dat nVidia helemaal geen haast maakt met deze kaart, mocht die ooit komen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 06-06 15:00

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Ik dacht dat voor Laptops altijd juist de beste stukken van de wafer moesten hebben om het stroomverbruik binnen de perken te houden?

betere wafer -> lager voltage -> gunstiger verbruik

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:56
-The_Mask- schreef op vrijdag 03 juli 2015 @ 13:15:
Maar de vraag is of ze dat wel willen, ze gebruiken nu de defecte chips voor in de laptops. De GeForce GTX 965M heeft nu maar de helft (!!!) van het aantal stream processors ingeschakeld en dat zelfde geld voor de geheugenbus.
zou die ondertussen niet met zo'n 960 chip geleverd worden?

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Wolf schreef op vrijdag 03 juli 2015 @ 13:34:
Ik dacht dat voor Laptops altijd juist de beste stukken van de wafer moesten hebben om het stroomverbruik binnen de perken te houden?

betere wafer -> lager voltage -> gunstiger verbruik
Er lijkt mij niet heel veel verschil te zitten tussen het midden en de rand van een wafer qua verbruik, verschil voor een laptop GPU lijkt mij hooguit enkele watts, dat moet niet echt veel uit maken. Grote verschil in verbruik ga je pas krijgen bij een lagere kloksnelheid en minder ingeschakelde streamprocessors, maar wat ook veel helpt is de spanning op de GPU, als die iets lager kan door de lagere kloksnelheid zal dit ook al veel verschil maken.

Is overigens wel de manier welke AMD nu gebruikt, de beste chips voor in de laptop, met alle stream procesoors ingeschakeld en voor de PC, GPU's geen volledig ingeschakelde chips. (Behalve dan Hawaii en Fiji, maar die verbruiken toch te veel voor laptops)
haarbal schreef op vrijdag 03 juli 2015 @ 14:39:
[...]

zou die ondertussen niet met zo'n 960 chip geleverd worden?
Het zou een optie kunnen zijn, maar wordt volgens mij niet gedaan. Mocht het zo zijn dan is het wel met GPU-z uit te lezen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Resinman
  • Registratie: September 2001
  • Laatst online: 05-06 18:02
EVGA GeForce GTX 980 Ti K|NGP|N pre-binned GPU:
Availability starting July 22nd, 2015 10:00 AM (PT).

ASIC 80%+ - $1049.99
ASIC 76%+ - $ 999.99
ASIC 74%+ - $ 899.00
ASIC 72%+ - $ 849.99

http://www.evga.com/artic...Force-GTX-980-Ti-KINGPIN/

Vrij uniek lijkt mij :)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Moeten ze hiervoor geen aanvraag indienen bij de kansspelcommissie ? :+
Het moet echt niet gekker worden dat ze je $200 aanrekenen voor potentieel meer overclock. Maar er zal wel een markt voor zijn voor dit soort absurditeiten.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

Resinman schreef op dinsdag 21 juli 2015 @ 08:31:
EVGA GeForce GTX 980 Ti K|NGP|N pre-binned GPU:
Availability starting July 22nd, 2015 10:00 AM (PT).

ASIC 80%+ - $1049.99
ASIC 76%+ - $ 999.99
ASIC 74%+ - $ 899.00
ASIC 72%+ - $ 849.99

http://www.evga.com/artic...Force-GTX-980-Ti-KINGPIN/

Vrij uniek lijkt mij :)
Het was toch eigenlijk maar een kwestie van tijd dat dit ging gebeuren :+
Wat dat betreft is ASIC quality de beste indicator van beter overclocken (minder leakage, lagere temps) nietwaar?
Maar wat is eigenlijk de gemiddelde ASIC quality van de high-end GPUs, en wat zijn de standaard deviaties?

Wederom iets wat een user met één of max twee GPU's niet echt lekker kan testen, maar waar een grote techsite wel iets mee kan doen. Alleen zover ik weet doet niemand er iets mee, hoewel het zeer handig zou zijn voor hun clienten/lezers.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Anoniem: 668222

Vraag ik mij ook af XanderDrake, wat de gemiddelde Asic is ongeveer. Ik heb met mijn gtx 680 ooit een Asic gezien van 67% en een andere had 73%. Nu heb ik een gtx 980 ti met een Asic van 71%.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Phuncz schreef op dinsdag 21 juli 2015 @ 09:16:
Moeten ze hiervoor geen aanvraag indienen bij de kansspelcommissie ? :+
Het moet echt niet gekker worden dat ze je $200 aanrekenen voor potentieel meer overclock. Maar er zal wel een markt voor zijn voor dit soort absurditeiten.
Nee er is geen markt voor. Normaal wordt dit allemaal achter de schermen gedaan door fabrikanten met als doel goede reclame voor hun merk d.m.v. overclock records etc. De bekendere overclockers kunnen dan hun kunsten vertonen met videokaarten, CPUs, moederborden e.d. welke gesponsord zijn door een fabrikant.

Uiteraard hebben ze bij EVGA een nVidia mentaliteit dus gaan ze het proberen te verkopen...

Als je dit echt wil dan ben je waarschijnlijk een wanne be K|NGP|N. De echte K|NGP|N krijgt de exemplaren gratis toegestuurd ;) Alsof je dure merkkleding koopt met het merk prominent op je kleren gedrukt waardoor je gratis reclame maakt voor de al te dure merkkleding, mensen :+ ;w

[ Voor 7% gewijzigd door madmaxnl op 21-07-2015 15:59 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

Anoniem: 668222 schreef op dinsdag 21 juli 2015 @ 15:50:
Vraag ik mij ook af XanderDrake, wat de gemiddelde Asic is ongeveer. Ik heb met mijn gtx 680 ooit een Asic gezien van 67% en een andere had 73%. Nu heb ik een gtx 980 ti met een Asic van 71%.
Die 71% is redelijk goed dus. Dat zie ik ook in fora, bij mensen die het bij houden.
Maar ja, statistics over overclock resultaten met asic qual zie ik nergens.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Phuncz schreef op maandag 22 juni 2015 @ 19:28:
[...]

QFT ! En DX12 gaat die levensduur alleen maar verlengen vermoed ik. Als games ineens efficiënter kunnen werken. Laten we hopen dat het ook goed naar onder schaalt.
Nope, we gaan dan meer eye-candy, draw-distance en foto-realisme krijgen en wellicht zelfs 60/120/144 hz op de consoles stel je voor :P .

Er blijven altijd Dice's Crytek's en Ubi die het maximale uit next-gen hardware willen persen. (en dat is nu eenmaal de meuk die het beste aan de kudde verkoopt).

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 06-06 14:58
madmaxnl schreef op dinsdag 21 juli 2015 @ 15:53:
[...]


Nee er is geen markt voor. Normaal wordt dit allemaal achter de schermen gedaan door fabrikanten met als doel goede reclame voor hun merk d.m.v. overclock records etc. De bekendere overclockers kunnen dan hun kunsten vertonen met videokaarten, CPUs, moederborden e.d. welke gesponsord zijn door een fabrikant.

Uiteraard hebben ze bij EVGA een nVidia mentaliteit dus gaan ze het proberen te verkopen...

Als je dit echt wil dan ben je waarschijnlijk een wanne be K|NGP|N. De echte K|NGP|N krijgt de exemplaren gratis toegestuurd ;) Alsof je dure merkkleding koopt met het merk prominent op je kleren gedrukt waardoor je gratis reclame maakt voor de al te dure merkkleding, mensen :+ ;w
Als er geen markt voor is, waarom brengen ze dit soort meuk dan uit ;)
Of het zinvol is voor 99,9% van de mensen is een ander verhaal, maar ondanks de kleine groep zijn er genoeg die maar wat graag meedoen met de e-penis competitie en dit soort producten kopen. Kijk maar naar bv de Titan, de dure intel cpu's en tegenwoordig ook AMD met de Fury X, fabrikanten gaan hier ook in mee om een beetje extra cash/publiciteit te pakken

Acties:
  • 0 Henk 'm!

  • Stoffa
  • Registratie: Februari 2005
  • Laatst online: 10:53
Resinman schreef op dinsdag 21 juli 2015 @ 08:31:
EVGA GeForce GTX 980 Ti K|NGP|N pre-binned GPU:
Availability starting July 22nd, 2015 10:00 AM (PT).

ASIC 80%+ - $1049.99
ASIC 76%+ - $ 999.99
ASIC 74%+ - $ 899.00
ASIC 72%+ - $ 849.99

http://www.evga.com/artic...Force-GTX-980-Ti-KINGPIN/

Vrij uniek lijkt mij :)
Nu ben ik plotseling niet ontevreden met mijn Inno3d met een Asic van 79.9% :)

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Om voor de verandering eens wat nieuws/geruchten te posten (toevallig tegengekomen toen ik naar de geruchten van de aankomende intel cpu's aan het kijken was)

Nvidia Pascal GP100 GPU Flagship Will Pack A 4096-bit Memory Bus And Four 8-Hi HBM2 Stacks

Vooral het feit dat de GP100 zogezegd als "taped out" is wil zeggen dat ze inderdaad royaal veel tijd hebben voor te optimaliseren (indien alles goed gaat natuurlijk). Nu nog de productie in gang krijgen op het kleinere procedé :P

Al de rest van het bericht is hier al lang besproken zou ik zeggen :D

Specs


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

De tape out is toch al een tijd geleden, maand of twee? Ook belangrijk in dit bericht, AMD heeft ook een tape out op 16nm FinFET.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
16nm is maar de vraag, dat zou een tape-out bij TSMC zijn, maar GloFo-Samsung lijkt logischer wat betreft AMD.

Maar sowieso we zijn nog ver verwijderd van een nieuwe generatie, ook al hebben we nu al een tape-out.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Het is goed nieuws dat de tape outs zo vroeg zijn. Zorgt ervoor dat we redelijk geoptimaliseerde gpu's gaan krijgen. (En niet snel gerushte kaarten nergens goed voor ..)
Kvraag me net zoals velen eigenlijk vooral af waar nVidia zijn geheugen zal halen... Met vroege tape outs kunnen ze natuurlijk nu wel gaan beginnen experimenteren met verschillende geheugen layouts en geheugenleveranciers (Hynix is echt niet de enige geheugenfabrikant, gelukkig maar ..).

En zoals men overal kan lezen is AMD precies op 2 paarden aan het wedden (TSMC én GloFo-Samsung). Klinkt eigenlijk ook gewoon best logisch. Je neemt je wafers af waar je het beste resultaat/garanties kan krijgen.
Dit kost misschien wel wat meer in ontwikkeling, maar men wacht nu al zo lang dat AMD zeëen van tijd had om eens bij een concurrent te gaan kijken :) .
Een concurrent waarmee ze sowieso al goede banden hebben en al over veel interne kennis beschikken.

Daarbij vroeger was het niet abnormaal dat videokaart makers hun gpu's bij verschillende fabrikanten lieten maken (Ik weet bv nog dat nvidia in "lang vervlogen" tijden niet enkel bij TSMC zijn gpu's liet maken maar ook bij een andere fabrikant.)
Pas toen TSMC superieur werd dan z'n concurrenten (1 van de redenen dat nVidia kon winnen van z'n concurrenten) werd de schaling voordelen (ontwikkelingsfocus gericht op maar 1 productie procedé) zo groot dat alle productie naar 1 fabrikant werd verschoven. (En diende de nvidia concurrenten te volgen op de aggressieve ontwikkelingscycli .. waardoor ze geen keuze hadden dan om ook maar op de TSMC bandwagen te springen .. een jaar achterstand was toen moordend..)
Goede tijden voor de consument, nu kan zowel nVidia en AMD gemakkelijk een minder jaar overbruggen zonder erge gevolgen, de fanboys zorgen wel voor genoeg omzet >:)

Eigenlijk is het iets dat men in andere industrieën probeert ten allen kosten te vermijden : je afhankelijk maken van maar 1 chipbakker/leverancier (vandaar dat ASML nooit een monopoly zal krijgen omdat de afnemers van hun machines echt niet willen dat ze nog maar bij 1 adres kunnen aankloppen .. bye bye snelle ontwikkeling. ..)
Je kon de laatste 2 jaren de gevolgen ervan zien: TSMC heeft simpelweg zijn productie procedé verkleint voor lage stroom chips maar voor videokaarten zeiden: "pech wacht maar wat langer".
En waarom niet, het is niet dat zowel AMD of nVidia enige andere optie hadden dan hun ontwikkelingschema's omver te gooien: er was geen alternatief.

PS: Ironisch genoeg zou AMD nu juist een schalingsvoordeel krijgen door weg te trekken van TSMC wegens de APU's en kunnen ze meer research gemeenschappelijk maken met zelf hun gewonen CPU tak. Kostenbesparing zal bij AMD sowieso hoog in hun prioriteiten staan en wat meer synergie kan geen kwaad nu meer en meer stemmen de kop op duiken om AMD op te splitsen..
Ook al doen ze daar initieel verlies mee: ze doen hun concurrentie er nog meer pijn mee. Als TSMC maar 1 klant meer heeft voor GPU wafers zullen de prijs per wafer toch omhoog gaan.
En de investeringen door TSMC zullen wellicht verminderen als hun omzet ook verminderd logischerwijze.

Alles valt hoe goed de GloFo-Samsung resultaten zijn vs TSMC. Vanaf ongeveer hetzelfde (of zelf ietsje minder) zie ik AMD wel overstappen. Maar zolang TSMC véél betere resultaten kan leveren...
PS: 14 nm proces bij 1 fabrikant hoeft zelf niet noodzakelijk kleiner/efficiënter/goedkoper te zijn dan een 16nm proces bij een andere fabrikant. Sinds de finfet's zijn de cijfertjes nu vooral een marketing tool geworden :/

En zelf als ze slechter zijn: Niets houdt AMD tegen om hun high-end bij TSMC te blijven produceren en hun low-end chips bij GloFo-Samsung. Vaak zijn dit toch twee verschillende chips. Kan je de volgende ronde beide fabrikanten mooi tegen elkaar uitspelen.

/me Lightdestroyer denkt dat nVidia door zich volledig vast te koppelen aan TSMC juist in een minder voordelige positie zou kunnen komen te staan dan AMD

Specs


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 22:03
lightdestroyer schreef op donderdag 23 juli 2015 @ 10:21:
(Hynix is echt niet de enige geheugenfabrikant, gelukkig maar ..).
Maar volgens mij op dit moment wel de enige die HBM maakt. Ik ben nog niks tegen gekomen dat Samsung (als voorbeeld) hier ook mee bezig is.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

In het verleden heeft nVidia zich vrij negatief uitgelaten over TSMC, ten tijden van de overstap op 28nm. Ik kan me niet voorstellen dat nVidia op maar één paard wed. Ik heb begrepen dat er dev teams zijn die altijd bezig zijn met het product dat uit moet komen ná het product dat ze nu aan het ontwikkelen zijn. Dat duurt vaak meerdere jaren, dus als ze nu fatale problemen met die-shrinks ervaren, kan ik me voorstellen dat ze ergens anders aan het kijken zijn.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Zeara schreef op donderdag 23 juli 2015 @ 10:28:
[...]


Maar volgens mij op dit moment wel de enige die HBM maakt. Ik ben nog niks tegen gekomen dat Samsung (als voorbeeld) hier ook mee bezig is.
Das omdat Samsung investeerd in HMC geheugen ipv HBM:
Wikipedia: Hybrid Memory Cube

HBM is sinds 2013 een Jedec standaard, maw het zou niet verwonderlijk zijn moest er één of meerdere concurrenten van Hynix ook dit kunnen leveren.
We hebben nog een lange tijd te gaan tegen de nieuwe gpu's zodoende hebben andere fabrikanten nog tijd om hun productie op te drijven (zeker als ze gegarandeerde afzet hebben).
Hence waarom het zo'n goed nieuws is dat de tape outs al gebeurd zijn: zowel nVidia als AMD kunnen zich dan meer richten op te gebruiken geheugen bv.
XanderDrake schreef op donderdag 23 juli 2015 @ 10:48:
In het verleden heeft nVidia zich vrij negatief uitgelaten over TSMC, ten tijden van de overstap op 28nm. Ik kan me niet voorstellen dat nVidia op maar één paard wed. Ik heb begrepen dat er dev teams zijn die altijd bezig zijn met het product dat uit moet komen ná het product dat ze nu aan het ontwikkelen zijn. Dat duurt vaak meerdere jaren, dus als ze nu fatale problemen met die-shrinks ervaren, kan ik me voorstellen dat ze ergens anders aan het kijken zijn.
"Spijtig genoeg" heeft nVidia CEO zelfs na die problemen bevestigd dat ze bleven TSMC zien als long term partner (en zodoende ook zo hun contracten hebben afgesloten).

Natuurlijk moest plotseling een concurrent véél betere resultaten opleveren zal nVidia wel proberen zo snel mogelijk te veranderen maar gemakkelijk zal het zeker niet gaan indien niet voorzien.
Daarbij enkel al hun trots/schrik zal hun in de weg staan om bij GloFo aan te kloppen, bij productietekorten zullen ze vrezen om na AMD in de wachtrij te komen staan.

Iets waar AMD totaal niet durft te doen natuurlijk *ahum* geheugen :+
Ook nVidia heeft dit spelletje al gespeeld in het verleden .. pot en ketel .. maar de ketel zal niet spontaan bij de pot gaan aankloppen om der volledig afhankelijk van te worden.
Zelf als je later juridisch gelijk krijgt is het kwaad geleden (AMD vs Intel, nVidia vs Intel) .. Intel heeft beide keren juridisch verloren maar uiteindelijk was het toch de grote overwinnaar.
Raar maar waar: ze (Intel) vinden niemand die nu nog bij hun chips wil laten produceren :+

[ Voor 48% gewijzigd door lightdestroyer op 23-07-2015 11:02 ]

Specs


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
lightdestroyer schreef op donderdag 23 juli 2015 @ 10:55:

HBM is sinds 2013 een Jedec standaard, maw het zou niet verwonderlijk zijn moest er één of meerdere concurrenten van Hynix ook dit kunnen leveren.
Concurrenten? :p

Welke concurrenten? Elpida is van Micron (overgenomen na faillisement van Elpida), naast Micron heb je dan alleen nog Samsung en beide hebben zich gericht op HMC, dus de enige fabrikant met HBM is SK Hynix normaalgesproken. Powerchip heeft nog nooit geheugen voor videokaarten gemaakt en is ook maar een kleine speler volgens mij, dus ik zie ze ook niet met HBM komen.

[ Voor 12% gewijzigd door -The_Mask- op 23-07-2015 11:23 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
-The_Mask- schreef op donderdag 23 juli 2015 @ 11:15:
[...]

Concurrenten? :p

Welke concurrenten? Elpida is van Micron (overgenomen na faillisement van Elpida), naast Micron heb je dan alleen nog Samsung en beide hebben zich gericht op HMC, dus de enige fabrikant met HBM is SK Hynix normaalgesproken. Powerchip heeft nog nooit geheugen voor videokaarten gemaakt en is ook maar een kleine speler volgens mij, dus ik zie ze ook niet met HBM komen.
Oei ;(

Powerchip heeft precies zelf niet de nodige fabs in huis om te kunnen concurreren: (70nm kleinste procedé volgens wat ik direct kan vinden)

Eerlijk gezegd ging ik er altijd vanuit dat je toch een 5-tal concurrenten had in dat segment: Ik wist dat de geheugen crisis (DDR2 periode dirt cheap memory O+ ) er hard had ingeslagen bij de memory fabrikanten (ik denk nog in tijden van toen met een hele hoop concurrenten).
Precies dat vooral Micron een hele hoop van z'n concurrenten heeft opgekocht. Lekker veel concurrentie nu .. :|
Verklaart mss waarom de DDR3 en DDR4 prijzen naar mijn in ziens veel te hoog liggen tov vroeger, slechte tijden als consument

(Snel lijstje opgezocht:)
  • Corsair Memory <<geen idee of deze eigen productie hebben of gewoon doorverkopen :s. Volgens mij bezitten ze geen enkele fabriek.
  • Kingston Technology <<grootste DRAM leverancier .. ze hebben het kapitaal?? Again volgens mij bezitten ze geen enkele fabriek
  • Micron Technology <<HMC
  • Mushkin <<niet dus XD (denk ik)
  • Samsung <<HMC
  • SK Hynix <<HBM
  • Transcend Information << GPU memory fabrikant .. *yay* mss maakt deze een mini kans ?? :P (fabriek in oa Shangai)
  • Winbond << 62nm productie node is hun kleinste .. ik vrees ervoor.
  • Wintec Industries Inc. <<Nee buiten als ze 200 supermannen in dienst hebben :+ (geen fabrieken in bezit)
  • STMicroelectronics <<Europees (*yay*) hebben de technische kennis van klein genoeg procedé .. geen idee of ze genoeg productiecapaciteit hebben + richten zich totaal niet op videokaart geheugen.
    Maar hun fabriek in Frankrijk ziet er capabel genoeg voor uit moesten ze ooit op de markt willen springen..
  • Numonyx: Opgekocht door Micron
  • Qimonda: Failliet (video geheugen voor consoles zoals de wii en xbox360)
  • Sandisk: Enkel precies flash geheugen fabs?? ..
Eigenlijk wou ik nu zeggen: Intel dus maar... guess what:
IM Flash Technologies << Micron + Intel samenwerking voor NAND memory .. dus wellicht ook HMC ??

/me Lightdestroyer vraagt zich dus eigenlijk af of je als videokaart bakker niet beter af bent met HMC .. tenminste nog wat concurrentie tussen de verschillende fabs, aka 2-3 fabriekanten :( . Eventueel 4 Als Hynix op deze markt ook wil mee doen ..

Specs


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Het is echt alleen SK Hynix, Micron, Samsung voor video en/of werkgeheugenchips en PowerChip nog voor werkgeheugenchips.

Fabrikanten als Corsair, Kingston, Mushkin, Transcend verkopen wel geheugen, maar de geheugenchips maken ze niet. Een fabrikant als Corsair maakt de producten niet eens zelf, ze zijn vaak hooguit ODM en geen OEM. Zelfde geld voor Mushkin en vast ook voor (sommige producten voor) Kingston en Transcend.

Winbond en STMicroelectronics houden zich niet bezig met normaal (lees: (G)DDR) werkgeheugen of videogeheugen voor PC's of laptops.

Wintec is een OEM voor andere fabrikanten. Dus een fabrikant als Corsair kan bij bijvoorbeeld Wintec aan kloppen en zeggen die wij willen een nieuw kitje Dominator geheugen uitbrengen het moet deze geheugenchips hebben en zo moeten ze eruit zien. Een fabrikant als Wintec koopt dan de juiste geheugenchips bij fabrikanten als SK Hynix, Samsung, PowerChip of Micron drukt ze op een printplaatje, plaatst er een fancy heatsinkje op en Corsair kan ze verkopen. Zo moet dat ongeveer gaan. :p

Sandisk heeft wel eigen fabs, maar richt zich helemaal op alle soorten flash geheugen en wat daar mee te maken heeft.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:39

Sp3ci3s8472

@ 12 graden...

lightdestroyer schreef op donderdag 23 juli 2015 @ 13:28:
[...]
/me Lightdestroyer vraagt zich dus eigenlijk af of je als videokaart bakker niet beter af bent met HMC .. tenminste nog wat concurrentie tussen de verschillende fabs, aka 2-3 fabriekanten :( . Eventueel 4 Als Hynix op deze markt ook wil mee doen ..
Dat was toch minder geschikt voor videokaarten? Er zal een reden zijn dat zowel AMD als Nvidia beiden voor HBM gaan.
Maar ben het met je eens dat je daardoor wel gelimiteerd bent aan een fabrikant.

Ben benieuwd of de dag ooit komt dat Nvidia aanklopt bij GF :p.

Overigens is die andere "chipbakker" die jij bedoelde UMC:
http://www.techpowerup.co...cing-to-tsmc-and-umc.html

Acties:
  • 0 Henk 'm!

  • Resinman
  • Registratie: September 2001
  • Laatst online: 05-06 18:02
De gratis Metal Gear Solid The Phantom Pain game voucher actie bij aankoop van een GeForce GTX 980 Ti, 980, 970, or 960 GPU of 980/970M notebook is live. Mooie vervanging voor Batman :) The promotion is available for a limited time or while supplies last.

http://www.geforce.co.uk/...v-the-phantom-pain/bundle

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:53
Wel een game die nog niet is uitgebracht. Het valt te hopen dat de release beter verloopt dan die van Batman voor de mensen die een code krijgen. :/

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Sp3ci3s8472 schreef op donderdag 23 juli 2015 @ 15:42:
[...]


Dat was toch minder geschikt voor videokaarten? Er zal een reden zijn dat zowel AMD als Nvidia beiden voor HBM gaan.
Maar ben het met je eens dat je daardoor wel gelimiteerd bent aan een fabrikant.

Ben benieuwd of de dag ooit komt dat Nvidia aanklopt bij GF :p.

Overigens is die andere "chipbakker" die jij bedoelde UMC:
http://www.techpowerup.co...cing-to-tsmc-and-umc.html
Dat klopt ja, maar der is weinig hoop dat ze terug kunnen aankloppen bij UMC, amper 2 fabrieken hebben groot genoege wafers en hun kleinste proces node is 40nm. ,blijkbaar toch 28nm..
Maar kvrees voor grote capaciteits issues .. (en geen enkel nieuws bekend van de kleinere procedé's dan 28nm terwijl zowel intel als TSMC als GloFO al een stuk kleiner zitten ..)

Overzichtje van hun enige fabrieken met grote wafers, zoals je kan zien maar 1 zou je momenteel kunnen gebruiken .. naar de toekomst toe: niets.
Fab 12A 28 nm Tainan, Taiwan 300 mm55000
Fab 12i 55 nm Singapore 300 mm 45000


En "minder geschikt"... ik denk dat de bandbreedte bij HBM wel een beetje over de top is (toch momenteel) dus wie weet is HMC ook wel "voldoende"..
Nu tot nu toe heb ik geen enkel HMC geheugenmodule in het wild kunnen spotten, dus enkel de tijd zal het uitwijzen zeker ..
Eigenlijk verwacht ik wel dat HMC toch wel snel in productie zal genomen als tegenwoord op HBM ..
(Producten zouden in 2015 moeten verschijnen, specs waren ongeveer op hetzelfde moment als HBM afgewerkt dusja waarom ook niet)
Qua bandbreedte zal er wel geen probleem zijn:
1 Link geeft 40 GB/s (20 GB/s transmit and 20 GB/s receive); cubes with 4 and 8 links are planned.
Das dus 320 GB/s per cube ;) . Je kan tot 8 cubes gaan in een "network" .. zal wel loslopen.
(Let op eigenlijk moet je maar 160 GB/s rekenen in 1 richting, maar soit kom je nog mooi tot een 4 keer zo hoge bandbreedte dan men nu heeft op de high end GDDR5 kaarten, ik zou denken dat dat wel het geheugen bottleneck probleem effen oplost (en 2GB per cube is al als engineering sample getoont dus het probleem van HBM1 kan men direct skippen)

Waarom dat nVidia sinds dat ze Pacal aangekondigd hebben bij HBM(2) blijven plakken, geen idee er zal wel een reden zijn zeker? (Ofwel hadden ze enkel kennis van HBM toen men begon te werken aan Pascal ... long long time ago toen de 22nm proces node nog bedoeld was voor video kaarten :+ ) en willen ze hiervan niet meer afwijken ofwel zal het wel extra voordelen hebben zeker.

Specs


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
lightdestroyer schreef op donderdag 23 juli 2015 @ 17:23:
[...]

En "minder geschikt"... ik denk dat de bandbreedte bij HBM wel een beetje over de top is (toch momenteel) dus wie weet is HMC ook wel "voldoende"..
Valt wel mee, een R9 290X heeft 320GB/s en Fury X heeft 512GB/s, een toename van 45,45% in streamprocessors en een toename van 60% aan bandbreedte. Door de lage frequentie van 500MHz valt de bandbreedte toename dus best mee.

Met HBM verdubbeld de frequentie, busbreedte blijft hetzelfde, dus de bandbreedte verdubbeld en dat lijkt mij ook wel nodig. 14/16nm FinFET is een grote stap voorwaarts in vergelijking met 28nm.

UMC richt zich vooral op ARM en dus veel kleinere en zuinigere chips tegenwoordig.
http://www.umc.com/English/news/2015/20150622-1.asp

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
-The_Mask- schreef op donderdag 23 juli 2015 @ 17:48:
[...]

Valt wel mee, een R9 290X heeft 320GB/s en Fury X heeft 512GB/s, een toename van 45,45% in streamprocessors en een toename van 60% aan bandbreedte. Door de lage frequentie van 500MHz valt de bandbreedte toename dus best mee.

Met HBM verdubbeld de frequentie, busbreedte blijft hetzelfde, dus de bandbreedte verdubbeld en dat lijkt mij ook wel nodig. 14/16nm FinFET is een grote stap voorwaarts in vergelijking met 28nm.

UMC richt zich vooral op ARM en dus veel kleinere en zuinigere chips tegenwoordig.
http://www.umc.com/English/news/2015/20150622-1.asp
Oh leuk, wellicht dan ook weer in Fab 12 zeker :9

Eén of andere manier heb ik nooit de nieuws berichten van UMC gelezen/bekeken (PR berichten interesseren mij niet echt, maar zo zie je soms mis je dan wel belangrijke info :X )

Bij de 14/16nm FinFET generatie verwacht ik eigenlijk wel dat de frequentie van het HBM geheugen "terug" mooi dicht naar de 1024Mhz zal komen en dus een bandbreedte van 1024GB/s vandaar mijn "over the top".
Maar soit je hebt gelijk, altijd optimistisch blijven en der vanuit gaan dat de GPU's meer dan verdubbelen aan snelheid!!! (kvrees dat ik pessimistischer ben ingesteld :'( )

Specs


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

Fudzilla heeft een aantal exclusieve details over nVidia's Pascal GPU:
http://www.fudzilla.com/n...as-17-billion-transistors

Het wordt een zeer complexe GPU: maar liefst 17 miljard transistors. Hoewel dit twee keer zoveel is als Maxwells transistor count, moet de GPU een stuk kleiner worden dan Big Maxwell, met name dankzij het 16nm FinFET procedé.
De maximale memory hoeveelheid bedraagt 32GB, met als andere hoeveelheid volgens mij 16GB en 8GB. Dit zou dus een flinke boost zijn tov de 4GB die je nu vaak ziet.

En we moeten tot 2016 wachten voor al dat goeds :X

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Anoniem: 668222

Dus Pascal word de eerste GPU op de markt met HBM 2 en full support voor dx12?
AMD zit ook niet stil neem ik aan maar waar die nog mee kan komen is me een raadsel?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ook met HBM 2 ? http://www.tweaktown.com/...ge-over-nvidia/index.html eerste hit op DuckDuckGo "AMD HBM2".

[ Voor 14% gewijzigd door Phuncz op 24-07-2015 14:13 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

Anoniem: 668222 schreef op vrijdag 24 juli 2015 @ 13:15:
Dus Pascal word de eerste GPU op de markt met HBM 2 en full support voor dx12?
AMD zit ook niet stil neem ik aan maar waar die nog mee kan komen is me een raadsel?
Zo ziet het er wel uit ja. Ik vraag me af of HBM een beschermde merknaam is ofzo, maar het is in ieder geval technisch een stuk verder dan wat nu op de R9 Fury X zit. Maar of AMD eerder is? Wie weet

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
HBM2 is de enige keuze mogelijk zover nu bekend is, dus ja HBM2.
Anoniem: 668222 schreef op vrijdag 24 juli 2015 @ 13:15:
Dus Pascal word de eerste GPU op de markt met HBM 2 en full support voor dx12?
Nee op dit moment 50/50.

[ Voor 25% gewijzigd door -The_Mask- op 24-07-2015 17:00 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 17:53

XanderDrake

Build the future!

nVidia Shield Console komt naar Europa:
http://www.fudzilla.com/n...o-hit-europe-in-september

Niet geheel onlogisch maar nu wel officieel: de Shield console komt naar Europa. Prijzen zijn nog niet bekend. USP: 4k ondersteuning voor TVs en nVidia GRID streaming. Daarnaast is het gewoon een hele snelle Ouya met een betere controller :P
Afbeeldingslocatie: http://www.fudzilla.com/media/k2/items/cache/06b6fe382908f587e0257f7454dede13_L.jpg

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • laurensdbb
  • Registratie: November 2011
  • Laatst online: 06-12-2024
Even de vraag hier lanceren.. Is het nog de moeite om een 970 GTX te kopen voor nieuwprijs rond de 360.. ?
Ik zit nu met een AMD 7970 (die eigelijk bijna alles nog zeer goed draait..) maar het jeukt toch om te upgraden. Nu nog eens 970 of wachten op de 1070... ?

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 21:27

OMD

pascal komt pas in 2016. Dat wachten slaat dus nergens op. 970 heeft meer power, je moet voor jezelf nagaan of je dat nodig hebt.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X

Pagina: 1 ... 5 ... 135 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.