Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Heb je geluk gehadXanderDrake schreef op vrijdag 12 juni 2015 @ 10:51:
Ja een gemiddelde is het heel moeilijk te berekenen. Ik heb van eind 2007 tot Juni 2012 gedaan met mijn 8800GTS 512mb (G92) in SLI (dus kans-op-falen-keer-twee) puur omdat ze vervangen werden met mijn huidige GTX 670. Ze doen het vast nog.
Hier een 8800GTS 512 die 2.5 jaar heeft geleeft en de ander 2 jaar.
Heb wel een keer de plastic kap eraf gehaald en al het stof weggehaald, scheelde meer dan 10 graden.
Mechwarrior Online: Flapdrol
Omdat mmo gamers niet persé alleen hun geliefde mmo spelen toch? Misschien de die hardsSp3ci3s8472 schreef op donderdag 11 juni 2015 @ 21:54:
[...]
Waarom zou je voor blizzard spellen steam gebruiken, ze hebben niet voor niks een apparte client. Zelf heb ik steam maar Diablo 3 draait ik alleen via battle.net.
Vast omdat mensen met een AMD kaarten vaker een upgrade doen? of doordat er zoveel 8xxx/9xxx serie kaarten kapot zijn gegaan hebben ze een tweedehands GTX 260 gekocht.
Mbt dat andere punt. Tja misschien dat AMD gebruikers vaker hun kaart in de kast laten liggen ipv te verkopen omdat ze er aan gehecht zijn
Bij mij vloog overigens een condensator in de fik van een 5900XT en de 6800GT gaf na een jaar of 5 arti's. Dus het is niet zo dat Nvidia kaarten eeuwig mee gaan, zeker niet zelfs
[ Voor 50% gewijzigd door sdk1985 op 12-06-2015 15:17 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 668222
Mechwarrior Online: Flapdrol
De afweging op mid end hardware komt niet alleen aan op een stukje techniek die optioneel iets kan opleveren visueel. Ik denk dat mid end gpu gebruikers liever hebben dat ze de settings op high kunnen draaien, dan hairworks/TressFx aan kunnen zetten. Daarnaast is TW3 sowieso best een zware game voor veel systemen.Anoniem: 668222 schreef op maandag 15 juni 2015 @ 15:45:
Jammer dat er geen Tress FX word gebruik in the Witcher 3, het ziet er minder mooi uit en het beweegt lang niet zo realistisch maar Tress FX heeft VEEL minder gpu kracht nodig en valt de game ook wat beter te draaien op mid end hardware.
Anoniem: 668222
Op hoop dat Fury weer wat beter met tessellation om kan gaan, heb je ook niet meer dat gezeur over gameworks op AMD kaarten.
[ Voor 29% gewijzigd door Anoniem: 668222 op 16-06-2015 10:07 ]
Heb hier nog ergens me Viper 550 Nvidia TNT(2)? liggen, volgens mij was dat net voldoende voor BF1942..XanderDrake schreef op vrijdag 12 juni 2015 @ 15:27:
Oudste nVidia kaart die ik nog heb liggen... Een 6200 256mb op PCI. Voor als ik mijn AGP/PCI-E poort had gesloopt/GPU bios flash faal. Je kon er nog BF2 op 800*600 mee spelen
Toen had je nog voldoende aan 16mb video ram
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Dat is een beste poging tot trollen zeg. Volgens mij heeft nVidia de contract claim van AMD waar je op doelt pas nog in een interview stellig ontkent. Het zogenaamde contract waar je op doelt zou inhouden dat de ontwikkelaar niet gelijktijdig met AMD mag samenwerken voor gpu optimalisaties als er een gameworks/nvidia samenwerking is.madmaxnl schreef op dinsdag 16 juni 2015 @ 00:47:
Juist dat wil nVidia niet. Laat de tesselator van AMD maar in het honderd lopen. Leuk idee, stuur het in naar nVidia, niet naar de ontwikkelaar. Hun handen waren gebonden op het moment dat een of andere hoge pief van hun een contract met nVidia afsloot.
Dit is een ongeloofwaardige claim, want een ontwikkelaar zou zichzelf in de vingers snijden door AMD gebruikers te negeren en potentieel inkomsten te missen als deze groep niet goed je game kan spelen.
Daarnaast zouden ze controle op hun eigen product uit handen geven aan een gpu maker......lijkt me zeeeeeerrr onwaarschijnlijk. Daarnaast zou dit al lang gelekt zijn, want veel mensen moeten hiervan weten, binnen nVidia en binnen de ontwikkelaars met de "wurg"contracten.
[ Voor 6% gewijzigd door sjekneck op 16-06-2015 11:23 ]
Je kunt me wel wegzetten als trol, maar Gameworks van nVidia goedpraten zie ik dan weer als trol.
Enfin, waarom werkt AMD dan niet samen met ontwikkelaars die Gameworks, moeten, gebruiken? Zeker omdat ze dan in de media kunnen zeggen hoe vervelend nVidia wel niet is?
Dat kan wel zo zijn maar hoe kan AMD hun drivers optimaliseren voor GameWorks code waar ze de source niet van hebben en ook niet mogen inzien? Ze moeten voor een binary blob optimaliseren, dat werkt voor geen meter. Ze kunnen dus ook nooit code aanbieden die het voor hun kaarten sneller kan maken. Want het is gewoon logisch dat een bepaalt algoritme om x te bereiken op de ene kaart sneller is dan op een andere die een heel ander algoritme nodig heeft om het snel uit te kunnen voeren.sjekneck schreef op dinsdag 16 juni 2015 @ 11:20:
[...]
Dat is een beste poging tot trollen zeg. Volgens mij heeft nVidia de contract claim van AMD waar je op doelt pas nog in een interview stellig ontkent. Het zogenaamde contract waar je op doelt zou inhouden dat de ontwikkelaar niet gelijktijdig met AMD mag samenwerken voor gpu optimalisaties als er een gameworks/nvidia samenwerking is.
Dit is een ongeloofwaardige claim, want een ontwikkelaar zou zichzelf in de vingers snijden door AMD gebruikers te negeren en potentieel inkomsten te missen als deze groep niet goed je game kan spelen.
Daarnaast zouden ze controle op hun eigen product uit handen geven aan een gpu maker......lijkt me zeeeeeerrr onwaarschijnlijk. Daarnaast zou dit al lang gelekt zijn, want veel mensen moeten hiervan weten, binnen nVidia en binnen de ontwikkelaars met de "wurg"contracten.
Zowel nVidia als AMD zeggen dat gamedeveloppers geen goede code schrijven en dat er altijd moet worden geoptimaliseerd en bugs gefixed via de drivers. Dat ze vaak ook code aan ontwikkelaars geven zodat het wel fatsoenlijk draait, probleem met de oudere dx versies is dat het "werkt" ongeacht wat je erin gooit. Dat het werkt wil niet zeggen dat het ook fatsoenlijk draait, het kost ontwikkelaars en gpu makers daardoor veel werk om het fatsoenlijk te laten draaien.
Dus ook al zou de game developper de source code van GameWorks hebben, indien ze niet genoeg ervaring hebben om het goed te gebruiken zonder de boel te breken dan kunnen ze niet goed optimaliseren voor bepaalde kaarten (AMD/Intel).
Dit is in mijn opinie de reden dat GameWorks slecht is voor de gameindustrie, AMD en Intel kunnen er niet fatsoenlijk voor optimaliseren.
AMD geeft een heleboel code gewoon vrij weg, zelfde voor Crytek met hun SMAA. Waarom een ontwikkelaar vrijwillig kiest voor TXAA ipv SMAA (de betere methode) is raar, zelfde voor TressFX het is vrij beschikbaar en draait evengoed op AMD en nVidia kaarten.
http://www.hardocp.com/ar...ard_review/4#.VYAYrkDSBRJ
Our recommendation, for AA in this game, is to just use MSAA. 2X MSAA doesn't cost much performance, and will help. 4X MSAA is the option you want to strive for, it takes a performance hit, but not as huge as in some other games. At 4X MSAA, image quality of AA is very good in this game. We'd prefer to have No AA on Alpha Textures, than blurring the heck out of these with FXAA or TXAA. Just like Crysis 3, we can't recommend TXAA due to the loss in texture quality. TXAA therefore, is moot.
[ Voor 10% gewijzigd door Sp3ci3s8472 op 16-06-2015 14:39 . Reden: bron ]
Anoniem: 668222
http://www.forbes.com/sit...-3-and-nvidias-hairworks/
Het enige wat nVidia doet is de bottelnek bij AMD triggeren met als gevolg dat AMD een relatief grotere performance impact heeft. nVidia zelf gaat er in absolute zin ook op achteruit dus ook mensen met een nVidia kaart zoude zich eens achter hun oren moeten krabben of dit nu wel is wat ze willen. Immers worden er dingen berekend die in de praktijk alleen je performance terug brengen.
[ Voor 15% gewijzigd door madmaxnl op 16-06-2015 16:37 ]
En ligt dat aan de developers? Wellicht, maar Nvidia doet duidelijk ook geen moeite om het ook voor hun eigen klanten soepeler te laten lopen, want van 16 naar 64 samples is gewoon een lineaire vermindering in performance en dat merk je ook op een 980 Ti nog.
Ik zie ook niemand een MSAA optie in z'n game bouwen die maar twee standen heeft: uit of met 32 samples. Dat slaat toch nergens op? Hetzelfde geldt voor tessellation, anisotropic filtering en alles waar je sample counts bij hebt. Die sample counts kunnen veranderd worden voor een verdomd goede reden. Een hogere stand is het niet altijd waard. MSAA is het eenvoudigste voorbeeld, omdat dat nog steeds aardig wat performance kost. Van 2 naar 4 zie je nog; 4 naar 8 ook nog wel, maar 8 naar 16 zie je tijdens gameplay al niet meer. Dan moet je al naar stills gaan zitten kijken.
Ik praat gameworks niet goed ik zwakte jouw verhaal wat af.madmaxnl schreef op dinsdag 16 juni 2015 @ 14:36:
Prima, ontken het maar, uit het verleden weten we precies waartoe nVidia instaat is. Gelukkig weten we ook dat nVidia nooit iets onterecht ontkent heeft...
Je kunt me wel wegzetten als trol, maar Gameworks van nVidia goedpraten zie ik dan weer als trol.
Pure gok op basis van nuchter nadenken. AMD biedt geen personeel aan uit eigen keuken die het optimaliseren van een game inhouse support op eigen kosten.Enfin, waarom werkt AMD dan niet samen met ontwikkelaars die Gameworks, moeten, gebruiken? Zeker omdat ze dan in de media kunnen zeggen hoe vervelend nVidia wel niet is?
AMD biedt wel de technieken, maar dat implementeren heeft een developer helemaal geen zin in, want zelf doen kost tijd/geld. Zeker multiplatform games gaan ze geen moeite doen om voor de pc te optimaliseren. Risico te groot en potentiële extra winst is veel te laag. Zodra het loopt is vaak al voldoende voor de meeste en smijten ze het in de schappen.
En toen kwam nVidia met het idee om pc gaming een edge te geven door het finetunen van coden uit handen te nemen en extra's in te zetten die meerwaarde geven op de console release.
AMD krijgt geen toegang omdat dit de directe concurrent is van nVidia, heeft dat verder uitleg nodig? Niet netjes, maar echt raar is het niet.Sp3ci3s8472 schreef op dinsdag 16 juni 2015 @ 14:36:
[...]
Dat kan wel zo zijn maar hoe kan AMD hun drivers optimaliseren voor GameWorks code waar ze de source niet van hebben en ook niet mogen inzien? Ze moeten voor een binary blob optimaliseren, dat werkt voor geen meter. Ze kunnen dus ook nooit code aanbieden die het voor hun kaarten sneller kan maken. Want het is gewoon logisch dat een bepaalt algoritme om x te bereiken op de ene kaart sneller is dan op een andere die een heel ander algoritme nodig heeft om het snel uit te kunnen voeren.
Zowel nVidia als AMD zeggen dat gamedeveloppers geen goede code schrijven en dat er altijd moet worden geoptimaliseerd en bugs gefixed via de drivers. Dat ze vaak ook code aan ontwikkelaars geven zodat het wel fatsoenlijk draait, probleem met de oudere dx versies is dat het "werkt" ongeacht wat je erin gooit. Dat het werkt wil niet zeggen dat het ook fatsoenlijk draait, het kost ontwikkelaars en gpu makers daardoor veel werk om het fatsoenlijk te laten draaien.
Dus ook al zou de game developper de source code van GameWorks hebben, indien ze niet genoeg ervaring hebben om het goed te gebruiken zonder de boel te breken dan kunnen ze niet goed optimaliseren voor bepaalde kaarten (AMD/Intel).
Dit is in mijn opinie de reden dat GameWorks slecht is voor de gameindustrie, AMD en Intel kunnen er niet fatsoenlijk voor optimaliseren.
AMD geeft een heleboel code gewoon vrij weg, zelfde voor Crytek met hun SMAA. Waarom een ontwikkelaar vrijwillig kiest voor TXAA ipv SMAA (de betere methode) is raar, zelfde voor TressFX het is vrij beschikbaar en draait evengoed op AMD en nVidia kaarten.
http://www.hardocp.com/ar...ard_review/4#.VYAYrkDSBRJ
[...]
nVidia gaat met gameworks support leveren en gaat devvers helpen om de code (voor nvidia) goed te krijgen, dus voor de ontwikkelaar is het een nobrainer en zeggen ze al gauw ja. Het is dan niet vreemd dat nVidia bv geen Tress FX, maar wel hairworks gaat gebruiken

Vanuit een economisch perspectief kun je het nVidia niet kwalijk nemen dat ze het zo proberen om hun merk meerwaarde te geven tegenover AMD/intel.
Moet AMD daar blij mee zijn? Nee, natuurlijk niet. Ze kunnen proberen zelf gameworks omver te duwen door devvers easy tools te geven, zodat die niet meer met nVidia in zee hoeven te gaan en ze hen niet meer nodig om effecten makkelijk toe te passen.
Ze kunnen ook gaan meedoen met nvidia en bakken resources gebruiken om amdworks op te zetten en eigen producten te gaan optimaliseren voor de devvers.
Het enige wat voor de pc markt goed is aan gameworks is dat het hiermee mogelijk sommige titels makkelijker naar het pc platform weet te krijgen. De drempel is dan mogelijk lager geworden om een pc release te verantwoorden voor sommige uitgevers. Minder risico voor hen omdat nVidia mede investeert.
Verder is gameworks alleen maar gunstig voor nVidia gebruikers door de ondersteuning aan eigen producten.
In een ideale wereld zouden nVidia en AMD goed samenwerken en nemen ze beide genoegen met 50% van de markt

280562
Het is me opgevallen dat een aantal sites sub-fora aanmaakt voor threads over AMD en over nVidia zaken. Ik denk om de fanboys uit elkaar te houden. Slim. Het meeste geruzie is van technisch niveau nul. Daar wil ik m'm tijd liever niet aan verdoen.
Klopt, het is makkelijker om een console port op die manier op te vrolijken om het zo maar te zeggen. Gelukkig is vooral Ubisoft degene die GameWorks gebruikt, na de laatste paar fuckups van hun kant zullen klanten minder snel hun portemenee trekkensjekneck schreef op dinsdag 16 juni 2015 @ 17:23:
[...]
Het enige wat voor de pc markt goed is aan gameworks is dat het hiermee mogelijk sommige titels makkelijker naar het pc platform weet te krijgen. De drempel is dan mogelijk lager geworden om een pc release te verantwoorden voor sommige uitgevers. Minder risico voor hen omdat nVidia mede investeert.
Verder is gameworks alleen maar gunstig voor nVidia gebruikers door de ondersteuning aan eigen producten.
In een ideale wereld zouden nVidia en AMD goed samenwerken en nemen ze beide genoegen met 50% van de markt
Hoop dat die ideale wereld nog een keer komt, 50/50 is niet eens nodig. Zolang ze elkaar maar niet zichtbaar tegenwerken en het ecosysteem verpesten dan ben ik al zat blij
Beetje jammer, ik vind de discussie wel wat toevoegen.280562 schreef op dinsdag 16 juni 2015 @ 17:35:
Ik zou het fijn vinden (moderators?) als het verboden zou zijn om in een topic dat nVidia in de titel heeft, om in zo'n topic het woord "amd" te gebruiken. En vice-versa. Gewoon een ban-voor-het-leven. Simpel. Dat zou de wereld (en tweakers) een stuk prettiger maken.
Het is me opgevallen dat een aantal sites sub-fora aanmaakt voor threads over AMD en over nVidia zaken. Ik denk om de fanboys uit elkaar te houden. Slim. Het meeste geruzie is van technisch niveau nul. Daar wil ik m'm tijd liever niet aan verdoen.
Je ziet sjekneck en mij toch elkaar toch niet in de haren vliegen? Het is goed mogelijk om op een normale manier met elkaar te discusieren. Als je denkt dat dit niet nieuwswaardig is dan zit je in het verkeerde topic want zowel Project Cars en The Witcher 3 zijn in het nieuws geweest doordat er GameWorks in zit.
Dat dit toevallig slecht is voor AMD kaarten dat komt dan terug in de discussie. Het lijkt er ook op in benchmarks dat de 6xx en 7xx generatie niet goed presteren in project cars in vergelijking met de 9xx serie, zulke dingen moeten aan het ligt worden gebracht. Ik denk dat niemand blij wordt met planned obsolescence. Misschien dat dit in nieuwe drivers al weer beter is maar als een GTX 780 vergelijkbaar presteerd met een GTX 960 (en 280x) dan zou ik daar als 780 eigenaar niet blij van worden want die kaart is de directe concurent van de R9 290.
280562
[ Voor 71% gewijzigd door br00ky op 17-06-2015 11:49 ]
Dus jij vindt de R9 290 beter?/sterker?/sneller? dan de GTX 780?Sp3ci3s8472 schreef op dinsdag 16 juni 2015 @ 18:16:
[...]
Dat dit toevallig slecht is voor AMD kaarten dat komt dan terug in de discussie. Het lijkt er ook op in benchmarks dat de 6xx en 7xx generatie niet goed presteren in project cars in vergelijking met de 9xx serie, zulke dingen moeten aan het ligt worden gebracht. Ik denk dat niemand blij wordt met planned obsolescence. Misschien dat dit in nieuwe drivers al weer beter is maar als een GTX 780 vergelijkbaar presteerd met een GTX 960 (en 280x) dan zou ik daar als 780 eigenaar niet blij van worden want die kaart is de directe concurent van de R9 290.
Voor mij heel interessant want ik twijfel tussen deze 2 kaarten, en ik weet wel dat dit vragen naar de bekende weg is op een nvidia topic.
Maar op zijn minst krijg ik de sterke kant van de GTX 780 te horen[met een scheutje/slok vooroordeel? lol] buiten het stroomverbruik want dat interesseert me niet.
Maar ik verwacht toch ook dat er mensen zijn die gewoon zeggen waar het op staat, eerlijkheid duurt het langst toch?.
Niet echt de vraag voor dit topicpetjax schreef op dinsdag 16 juni 2015 @ 18:59:
[...]
Dus jij vindt de R9 290 beter?/sterker?/sneller? dan de GTX 780?
Voor mij heel interessant want ik twijfel tussen deze 2 kaarten, en ik weet wel dat dit vragen naar de bekende weg is op een nvidia topic.
Maar op zijn minst krijg ik de sterke kant van de GTX 780 te horen[met een scheutje/slok vooroordeel? lol] buiten het stroomverbruik want dat interesseert me niet.
Maar ik verwacht toch ook dat er mensen zijn die gewoon zeggen waar het op staat, eerlijkheid duurt het langst toch?.
Ze zijn aan elkaar gewaagd, op lagere resoluties is de GTX780 sneller, op hogere resoluties is de 290 sneller. Het hangt ook af van welke spellen je speelt, dus kijk daar eerst naar.
Zorg in ieder geval dat je cpu snel zat is in beide gevallen
http://www.anandtech.com/bench/product/1036?vs=1068
@petjax
Lees de topic regels maar door. Je kan deze vraag beter in het componenten aankoopadvies forum vragen of een nieuw topic aanmaken in videokaarten en beeldschermen als je met een specifieke vraag zit.
Als je niet van plan was een van die kaarten te kopen dan kan je dit negeren
[ Voor 15% gewijzigd door Sp3ci3s8472 op 16-06-2015 19:27 . Reden: bespaart een extra post :P ]
Dan mijn excuses, want ik dacht waar beter te vragen over een nvidia kaart dan hier? want dat merken gedoe is niet aan mij besteed, over de hele lijn genomen verschilt het niet veel toch?, maar ja een echte Ajaxcied wordt ook nooit een Feyenoorder toch? LOL
Omdat dit een nieuwstopic is, géén aankoopadvies topicpetjax schreef op dinsdag 16 juni 2015 @ 19:16:
Waarom niet?
OK ik begrijp het, mijn excuses, my bad. http://tweakimg.net/g/s/b...weakimg.net/g/s/smile.gifbr00ky schreef op woensdag 17 juni 2015 @ 11:48:
[...]
Omdat dit een nieuwstopic is, géén aankoopadvies topic.
Daardoor heb ik het gevoel dat als nVidia hogere clocks en nieuwe naam geeft aan de GTX 985/975/965 kaarten dat het dan weer gelijk op gaat. Of juist de prijs laat dalen, 50 $/€ goedkoper.
Wat zijn de kansen hierop?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 668222
Alleen als je ook daadwerkelijk op 4K gaat spelen heb je voordeel met AMD kaarten.
De echte 4k kaartengaan we de aankomende jaren nog niet zien denk ik?
OK. Maar dat is niet mijn vraag.Anoniem: 668222 schreef op vrijdag 19 juni 2015 @ 08:50:
Prestaties zijn aardig gelijk voor de meest gespeelde resoluties en nog in het voordeel van Nvidia.
Alleen als je ook daadwerkelijk op 4K gaat spelen heb je voordeel met AMD kaarten.
De echte 4k kaartengaan we de aankomende jaren nog niet zien denk ik?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 668222
De kans lijkt me vrij klein gezien Nvidia niets uit hoeft te brengen want ze gaan gelijk op.
nVidia zal de prijs alleen laten zakken, als de prijs/prestatie van AMD een stuk beter is. En AMD die zit helemaal niet te wachten op een prijzenoorlog, dus die zet geen druk op nVidia. AMD positioneert de kaarten zo dat ze een iets betere prijs/prestatie als nVidia hebben, maar dat vindt nVidia wel best. Een heel groot deel koopt toch nVidia gewoon op de naam, die kijkt niet eens naar prijs/prestatie, prestatie/watt of geluid of überhaubt de prestaties. Groot deel kijkt gewoon naar de hoeveel geheugen, de prijs en het nVidia stickertje.XanderDrake schreef op vrijdag 19 juni 2015 @ 08:38:
AMD's nieuwste generatie is uiteindelijk best OK. Veel performance voor het geld, vaak sneller dan de nVidia 900 serie tegenhangers op hogere resoluties. Alleen zijn het wel gewoon respins, dus geen innovaties behalve snellere clocks: het verbruik is vaak echt mega, de 390X verbruikt zo 100watt meer dan de GTX 980, heeft geen HDMI2.0, etc etc.
Daardoor heb ik het gevoel dat als nVidia hogere clocks en nieuwe naam geeft aan de GTX 985/975/965 kaarten dat het dan weer gelijk op gaat. Of juist de prijs laat dalen, 50 $/€ goedkoper.
Wat zijn de kansen hierop?
bron: -The_Mask- in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 130"
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Helaas denk ik inderdaad dat dit het geval zal zijn. Alleen wij zijn niet blind. Ik ben een lichte nVidian en heb de neiging om die GPUs te kopen, maar ik ben niet zo dom om nu een langzamere videokaart te kopen voor hetzelfde of meer geld.SAiN ONeZ schreef op vrijdag 19 juni 2015 @ 09:09:
[...]
nVidia zal de prijs alleen laten zakken, als de prijs/prestatie van AMD een stuk beter is. En AMD die zit helemaal niet te wachten op een prijzenoorlog, dus die zet geen druk op nVidia. AMD positioneert de kaarten zo dat ze een iets betere prijs/prestatie als nVidia hebben, maar dat vindt nVidia wel best. Een heel groot deel koopt toch nVidia gewoon op de naam, die kijkt niet eens naar prijs/prestatie, prestatie/watt of geluid of überhaubt de prestaties. Groot deel kijkt gewoon naar de hoeveel geheugen, de prijs en het nVidia stickertje.
bron: -The_Mask- in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 130"
Kanttekening is wel dat dit alleen geldt voor resoluties van hoger dan Full HD terwijl ik dan ook nog een nieuw scherm moet kopen.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 668222
[ Voor 27% gewijzigd door Phuncz op 19-06-2015 09:39 ]
Anoniem: 668222
Niet verwacht dat er zoveel naïeven zijn onder de losse onderdelen aankopen, kan het haast niet gelovenPhuncz schreef op vrijdag 19 juni 2015 @ 09:36:
Dat kun je wel zeggen, mijn ervaring na vele jaren verkoop van PC onderdelen en complete PC's, dat de meeste mensen wél naar het geheugen en de naam kijken. Zelden dat iemand toegeeft dat ie er niks van kent en advies vraagt, de meeste hebben al besloten wat het moet worden qua merk (AMD of Nvidia) en hoeveel geheugen minimaal.
[ Voor 3% gewijzigd door Anoniem: 668222 op 19-06-2015 09:40 ]
Ik heb ook jaren in een computerwinkel gewerkt. Deze mensen heb je zeker, maar de meeste slaan er wel een review of twee op na. Het gaat wel over honderden euros he? Dat raad ik ook altijd aan in de winkel.Phuncz schreef op vrijdag 19 juni 2015 @ 09:36:
Dat kun je wel zeggen, maar dat is in mijn ogen niet de realiteit. Mijn ervaring na vele jaren verkoop van PC onderdelen en complete PC's, dat de meeste mensen wél naar het geheugen en de naam kijken. Zelden dat iemand toegeeft dat ie er niks van kent en advies vraagt, de meeste hebben al besloten wat het moet worden qua merk (AMD of Nvidia) en hoeveel geheugen minimaal. Ze zoeken enkel nog bevestiging van je om de onzekerheid te doorbreken. Ik heb het nu niet over de ervaren en kennisrijke PC enthusiast maar over de gemiddelde consument die (iets met) een GPU koopt.
OK als het stuivertje wisselen is tussen twee kaarten is het vaak dat men kiest voor zijn/haar favo merk. Maar als er een duidelijke winnaar is dan is men ook niet dom.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 521772
Anoniem: 668222
[ Voor 99% gewijzigd door Anoniem: 668222 op 22-06-2015 12:17 ]
Je weet dat dit GCN en Maxwell 2.0 only features (asynchronous shading) zijn?
Er werd in meer detail over gesproken in de pcgamingshow E3 conference.
Nu zie ik deze argumentering een stuk minder voor DX12. Het is prima dat DX12 ook gedeeltelijk werkt op DX11 kaarten, maar ik denk dat ze een stuk meer zouden verdienen aan de release van een nieuwe GPU als ze het koppelen aan "Full DX12 support, future proof !?!?1!!".
De focus lijkt nu wel te liggen op hoe breed ondersteunend de GPUs van tegenwoordig zijn met allerlei API's en feature-levels. Een onduidelijkere boodschap lijkt me.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik als consument vind de huidige trend best aangenaam. Ik heb nog nooit zo lang gedaan met hardware als de laatste paar jaar. Mijn 2500K uit 2011 kan nog prima mee komen en ook mijn inmiddels vervangen Radeon 7970(nu GTX 980) komt nog goed mee in de huidige games. Ergens begint het wel te kriebelen om ook mijn processor te vervangen, maar dit zal niet meer uit pure noodzaak zijn zoals vroeger.XanderDrake schreef op maandag 22 juni 2015 @ 13:30:
Ik snap ondertussen de PR en reclame rond DX12 niet echt meer. Vroegâr was een nieuwe versie van DirectX een heel ding, duurde jaren voor het volledig ontwikkeld was, latest features and effects, enz. Voor nVidia en AMD was bijv. DX10 een zeer groot verkooppunt voor de G80 en R300.
Nu zie ik deze argumentering een stuk minder voor DX12. Het is prima dat DX12 ook gedeeltelijk werkt op DX11 kaarten, maar ik denk dat ze een stuk meer zouden verdienen aan de release van een nieuwe GPU als ze het koppelen aan "Full DX12 support, future proof !?!?1!!".
De focus lijkt nu wel te liggen op hoe breed ondersteunend de GPUs van tegenwoordig zijn met allerlei API's en feature-levels. Een onduidelijkere boodschap lijkt me.
Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x
Ik denk dat je op een gegeven moment niet meer het verschil gaat merken als je zoveel fasen aan de stroomtoevoer gaat toevoegen. Misschien dat je hiermee met LN2 een extra 50-100MHz eruit kan krijgen. Maar voor water en luchtkoeling, denk ik dat dit niet veel beter zal zijn dan andere aftermarket oplossingen die ca. 8 fasen hebben bijvoorbeeldLongBowNL schreef op maandag 22 juni 2015 @ 12:32:
Een overclockers droom?
[afbeelding]
http://www.galaxstore.net...GB-LN2-p/98irh5dhf9lt.htm
Ik lees nu ook pas het bericht dat het een LN2 editie is
[ Voor 7% gewijzigd door tijmenvn op 22-06-2015 14:31 ]
AMD Ryzen 7 9800X3D // Noctua NH-U12A Chromax Black // ASUS X870-P // 64GB G.Skill Trident Z5 6000MT/s C30 // NVIDIA RTX4090 FE // Samsung 980 Pro 2TB // Corsair AX1200i // Phanteks Enthoo Evolv ATX // Alienware AW3423DW (3440x1440 QD-OLED)
QFT ! En DX12 gaat die levensduur alleen maar verlengen vermoed ik. Als games ineens efficiënter kunnen werken. Laten we hopen dat het ook goed naar onder schaalt.hubhib schreef op maandag 22 juni 2015 @ 13:47:
[...]
Ik als consument vind de huidige trend best aangenaam. Ik heb nog nooit zo lang gedaan met hardware als de laatste paar jaar. Mijn 2500K uit 2011 kan nog prima mee komen en ook mijn inmiddels vervangen Radeon 7970(nu GTX 980) komt nog goed mee in de huidige games. Ergens begint het wel te kriebelen om ook mijn processor te vervangen, maar dit zal niet meer uit pure noodzaak zijn zoals vroeger.
Je kunt het op die manier zien ja. Je kunt het ook zien als een punt tegen Intel dat ze zo zonder competitie amper innoveren. Het enige wat zij voor desktopprocessoren doen, is de procéde verkleinen. Wat het voor hun goedkoper maakt. Vervolgens een iets efficiëntere architectuur. En ja, zo vragen ze nog steeds hetzelfde voor de i7 4790K als dat ze deden voor de i7 2600K, terwijl deze maar marginaal sneller is. Maar veel goedkoper voor Intel is om te maken. Van mij part mogen ze 6-8 core trend inmiddels wel naar het mainstream platform brengen. En 4 PCI-E lanes meer vanaf de CPU zodat we eindelijk SLI setups met PCI-E 3.0 x4 SSD's kunnen combinerenPhuncz schreef op maandag 22 juni 2015 @ 19:28:
[...]
QFT ! En DX12 gaat die levensduur alleen maar verlengen vermoed ik. Als games ineens efficiënter kunnen werken. Laten we hopen dat het ook goed naar onder schaalt.
AMD Ryzen 7 9800X3D // Noctua NH-U12A Chromax Black // ASUS X870-P // 64GB G.Skill Trident Z5 6000MT/s C30 // NVIDIA RTX4090 FE // Samsung 980 Pro 2TB // Corsair AX1200i // Phanteks Enthoo Evolv ATX // Alienware AW3423DW (3440x1440 QD-OLED)
Heb je daarvoor niet een Full Supported DX12 gpu voor nodigPhuncz schreef op maandag 22 juni 2015 @ 19:28:
[...]
QFT ! En DX12 gaat die levensduur alleen maar verlengen vermoed ik. Als games ineens efficiënter kunnen werken. Laten we hopen dat het ook goed naar onder schaalt.
Het gaat mij meer over de PR en advertenties. Volgens mij kunnen alle fabrikanten hier meer mee verdienen, dus waarom ze het niet doen weet ik niet.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Vanuit commercieel standpunt gezien hoeven ze niets te verlagen. De 980ti zit op het zelfde prijspunt als de Fury maar presteerd in veel gevallen beter. Dan kunnen ze de prijs wel verlagen maar ze winnen al met prestatie. Is ook maar mijn idee hoor, kunnen geen rechten aan worden ontleend
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Tuurlijk, het is een gerucht wat moeilijk te verifiëren valt. Dat gezegd hebbende, met de AMD Fury zaten ze erg vaak goed qua geruchten, dus wie weet.OMD schreef op zaterdag 27 juni 2015 @ 21:30:
Wccftech zegt wel vaker wat.
Vanuit commercieel standpunt gezien hoeven ze niets te verlagen. De 980ti zit op het zelfde prijspunt als de Fury maar presteerd in veel gevallen beter. Dan kunnen ze de prijs wel verlagen maar ze winnen al met prestatie. Is ook maar mijn idee hoor, kunnen geen rechten aan worden ontleend
Ze zouden hiermee wat extra druk kunnen zetten op AMD, maar Nvidia is normaal nogal gesteld op hun marges, dus heb er zelf ook een hard hoofd in.
http://videocardz.com/569...paring-geforce-gtx-950-ti
Komt door de consoles,die hebben de ontwikkeling een flink stuk gestagneerd,wat wil je ook met bij release al verouderde hardware ,dan moet je als ontwikkelaar flink aan de bak om de consument ervan te overtuigen om overstag te gaan.XanderDrake schreef op maandag 22 juni 2015 @ 13:30:
Ik snap ondertussen de PR en reclame rond DX12 niet echt meer. Vroegâr was een nieuwe versie van DirectX een heel ding, duurde jaren voor het volledig ontwikkeld was, latest features and effects, enz. Voor nVidia en AMD was bijv. DX10 een zeer groot verkooppunt voor de G80 en R300.
Nu zie ik deze argumentering een stuk minder voor DX12. Het is prima dat DX12 ook gedeeltelijk werkt op DX11 kaarten, maar ik denk dat ze een stuk meer zouden verdienen aan de release van een nieuwe GPU als ze het koppelen aan "Full DX12 support, future proof !?!?1!!".
De focus lijkt nu wel te liggen op hoe breed ondersteunend de GPUs van tegenwoordig zijn met allerlei API's en feature-levels. Een onduidelijkere boodschap lijkt me.
Kosten baatte plaatje. Vroegah ! toen dit niet zozeer speelde was de ontwikkeling van dx meer gericht op de hardware de ontwikkeling wel kon bijbenen.
Een nieuwe quadro komt in augustus uit, maar aan de specs te zien is het geen nieuwe gpu, eerder een respin van Maxwell.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Er komen waarschijnlijk een aantal mid end gpus erbij, denk aan GTX 950 of dergelijke. Misschien toch nog een totaal nieuwe serie van respins op komst?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hopelijk met een wat grotere memory bus
(En de allerlaatste rage, minstens 8gb ram erop !!!

Bron met download: https://forums.geforce.co...rce-hotfix-driver-353-38/
Medewerker van Oxygen Updater: discord.gg/5TXdhKJ
Ik wacht daar al sinds januari op; een 960 Ti van +- 250 euro. Als ik had geweten dat het zo lang zou duren dan had ik een GTX 970 aangeschaft. Nu is het voor mij een beetje onzinnig om een 9 maanden oude kaart aan te schaffen die ook nog eens +- 10-20 euro duurder is geworden.lightdestroyer schreef op vrijdag 03 juli 2015 @ 12:56:
En ik denk dat iedereen wel aan het wachten is op de GT960ti ...
Hopelijk met een wat grotere memory bus
(En de allerlaatste rage, minstens 8gb ram erop !!!![]()
)
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Voor een GTX 960 Ti kunnen ze alleen maar een GM204 GPU pakken, de GM206 GPU heeft immers alles al ingeschakeld. Mocht die komen dan is een GM204 waarvan een aantal stream processors en een stukje geheugenbus zijn uitgeschakeld het meest logische.lightdestroyer schreef op vrijdag 03 juli 2015 @ 12:56:
En ik denk dat iedereen wel aan het wachten is op de GT960ti ...
Hopelijk met een wat grotere memory bus
(En de allerlaatste rage, minstens 8gb ram erop !!!![]()
)
Ik zou zeggen een GM204 GPU, met 1536 stream processors ingeschakeld, 48 ROPS ingeschakeld en een 192 bit geheugeninterface, dus zeg maar een kwart van de chip is uitgeschakeld.
Maar de vraag is of ze dat wel willen, ze gebruiken nu de defecte chips voor in de laptops. De GeForce GTX 965M heeft nu maar de helft (!!!) van het aantal stream processors ingeschakeld en dat zelfde geld voor de geheugenbus. Een GeForce GTX 970M heeft met 1280 streamprocessors en een 192 bit geheugeninterface al iets meer ingeschakeld maar ook hier wordt veel uitgeschakeld. Zelfs de GeForce GTX 980M komt met 1536 streamprocessors, maar maximaal tot drie kwart ingeschakeld al is de geheugenbus in dit geval wel 256 bit.
Dit laat dus duidelijk zien dat ze alle defecte chips al prima kunnen gebruiken voor in laptops. Waarschijnlijk hebben ze niet meer defecte chips en willen ze liever niet een perfecte chip welke ook als GTX 980 verkocht kon worden voor veel minder verkopen als GTX 960 Ti. Vandaar dat nVidia helemaal geen haast maakt met deze kaart, mocht die ooit komen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
betere wafer -> lager voltage -> gunstiger verbruik
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
zou die ondertussen niet met zo'n 960 chip geleverd worden?-The_Mask- schreef op vrijdag 03 juli 2015 @ 13:15:
Maar de vraag is of ze dat wel willen, ze gebruiken nu de defecte chips voor in de laptops. De GeForce GTX 965M heeft nu maar de helft (!!!) van het aantal stream processors ingeschakeld en dat zelfde geld voor de geheugenbus.
Mechwarrior Online: Flapdrol
Er lijkt mij niet heel veel verschil te zitten tussen het midden en de rand van een wafer qua verbruik, verschil voor een laptop GPU lijkt mij hooguit enkele watts, dat moet niet echt veel uit maken. Grote verschil in verbruik ga je pas krijgen bij een lagere kloksnelheid en minder ingeschakelde streamprocessors, maar wat ook veel helpt is de spanning op de GPU, als die iets lager kan door de lagere kloksnelheid zal dit ook al veel verschil maken.Wolf schreef op vrijdag 03 juli 2015 @ 13:34:
Ik dacht dat voor Laptops altijd juist de beste stukken van de wafer moesten hebben om het stroomverbruik binnen de perken te houden?
betere wafer -> lager voltage -> gunstiger verbruik
Is overigens wel de manier welke AMD nu gebruikt, de beste chips voor in de laptop, met alle stream procesoors ingeschakeld en voor de PC, GPU's geen volledig ingeschakelde chips. (Behalve dan Hawaii en Fiji, maar die verbruiken toch te veel voor laptops)
Het zou een optie kunnen zijn, maar wordt volgens mij niet gedaan. Mocht het zo zijn dan is het wel met GPU-z uit te lezen.haarbal schreef op vrijdag 03 juli 2015 @ 14:39:
[...]
zou die ondertussen niet met zo'n 960 chip geleverd worden?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Availability starting July 22nd, 2015 10:00 AM (PT).
ASIC 80%+ - $1049.99
ASIC 76%+ - $ 999.99
ASIC 74%+ - $ 899.00
ASIC 72%+ - $ 849.99
http://www.evga.com/artic...Force-GTX-980-Ti-KINGPIN/
Vrij uniek lijkt mij
Het moet echt niet gekker worden dat ze je $200 aanrekenen voor potentieel meer overclock. Maar er zal wel een markt voor zijn voor dit soort absurditeiten.
Het was toch eigenlijk maar een kwestie van tijd dat dit ging gebeurenResinman schreef op dinsdag 21 juli 2015 @ 08:31:
EVGA GeForce GTX 980 Ti K|NGP|N pre-binned GPU:
Availability starting July 22nd, 2015 10:00 AM (PT).
ASIC 80%+ - $1049.99
ASIC 76%+ - $ 999.99
ASIC 74%+ - $ 899.00
ASIC 72%+ - $ 849.99
http://www.evga.com/artic...Force-GTX-980-Ti-KINGPIN/
Vrij uniek lijkt mij
Wat dat betreft is ASIC quality de beste indicator van beter overclocken (minder leakage, lagere temps) nietwaar?
Maar wat is eigenlijk de gemiddelde ASIC quality van de high-end GPUs, en wat zijn de standaard deviaties?
Wederom iets wat een user met één of max twee GPU's niet echt lekker kan testen, maar waar een grote techsite wel iets mee kan doen. Alleen zover ik weet doet niemand er iets mee, hoewel het zeer handig zou zijn voor hun clienten/lezers.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 668222
Nee er is geen markt voor. Normaal wordt dit allemaal achter de schermen gedaan door fabrikanten met als doel goede reclame voor hun merk d.m.v. overclock records etc. De bekendere overclockers kunnen dan hun kunsten vertonen met videokaarten, CPUs, moederborden e.d. welke gesponsord zijn door een fabrikant.Phuncz schreef op dinsdag 21 juli 2015 @ 09:16:
Moeten ze hiervoor geen aanvraag indienen bij de kansspelcommissie ?![]()
Het moet echt niet gekker worden dat ze je $200 aanrekenen voor potentieel meer overclock. Maar er zal wel een markt voor zijn voor dit soort absurditeiten.
Uiteraard hebben ze bij EVGA een nVidia mentaliteit dus gaan ze het proberen te verkopen...
Als je dit echt wil dan ben je waarschijnlijk een wanne be K|NGP|N. De echte K|NGP|N krijgt de exemplaren gratis toegestuurd

[ Voor 7% gewijzigd door madmaxnl op 21-07-2015 15:59 ]
Die 71% is redelijk goed dus. Dat zie ik ook in fora, bij mensen die het bij houden.Anoniem: 668222 schreef op dinsdag 21 juli 2015 @ 15:50:
Vraag ik mij ook af XanderDrake, wat de gemiddelde Asic is ongeveer. Ik heb met mijn gtx 680 ooit een Asic gezien van 67% en een andere had 73%. Nu heb ik een gtx 980 ti met een Asic van 71%.
Maar ja, statistics over overclock resultaten met asic qual zie ik nergens.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Nope, we gaan dan meer eye-candy, draw-distance en foto-realisme krijgen en wellicht zelfs 60/120/144 hz op de consoles stel je voorPhuncz schreef op maandag 22 juni 2015 @ 19:28:
[...]
QFT ! En DX12 gaat die levensduur alleen maar verlengen vermoed ik. Als games ineens efficiënter kunnen werken. Laten we hopen dat het ook goed naar onder schaalt.
Er blijven altijd Dice's Crytek's en Ubi die het maximale uit next-gen hardware willen persen. (en dat is nu eenmaal de meuk die het beste aan de kudde verkoopt).
Als er geen markt voor is, waarom brengen ze dit soort meuk dan uitmadmaxnl schreef op dinsdag 21 juli 2015 @ 15:53:
[...]
Nee er is geen markt voor. Normaal wordt dit allemaal achter de schermen gedaan door fabrikanten met als doel goede reclame voor hun merk d.m.v. overclock records etc. De bekendere overclockers kunnen dan hun kunsten vertonen met videokaarten, CPUs, moederborden e.d. welke gesponsord zijn door een fabrikant.
Uiteraard hebben ze bij EVGA een nVidia mentaliteit dus gaan ze het proberen te verkopen...
Als je dit echt wil dan ben je waarschijnlijk een wanne be K|NGP|N. De echte K|NGP|N krijgt de exemplaren gratis toegestuurdAlsof je dure merkkleding koopt met het merk prominent op je kleren gedrukt waardoor je gratis reclame maakt voor de al te dure merkkleding, mensen
![]()
Of het zinvol is voor 99,9% van de mensen is een ander verhaal, maar ondanks de kleine groep zijn er genoeg die maar wat graag meedoen met de e-penis competitie en dit soort producten kopen. Kijk maar naar bv de Titan, de dure intel cpu's en tegenwoordig ook AMD met de Fury X, fabrikanten gaan hier ook in mee om een beetje extra cash/publiciteit te pakken
Nu ben ik plotseling niet ontevreden met mijn Inno3d met een Asic van 79.9%Resinman schreef op dinsdag 21 juli 2015 @ 08:31:
EVGA GeForce GTX 980 Ti K|NGP|N pre-binned GPU:
Availability starting July 22nd, 2015 10:00 AM (PT).
ASIC 80%+ - $1049.99
ASIC 76%+ - $ 999.99
ASIC 74%+ - $ 899.00
ASIC 72%+ - $ 849.99
http://www.evga.com/artic...Force-GTX-980-Ti-KINGPIN/
Vrij uniek lijkt mij
Nvidia Pascal GP100 GPU Flagship Will Pack A 4096-bit Memory Bus And Four 8-Hi HBM2 Stacks
Vooral het feit dat de GP100 zogezegd als "taped out" is wil zeggen dat ze inderdaad royaal veel tijd hebben voor te optimaliseren (indien alles goed gaat natuurlijk). Nu nog de productie in gang krijgen op het kleinere procedéAl de rest van het bericht is hier al lang besproken zou ik zeggen
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Maar sowieso we zijn nog ver verwijderd van een nieuwe generatie, ook al hebben we nu al een tape-out.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Kvraag me net zoals velen eigenlijk vooral af waar nVidia zijn geheugen zal halen... Met vroege tape outs kunnen ze natuurlijk nu wel gaan beginnen experimenteren met verschillende geheugen layouts en geheugenleveranciers (Hynix is echt niet de enige geheugenfabrikant, gelukkig maar ..).
En zoals men overal kan lezen is AMD precies op 2 paarden aan het wedden (TSMC én GloFo-Samsung). Klinkt eigenlijk ook gewoon best logisch. Je neemt je wafers af waar je het beste resultaat/garanties kan krijgen.
Dit kost misschien wel wat meer in ontwikkeling, maar men wacht nu al zo lang dat AMD zeëen van tijd had om eens bij een concurrent te gaan kijken
Een concurrent waarmee ze sowieso al goede banden hebben en al over veel interne kennis beschikken.
Daarbij vroeger was het niet abnormaal dat videokaart makers hun gpu's bij verschillende fabrikanten lieten maken (Ik weet bv nog dat nvidia in "lang vervlogen" tijden niet enkel bij TSMC zijn gpu's liet maken maar ook bij een andere fabrikant.)
Pas toen TSMC superieur werd dan z'n concurrenten (1 van de redenen dat nVidia kon winnen van z'n concurrenten) werd de schaling voordelen (ontwikkelingsfocus gericht op maar 1 productie procedé) zo groot dat alle productie naar 1 fabrikant werd verschoven. (En diende de nvidia concurrenten te volgen op de aggressieve ontwikkelingscycli .. waardoor ze geen keuze hadden dan om ook maar op de TSMC bandwagen te springen .. een jaar achterstand was toen moordend..)
Goede tijden voor de consument, nu kan zowel nVidia en AMD gemakkelijk een minder jaar overbruggen zonder erge gevolgen, de fanboys zorgen wel voor genoeg omzet
Eigenlijk is het iets dat men in andere industrieën probeert ten allen kosten te vermijden : je afhankelijk maken van maar 1 chipbakker/leverancier (vandaar dat ASML nooit een monopoly zal krijgen omdat de afnemers van hun machines echt niet willen dat ze nog maar bij 1 adres kunnen aankloppen .. bye bye snelle ontwikkeling. ..)
Je kon de laatste 2 jaren de gevolgen ervan zien: TSMC heeft simpelweg zijn productie procedé verkleint voor lage stroom chips maar voor videokaarten zeiden: "pech wacht maar wat langer".
En waarom niet, het is niet dat zowel AMD of nVidia enige andere optie hadden dan hun ontwikkelingschema's omver te gooien: er was geen alternatief.
PS: Ironisch genoeg zou AMD nu juist een schalingsvoordeel krijgen door weg te trekken van TSMC wegens de APU's en kunnen ze meer research gemeenschappelijk maken met zelf hun gewonen CPU tak. Kostenbesparing zal bij AMD sowieso hoog in hun prioriteiten staan en wat meer synergie kan geen kwaad nu meer en meer stemmen de kop op duiken om AMD op te splitsen..
Ook al doen ze daar initieel verlies mee: ze doen hun concurrentie er nog meer pijn mee. Als TSMC maar 1 klant meer heeft voor GPU wafers zullen de prijs per wafer toch omhoog gaan.
En de investeringen door TSMC zullen wellicht verminderen als hun omzet ook verminderd logischerwijze.
Alles valt hoe goed de GloFo-Samsung resultaten zijn vs TSMC. Vanaf ongeveer hetzelfde (of zelf ietsje minder) zie ik AMD wel overstappen. Maar zolang TSMC véél betere resultaten kan leveren...
PS: 14 nm proces bij 1 fabrikant hoeft zelf niet noodzakelijk kleiner/efficiënter/goedkoper te zijn dan een 16nm proces bij een andere fabrikant. Sinds de finfet's zijn de cijfertjes nu vooral een marketing tool geworden

En zelf als ze slechter zijn: Niets houdt AMD tegen om hun high-end bij TSMC te blijven produceren en hun low-end chips bij GloFo-Samsung. Vaak zijn dit toch twee verschillende chips. Kan je de volgende ronde beide fabrikanten mooi tegen elkaar uitspelen.
/me Lightdestroyer denkt dat nVidia door zich volledig vast te koppelen aan TSMC juist in een minder voordelige positie zou kunnen komen te staan dan AMD
Maar volgens mij op dit moment wel de enige die HBM maakt. Ik ben nog niks tegen gekomen dat Samsung (als voorbeeld) hier ook mee bezig is.lightdestroyer schreef op donderdag 23 juli 2015 @ 10:21:
(Hynix is echt niet de enige geheugenfabrikant, gelukkig maar ..).
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Das omdat Samsung investeerd in HMC geheugen ipv HBM:Zeara schreef op donderdag 23 juli 2015 @ 10:28:
[...]
Maar volgens mij op dit moment wel de enige die HBM maakt. Ik ben nog niks tegen gekomen dat Samsung (als voorbeeld) hier ook mee bezig is.
Wikipedia: Hybrid Memory Cube
HBM is sinds 2013 een Jedec standaard, maw het zou niet verwonderlijk zijn moest er één of meerdere concurrenten van Hynix ook dit kunnen leveren.
We hebben nog een lange tijd te gaan tegen de nieuwe gpu's zodoende hebben andere fabrikanten nog tijd om hun productie op te drijven (zeker als ze gegarandeerde afzet hebben).
Hence waarom het zo'n goed nieuws is dat de tape outs al gebeurd zijn: zowel nVidia als AMD kunnen zich dan meer richten op te gebruiken geheugen bv.
"Spijtig genoeg" heeft nVidia CEO zelfs na die problemen bevestigd dat ze bleven TSMC zien als long term partner (en zodoende ook zo hun contracten hebben afgesloten).XanderDrake schreef op donderdag 23 juli 2015 @ 10:48:
In het verleden heeft nVidia zich vrij negatief uitgelaten over TSMC, ten tijden van de overstap op 28nm. Ik kan me niet voorstellen dat nVidia op maar één paard wed. Ik heb begrepen dat er dev teams zijn die altijd bezig zijn met het product dat uit moet komen ná het product dat ze nu aan het ontwikkelen zijn. Dat duurt vaak meerdere jaren, dus als ze nu fatale problemen met die-shrinks ervaren, kan ik me voorstellen dat ze ergens anders aan het kijken zijn.
Natuurlijk moest plotseling een concurrent véél betere resultaten opleveren zal nVidia wel proberen zo snel mogelijk te veranderen maar gemakkelijk zal het zeker niet gaan indien niet voorzien.
Daarbij enkel al hun trots/schrik zal hun in de weg staan om bij GloFo aan te kloppen, bij productietekorten zullen ze vrezen om na AMD in de wachtrij te komen staan.
Iets waar AMD totaal niet durft te doen natuurlijk *ahum* geheugen
Ook nVidia heeft dit spelletje al gespeeld in het verleden .. pot en ketel .. maar de ketel zal niet spontaan bij de pot gaan aankloppen om der volledig afhankelijk van te worden.
Zelf als je later juridisch gelijk krijgt is het kwaad geleden (AMD vs Intel, nVidia vs Intel) .. Intel heeft beide keren juridisch verloren maar uiteindelijk was het toch de grote overwinnaar.
Raar maar waar: ze (Intel) vinden niemand die nu nog bij hun chips wil laten produceren
[ Voor 48% gewijzigd door lightdestroyer op 23-07-2015 11:02 ]
Concurrenten?lightdestroyer schreef op donderdag 23 juli 2015 @ 10:55:
HBM is sinds 2013 een Jedec standaard, maw het zou niet verwonderlijk zijn moest er één of meerdere concurrenten van Hynix ook dit kunnen leveren.
Welke concurrenten? Elpida is van Micron (overgenomen na faillisement van Elpida), naast Micron heb je dan alleen nog Samsung en beide hebben zich gericht op HMC, dus de enige fabrikant met HBM is SK Hynix normaalgesproken. Powerchip heeft nog nooit geheugen voor videokaarten gemaakt en is ook maar een kleine speler volgens mij, dus ik zie ze ook niet met HBM komen.
[ Voor 12% gewijzigd door -The_Mask- op 23-07-2015 11:23 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Oei-The_Mask- schreef op donderdag 23 juli 2015 @ 11:15:
[...]
Concurrenten?
Welke concurrenten? Elpida is van Micron (overgenomen na faillisement van Elpida), naast Micron heb je dan alleen nog Samsung en beide hebben zich gericht op HMC, dus de enige fabrikant met HBM is SK Hynix normaalgesproken. Powerchip heeft nog nooit geheugen voor videokaarten gemaakt en is ook maar een kleine speler volgens mij, dus ik zie ze ook niet met HBM komen.
Powerchip heeft precies zelf niet de nodige fabs in huis om te kunnen concurreren: (70nm kleinste procedé volgens wat ik direct kan vinden)
Eerlijk gezegd ging ik er altijd vanuit dat je toch een 5-tal concurrenten had in dat segment: Ik wist dat de geheugen crisis (DDR2 periode dirt cheap memory
Precies dat vooral Micron een hele hoop van z'n concurrenten heeft opgekocht. Lekker veel concurrentie nu ..
Verklaart mss waarom de DDR3 en DDR4 prijzen naar mijn in ziens veel te hoog liggen tov vroeger, slechte tijden als consument
(Snel lijstje opgezocht:)
- Corsair Memory <<geen idee of deze eigen productie hebben of gewoon doorverkopen
. Volgens mij bezitten ze geen enkele fabriek.
- Kingston Technology <<grootste DRAM leverancier .. ze hebben het kapitaal?? Again volgens mij bezitten ze geen enkele fabriek
- Micron Technology <<HMC
- Mushkin <<niet dus XD (denk ik)
- Samsung <<HMC
- SK Hynix <<HBM
- Transcend Information << GPU memory fabrikant .. *yay* mss maakt deze een mini kans ??
(fabriek in oa Shangai)
- Winbond << 62nm productie node is hun kleinste .. ik vrees ervoor.
- Wintec Industries Inc. <<Nee buiten als ze 200 supermannen in dienst hebben
(geen fabrieken in bezit)
- STMicroelectronics <<Europees (*yay*) hebben de technische kennis van klein genoeg procedé .. geen idee of ze genoeg productiecapaciteit hebben + richten zich totaal niet op videokaart geheugen.
Maar hun fabriek in Frankrijk ziet er capabel genoeg voor uit moesten ze ooit op de markt willen springen.. - Numonyx: Opgekocht door Micron
- Qimonda: Failliet (video geheugen voor consoles zoals de wii en xbox360)
- Sandisk: Enkel precies flash geheugen fabs?? ..
IM Flash Technologies << Micron + Intel samenwerking voor NAND memory .. dus wellicht ook HMC ??
/me Lightdestroyer vraagt zich dus eigenlijk af of je als videokaart bakker niet beter af bent met HMC .. tenminste nog wat concurrentie tussen de verschillende fabs, aka 2-3 fabriekanten
Fabrikanten als Corsair, Kingston, Mushkin, Transcend verkopen wel geheugen, maar de geheugenchips maken ze niet. Een fabrikant als Corsair maakt de producten niet eens zelf, ze zijn vaak hooguit ODM en geen OEM. Zelfde geld voor Mushkin en vast ook voor (sommige producten voor) Kingston en Transcend.
Winbond en STMicroelectronics houden zich niet bezig met normaal (lees: (G)DDR) werkgeheugen of videogeheugen voor PC's of laptops.
Wintec is een OEM voor andere fabrikanten. Dus een fabrikant als Corsair kan bij bijvoorbeeld Wintec aan kloppen en zeggen die wij willen een nieuw kitje Dominator geheugen uitbrengen het moet deze geheugenchips hebben en zo moeten ze eruit zien. Een fabrikant als Wintec koopt dan de juiste geheugenchips bij fabrikanten als SK Hynix, Samsung, PowerChip of Micron drukt ze op een printplaatje, plaatst er een fancy heatsinkje op en Corsair kan ze verkopen. Zo moet dat ongeveer gaan.
Sandisk heeft wel eigen fabs, maar richt zich helemaal op alle soorten flash geheugen en wat daar mee te maken heeft.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat was toch minder geschikt voor videokaarten? Er zal een reden zijn dat zowel AMD als Nvidia beiden voor HBM gaan.lightdestroyer schreef op donderdag 23 juli 2015 @ 13:28:
[...]
/me Lightdestroyer vraagt zich dus eigenlijk af of je als videokaart bakker niet beter af bent met HMC .. tenminste nog wat concurrentie tussen de verschillende fabs, aka 2-3 fabriekanten. Eventueel 4 Als Hynix op deze markt ook wil mee doen ..
Maar ben het met je eens dat je daardoor wel gelimiteerd bent aan een fabrikant.
Ben benieuwd of de dag ooit komt dat Nvidia aanklopt bij GF
Overigens is die andere "chipbakker" die jij bedoelde UMC:
http://www.techpowerup.co...cing-to-tsmc-and-umc.html
http://www.geforce.co.uk/...v-the-phantom-pain/bundle

Dat klopt ja, maar der is weinig hoop dat ze terug kunnen aankloppen bij UMC, amper 2 fabrieken hebben groot genoege wafers en hun kleinste proces node is 40nm. ,blijkbaar toch 28nm..Sp3ci3s8472 schreef op donderdag 23 juli 2015 @ 15:42:
[...]
Dat was toch minder geschikt voor videokaarten? Er zal een reden zijn dat zowel AMD als Nvidia beiden voor HBM gaan.
Maar ben het met je eens dat je daardoor wel gelimiteerd bent aan een fabrikant.
Ben benieuwd of de dag ooit komt dat Nvidia aanklopt bij GF.
Overigens is die andere "chipbakker" die jij bedoelde UMC:
http://www.techpowerup.co...cing-to-tsmc-and-umc.html
Maar kvrees voor grote capaciteits issues .. (en geen enkel nieuws bekend van de kleinere procedé's dan 28nm terwijl zowel intel als TSMC als GloFO al een stuk kleiner zitten ..)
Overzichtje van hun enige fabrieken met grote wafers, zoals je kan zien maar 1 zou je momenteel kunnen gebruiken .. naar de toekomst toe: niets.
Fab 12A | 28 nm | Tainan, Taiwan | 300 mm | 55000 |
Fab 12i | 55 nm | Singapore | 300 mm | 45000 |
En "minder geschikt"... ik denk dat de bandbreedte bij HBM wel een beetje over de top is (toch momenteel) dus wie weet is HMC ook wel "voldoende"..
Nu tot nu toe heb ik geen enkel HMC geheugenmodule in het wild kunnen spotten, dus enkel de tijd zal het uitwijzen zeker ..
Eigenlijk verwacht ik wel dat HMC toch wel snel in productie zal genomen als tegenwoord op HBM ..
(Producten zouden in 2015 moeten verschijnen, specs waren ongeveer op hetzelfde moment als HBM afgewerkt dusja waarom ook niet)
Qua bandbreedte zal er wel geen probleem zijn:
1 Link geeft 40 GB/s (20 GB/s transmit and 20 GB/s receive); cubes with 4 and 8 links are planned.
Das dus 320 GB/s per cube
(Let op eigenlijk moet je maar 160 GB/s rekenen in 1 richting, maar soit kom je nog mooi tot een 4 keer zo hoge bandbreedte dan men nu heeft op de high end GDDR5 kaarten, ik zou denken dat dat wel het geheugen bottleneck probleem effen oplost (en 2GB per cube is al als engineering sample getoont dus het probleem van HBM1 kan men direct skippen)
Waarom dat nVidia sinds dat ze Pacal aangekondigd hebben bij HBM(2) blijven plakken, geen idee er zal wel een reden zijn zeker? (Ofwel hadden ze enkel kennis van HBM toen men begon te werken aan Pascal ... long long time ago toen de 22nm proces node nog bedoeld was voor video kaarten
Valt wel mee, een R9 290X heeft 320GB/s en Fury X heeft 512GB/s, een toename van 45,45% in streamprocessors en een toename van 60% aan bandbreedte. Door de lage frequentie van 500MHz valt de bandbreedte toename dus best mee.lightdestroyer schreef op donderdag 23 juli 2015 @ 17:23:
[...]
En "minder geschikt"... ik denk dat de bandbreedte bij HBM wel een beetje over de top is (toch momenteel) dus wie weet is HMC ook wel "voldoende"..
Met HBM verdubbeld de frequentie, busbreedte blijft hetzelfde, dus de bandbreedte verdubbeld en dat lijkt mij ook wel nodig. 14/16nm FinFET is een grote stap voorwaarts in vergelijking met 28nm.
UMC richt zich vooral op ARM en dus veel kleinere en zuinigere chips tegenwoordig.
http://www.umc.com/English/news/2015/20150622-1.asp
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Oh leuk, wellicht dan ook weer in Fab 12 zeker-The_Mask- schreef op donderdag 23 juli 2015 @ 17:48:
[...]
Valt wel mee, een R9 290X heeft 320GB/s en Fury X heeft 512GB/s, een toename van 45,45% in streamprocessors en een toename van 60% aan bandbreedte. Door de lage frequentie van 500MHz valt de bandbreedte toename dus best mee.
Met HBM verdubbeld de frequentie, busbreedte blijft hetzelfde, dus de bandbreedte verdubbeld en dat lijkt mij ook wel nodig. 14/16nm FinFET is een grote stap voorwaarts in vergelijking met 28nm.
UMC richt zich vooral op ARM en dus veel kleinere en zuinigere chips tegenwoordig.
http://www.umc.com/English/news/2015/20150622-1.asp
Eén of andere manier heb ik nooit de nieuws berichten van UMC gelezen/bekeken (PR berichten interesseren mij niet echt, maar zo zie je soms mis je dan wel belangrijke info

Bij de 14/16nm FinFET generatie verwacht ik eigenlijk wel dat de frequentie van het HBM geheugen "terug" mooi dicht naar de 1024Mhz zal komen en dus een bandbreedte van 1024GB/s vandaar mijn "over the top".
Maar soit je hebt gelijk, altijd optimistisch blijven en der vanuit gaan dat de GPU's meer dan verdubbelen aan snelheid!!! (kvrees dat ik pessimistischer ben ingesteld
http://www.fudzilla.com/n...as-17-billion-transistors
Het wordt een zeer complexe GPU: maar liefst 17 miljard transistors. Hoewel dit twee keer zoveel is als Maxwells transistor count, moet de GPU een stuk kleiner worden dan Big Maxwell, met name dankzij het 16nm FinFET procedé.
De maximale memory hoeveelheid bedraagt 32GB, met als andere hoeveelheid volgens mij 16GB en 8GB. Dit zou dus een flinke boost zijn tov de 4GB die je nu vaak ziet.
En we moeten tot 2016 wachten voor al dat goeds

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 668222
AMD zit ook niet stil neem ik aan maar waar die nog mee kan komen is me een raadsel?
[ Voor 14% gewijzigd door Phuncz op 24-07-2015 14:13 ]
Zo ziet het er wel uit ja. Ik vraag me af of HBM een beschermde merknaam is ofzo, maar het is in ieder geval technisch een stuk verder dan wat nu op de R9 Fury X zit. Maar of AMD eerder is? Wie weetAnoniem: 668222 schreef op vrijdag 24 juli 2015 @ 13:15:
Dus Pascal word de eerste GPU op de markt met HBM 2 en full support voor dx12?
AMD zit ook niet stil neem ik aan maar waar die nog mee kan komen is me een raadsel?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
HBM2 is de enige keuze mogelijk zover nu bekend is, dus ja HBM2.Phuncz schreef op vrijdag 24 juli 2015 @ 14:12:
Ook met HBM 2 ? http://www.tweaktown.com/...ge-over-nvidia/index.html eerste hit op DuckDuckGo "AMD HBM2".
Nee op dit moment 50/50.Anoniem: 668222 schreef op vrijdag 24 juli 2015 @ 13:15:
Dus Pascal word de eerste GPU op de markt met HBM 2 en full support voor dx12?
[ Voor 25% gewijzigd door -The_Mask- op 24-07-2015 17:00 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
http://www.fudzilla.com/n...o-hit-europe-in-september
Niet geheel onlogisch maar nu wel officieel: de Shield console komt naar Europa. Prijzen zijn nog niet bekend. USP: 4k ondersteuning voor TVs en nVidia GRID streaming. Daarnaast is het gewoon een hele snelle Ouya met een betere controller

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik zit nu met een AMD 7970 (die eigelijk bijna alles nog zeer goed draait..) maar het jeukt toch om te upgraden. Nu nog eens 970 of wachten op de 1070... ?
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.