Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op dinsdag 27 maart 2018 @ 20:26:
Het staat buiten kijf dat hij een zeer vaardige ingenieur en manager is, het zou fijn zijn als hij het spel wat netter zou spelen, hij heeft die onzin niet nodig.
Dat hij die onzin niet nodig heeft weet ik nog niet zo zeker. Waarom anders ellebogend door het leven gaan? Gierigheid en altijd maar meer willen ook als dit ten kosten van andere gaat. Enfin, in deze individualistische en prestatie gerichte maatschappij dikke prima blijkbaar.

Het is i.i.g. geen Elon Musk :+

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op dinsdag 27 maart 2018 @ 23:51:
[...]


Dat hij die onzin niet nodig heeft weet ik nog niet zo zeker. Waarom anders ellebogend door het leven gaan? Gierigheid en altijd maar meer willen ook als dit ten kosten van andere gaat. Enfin, in deze individualistische en prestatie gerichte maatschappij dikke prima blijkbaar.
Met die maatschappijkritiek ben ik het van harte eens.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Help!!!! schreef op dinsdag 27 maart 2018 @ 19:11:
Zit even The NVIDIA GTC 2018 Keynote Live Blog te kijken.

Je moet het The Leather Jacket Man wel nageven hoor ze kunnen het wel presenteren en verkopen en denken vooral GROOT!

Daar kan AMD nog wel een puntje aan zuigen.

Die DGX-2 is echt bad ass.
Opzich ben ik het met je eens aan de andere kant als je ziet hoeveel geld ze hebben voor R&D kan is het ook logisch. AMD heeft het niet zou het misschien willen maar kan het niet.
Intel zou hier wat van kunnen leren want die laten AMD gewoon dichtbij komen en hebben zitten luieren.
Ik denk dat zodra AMD met Navi gaat komen nVidia gewoon Volta voor de desktop over slaat en meteen de opvolger uitbrengt en dan weer in een klap de snelste is.

Erg jammer maar ik zie AMD niet echt meer terug komen in de high end GPU race nVidia is daar te slim voor bezig en ze spelen daar naast te veel oneerlijke spelletjes voor vendor lock's, zaken als GPP en game dev's beinvloeden voor AMD nadelige "optimalisaties". Zeker met dingen als GPP zorgen ze ook dat dat bijna niet meer mogelijk is. En daarnaast blijven ze gewoon volop door ontwikkelen met een R&D budget wat velen malen hoger ligt dan wat AMD voor CPU's en GPU's samen heeft.

AMD kan nog wel wat betekenen voor de meeste gamers in de low end en midrange maar next gen Geforce Titan achtige performance zie ik niet snel gebeuren (en dan heb ik het over Titan V of de kaart die daar gaat komen)

Ik hoop dat ik ongelijk ga krijgen :)

[ Voor 15% gewijzigd door Astennu op 28-03-2018 08:34 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Help!!!! schreef op woensdag 21 maart 2018 @ 10:41:
Punt is dat de smerige spelletjes van nVidia niet in het belang van de neutrale gamer zijn
Het is in het belang van geen enkele gamer..

Acties:
  • +1 Henk 'm!

Verwijderd

Het is bekend geworden dat GDDR6 binnen 3 maanden op grote schaal wordt geproduceerd door Hynix, Samsung deed dat al.
Astennu schreef op woensdag 28 maart 2018 @ 08:31:
Erg jammer maar ik zie AMD niet echt meer terug komen in de high end GPU race
Uiteindelijk gaat het vaak om dat ene geweldige idee en die paar briljante mensen in technologie. Daarnaast gaat het ook tegen organisaties werken als ze te groot worden: meer bureaucratie, minder ruimte voor briljante ingenieurs en wetenschappers om creatief te zijn en te experimenteren (tenzij het beleid erop is gericht om dit te stimuleren), meer inertia...
Zeg nooit nooit. Meer concreet, als AMD in staat is om als eerste multi-die GPU's te maken dan geeft dat hen een goede kans om terug te komen. Is Intel niet nog meer een reus dan Nvidia? Toch slaagde AMD er in om terug te komen in de CPU-race en dat na er 10 jaar lang uit te hebben gelegen. Mocht AMD er niet in slagen om terug te komen dan zijn wij gamers de pineut, we zullen veel meer mogen betalen voor de grafische kaarten terwijl de vooruitgang sterk vertraagt. Intel toonde ons tussen 200* en 2016 wat we mogen verwachten. Nvidia mag rustig de performance-kroon hebben, zolang je voor alles daaronder maar een goede concurrentie hebt.

Ik ben overigens benieuwd of dat het zich tegen Nvidia gaat keren wanneer/als AMD terugkomt in de GPU-race. Nvidia heeft veel vijanden gemaakt in de afgelopen jaren: Intel (license-trolling zoals ik het noem), AMD (performance bottlenecken met proprietary software), AIC-partners (GPP, merken jatten), OEM's (GPP), media (dreigementen als ze iets schrijven over Nvidia wat Nvidia niet bevalt)...

[ Voor 137% gewijzigd door Verwijderd op 28-03-2018 13:01 ]


Acties:
  • 0 Henk 'm!

Verwijderd

-

[ Voor 99% gewijzigd door Verwijderd op 28-03-2018 12:32 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Verwijderd schreef op woensdag 28 maart 2018 @ 12:20:
Uiteindelijk gaat het vaak om dat ene geweldige idee en die paar briljante mensen in technologie. Daarnaast gaat het ook tegen organisaties werken als ze te groot worden: meer bureaucratie, minder ruimte voor briljante ingenieurs en wetenschappers om creatief te zijn en te experimenteren (tenzij het beleid erop is gericht om dit te stimuleren), meer inertia...
Zeg nooit nooit. Meer concreet, als AMD in staat is om als eerste multi-die GPU's te maken dan geeft dat hen een goede kans om terug te komen. Is Intel niet nog meer een reus dan Nvidia? Toch slaagde AMD er in om terug te komen in de CPU-race? En dat na er 10 jaar lang uit te hebben gelegen. Mocht AMD er niet in slagen om terug te komen dan zijn wij gamers de pineut, we zullen veel meer mogen betalen voor de grafische kaarten terwijl de vooruitgang sterk vertraagt. Intel toonde ons tussen 200* en 2016 wat we mogen verwachten. Nvidia mag rustig de performance-kroon hebben, zolang je voor alles daaronder maar een goede concurrentie hebt.

Ik ben overigens benieuwd of dat het zich tegen Nvidia gaat keren wanneer AMD terugkomt in de GPU-race. Nvidia heeft veel vijanden gemaakt in de afgelopen jaren: Intel, AMD, AIC-partners, OEM's, media...
Klopt maar als je vervolgens een te klein marktaandeel hebt waardoor Game dev's het niet willen implementeren heb je er niets aan.

AMD heeft in de CPU race terug kunnen komen omdat Intel zit te slapen. Ze komen elke keer met 1-3% performance per generatie in specifieke gevallen 15%. Vind je het raar dat je dan terug kan komen?
nVidia doet dat niet en gaat vol door zie de V100 GPU. Als ze daar een desktop versie van maken zonder die Tensor cores en de clocks verhogen weet je genoeg. En achter de schermen zijn ze volop bezig met de volgende architectuur. En die prestatie winst is vele malen groter dan 1-3% wat intel elke keer laat zien. + nVidia heeft 70-80% van de game dev's mee. Ze hebben nu alle partners die nVidia en AMD verkopen achter zich met GPP en niemand die er wat tegen doet.

Als het aan nVidia ligt draaien ze AMD de nek om en heb je straks geen keuze meer. Net als wat ze met 3DFX gedaan hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Astennu schreef op woensdag 28 maart 2018 @ 08:31:
[...]


Opzich ben ik het met je eens aan de andere kant als je ziet hoeveel geld ze hebben voor R&D kan is het ook logisch. AMD heeft het niet zou het misschien willen maar kan het niet.
Intel zou hier wat van kunnen leren want die laten AMD gewoon dichtbij komen en hebben zitten luieren.
Ik denk dat zodra AMD met Navi gaat komen nVidia gewoon Volta voor de desktop over slaat en meteen de opvolger uitbrengt en dan weer in een klap de snelste is.

Erg jammer maar ik zie AMD niet echt meer terug komen in de high end GPU race nVidia is daar te slim voor bezig en ze spelen daar naast te veel oneerlijke spelletjes voor vendor lock's, zaken als GPP en game dev's beinvloeden voor AMD nadelige "optimalisaties". Zeker met dingen als GPP zorgen ze ook dat dat bijna niet meer mogelijk is. En daarnaast blijven ze gewoon volop door ontwikkelen met een R&D budget wat velen malen hoger ligt dan wat AMD voor CPU's en GPU's samen heeft.

AMD kan nog wel wat betekenen voor de meeste gamers in de low end en midrange maar next gen Geforce Titan achtige performance zie ik niet snel gebeuren (en dan heb ik het over Titan V of de kaart die daar gaat komen)

Ik hoop dat ik ongelijk ga krijgen :)
Om maar even onnodig filosofisch te gaan doen. Je denkt nu in constanten in een wereld die verre van constant is. De menselijke geest houdt niet van onvoorspelbaarheid en wil duidelijkheid hebben. Neemt niet weg dat zaken helemaal niet vast staan. Dat geld zeker voor de tech industrie waar zaken zomaar op zijn kop gedraaid kunnen worden met een nieuw product.

In die voorspelbaarheid een strategie voor overleving uitzetten is Nvidia bijzonder goed gebleken. Nvidia geen gaming videokaartenbedrijf meer. Die keuze om weg te stappen van puur GeForce hebben ze ruim tien jaar geleden al gemaakt, en begint nu vruchten af te werpen. De afgelopen vijf jaar was GeForce helemaal niet de focus van Nvidia. Al jaren hebben ze het bij hun key notes alleen maar over CUDA, deep learning, AI etc. GeForce financiert deze ontwikkelingen. Nvidia's R&D budget loopt ook pas na de release van Pascal fors op. Tot dat punt was het helemaal niet zo enorm veel.

Zie: https://ycharts.com/companies/NVDA/r_and_d_expense

Het is een indicatie dat Nvidia bakken met geld verdient aan Pascal, en dat Nvidia dit geld steekt in andere zaken dan GeForce. Voor een GeForce lijn is het extra geld niet nodig. GeForce is dus Nvidia hun cash cow geworden, niet hun focus. Die focus ligt al jaren op de Tesla lijn die ze waarschijnlijk alleen maar zullen gaan uitbreiden en verbeteren.

Verder als Nvidia zo zeker was over hun positie van GeForce in de gamingmarkt, dan zouden ze niet snel grijpen naar programma's zoals GPP. Als Kyle Bennet helemaal gelijk heeft over GPP, en daar begint het aardig op te lijken, dan lijkt het een kwestie van tijd voordat de Europese Commissie of de FTC in gaat grijpen.


Omdat de videokaartenmarkt een duopolie is, moet AMD ook ter sprake komen. Tja, van Navi verwacht ik persoonlijk niet veel tenzij er het komend jaar opeens fundamentele veranderingen in API selectie plaatsvinden. Vrijwel alle toptitels op DX12/Vulkan dus. Zou geweldig zijn, betwijfel alleen ten sterkste of het echt zal gebeuren. Navi zie ik dus niet veel verder dan mainstream komen met enkele enorme, positieve uitschieters in bepaalde games waar de hogere SKU's zeer goed zullen presteren. Dat heb ik ook al meerdere malen aangegeven.

Toch staat AMD er beter voor op termijn dan het nu lijkt. AMD wil sterk aanwezig zijn in gaming markt omdat er genoeg geld zit om aanwezig te zijn, en omdat de tech industrie uiteindelijk behoorlijk zero sum gericht is. Wint de ene, dan verliest de ander. Als AMD echt competitief is in gaming, dan verliest Nvidia hun cash cow waardoor ze hun R&D budgetten naar beneden moeten bijstellen. Zo kan AMD vervolgens hun achterstand in de HPC wereld versneld inhalen en kan AMD een positie opbouwen in deze toekomstige cash cow. Al helemaal omdat AMD het totaalpakket wil bieden met zowel CPU als GPU kant, waar uiteraard dan variaties in samenstelling per applicatie mogelijk moeten zijn.

Om dit te bereiken heeft AMD hun eigen cash cow, die nu pas langzaam zal beginnen te lopen. Dit zijn uiteraard de Epyc serverchips. Een cash cow zoals geen ander in de tech industrie. AMD haar R&D loopt al op maar het is nog gering. Als Epyc de verwachte doelen behaalt, dat is 10% marktaandeel aan het einde van het jaar, dan kunnen ze zomaar in staat zijn om minstens $100 miljoen extra aan R&D te investeren. Dat is geld dat ze zomaar in de RTG kunnen stoppen om een inhaalslag op Nvidia te plannen. Dan lopen ze opeens hard in op Nvidia haar R&D.

Zie: https://ycharts.com/companies/AMD/r_and_d_expense

AMD is gecommitteerd aan gaming en Lisa Su liet ook al doorschemeren dat een spitsing tussen een HPC en gaming georiënteerde Radeon lijn tot de mogelijkheden behoort. Dat laat je als CEO niet zomaar doorschemeren. Verder heeft AMD deze splitsing eigenlijk al aangekondigd met de HPC only Vega 20 die al een jaar op roadmaps staat. Dan zijn er de geruchten dat Navi de laatste GCN achitectuur voor gaming is en na Navi er een specifieke gaming architectuur komt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Ik snap je punt maar ik zie dit niet zo snel veranderen maar de tijd zal het leren. nVidia krijgt de afgelopen 5 jaar steeds meer en meer markt aandeel. De meeste mensen kennen AMD niet eens meer en als je het over gamen hebt is het eerst nVidia Geforce en dan Intel. Het is lastig om daar van terug te komen.
Bijna niemand weet bv dat AMD de chips levert voor de Xbox en Playstation's. Dus ze missen de naamsbekendheid.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Astennu schreef op woensdag 28 maart 2018 @ 12:51:
Ik snap je punt maar ik zie dit niet zo snel veranderen maar de tijd zal het leren. nVidia krijgt de afgelopen 5 jaar steeds meer en meer markt aandeel. De meeste mensen kennen AMD niet eens meer en als je het over gamen hebt is het eerst nVidia Geforce en dan Intel. Het is lastig om daar van terug te komen.
Bijna niemand weet bv dat AMD de chips levert voor de Xbox en Playstation's. Dus ze missen de naamsbekendheid.
Dus? Genoeg mensen gewoon willen gamen en er geen verstand van hebben. Die gaan dus naar een forum op het maar te vragen of naar een review kijken. Als AMD daar eens goed uitkomt, dan kopen mensen die kaarten gewoon. Polaris deed het goed hoor. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Het verbaast me niet dat @DaniëlWW2 met dit verhaal komt, hij weet als historicus hoe grote onverslaanbaar geachte wereldmachten uiteindelijk kopje onder gaan. ;)
Astennu schreef op woensdag 28 maart 2018 @ 12:41:
[...]


Klopt maar als je vervolgens een te klein marktaandeel hebt waardoor Game dev's het niet willen implementeren heb je er niets aan.
Niet alles hoeft door gamedevelopers geïmplementeerd te worden en als AMD het gemakkelijk genoeg maakt om dat wel te doen (GPU Open) dan zie ik het nog wel gebeuren dat ze het wel doen, zeker als die kaarten op een gegeven moment overduidelijk meer waarde per $ bieden. Zelfs Ubisoft heeft nu bepaalde AMD-features geïmplementeerd (RPM in ieder geval) waardoor de Vega-kaarten en toekomstige generaties AMD-kaarten relatief goed presteren voor dat spel.

Nvidia is nog niet zo arrogant! Maar hoelang is AMD al echt uit die race? Sinds 2016? Of sinds de 2013 (de 200-serie)? Intel had sinds 2006 een comfortabele voorsprong, tot 2017. Tot 2010/2011 (2000-serie) ging het nog redelijk met Intel, daarna verslapten ze gigantisch. Ik zie Nvidia ook wel arrogant worden en verslappen als dit nog een paar jaar aanhoudt. Hoewel Intel meer een reus is dan Nvidia maak jij een goed punt dat Nvidia het voordeel heeft dat ze veel meer middelen hebben om de gamedevelopers spellen te laten optimaliseren voor hun hardware, of de performance van AMD te bottlenecken (meestal blijkt Gameworks immers weinig toe te voegen maar wel de performance de nek om te draaien, in contrast met bijv. Doom, Tomb Raider en Far Cry 5), iets wat Intel minder kon doen of minder deed.
Je had die Intel-'optimized' compilers die AMD-CPU's minder deden presteren dan dat mogelijk was met exact dezelfde programma's op een andere manier gecompileerd.
AMD maakt het in theorie gemakkelijker voor de developers om hun functies te gebruiken maar ja, dan moet AMD wel een groter marktaandeel hebben dan dat momenteel het geval is. Dit met de kanttekening dat die Steam hardware-survey waardeloos is, bijvoorbeeld omdat internet-cafés in China met honderden logins op dezelfde computer dit beeld nogal vertekent (een aardige theorie van AdoredTV naar mijn mening).

Wil Nvidia AMD de nek omdraaien? Ik weet het niet. Die mr. Leather Jacket zou het misschien graag doen (hij schijnt niet op een leuke manier te zijn vertrokken bij AMD) maar zit Nvidia erop te wachten dat ze door de autoriteiten worden gedwongen om Nvidia op te splitsen?

[ Voor 10% gewijzigd door Verwijderd op 28-03-2018 13:19 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Verwijderd schreef op woensdag 28 maart 2018 @ 13:16:
Het verbaast me niet dat @DaniëlWW2 met dit verhaal komt, hij weet als historicus hoe grote onverslaanbare wereldmachten uiteindelijk kopje onder gaan. ;)
Dat is hier nauwelijks relevant hoor. Hoogstens vaak aangrenzende parallellen. Wel weet ik redelijk hoe 3DFX failliet ging, en Nvidia doet op bepaalde aspecten steeds meer denken aan 3DFX. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Astennu schreef op woensdag 28 maart 2018 @ 12:41:
[...]


Klopt maar als je vervolgens een te klein marktaandeel hebt waardoor Game dev's het niet willen implementeren heb je er niets aan.

AMD heeft in de CPU race terug kunnen komen omdat Intel zit te slapen. Ze komen elke keer met 1-3% performance per generatie in specifieke gevallen 15%. Vind je het raar dat je dan terug kan komen?
nVidia doet dat niet en gaat vol door zie de V100 GPU. Als ze daar een desktop versie van maken zonder die Tensor cores en de clocks verhogen weet je genoeg. En achter de schermen zijn ze volop bezig met de volgende architectuur. En die prestatie winst is vele malen groter dan 1-3% wat intel elke keer laat zien. + nVidia heeft 70-80% van de game dev's mee. Ze hebben nu alle partners die nVidia en AMD verkopen achter zich met GPP en niemand die er wat tegen doet.

Als het aan nVidia ligt draaien ze AMD de nek om en heb je straks geen keuze meer. Net als wat ze met 3DFX gedaan hebben.
De vraag is of je CPU en GPU zo makkelijk met elkaar kan vergelijken.

Zit er evenveel rek in de architecturen :?

Intel heeft echt niet weinig in cpus geinvesteerd maar vooral ook in procestechnologie. Het is voor mij niet een voldongen feit dat bij meer R&D de CPU architecturen veel sneller zouden zijn geweest.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
DaniëlWW2 schreef op woensdag 28 maart 2018 @ 13:09:
[...]


Dus? Genoeg mensen gewoon willen gamen en er geen verstand van hebben. Die gaan dus naar een forum op het maar te vragen of naar een review kijken. Als AMD daar eens goed uitkomt, dan kopen mensen die kaarten gewoon. Polaris deed het goed hoor. ;)
Ik zie de meeste om die rede dan op Intel en nVidia uit komen en niet bij AMD die moet je dan echt met veel moeite overtuigen om voor een naam te gaan die ze nooit gehoord hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op woensdag 28 maart 2018 @ 13:33:
[...]

De vraag is of je CPU en GPU zo makkelijk met elkaar kan vergelijken.

Zit er evenveel rek in de architecturen :?

Intel heeft echt niet weinig in cpus geinvesteerd maar vooral ook in procestechnologie. Het is voor mij niet een voldongen feit dat bij meer R&D de CPU architecturen veel sneller zouden zijn geweest.
Offtopic, I know, maar ik ga nog een stapje verder. Ik denk dat Intel haar probleem niet een gebrek aan investering in hun CPU architectuur is, maar een falen van de productiekant van Intel. Intel ligt nu al enkele jaren achter op hun oorspronkelijke schema en heeft nu al jaren geen serieuze stap meer kunnen zetten. Voortgang in processortechniek is vrijwel altijd "quick and dirty" geweest met die shrinks. Nieuwe architecturen helpen meestal, maar niet altijd. Echt nieuwe architecturen voor CPU's zijn ook vrij zeldzaam en komen eigenlijk maar eens in de tien+ jaar voor. De echt grote stappen kwamen dus vaak van kleinere nodes. Dat gaat niet zo lekker op het moment met Intel. :P
Astennu schreef op woensdag 28 maart 2018 @ 13:49:
Ik zie de meeste om die rede dan op Intel en nVidia uit komen en niet bij AMD die moet je dan echt met veel moeite overtuigen om voor een naam te gaan die ze nooit gehoord hebben.
Maar die RX470 was zo slecht niet hoor, ook qua prijs en die liepen wel aardig. Idem voor de R5 1600. Ik geloof niet zo dat de gemiddelde consument er heilig van overtuigd is dat je alleen Nvidia en Intel moet hebben. Ik betwijfel namelijk of die merknamen wel zo bekent zijn, zeker Nvidia. Daar heb ik in persoonlijke kring ook meer dan genoeg aanleiding toe. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
DaniëlWW2 schreef op woensdag 28 maart 2018 @ 13:57:
Maar die RX470 was zo slecht niet hoor, ook qua prijs en die liepen wel aardig. Idem voor de R5 1600. Ik geloof niet zo dat de gemiddelde consument er heilig van overtuigd is dat je alleen Nvidia en Intel moet hebben. Ik betwijfel namelijk of die merknamen wel zo bekent zijn, zeker Nvidia. Daar heb ik in persoonlijke kring ook meer dan genoeg aanleiding toe. ;)
Dat hoef je mij niet te vertellen echter gingen de meeste toch voor een GTX1060 want nVidia.
Tja mijn ervaring is dan helaas anders dan die van jou. Ik zie genoeg mensen die dan Intel en nVidia wel van naam / logo's in games kennen en dan daar voor gaan en niet echt verder kijken. Of wel reviews zien en dan zeggen ja maar veel mensen hebben nVidia dus zal wel goed zijn neem dat wel.

Net als met Samsung en Apple. Andere telefoon merken zijn hier in NL amper vertegenwoordigd. En mensen kunnen mij niet overtuigen dat hun rede echt is omdat Samsung zo veel beter is is gewoon vanwegen het merk en omdat ze het kennen en het verder goed bevalt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op woensdag 28 maart 2018 @ 13:57:
[...]


Offtopic, I know, maar ik ga nog een stapje verder. Ik denk dat Intel haar probleem niet een gebrek aan investering in hun CPU architectuur is, maar een falen van de productiekant van Intel. Intel ligt nu al enkele jaren achter op hun oorspronkelijke schema en heeft nu al jaren geen serieuze stap meer kunnen zetten. Voortgang in processortechniek is vrijwel altijd "quick and dirty" geweest met die shrinks. Nieuwe architecturen helpen meestal, maar niet altijd. Echt nieuwe architecturen voor CPU's zijn ook vrij zeldzaam en komen eigenlijk maar eens in de tien+ jaar voor. De echt grote stappen kwamen dus vaak van kleinere nodes. Dat gaat niet zo lekker op het moment met Intel. :P
Ik denk ook dat het vooral aan de productiekant zit bij Intel.

Waarbij bij intel de prestatiewinst vooral uit superieure en kleinere nodes dan de concurrentie kwam lijkt er bij nvidia relatief meer winst uit de architectuurverbetering zelf te komen.

Ik vraag me af of er uberhaupt nog veel ruimte ligt om CPU architectuur te verbeteren, zelfs als je er heel veel R&D in stopt.

Het lijkt of die ruimte er bij GPU’s veel meer ligt.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

DaniëlWW2 schreef op woensdag 28 maart 2018 @ 13:57:
[...]Echt nieuwe architecturen voor CPU's zijn ook vrij zeldzaam en komen eigenlijk maar eens in de tien+ jaar voor. [...]
10 jaar?

Intel's grootste wijzigingen voor mijn gevoel:
- Pentium (1993)
- Netburst (2001)
- Conroe (2006)
- Sandy Bridge (2011)

AMD's grootste wijzigingen voor mijn gevoel:
- Athlon (1999)
- Athlon 64 (2003)
- Phenom (2007)
- Bulldozer (2011)
- Zen (2017)

Voelt meer als 5 jaar dan 10 jaar eigenlijk.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op woensdag 28 maart 2018 @ 15:59:
[...]

Ik denk ook dat het vooral aan de productiekant zit bij Intel.

Waarbij bij intel de prestatiewinst vooral uit superieure en kleinere nodes dan de concurrentie kwam lijkt er bij nvidia relatief meer winst uit de architectuurverbetering zelf te komen.

Ik vraag me af of er uberhaupt nog veel ruimte ligt om CPU architectuur te verbeteren, zelfs als je er heel veel R&D in stopt.

Het lijkt of die ruimte er bij GPU’s veel meer ligt.
Er is wel wat mogelijk. Latency's verlagen helpt altijd, meer cache of snellere toegang tot cache is ook nooit verkeerd. CPU's hebben ook ALU's (rekeneenheden dus) en pipelines waar je kan optimaliseren en/of meer rekeneenheden kan toevoegen. Aan de hardwarekant kan je bedrading efficiënter maken om dergelijke zaken te bereiken. Dat vraagt vaak wel om chips met meer lagen en dat is weer een productieprobleem. Nu gebruikt Intel 13 lagen voor hun 14nm chips, Zen is twaalf lagen. Zen 2 op 7nm kan zomaar heel wat meer lagen gaan worden. Zullen de chips nog duurder worden naast de duurdere 7nm node, maar zijn ze ook sneller.


@Blaat Intel heeft na Pentium IV a.k.a de supernovachip teruggegrepen op Pentium III architectuur en hieruit Core 2 ontwikkeld. Daarna kwam fundamenteel andere en nieuwe Nehalem architectuur/Core I in 2008 en daar zitten we nog steeds mee. Natuurlijk steeds met kleine iteraties, maar nooit echt een fundamenteel andere architectuur, net zoals met de Pentium Pro-Core 2 wat uiteindelijk allemaal gebaseerd was op de P6 architectuur.

AMD kwam in 1999 met K7/Athlon. Met K8/Athlon 64 bouwde AMD flink door, en met Phenom nog een keertje. Dat is ook ruim tien jaar. Toen kwam Bull(faal)dozer...
Tja, weer een product waarvan het ontwerp stamt uit de periode dat AMD werd geleid door malloten met bijbehorende resultaten. Na die mislukking begonnen ze aan Zen.



Maar dit is nu echt veel te veel offtopic. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:40
Astennu schreef op woensdag 28 maart 2018 @ 14:39:
[...]


Dat hoef je mij niet te vertellen echter gingen de meeste toch voor een GTX1060 want nVidia.
Tja mijn ervaring is dan helaas anders dan die van jou. Ik zie genoeg mensen die dan Intel en nVidia wel van naam / logo's in games kennen en dan daar voor gaan en niet echt verder kijken. Of wel reviews zien en dan zeggen ja maar veel mensen hebben nVidia dus zal wel goed zijn neem dat wel.

Net als met Samsung en Apple. Andere telefoon merken zijn hier in NL amper vertegenwoordigd. En mensen kunnen mij niet overtuigen dat hun rede echt is omdat Samsung zo veel beter is is gewoon vanwegen het merk en omdat ze het kennen en het verder goed bevalt.
Dan doe je de 1060 toch tekort:
Pricing of the Radeon RX 470 starts at $179. Performance-per-dollar of the RX 470 4 GB reference is nearly identical to the RX 480 8 GB, just at a lower price and less performance. At $179, the RX 470 is a decent option for 1080p gaming if you just can't save up enough money to afford any of the cards above the $200 mark. Another option would be the RX 480 4 GB if it makes a comeback with good market availability; the additional $20 will give you performance nearly identical to that of the 8 GB version. Last but not least, there is still the GTX 1060, which starts at $249 with no stock available, but has higher performance, better efficiency, noise and thermals.
Ik heb mijn Oneplus One dit jaar vervangen voor een Samsung Galaxy S7. Was de beste telefoon voor dat budget. Dus ook die vlieger gaat niet altijd op.

Los daarvan heb je wel gelijk, men heeft geen zin zich te verdiepen en koopt gewoon het merk dat bevalt binnen het budget dat er is. Maar dat hoeft geen slecht resultaat te geven, in ieder geval niet bij Samsung en niet bij Nvidia.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
sdk1985 schreef op woensdag 28 maart 2018 @ 23:53:
Ik heb mijn Oneplus One dit jaar vervangen voor een Samsung Galaxy S7. Was de beste telefoon voor dat budget. Dus ook die vlieger gaat niet altijd op.
offtopic:
Je mist geloof ik een beetje wat het probleem is met Halo-denken.. Dat de s7 meekomt zal wel; de vraag is meer wat die 100 SKUs eronder zo populair maakt, behalve dat Samsung ervoor betaalt om ze overal te hebben liggen.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:40
foppe-jan schreef op donderdag 29 maart 2018 @ 08:19:
[...]
offtopic:
Je mist geloof ik een beetje wat het probleem is met Halo-denken.. Dat de s7 meekomt zal wel; de vraag is meer wat die 100 SKUs eronder zo populair maakt, behalve dat Samsung ervoor betaalt om ze overal te hebben liggen.
Offtopic in small in een losse post gaat je niet helpen tegen een modbreak :P .

Hoe dan ook is het an sich nog wel te relateren aan de discussie rondom NVDA. Punt was niet dat de S7 mee komt, maar dat het gewoon het beste product was voor +- 400 euro; superieure camera op low-light, quick charge, enz,

Radeon en Geforce hebben ook al sinds begin der tijden flag ship products. Zo had ik zelf ooit een Ti 4400, maar er was toen ook een ti 4600/4800.

Stukje historie
Taking a look back at the past several NVIDIA product launches we haven't been overly positive about any of their flagship GPUs for quite some time. We hounded NVIDIA for bringing an overclocked GeForce2 Ultra to the market in order to meet their self-imposed 6-month product cycles. And while we praised the GeForce3 on a technological level we never recommended buying it as enjoyable DX8 games were clearly months (that turned into years) away from its release. NVIDIA's Titanium nomenclature was first introduced with the GeForce2/3 Ti series and even then we only found it prudent to recommend the GeForce3 Ti 200.

This all changed with the release of NVIDIA's GeForce4 GPU as the Ti 4400 and Ti 4600 models impressed us beyond belief. The performance these two GPUs offered not only in today's games but in other highly anticipated titles was beyond respectable. For the first time we had a graphics solution that could run almost any currently available game at 1600 x 1200 at very smooth frame rates. NVIDIA's new flagship also turned out to be the highest performing solution for Unreal Tournament 2003 and all other forthcoming games based on the latest Unreal Engine. To say the least, we were very impressed with the GeForce4 Ti 4400 and Ti 4600.

Then came the Ti 4200, a GeForce4 for the masses. While Ti 4200 cards are still a couple of weeks away from being in the hands of most retailers, the rest of the GeForce4 line are available in healthy quantities. Although NVIDIA's goal is to ship as many GeForce4 MX cards as possible, to those that know better, it's the real GeForce4 that we're after.
Because of a relative lack of interest in the GeForce4 MX, the existence of the GeForce4 Ti 4200 and as a semi-protest against NVIDIA's misleading nomenclature you won't find a GeForce4 MX roundup on AnandTech. Instead, we've gathered our IR thermometers and rounded up 11 cards based on the GeForce4 Ti 4400 and GeForce4 Ti 4600 GPUs. If you want the fastest 3D accelerator available today, we'll tell you which one fits the bill.
In hetzelfde jaar lag Radeon aan kop:
ATI has never gone this long while being uncontested in the high end graphics market. Even when the original Radeon was released, ATI's slight performance lead was quickly abolished by updated drivers from NVIDIA. With the Radeon 9700 Pro ATI has managed to put together a solution that is not only significantly faster than NVIDIA's closest competitor but they've also done so months ahead of NV30.
ATI hasn't slowed their pace at all in the two months since the Radeon 9700 Pro has been shipping to retailers. In those two months we witnessed the release of the Mobility Radeon 9000 and the launch of ATI's All in Wonder Radeon 9700 Pro.

With upgraded parts tailoring to the needs of the low end, high end, mobile and VIVO markets there is only one area that ATI remains deficient in - the mainstream. Although ATI can claim performance and technology leadership with the Radeon 9700 Pro, the card is easily outsold by NVIDIA's GeForce4 line simply because lower priced cards sell in much greater volumes.
To quote ATI's own numbers, there are 8 times as many people buying video cards in the $200 - $300 range as there are buying cards priced at more than $300. And although we've stressed this in the past, it's always good to remind that there are 32 times more people buying cards in the $100 - $200 range than there are buying Radeon 9700s.

Now that ATI does finally have that technology and performance leadership, it is time to focus on the volume areas. This means that they need a card to compete in the $100 - $200 performance mainstream segment. We actually already announced what this card would be back in July during ATI's R300 launch and today we're able to bring you a preview of the technology and performance behind ATI's Radeon 9500 Pro.
Punt wat Ati daar terecht maakt is dat voor die ene high-end kaart er 8 in de mid-range worden verkocht en 32x low-end. De flagship strategie bestaat dus al meer dan 15 jaar. Zeker bij Nvidia hadden de top kaarten destijds een hoog gehalte opgefokte grasmaaier met een 100pk motor. Puur om die performance crown te halen... Iets dat dan overigens niet eens altijd lukte:

Serious Sam 2 Demo - Little Trouble
1024x768 - Extreme Quality (Aniso Off)
ATI Radeon 9700 Pro 144.5
ATI Radeon 9700 137.6
NVIDIA GeForce4 Ti 4600 130.1
NVIDIA GeForce4 Ti 4400 123.7
ATI Radeon 9500 Pro 110.1
NVIDIA GeForce4 Ti 4200 107.8

Ook in die tijd moest je dan maar net weten dat een Ti 4400 beter was dan een 9500 Pro, terwijl de MSRP van de 9500 Pro hoger lag. Alleen toen was het Radeon die van het flagship effect gebruik maakte. In die zin zijn de rollen omgedraaid.

[ Voor 4% gewijzigd door sdk1985 op 29-03-2018 15:46 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +2 Henk 'm!

  • Spacewide
  • Registratie: Oktober 2006
  • Laatst online: 09-10 21:08

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En dit is dus waarom je die site niet serieus moet nemen...

We gaan eens naar het bronartikel. Hier zijn twee passages interesant. ;)
Given a mass production timeline of June-July for GDDR6 from SK Hynix, assuming Hynix is a launch-day memory provider, we can expect next-generation GPUs to become available after this timeframe. There still needs to be enough time to mount the memory to the boards, after all. We don’t have a hard date for when the next-generation GPU lineup will ship, but from this information, we can assume it’s at least 3 months away -- possibly more. Basically, what we know is that, assuming Hynix is a launch vendor, new GPUs are nebulously >3 months away.
Straight from the source, Hynix enters MP on GDDR6 within 3 months. GDDR6 will also be on future nVidia GPUs. The big question is when those come – we’d peg it as July or later, right now. 2H18, hopefully. This enters territory of speculation and is not as informed as other information in this post
https://www.gamersnexus.n...s-3-month-mass-production

Let op de nuance en twijfel. Er staat dus niet dat ze in juli worden gelanceerd zoals het afvoerputje van de techmedia claimt. Verder is die claim ook totale BS en dat kon ik je maanden geleden al vertellen. Nvidia lijkt net zoals AMD naar het 7nm procedé van TSMC te gaan. Massaproductie begint in mei. Ben je vervolgens minstens drie maanden bezig om van wafer naar chip te gaan, deze op een PCB te zetten en alle onderdelen te assembleren voor een functionele videokaart. Lanceren in juli betekent dus dat je geen kaart kan kopen tot minstens eind augustus. Ga dus maar uit van eind augustus/begin september als deze geruchten kloppen. Dat kan ook wel eens het moment zijn dat AMD met haar Navi lijn komt. Die hebben namelijk te maken met hetzelfde tijdsframe.

Vervolgens wil ik opmerken dat Samsung allang GDRR6 produceert en Micron onderhand ook zou moeten beginnen met productie, als ze al niet begonnen zijn. Zowel Nvidia als AMD zullen waarschijnlijk al bezig zijn met voorraden aanleggen als ze aan het einde van de zomer lanceren. Beginnen met GDDR6 waar de productie van moet oplopen is logisch omdat je geen tekorten wil hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
sdk1985 schreef op maandag 26 maart 2018 @ 23:04:
Bovenstaande verhaal klopt daardoor dus niet helemaal. Het problemenkindje van AMD was vooral de computing tak die in 2011 nog 5 miljard omzet had met 556 miljoen winst. Phenom was de laatst wintsgevende cpu tot aan Ryzen. De introductie van de APU in combinatie met bulldozer heeft computing echt de das om gedaan. Het was juist graphics dat nog een tijdje nog iets van geld opleverde (6% rendement). Echter het was natuurlijk wel de graphics tak die het APU avontuur mogelijk maakte. Dat is juist de doodsteek gebleken. Niet voor niets is het eerste commerciële succes van AMD op cpu gebied weer een processor zonder grafisch stuk (Ryzen)...
Dat is dus wat ik betoogde. Maar het mislukken van de APU's zal niet gelegen hebben aan de grafische component. De CPU prestaties liepen achter op de concurrent (en ook niet zo zuinig achter).
Astennu schreef op woensdag 28 maart 2018 @ 08:31:
Opzich ben ik het met je eens aan de andere kant als je ziet hoeveel geld ze hebben voor R&D kan is het ook logisch. AMD heeft het niet zou het misschien willen maar kan het niet.
Intel zou hier wat van kunnen leren want die laten AMD gewoon dichtbij komen en hebben zitten luieren.
Ik denk dat zodra AMD met Navi gaat komen nVidia gewoon Volta voor de desktop over slaat en meteen de opvolger uitbrengt en dan weer in een klap de snelste is.

Erg jammer maar ik zie AMD niet echt meer terug komen in de high end GPU race nVidia is daar te slim voor bezig en ze spelen daar naast te veel oneerlijke spelletjes voor vendor lock's, zaken als GPP en game dev's beinvloeden voor AMD nadelige "optimalisaties". Zeker met dingen als GPP zorgen ze ook dat dat bijna niet meer mogelijk is. En daarnaast blijven ze gewoon volop door ontwikkelen met een R&D budget wat velen malen hoger ligt dan wat AMD voor CPU's en GPU's samen heeft.
Misschien moet AMD een Calimero business model adopteren? Als ik r/AMD lees komt het daar wel op neer.

AMD deed leuk mee in de GPU markt. Maar ze hebben een verkeerde keuze gemaakt toen alle bedrijfsonderdelen waaronder RTG de verliezen van hun CPU's moesten gaan dekken. Er is toen een bewuste keuze gemaakt om niet te investeren meer op de manier die nodig is om mee te komen.

De afgelopen generaties AMD GPU's waren dan ook niet voor niets gekscherend Rebrandeon genoemd. Ze hebben zichzelf in een positie gezet dat ze geen tegenwicht meer kunnen bieden.
DaniëlWW2 schreef op woensdag 28 maart 2018 @ 13:20:
[...]
Wel weet ik redelijk hoe 3DFX failliet ging, en Nvidia doet op bepaalde aspecten steeds meer denken aan 3DFX. ;)
Leg dat maar eens uit.

3Dfx ging ten onder aan slechte business beslissingen. Ze wilden niet alleen kaarten ontwerpen, maar ook de enige producent zijn van hun eigen ontwerpen. Niet meer deze verkopen aan fabrikanten om ze te maken. Hiermee streken ze een hoop van hun partners tegen de haren in, welke hun uitwijk toen zochten bij andere makers van grafische kaarten. Tevens was er veel geld gemoeid bij de overname van een fabrikant.

De productontwikkeling bij 3Dfx verliep ook niet volgens planning. De ontwikkeling van Voodoo 4 en 5 duurde te lang en tegen de tijd dat die op de markt kwamen hadden ATi en Nividia al producten in de markt welke sneller en beter waren. 3Dfx had de concurrentie onderschat. Gecombineerd met het vele geld wat gestoken was in eigen productiefaciliteiten hadden ze geen kans meer op overleven.

Geen van deze zaken zijn van toepassing op Nvidia momenteel. Alle AIB's lijken maar wat graag zaken met ze te willen doen, zelfs instappen in GPP. Nvidia heeft genoeg geld op de bank staan en productontwikkeling lijkt geen probleem te zijn. Quadro en Titan lijnen hebben de afgelopen tijd dan weer nieuwe ontwikkelingen gehad en GeForce zal ergens dit jaar vermoedelijk dan de komst van de volgende generatie zien.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:40
DaniëlWW2 schreef op woensdag 28 maart 2018 @ 13:20:
[...]

Dat is hier nauwelijks relevant hoor. Hoogstens vaak aangrenzende parallellen. Wel weet ik redelijk hoe 3DFX failliet ging, en Nvidia doet op bepaalde aspecten steeds meer denken aan 3DFX. ;)
Lol wut?
Returns to shareholders
NVIDIA’s FCF for fiscal 2018 rose 93% YoY to $2.9 billion, of which $1.25 billion went back to shareholders in the form of dividends and share repurchases. The company aims to return another $1.25 billion to shareholders in fiscal 2019.
Cash and debt
High cash flows increased NVIDIA’s cash reserves from $6.8 billion in fiscal 4Q17 to $7.1 billion in fiscal 4Q18. But the company’s long-term debt remained unchanged at $1.98 billion, resulting in a net cash position of $5.1 billion.
NVIDIA’s strong balance sheet gives it enough flexibility to invest in long-term growth opportunities and withstand short-term headwinds. By comparison, rivals AMD and Intel (INTC) have a net debt positions of $140 million and $19.8 billion, respectively. Intel has high leverage, having just completed its acquisition of Mobileye in 2017.
Even samengevat heeft Nvidia 7.1 miljard cash tegen 1.98 leningen wat netto 5.1 miljard oplevert. Zowel AMD als Intel staan netto negatief.

[ Voor 5% gewijzigd door sdk1985 op 30-03-2018 14:37 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

Wat nieuws over geheugen, Samsung heeft aangekondigd de productie van NAND flink te verhogen (het zou om een verdubbeling gaan), vooral door veel te investeren in de fabrieken van Samsung die in China staan. Ze verwachten dat ze in 2020 al die extra machines hebben geïnstalleerd in die fabrieken.

Speculatie: Samsung investeert dit in China omdat het in problemen kwam met de Chinese autoriteiten die een onderzoek naar pricefixing opstartten. Samsung beloofde niet veel later meer te investeren en de afgelopen paar dagen werd bekend wat die investering precies inhoudt.
CMD-Snake schreef op vrijdag 30 maart 2018 @ 14:24:
AMD deed leuk mee in de GPU markt. Maar ze hebben een verkeerde keuze gemaakt toen alle bedrijfsonderdelen waaronder RTG de verliezen van hun CPU's moesten gaan dekken.
Jij stelt correct dat de GPU-tak werd verwaarloosd doordat het de problemen van de CPU-tak moest opvangen. Jij trekt daar vervolgens voorbarig de conclusie uit dat dit "een verkeerde keuze" is. Puur bedrijfseconomisch gezien is dat het niet, de CPU levert een veel hogere winstmarge op dan de GPU. De winst die de CPU oplevert stelt AMD in staat om weer meer te investeren in zowel de CPU- als de GPU-tak. Die extra investeringen in de GPU-tak zijn ingezet, daar zullen we over een paar jaar het resultaat van zien (nieuwe architectuur). Het zou ideaal zijn als dit eerder gebeurde maar dat was geen optie en wie weet wat er met Navi gebeurt indien dit de eerste modulaire GPU zou worden. Hoe dan ook, dat komt de komende jaren wel weer goed.

[ Voor 36% gewijzigd door Verwijderd op 30-03-2018 20:13 ]


Acties:
  • 0 Henk 'm!

  • grote_oever
  • Registratie: Augustus 2002
  • Laatst online: 20:30
Verwijderd schreef op vrijdag 30 maart 2018 @ 20:12:
Wat nieuws over geheugen, Samsung heeft aangekondigd de productie van NAND flink te verhogen (het zou om een verdubbeling gaan), vooral door veel te investeren in de fabrieken van Samsung die in China staan. Ze verwachten dat ze in 2020 al die extra machines hebben geïnstalleerd in die fabrieken.
Ik snap dat die niet vandaag op morgen klaar zijn, maar 2020...

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:39
grote_oever schreef op vrijdag 30 maart 2018 @ 20:30:
[...]


Ik snap dat die niet vandaag op morgen klaar zijn, maar 2020...
https://www.anandtech.com...oduction-of-64layer-vnand

Deze werd aangekondigd in okt' 2014. Ze begonnen met de bouw in april 2015 en hij gaat pas in 2021 helemaal af zijn. Bovenstaande bericht gaat over een nieuwe fabriek die ze ernaast gaan bouwen, genaamd het P2 Project, dus reken maar uit...

https://www.anandtech.com...emory-fab-near-pyeongtaek
A particularly interesting thing about the P2 Project is the planned timescale. ETNews reports that that the building of the P2 facility “will be completed by the end of the first half of 2019”, which means that construction would need to begin shortly. Once the building is ready, Samsung will have to start equipment move-in. If the company plans to start installation of production tools in mid-2019, then a decision about the equipment (and therefore initial products made at the facility) will have to be made by the end of 2018 at the latest, since tools will need to be procured.
Assuming that the P2 Project is as large as the company’s existing fab complex near Pyeongtaek, it will take Samsung years to fully ramp up the facility. For reference, the existing fab isn't expected to be fully equipped, expanded and ramped until 2021. Given that the P2 will be used to produce memory chips well into the next decade, it is highly likely that its construction will be ready to accommodate the latest and upcoming production tools, such as EUV step-and-scan systems that will be required to produce DRAM using ultra-thin sub-10nm fabrication technologies.
Niet meer dan normaal dus, misschien zelfs wel snel relatief gezien...

[ Voor 68% gewijzigd door Paprika op 30-03-2018 20:46 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Echter gaat het nu wel om het uitbreiden van de machines in een bestaande fabriek wat veel sneller gaat dan het bouwen van een compleet nieuwe fabriek maar inderdaad, in vergelijking met wat we gewend zijn is het snel. Ik kan helaas niet beoordelen of dat het veel sneller zou kunnen. Ik kan me bijvoorbeeld voorstellen dat er extra componenten nodig zijn die eerst nog gemaakt worden met veel handwerk alvorens er ook maar kan worden begonnen met van alles te assembleren wat uiteindelijk in die machines wordt geïnstalleerd. Ik denk bijvoorbeeld aan uitertst gespecialeerde lenzen.

Hebben we in 2020 niet reeds DDR5-geheugen? :)

[ Voor 11% gewijzigd door Verwijderd op 30-03-2018 21:42 ]


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op vrijdag 30 maart 2018 @ 20:12:
Jij stelt correct dat de GPU-tak werd verwaarloosd doordat het de problemen van de CPU-tak moest opvangen. Jij trekt daar vervolgens voorbarig de conclusie uit dat dit "een verkeerde keuze" is. Puur bedrijfseconomisch gezien is dat het niet, de CPU levert een veel hogere winstmarge op dan de GPU. De winst die de CPU oplevert stelt AMD in staat om weer meer te investeren in zowel de CPU- als de GPU-tak. Die extra investeringen in de GPU-tak zijn ingezet, daar zullen we over een paar jaar het resultaat van zien (nieuwe architectuur). Het zou ideaal zijn als dit eerder gebeurde maar dat was geen optie en wie weet wat er met Navi gebeurt indien dit de eerste modulaire GPU zou worden. Hoe dan ook, dat komt de komende jaren wel weer goed.
AMD heeft zichzelf nooit gezien als een GPU fabrikant. Zelfs nu waarschijnlijk niet. Ze zijn een CPU fabrikant. ATi was nodig om de techniek in handen te krijgen om APU's te maken, maar er was nooit een plan of strategie om ATi verder te laten gaan in de markt. De GPU's zijn een bijkomstigheid geweest en een prettige melkkoe tijdens de slechte jaren. Alle bedrijfsonderdelen van AMD moesten bloeden om de CPU tak maar van geld te voorzien.

Al zou RTG over een paar jaar een resultaat hebben, Nvidia is dan ook wel twee resultaten verder. Dit jaar zullen we de nieuwe GeForce lijn zijn en als die twee jaar om zijn zal er weer een nieuwe generatie GeForce kaarten klaar staan. Ik betwijfel dat Navi een grote stap vooruit gaat worden en vermoedelijk zal Nvidia met hun nieuwe GeForce kaarten dit jaar weer een prettige sprong maken qua prestaties ten opzichte van de Pascal kaarten.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 21:54

Damic

Tijd voor Jasmijn thee

Mmmmh, meestal dezelfde spoel dat erdoor gaat maar mosfet blijft goed.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Damic schreef op zaterdag 31 maart 2018 @ 21:58:
Mmmmh, meestal dezelfde spoel dat erdoor gaat maar mosfet blijft goed.
[video]
This is not a happy little inductor, it seems to have puked out most of its guts in... umm this direction (highlights puke trails) and on its buddy right here.
:+ :+

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 21:54

Damic

Tijd voor Jasmijn thee

Ja is grappig om aan te horen :+

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

Verwijderd

Damic schreef op zaterdag 31 maart 2018 @ 21:58:
Mmmmh, meestal dezelfde spoel dat erdoor gaat maar mosfet blijft goed.
[video]
Louis Rossman liet laatst zien dat een component van een Titan nogal los op de PCB zat.

Dit wil je niet hebben bij een grafische kaart van €200 (daar willen veel mensen toch ook 4-6 jaar mee kunnen doen), laat staan bij een grafische kaart waar je €1200 voor betaalt, daar mag je toch wel niets minder dan het allerbeste van verwachten qua componeten en afwerking.
CMD-Snake schreef op vrijdag 30 maart 2018 @ 23:30:
AMD heeft zichzelf nooit gezien als een GPU fabrikant. Zelfs nu waarschijnlijk niet. Ze zijn een CPU fabrikant. ATi was nodig om de techniek in handen te krijgen om APU's te maken, maar er was nooit een plan of strategie om ATi verder te laten gaan in de markt. De GPU's zijn een bijkomstigheid geweest en een prettige melkkoe tijdens de slechte jaren. Alle bedrijfsonderdelen van AMD moesten bloeden om de CPU tak maar van geld te voorzien.

Al zou RTG over een paar jaar een resultaat hebben, Nvidia is dan ook wel twee resultaten verder. Dit jaar zullen we de nieuwe GeForce lijn zijn en als die twee jaar om zijn zal er weer een nieuwe generatie GeForce kaarten klaar staan. Ik betwijfel dat Navi een grote stap vooruit gaat worden en vermoedelijk zal Nvidia met hun nieuwe GeForce kaarten dit jaar weer een prettige sprong maken qua prestaties ten opzichte van de Pascal kaarten.
Het lijkt mij erop dat AMD zichzelf al een paar jaar lang ziet als CPU- en GPU-ontwerper (een fabrikant zijn ze sowieso niet, dat doen GF en TSMC voor AMD). Het feit dat AMD de CPU en GPU kan integreren zorgt ervoor dat in in de PS- en X-consoles spul van AMD zit verwerkt.
Dat is op ziczhelf goed maar het geeft ook een voordeel voor de PC-markt (voordeel met driver-optimalisatie, developers die meer bereid zijn om samen te werken met AMD). Tenslotte kan de expertise van de ene tak de andere tak sterker maken, zo heeft de CPU-tak veel geleerd over powergating van de RTG.

Nogmaals, AMD had geen andere keuze dan de CPU-tak op dat moment beter te financieren, de CPU's brengen veel meer winst in het laatje dan de GPU's, dat is een simpel gegeven. AMD moest eerst de CPU-tak gezond krijgen en heeft daar terecht voor gekozen! Inmiddels heeft AMD de investeringen in RTG verhoogd en is de ontwikkeling van een nieuwe architectuur gestart, daar zullen we rond 2023 de vruchten van zien. Mogelijk kan AMD voor die tijd dankzij de eerste multi-die GPU's tussentijds het gat met Nvidia overbruggen. Zo niet, dan kan AMD meedoen in de lowend t/m high end, maar niet het enthusiast-segment. Tot en met Vega 56 concurreert AMD prima, Vega64 schiet tekort doordat het vermogen te hoog wordt met dat aantal CU's met die architectuur en met een monolithische GPU die ook voor de professionele kaarten gebruikt moet worden.
RTG komt wel weer terug, de vraag is alleen wanneer precies dat gaat gebeuren.

[ Voor 65% gewijzigd door Verwijderd op 02-04-2018 00:36 ]


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 21:54

Damic

Tijd voor Jasmijn thee

Verwijderd schreef op maandag 2 april 2018 @ 00:25:
[...]

Louis Rossman liet laatst zien dat een component van een Titan nogal los op de PCB zat.
[video]
Dit wil je niet hebben bij een grafische kaart van €200 (daar willen veel mensen toch ook 4-6 jaar mee kunnen doen), laat staan bij een grafische kaart waar je €1200 voor betaalt, daar mag je toch wel niets minder dan het allerbeste van verwachten qua componeten en afwerking.


[...]

Het lijkt mij erop dat AMD zichzelf al een paar jaar lang ziet als CPU- en GPU-ontwerper (een fabrikant zijn ze sowieso niet, dat doen GF en TSMC voor AMD). Het feit dat AMD de CPU en GPU kan integreren zorgt ervoor dat in in de PS- en X-consoles spul van AMD zit verwerkt.
Dat is op ziczhelf goed maar het geeft ook een voordeel voor de PC-markt (voordeel met driver-optimalisatie, developers die meer bereid zijn om samen te werken met AMD). Tenslotte kan de expertise van de ene tak de andere tak sterker maken, zo heeft de CPU-tak veel geleerd over powergating van de RTG.

Nogmaals, AMD had geen andere keuze dan de CPU-tak op dat moment beter te financieren, de CPU's brengen veel meer winst in het laatje dan de GPU's, dat is een simpel gegeven. AMD moest eerst de CPU-tak gezond krijgen en heeft daar terecht voor gekozen! Inmiddels heeft AMD de investeringen in RTG verhoogd en is de ontwikkeling van een nieuwe architectuur gestart, daar zullen we rond 2023 de vruchten van zien. Mogelijk kan AMD voor die tijd dankzij de eerste multi-die GPU's tussentijds het gat met Nvidia overbruggen. Zo niet, dan kan AMD meedoen in de lowend t/m high end, maar niet het enthusiast-segment. Tot en met Vega 56 concurreert AMD prima, Vega64 schiet tekort doordat het vermogen te hoog wordt met dat aantal CU's met die architectuur en met een monolithische GPU die ook voor de professionele kaarten gebruikt moet worden.
RTG komt wel weer terug, de vraag is alleen wanneer precies dat gaat gebeuren.
Ja die heb ik ook gezien de originele titel was iets anders en was later aangepast aan het vloeibaar metaal, in principe zitten die shunts niet los maar minder goede spoelen gebruiken isn iet handig op zo van die plaatsen. Nu is het wel zo dat we niet weten wat er echt met die kaart gebeurd is, stond die nog standaard of was de Vmem verhoogd zoja hoeveel?

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Kunnen jullie ook van die dingen over AMD vinden want het valt wel op dat jullie extra streng met elkaar op Nvidia letten, maar ook logisch gezien voorkeur hier ook een rol speelt :P

Het zal wel weer een storm in een glas water zijn na mijn idee of een maandagochtend kaart?
En de hele tijd AMD dit en AMD dat in het Nvidia topic waar ik voor gestraft word in het AMD topic. Kansloos.

[ Voor 56% gewijzigd door Gekke Jantje op 02-04-2018 16:51 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Gekke Jantje schreef op maandag 2 april 2018 @ 16:48:
Kunnen jullie ook van die dingen over AMD vinden want het valt wel op dat jullie extra streng met elkaar op Nvidia letten, maar ook logisch gezien voorkeur hier ook een rol speelt :P

Het zal wel weer een storm in een glas water zijn na mijn idee of een maandagochtend kaart?
En de hele tijd AMD dit en AMD dat in het Nvidia topic waar ik voor gestraft word in het AMD topic. Kansloos.
Het punt is alleen dat AMD reference PCB's altijd zo belachelijke overkill zijn dat je dergelijke problemen niet tegen zal komen. Verder ga ik er niet op in omdat je natuurlijk wel gelijk dat het hier hardstikke offtopic is. Topic gaat over Nvidia, niet AMD en dat moet je ook zoveel als mogelijk gescheiden houden. Daar ga ik alleen niet over hier. Benadruk nog maar eens dat ik hier gewoon een gebruiker, en geen mod ben. :)

[ Voor 6% gewijzigd door DaniëlWW2 op 02-04-2018 16:58 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Gekke Jantje schreef op maandag 2 april 2018 @ 16:48:
Kunnen jullie ook van die dingen over AMD vinden
Wij hebben niet "die dingen over Nvidia" gevonden, wij kwamen die automatisch tegen omdat het op dit moment heel erg speelt. Er zijn ineens heel erg veel defecte Nvidia-kaarten die eenzelfde PCB als basis gebruiken: 780 Ti, 980 Ti...
Bij de meeste van die defecte kaarten zie je een beschadigde spoel wat duidt op een ontwerpfout (lees, ze hadden iets meer moeten besteden aan die spoelen - die spotgoedkoop zijn aangezien het slechts opgerolde draadjes met een metalen dekseltje zijn - en het was geen probleem geweest) bij die PCB's. Dat is best problematisch voor zulke jonge kaarten. Bovendien is dit de Nvidia-draad, het is logisch dat we hier dit opmerken. Waar anders?

Ik ben het overigens wel met jou eens dat we hier behoorlijk veel offtopic over AMD hebben gesproken. Dat begon met dat geweldige GPP-programma.
DaniëlWW2 schreef op maandag 2 april 2018 @ 16:57:
[...]


[small]Het punt is alleen dat AMD reference PCB's altijd zo belachelijke overkill zijn dat je dergelijke problemen niet tegen zal komen.
Dat klopt, AMD-referentiekaarten zijn juist altijd overkill en meestal hebben ze een betere PCB dan de aftermarket-kaarten. Alleen helaas wel matige blowerkoelers en hitteblokjes.

[ Voor 49% gewijzigd door Verwijderd op 02-04-2018 20:00 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Btw, ik neem aan dat we die nieuwe GPU-interconnnect, die twee GPU's tot één virtuele laten opereren, ook in de Geforce line gaan zien en software Multi GPU/SLi dan echt verleden tijd is?

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

edward2 schreef op dinsdag 3 april 2018 @ 13:17:
Btw, ik neem aan dat we die nieuwe GPU-interconnnect, die twee GPU's tot één virtuele laten opereren, ook in de Geforce line gaan zien en software Multi GPU/SLi dan echt verleden tijd is?
Vanuit mijn beperkte kennis lijkt me dat twijfelachtig. In professionele toepassingen hoef je niet echt na te denken over load balancing (gewoon alle CU's volle bak laten draaien, bam!) en dat is bij gaming niet altijd het geval.

Hoe bepaal je dan welke GPU welk deel van de load op zich neemt?

Dat lijkt mij in het geval van gaming best lastig aangezien je ook aan je frame pacing moet denken. Je wil koste wat het kost microstutter voorkomen.

Het zal in grote mate afhankelijk zijn van de bandbreedte van de interconnect tussen de GPU's. Ze moeten informatie met elkaar moeten delen alsof ze op dezelfde die zitten en dat lijkt mij praktisch onhaalbaar. Ik vraag me zelfs af of er grote fundamentele verschillen zitten tussen SLI en 2 gpu's virtueel 1 maken.

[ Voor 4% gewijzigd door Blaat op 03-04-2018 13:44 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 19:23
Blaat schreef op dinsdag 3 april 2018 @ 13:44:
Het zal in grote mate afhankelijk zijn van de bandbreedte van de interconnect tussen de GPU's. Ze moeten informatie met elkaar moeten delen alsof ze op dezelfde die zitten en dat lijkt mij praktisch onhaalbaar. Ik vraag me zelfs af of er grote fundamentele verschillen zitten tussen SLI en 2 gpu's virtueel 1 maken.
Met 2 bruggen doet de quadro gv100 nvlink 200GB/s. Zou best kunnen dat het dan gewoon lukt om een beetje on the fly de opdrachten te verdelen.

Maar ik verwacht eigenlijk niet dat de gaming kaarten dit krijgen, zo'n interconnect eet ruimte op je chip op die je dan niet kan besteden aan extra rekenkracht of een lagere kostprijs.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Zou jammer zijn, zouden we eindelijk af zijn van alle beperkingen van software mGPU, maar idd, de functies voor de workload zullen ergens gedefinieerd moeten worden, hetzij in de bridge/interconnect, hetzij in de PCB/chip.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op maandag 2 april 2018 @ 00:25:
Nogmaals, AMD had geen andere keuze dan de CPU-tak op dat moment beter te financieren, de CPU's brengen veel meer winst in het laatje dan de GPU's, dat is een simpel gegeven. AMD moest eerst de CPU-tak gezond krijgen en heeft daar terecht voor gekozen! Inmiddels heeft AMD de investeringen in RTG verhoogd en is de ontwikkeling van een nieuwe architectuur gestart, daar zullen we rond 2023 de vruchten van zien. Mogelijk kan AMD voor die tijd dankzij de eerste multi-die GPU's tussentijds het gat met Nvidia overbruggen. Zo niet, dan kan AMD meedoen in de lowend t/m high end, maar niet het enthusiast-segment. Tot en met Vega 56 concurreert AMD prima, Vega64 schiet tekort doordat het vermogen te hoog wordt met dat aantal CU's met die architectuur en met een monolithische GPU die ook voor de professionele kaarten gebruikt moet worden.
Ze hadden beter een licentiedeal kunnen sluiten destijds met ATi. Was een stuk goedkoper geweest en hadden ze ook geen "ongewenste" bedrijfsonderdelen.
edward2 schreef op dinsdag 3 april 2018 @ 13:17:
Multi GPU/SLi dan echt verleden tijd is?
Die beweging was al ingezet. SLI ondersteuning is op een laag pitje gezet en enkel de topmodellen hebben nog een SLI connector.

Veel nut had SLI niet. Als je vroeger twee GTX 960 kaarten kocht om in SLI te gebruiken dan zat je qua aanschafkosten al aan het bedrag van een luxere kaart, die soms ook beter presteerde dan die twee kaarten in SLI. SLI was ook erg afhankelijk van een profiel voor een game om het te gebruiken, anders had je zelfs situaties waar het tegen je ging werken.

Acties:
  • 0 Henk 'm!

Verwijderd

CMD-Snake schreef op dinsdag 3 april 2018 @ 19:44:
[...]


Ze hadden beter een licentiedeal kunnen sluiten destijds met ATi. Was een stuk goedkoper geweest en hadden ze ook geen "ongewenste" bedrijfsonderdelen.
Ik ben het met jou eens dat de kans groot is dat ATi er nu dan beter voor zou staan dan RTG bij AMD maar ik ben optimistisch over de mogelijkheden in de toekomst. Mutli-die GPU's en een nieuwe architectuur in combinatie met hogere investeringen - reeds ingezet - scheppen interessante mogelijkheden. Ik ben nooit zo onder de indruk van het veel hogere budget van de reus, in de techniekwereld werkt het niet zo dat je het automatisch wint als je meer geld hebt. Het gaat om die paar genieën die wel of niet voor jou willen werken.

Eens over SLI (en Crossfire), een tweede kaart is in het algemeen niet interessant, op een hele grote uitzondering na.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

CMD-Snake schreef op dinsdag 3 april 2018 @ 19:44:
[...]


Die beweging was al ingezet. SLI ondersteuning is op een laag pitje gezet en enkel de topmodellen hebben nog een SLI connector.

Veel nut had SLI niet. Als je vroeger twee GTX 960 kaarten kocht om in SLI te gebruiken dan zat je qua aanschafkosten al aan het bedrag van een luxere kaart, die soms ook beter presteerde dan die twee kaarten in SLI. SLI was ook erg afhankelijk van een profiel voor een game om het te gebruiken, anders had je zelfs situaties waar het tegen je ging werken.
Het is idd een aflopende zaak, maar van de 150 games hier kon ik recentelijk toch zeker 90+% aan de praat krijgen in SLI m.b.v. inspector en de reeds aanwezige profiel library. Ik had SLI vooral omdat er geen single GPU bestaat om 4/5K met reshade/enb op een goede framerate te draaien, anders heeft een single GPU idd de voorkeur. Ik heb m'n .nip files nog steeds bewaard mocht ik ooit weer eens SLI nodig hebben ;)

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Verwijderd

Aan de praat krijgen is 1 ding, hoeveel van die spellen draait zonder dat de inputlag toeneemt of de FPS onregelmatig wordt?

Acties:
  • +1 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Laatst online: 22:17

dion_b

Moderator Harde Waren

say Baah

Modbreak:Mooi dat er veel te bespreken valt over een aantal AMD ontwerpen - maar doe dat dan op de juiste plek. Hier wordt nVidia nieuws besproken :o

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Verwijderd schreef op dinsdag 3 april 2018 @ 20:55:
Aan de praat krijgen is 1 ding, hoeveel van die spellen draait zonder dat de inputlag toeneemt of de FPS onregelmatig wordt?
Laat ik zeggen dat in het minste geval de gameervaring nog steeds beter was dan met een single GPU, maar ik speel (bijna) geen fast paced shooters en met 5K is het al gauw een verbetering. Maar er lopen een paar niet zonder klein hiccups, maar in het geheel genomen vind ik het nog steeds een waardevolle toevoeging voor zeer hoge resoluties.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
edward2 schreef op dinsdag 3 april 2018 @ 19:56:
Het is idd een aflopende zaak, maar van de 150 games hier kon ik recentelijk toch zeker 90+% aan de praat krijgen in SLI m.b.v. inspector en de reeds aanwezige profiel library. Ik had SLI vooral omdat er geen single GPU bestaat om 4/5K met reshade/enb op een goede framerate te draaien, anders heeft een single GPU idd de voorkeur. Ik heb m'n .nip files nog steeds bewaard mocht ik ooit weer eens SLI nodig hebben ;)
Het was niet dat SLI niet werkte. Maar vooral het financiële plaatje maakte het niet aantrekkelijk als je keek naar de prestaties die je terugkreeg. Voor de prijs van twee GTX 970 kaarten kon je ook een 980 Ti kopen bijvoorbeeld. En die 980 Ti kon die SLI configuratie wel bijhouden.

Twee topmodellen in SLI kon nog iets toevoegen in extreme scenario's, maar meestal was het meer de e-peen die het met zich meebracht.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
edward2 schreef op woensdag 4 april 2018 @ 12:14:
[...]


Laat ik zeggen dat in het minste geval de gameervaring nog steeds beter was dan met een single GPU, maar ik speel (bijna) geen fast paced shooters en met 5K is het al gauw een verbetering. Maar er lopen een paar niet zonder klein hiccups, maar in het geheel genomen vind ik het nog steeds een waardevolle toevoeging voor zeer hoge resoluties.
Ik heb de zelfde ervaring met de top kaarten in SLI op 1080p. De sli scaling neemt na mijn idee ook af door een hoge fps wat al haalbaar is met een enkele kaart, dan voegt sli ook in eens veel minder toe. Maar pak je een game waar een enkele kaart maar 50 fps haalt is het in eens een heel ander verhaal op lagere resoluties. Helaas word de sli ondersteuning wel beetje bij beetje minder.

Ik had ook vaak een betere game ervaring door sli wat nog best veel werd ondersteund in AAA titels.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

Verwijderd

Edit: Verkeerde topic

[ Voor 95% gewijzigd door Verwijderd op 09-04-2018 10:05 ]


Acties:
  • 0 Henk 'm!

  • Squ1zZy
  • Registratie: April 2011
  • Niet online
Ik ben vanwege een Hashcat machine haastig opzoek naar de NVIDIA 1080GTX Founders Editions en moet er minimaal 4 hebben. Ik heb er nu 1 en het ziet er naar uit dat ik er nog 1 kan krijgen. Dit voor 750 euro per stuk. Mijn vraag is: Hoe realistisch is het om te wachten op de nieuwe NVIDIA GPU's? Zou de nieuwe serie zo snel zijn dat het het wachten waard is?

Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Op zich niet onlogisch. Gaming producten zijn maar een klein aandeel van het aanbod van Dell en HP. Die kunnen het zich veroorloven om nee te zeggen.

Merken waarbij gaming de core business is worden harder geraakt als ze niet meedoen.

Wel goed dat het daarop lijkt iig. Dat zijn 2 best grote jongens die nVidia tegen zich in het harnas heeft gejaagd.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik vermoed eigenlijk dat Dell, HP, maar waarschijnlijk ook Lenovo te afhankelijk van Intel zijn om mee te doen met GPP. Ik merkte laatst ook al op dat Dell en HP Kaby Lake G laptops gingen aanbieden met Radeon GPU's. Recent kwamen er nog Radeon chips bij voor sommige modellen.

Dit zijn twee van de allergrootste OEM's in de laptopmarkt en deze kunnen met gemak volumekortingen afdwingen, van iedereen. Voor het overgrote merendeel zijn ze afhankelijk van Intel omdat die zoveel verschillende CPU's met basale grafische capaciteit leveren. Voor bijna elk segment kan je wel wat van Intel vinden.

Een gedeelte van hun inkoop zal naar de AMD APU's gaan. Deze vullen nu eenmaal een niche die Intel niet kan villen. Wederom zullen ze hier kortingen kunnen bedwingen waardoor de Intel + Nvidia combinatie al snel duurder zal zijn. Het maakt deze OEM's ook niks uit of ze een AMD, Intel of Nvidia chip in hun laptops stoppen. Ze kijken alleen naar winstmarges. Daarom zie je ze Kabylake G pushen en niet Nvidia. Intel zal doormiddel van koppelverkoop een goede deal aanbieden, beter dan een losse CPU en GPU van Nvidia kopen. Als AMD de OEM's dan ook een betere deal biedt dan Nvidia voor lagere segment chips dan lopen ze ook gewoon weg bij Nvidia. Dat wordt ondertussen wel heel makkelijk gemaakt omdat Nvidia met chantagepraktijken komt aanzetten terwijl ze eigenlijk geen drukmiddel hebben op de grote OEM's. Alleen Intel heeft dit en die lijken hun lesje geleerd te hebben. Die gaan niet meer actief saboteren omdat het ook niet meer hoeft. AMD zal de komende jaren ook niet in staat zijn om een vergelijkbaar portfolio te leveren als Intel.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
DaniëlWW2 schreef op donderdag 12 april 2018 @ 18:46:
[...]


Ik vermoed eigenlijk dat Dell, HP, maar waarschijnlijk ook Lenovo te afhankelijk van Intel zijn om mee te doen met GPP. Ik merkte laatst ook al op dat Dell en HP Kaby Lake G laptops gingen aanbieden met Radeon GPU's. Recent kwamen er nog Radeon chips bij voor sommige modellen.
Toch vraag ik het me nog steeds af, ik zie bijv. voor zover ik kan zien geen AMD GPU's in de gaming lijnen van HP / Dell op wat oude modellen na, pas als ik AMD GPU's zie in nieuwe producten in bijv. de Omen lijn (HP), of Alienware (Dell) zullen ze mij overtuigen. De overige lijnen zijn geen "Gaming brands" en vallen mijn inziens ook niet onder het GPP, ook als ze wel mee doen waardoor het verschijnen van Kaby Lake G in bijv. een Dell XPS serie of HP Envy of Spectre mij vrij weinig zegt.

Van Lenovo weet ik eigenlijk niet eens of ze wel een gaming brand hebben, mij is het in ieder geval niet bekend.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 19:23
Ik denk dat het ook komt omdat het voor dell en hp minder uit maakt of ze launch partner zijn. Ze verkopen vooral complete systemen en richten zich niet op losse kaarten die bij launch altijd gigantisch verkopen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Dell is een relatief prominente partner van AMD bij Ryzen onder de OEM's, Dell kreeg die tijdelijke exclusiviteit (Threadripper?). Misschien heeft dat ermee te maken? In ieder geval goed om te vernemen dat niet alle bedrijven meedoen. Ik ben benieuw naar de motieven van de beide bedrijven, het ligt in ieder geval voor de hand dat het wat gemakkelijker is voor Dell en HP dan voor Acer ASUS die ook veel grafische kaarten verkoopt.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Verwijderd schreef op vrijdag 13 april 2018 @ 03:32:
[...]

Dell is een relatief prominente partner van AMD bij Ryzen onder de OEM's, Dell kreeg die tijdelijke exclusiviteit (Threadripper?). Misschien heeft dat ermee te maken? In ieder geval goed om te vernemen dat niet alle bedrijven meedoen. Ik ben benieuw naar de motieven van de beide bedrijven, het ligt in ieder geval voor de hand dat het wat gemakkelijker is voor Dell en HP dan voor Acer die ook veel grafische kaarten verkoopt.
Denk eerder dat het te maken heeft met KL-G, evt RR / polaris. ;)

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verwijderd schreef op vrijdag 13 april 2018 @ 03:32:
[...]

Dell is een relatief prominente partner van AMD bij Ryzen onder de OEM's, Dell kreeg die tijdelijke exclusiviteit (Threadripper?). Misschien heeft dat ermee te maken? In ieder geval goed om te vernemen dat niet alle bedrijven meedoen. Ik ben benieuw naar de motieven van de beide bedrijven, het ligt in ieder geval voor de hand dat het wat gemakkelijker is voor Dell en HP dan voor Acer die ook veel grafische kaarten verkoopt.
Wat in ieder geval een rol lijkt te spelen is dat GPP mogelijk illegaal is. En daar willen ze denk ik liever hun handen niet aan branden.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
nVidia heeft gewoon niks te zeggen over fabrikanten als Dell en HP. Als hun zeggen doen we niet dan heeft nVidia daar niks tegen in te brengen. nVidia is meer afhankelijk van Dell en HP dan andersom.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Help!!!! schreef op vrijdag 13 april 2018 @ 09:05:
[...]

Wat in ieder geval een rol lijkt te spelen is dat GPP mogelijk illegaal is. En daar willen ze denk ik liever hun handen niet aan branden.
Of dat het is weet ik ook zo net nog niet, bij het Intel / AMD verhaal trokken de OEMs zich daar ook niet al te veel van aan.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dennism schreef op vrijdag 13 april 2018 @ 09:54:
[...]


Of dat het is weet ik ook zo net nog niet, bij het Intel / AMD verhaal trokken de OEMs zich daar ook niet al te veel van aan.
We zijn nu een paar jaartjes verder hè, inclusief terechtwijzing van Intel. Het zou zomaar kunnen dat ze daar wat mee gedaan hebben. :P

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

foppe-jan schreef op vrijdag 13 april 2018 @ 08:30:
[...]

Denk eerder dat het te maken heeft met KL-G, evt RR / polaris. ;)
Dat zeker, maar er spelen nog andere zaken mee. Ten eerste zijn OEM's zoals HP, Dell of Apple keihard genaaid door Nvidia bij de "bumpgate" affaire. Bumpgate was echt niet alleen je 8800 die met de bosjes tegelijkertijd kapot gingen. Nee, laptopchips hadden ook enorme problemen. De oplossing van deze problemen vanuit Nvidia was "minder dan optimaal". Kwam neer op ontkennen, ontkennen en toen ze het moesten toegeven werd het absolute minimum gedaan qua vervanging. Flink wat reputatieschade voor de laptopmakers ten gevolgen en Nvidia kwam niet over de brug met een correcte afhandeling van de schade.

Zeker Apple heeft onderhand een aardig aantal redenen om Nvidia te haten. Alles van slechtere ondersteuning voor open standaarden danAMD, tot bumpgate waar ze min of meer de middelvinger van Nvidia kregen en de boel zelf konden gaan vervangen, tot Nvidia die zich ook nog wel eens opstelt als een patenttrol. Er is een reden dan Apple liever AMD chips koopt.

Komt ook nog eens bij dat AMD nu eindelijk met haar 14nm Polaris based GPU's voor laptops komt, twee jaar na de oorspronkelijke release van Polaris. Rebrands van rebrands van rebrands kochten de OEM's natuurlijk niet, en neem ze dat maar eens kwalijk...

Tel dit op met de afhankelijkheid van Intel die ze echt niet boos gaan maken door Kaby Lake G niet te kopen en de vrees voor rechtszaken omdat GPP op zijn minst in een grijs gebied zit. Er is echt geen liefde tussen Nvidia en OEM's en op een exclusiviteitscontract zitten de OEM's helemaal niet op te wachten. Zeker niet nu. De afgelopen tijd zag je vrijwel alleen Nvdia in laptops omdat AMD haar catalogus totaal achterhaald was, en niet omdat de OEM's nu liever Nvidia willen. Nu rolt er eindelijk eens wat nieuws uit, en de OEM's kondigen hun eerste modellen al aan.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Help!!!! schreef op vrijdag 13 april 2018 @ 10:04:
[...]

We zijn nu een paar jaartjes verder hè, inclusief terechtwijzing van Intel. Het zou zomaar kunnen dat ze daar wat mee gedaan hebben. :P
Dat is natuurlijk zeker een optie.

Maar wat ik meer bedoel is dat het feit dat HP en Dell (en mogelijk andere OEMs) laptops verkopen met Kaby Lake G dat dit niet direct iets zegt over het wel of niet meedoen aan het GPP.

Een HP Pavilion laptop met Radeon 5xxX zegt in dat opzicht weinig, het als een Dell XPS met Kaby Lake G of bijv. een HP Envy of Spectre. Dit zijn immers geen Gaming brands en zouden dus als we wat bekend is over het GPP in acht nemen nooit onder het GPP vallen. Dat er gaming in de naam van de pavilion notebook zit zegt volgens mij ook weinig, een Gigabyte RX580 Gaming Box of een Gigabyte Radeon RX VEGA 56 GAMING OC 8G kan immers ook prima onder het GPP. Er lijkt dus geen "claim" te zitten van Nvidia op het woord "Gaming" an sich (m.u.v. MSI misschien), maar enkel op de merken als RoG, Aorus, Msi's Gaming X.

Vandaar dat het imho, voordat er conclusies getrokken worden over HP / Dell e.d. wel / niet in het GPP het vooral interessant is om te kijken naar de nieuwe producten in de HP Omen en Dell Alienware lijnen.

Ik zou graag zien dat de OEMs het GPP links zouden laten liggen, maar ik sta er toch nog steeds wat wantrouwend tegenover totdat ik nieuwe "modeljaar" 2018 Omen en Alienware producten ga zien met bijv. Vega kaarten.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Inderdaad en ben ook benieuwd wat we gaan zien in de Omen en Alienware productlines.

Wel lijkt me het belang van deze productlines maar beperkt voor de OEMs.

Voor de MSI's, Asus's is dat natuurlijk anders.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

Verwijderd

foppe-jan schreef op vrijdag 13 april 2018 @ 08:30:
[...]

Denk eerder dat het te maken heeft met KL-G, evt RR / polaris. ;)
Dat is mogelijk. In ieder geval hebben ze er zakelijk belang bij om niet mee te doen aan GPP, blijkbaar verwachten ze meer winst te kunnen maken als ze niet meedoen dan wanneer ze wel meedoen.
Help!!!! schreef op vrijdag 13 april 2018 @ 09:05:
[...]

Wat in ieder geval een rol lijkt te spelen is dat GPP mogelijk illegaal is. En daar willen ze denk ik liever hun handen niet aan branden.
Een goede theorie. In het geval van Dell zou het misschien ook nog mee kunnen spelen dat ze al een matige reputatie hebben bij AMD omwille van hun rol in het Intel Inside programma (jarenlang mee blijven doen omwille van steeds meer smeergeld terwijl ze eigenlijk wilden stoppen omdat de AMD-CPU's toen best wel goed waren) in het verleden? Al denk ik niet dat de impact daarvan groot is, want hoeveel procent van de potentiële klanten weet hiervan? Of misschien maakt het hen meer de kop van jut bij de autoriteiten als die een testcase zouden gaan starten omwille van de GPP? Ik zie dat echter niet gebeuren in het door een door corrupte USA, wel mogelijk in Europa.

Hoe dan ook, het belangrijkste is dat HP en Dell blijkbaar met een serieuze line-up gaan komen voor mensen die de voorkeur geven aan AMD en dat de klanten wat te kiezen hebben. Wij assembleren zelf een computer maar er zijn ook mensen die een voorkeur voor Zen/Polaris... hebben en die daar huiverig voor zijn.

[ Voor 60% gewijzigd door Verwijderd op 13-04-2018 16:04 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:40
Heel knap:
SAN FRANCISCO — Nvidia cracked the list of top 10 semiconductor vendors by sales for the first time in 2017, joining Qualcomm as the only other strictly fabless chip supplier to attain that distinction last year, according to market research firm IHS Markit.

Nividia's 2017 sales total of $8.57 billion was good enough for the company to secure the 10th position among chip vendors last year, IHS said. Ironically, Nvidia edged out fellow fabless chip supplier MediaTek of Taiwan to crack the top 10, according to Len Jelinek, director and chief analyst for technology, media and telecommunications at IHS.

Qualcomm, Nvidia and MediaTek are the only strictly fabless chip vendors to ever crack the top 10 list of chip suppliers in a calendar year. MediaTek was among the top 10 chip vendors in 2014 and again in 2016. Qualcomm first cracked the top 10 list in 2007 and has remained a fixture on the list ever since.

[ Voor 18% gewijzigd door sdk1985 op 14-04-2018 01:27 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Verwijderd schreef op vrijdag 13 april 2018 @ 15:55:
[...]

Dat is mogelijk. In ieder geval hebben ze er zakelijk belang bij om niet mee te doen aan GPP, blijkbaar verwachten ze meer winst te kunnen maken als ze niet meedoen dan wanneer ze wel meedoen.
https://www.hardocp.com/a...t_nvidia_gpp_leash_so_far
The other unknown in this is Intel. Big Blue is very much aware of what is going on, and GPP could very much impact the sales of its Kaby Lake-G part that contains a GPU that was built by AMD specifically for Intel. I would expect we are going to see legal action initiated on NVIDIA GPP by Intel at some point in the future.

We also now can share that NVIDIA has specified that it will not extend discounts to non-GPP partners. And what is appalling, but not surprising, is that NVIDIA is denying "priority allocation" to non-GPP partners as well. That basically means your GPU order must have gotten lost in the mail.

"Gaming" brands outsell non-gaming brands 3 to 1 according to the research I have seen on the subject. So to suggest that AMD will not be impacted by GPP is simply not true.
Als er iemand is met meer invloed over HP/Dell dan NV, lijkt het me die jongen wel.

[ Voor 4% gewijzigd door foppe-jan op 14-04-2018 19:53 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

foppe-jan schreef op zaterdag 14 april 2018 @ 19:33:
[...]

https://www.hardocp.com/a...t_nvidia_gpp_leash_so_far

[...]

Als er iemand is met meer invloed over HP/Dell dan NV, lijkt het me die jongen wel.
Op papier is Nvidia klein in vergelijking met Intel, of Intel groot in vergelijking met Nvidia. Het is eigenlijk best wonderbaarlijk dat zo weinig mensen (Nvidia + RTG tak AMD) alle grafische kaarten maken. Geen idee hoe groot die component bij Intel is maar het is naar mijn mening interessant, zeker als je bedenkt hoeveel van die medewerkers geen ingenieurs, programmeurs...zijn.

Intel
Revenue Increase US$62.76 billion (2017)[1]
Operating income
Increase US$17.93 billion (2017)[1]
Net income
Increase US$9.601 billion (2017)[1]
Total assets Increase US$123.2 billion (2017)[1]
Total equity Increase US$69.01 billion (2017)[1]
Number of employees
106,000 (2017)[1]

Nvidia
Revenue Increase US$9.714 billion (2017)[1]
Operating income
Increase US$3.210 billion (2017)[1]
Net income
Increase US$3.047 billion (2017)[1]
Total assets Increase US$11.241 billion (2017)[1]
Total equity Increase US$7.471 billion (2017)[1]
Number of employees
11,528 (January 2018)[1]

AMD
Revenue Increase US$5.33 billion (2017)[2]
Operating income
Increase US$204 million (2017)[2]
Net income
Increase US$43 million (2017)[2]
Total assets Increase US$3.54 billion (2017)[2]
Total equity Increase US$611 million (2017)[3]
Number of employees
8,900 (December 2017)[4]

Voor het contrast plaats ik AMD er ook even bij waar ik nu niet verder over uitwijd (als je dat zo ziet dan moet je je toch afvragen hoe AMD de concurrentie aangaat en dat plaatst al dat gemopper over dat AMD bij de grafische kaarten tijdelijk de aansluiting heeft verloren in een bepaald perspectief ;)) omdat dit de Nvidia-draad is. Dus ja, het zou goed kunnen dat Dell en HP niet meedoen omdat Intel dat niet wil.


@foppe-jan en anderen
Weet iemand van jullie waar die afbeelding van het contract (GPP) nog meer isgeplaatst (Reddit?)? De afbeeldingen van HardOCP zijn verdwenen.

[ Voor 14% gewijzigd door Verwijderd op 14-04-2018 22:31 ]


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

NVIDIA Starts Disinformation GPP Campaign:
https://www.hardocp.com/n...information_gpp_campaign/

Leuke mensen daar bij Nvidia. Ze gaan dus nu Kyle Bennet er van beschuldigen dat hij liegt :+, dat terwijl hij het contract zwart op wit heeft liggen.
Doet een voorspelling dat HardOCP de komende jaren geen Nvidia kaarten meer krijgt om te reviewen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
The Saga continues.

Las overigens nog een mooie samenvatting:
Geforce belongs to Nvidia. Radeon belongs to AMD. ROG belongs to ASUS.
Nvidia says give me ROG or you get to be a bottom feeder on our chips/tech.
That's how I am seeing this and I don't think I am wrong.
Nvidia is using its market share to coerce or force the AIB's to do as Nvidia wants or they will get little to no support, including less chips to make cards.
Using a position of strength like this is pushing into a monopoly.
En interessante link: https://hardforum.com/thr...01/page-5#post-1043589126
BUT, SOMEHOW, ROG EXISTS BECAUSE OF NVIDIA. Rog, a brand born in 2006, is where it is thanks to NVIDIA. Because, of course, their headsets, mice, keyboards, cases, routers, soundcards and others not only have NVIDIA technology in them, but also receive preferential treatment from NVIDIA.

Yeah, if that isn't horseshit I don't know what is.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Wie weet krijgt hij er ook wel voor betaald en probeert Kyle Bennet dat te ontkennen. Actie reactie, eigen schuld dikke bult. :+

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Gekke Jantje schreef op donderdag 19 april 2018 @ 11:50:
Wie weet krijgt hij er ook wel voor betaald en probeert Kyle Bennet dat te ontkennen. Actie reactie, eigen schuld dikke bult. :+
Ik denk dat het aantal views van een goed artikel en een goede reputatie op de lange termijn beter betaald :p.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

"Nou het was natuurlijk een programma met de allerbeste bedoelingen voor jullie. Maar omdat jullie dat niet begrepen en er misinformatie verspreid werd stoppen we er toch maar mee:"

Pulling the Plug on GPP, Leaning into GeForce

ps: Wat een misselijk bedrijf is het toch. Ze hadden alle kansen om het beter uit te leggen maar wilden niemand te woord staan.

Triest

ps: Respect Kyle Bennet & HardOCP .

[ Voor 11% gewijzigd door Help!!!! op 04-05-2018 20:15 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het lijkt erop dat het ze te heet onder de voeten werd. Zou me niks verbazen als de EC en de FTC al aan het overwegen waren om een onderzoek te starten. Verder zou Intel wel eens tot een rechtszaak kunnen komen, en die kunnen je gewoon kapot maken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Kwam al paar goede vragen tegen.
- Zijn de getekende contracten nog van kracht of zijn die nu gecancelled :?
- Is er niet stiekem al of binnenkort een GPP 2.0 van kracht met net iets meer anti-trust proof wording :?

Moet zeggen dat HWI het wel redelijk goed brengt door te benoemen dat nvidia nooit openheid heeft willen geven.

Nvidia trekt stekker uit GeForce Partner Program na massale ophef

[ Voor 45% gewijzigd door Help!!!! op 04-05-2018 20:46 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op vrijdag 4 mei 2018 @ 20:43:
Kwam al paar goede vragen tegen.
- Zijn de getekende contracten nog van kracht of zijn die nu gecancelled :?
- Is er niet stiekem al of binnenkort een GPP 2.0 van kracht met net iets meer anti-trust proof wording :?

Moet zeggen dat HWI het wel redelijk goed brengt door te benoemen dat nvidia nooit openheid heeft willen geven.

Nvidia trekt stekker uit GeForce Partner Program na massale ophef
Tja, waarschijnlijk was het meeste moreel twijfelachtig, maar legaal. Die Marketing Development Funds waren waarschijnlijk hardstikke illegaal. Dat is precies waar Intel voor bestraft is. Zonder MDF's is het ook zinloos voor de GPP partners om stilzwijgend in te stemmen omdat ze er zelf geen voordeel meer uithalen. Een GPP 2.0 lijkt me dan ook onwaarschijnlijk. Zaken zoals ondersteuning bij het ontwerpen van custom PCB's en koeling werd al voor GPP geleverd. Dat afpakken en er niks tegenover zetten, zal alleen maar kwaad bloed zetten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op vrijdag 4 mei 2018 @ 20:06:
"Nou het was natuurlijk een programma met de allerbeste bedoelingen voor jullie. Maar omdat jullie dat niet begrepen en er misinformatie verspreid werd stoppen we er toch maar mee:"

Pulling the Plug on GPP, Leaning into GeForce

ps: Wat een misselijk bedrijf is het toch. Ze hadden alle kansen om het beter uit te leggen maar wilden niemand te woord staan.
Dat inderdaad, als Nvidia van mening was dat wij het verkeerd begrepen dan hadden ze de journalisten te woord moeten staan, het feit dat ze dat niet deden doet vermoeden dat zij en wij het juist wel goed begrepen en de waarheid pijnlijk was. Het feit dat Nvidia ermee stopt doet vermoeden dat ze bang waren voor problemen, ofwel juridische problemen (Intel en AMD, met name Intel) ofwel problemen met de autoriteiten.

Ik denk dat de journalisten voorzichtig moeten zijn met de aanname dat GPP nu ook daadwerkelijk voorbij is, het feit dat die contracten niet meer worden gehandhaafd wil niet zeggen dat de afspraken die niet op papier staan niet meer gelden, OEM's en AIB-partners zouden nog steeds voorzichtig kunnen zijn met producten van een (voor nu enkel AMD, over een paar jaar mogelijk ook Intel) concurrent te verkopen aangezien ze bang zijn dat Nvidia anders minder kaarten etc. beschikbaar stelt kort na de launch.
Help!!!! schreef op vrijdag 4 mei 2018 @ 20:43:
- Is er niet stiekem al of binnenkort een GPP 2.0 van kracht met net iets meer anti-trust proof wording :?
Het zou me niet verbazen als een deel van GPP verder gaat, zonder dat het op papier staat, zoiets kan je ook prima mondeling doen. MSI en Gigabyte mogen weer respectievelijk kaarten verkopen onder "GamingX" en "Aorus" maar ondertussen zet Nvidia OEM's nog onder druk om geen Intel CPU's met AMD-graphics te verkopen (via de systemen). "Jullie willen graag €X korting per grafische kaart?...".
Indien het vermoeden van veel mensen klopt dat GPP vooral gericht was tegen Intel+AMD (laptopmarkt) - wat ik ook geloof - dan zou dit een prima oplossing zijn voor Nvidia. Naar buiten toe lijkt alles weer normaal maar ondertussen hebben we de opvolger van Intel Inside, maar deze keer tegen Intel gericht.

[ Voor 56% gewijzigd door Verwijderd op 04-05-2018 23:04 ]


Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 19:59
Mijn ervaring met het volgen van de prijzen van de GPU's is dat ze eindelijk weer wat meer dalen qua prijs.
https://nl.hardware.info/...gmiddagdeals-videokaarten

Ti's nu dus voor 823! goede ontwikkeling

Ondertussen heb ik nog wel even plezier van mijn MSI GTX 980 voor de games die ik speel nog steeds meer dan genoeg op 1080p ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Ik weet niet hoe het voor Nvidia zit maar voor AMD zijn de prijzen de laatste 3 weken helaas niet gedaald.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

https://hardforum.com/thr...89/page-5#post-1043615917

Kyle over GPP: I would suggest you are very wrong. There is a LOT more of this story to tell. We will see if it comes out or not.

Ben benieuwd .
https://www.reddit.com/r/...ling_plug_on_gpp/dygd4tw/
NVIDIA told me I would be cut off if I published the GPP story. Since I did that, they will not reply to any of my emails, so I suspect that bridge is burned forever.

AMD is obviously happy over it, as you would expect.

As for AIBs, we are not into new video card season yet, but I would guess that it is very possible that NVIDIA will forbid them from sampling HardOCP with NV GPU cards.

It will be interesting if NVIDIA pushes the AIBs to pull advertising from my site, which I figure will happen too.

So all in all, it is likely this will put an end to HardOCP, but I knew that when I published the story. Not crying over spilt milk here, just discussing the facts around the situation.

[ Voor 65% gewijzigd door Help!!!! op 05-05-2018 18:42 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Help!!!! schreef op zaterdag 5 mei 2018 @ 11:47:
https://hardforum.com/thr...89/page-5#post-1043615917

Kyle over GPP: I would suggest you are very wrong. There is a LOT more of this story to tell. We will see if it comes out or not.

Ben benieuwd .

https://www.reddit.com/r/...ling_plug_on_gpp/dygd4tw/

[...]
Link deed het niet, even gezocht:
https://www.reddit.com/r/...ling_plug_on_gpp/dygd4tw/

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:40
Verwijderd schreef op vrijdag 4 mei 2018 @ 23:29:
Ik weet niet hoe het voor Nvidia zit maar voor AMD zijn de prijzen de laatste 3 weken helaas niet gedaald.
Een kaart als pricewatch: KFA2 GeForce GTX 1060 OC 6GB (Retail) is gedaald van 450 naar 315 en zit daarmee weer rond het introductie niveau.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

Een Twitter-reactie @LinusTechTips
"We" did it? You tiptoed around the topic every time you mentioned it. You have one of the biggest platforms on the net, and you did virtually nothing. List here of about 500 other folks that pulled more weight than LTT did. You can blow that "we" shit right out your ass.
_O-

...
LTT has the biggest platform on the net and he tiptoed around the topic about as much as you could.
Now I am "the guy from HardOCP." My point is that LTT could have really pushed this for the entire community and they did NOT. Some take in the middle of the Wan Show that gets no views compared to his other videos? He did little to nothing for the entire clusterfuck that was GPP. "We did it!" No. That tweet is a sham, and and stain to ALL the other people that did take up the mantle, and there were a LOT of them.

...
Let me tell you the state of "journalism" in our industry. Two folks that had any kind of exposure actually contacted me to discuss it before reporting on it. Think about that for a second. If you were going to say anything about GPP at that time, would you not have reached out to the source. Gordon Ung from PC World was one, Chris at The Good Old Gamer was the other. Kudos to those guys.
...
Oh yeah they could have SURELY. All we got out of them was a bunch of pussyfooting around. Gordon Ung did the best job of it. He told me before we did that interview, that he was going to be devil's advocate. Great! That is journalism, let's get it on. "We did it" from a guy that never asked a question of the source acting like he had part in it is sickening. He asked NVIDIA about it, why would he not ask me? Think about that.....
sdk1985 schreef op zaterdag 5 mei 2018 @ 19:06:
[...]

Een kaart als pricewatch: KFA2 GeForce GTX 1060 OC 6GB (Retail) is gedaald van 450 naar 315 en zit daarmee weer rond het introductie niveau.
Ik ken KFA2 niet (wel eens de naam gezien maar het zegt me niets) maar goed, de goedkoopste RX580 8 GB zit nu rond de €350, de 4 GB RX 580 kan je uiteraard voor minder kopen, die zit nog altijd ruim boven de GTX 1060 3 GB (kleinere GPU dan de 1060 6 GB, voor het geval er n00bs meelezen), per spel verschilt het hoet competitief de 4 GB RX 580 is met de 1060 6 GB

[ Voor 60% gewijzigd door Verwijderd op 05-05-2018 20:53 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:40
@Verwijderd
Zijn meer merken hoor die weer op het oude niveau zitten of zaten. Ik heb EVGA voor 300 gezien, Palit en Inno3d. Dan praat ik over de 1060 6 GB. Momenteel is Inno3D de goedkoopste met 303. Paar andere zijn afgelopen dagen alweer 20-30 euro gestegen. Vermoedelijk omdat er meteen gereageerd is op de lage prijzen.

Wil AMD echt goed een 580 slijten dan moet hij 20-30 euro onder de 1060 worden gepositioneerd omdat een Nvidia kaart nu eenmaal meer mag opbrengen (terecht of niet). AMD volgt die strategie in ieder geval, de RX580 had een MSRP van $189 4 GB -$219 8GB. De GTX 1060 6GB moest $249 opbrengen. De RX580 heeft dus nog een lange weg te gaan.

Maar goed, je vroeg je af hoe het bij Nvidia zat. Daar is voor wie dat wil de 1060 6GB weer voor het originele bedrag te verkrijgen. Het is echter nu wel 2 jaar later dus echt een goede deal kan ik dat niet noemen.

Zal vooral even afwachten worden of we deze maand wat over Volta gaan horen.

[ Voor 51% gewijzigd door sdk1985 op 05-05-2018 22:57 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op zaterdag 5 mei 2018 @ 20:31:
Een Twitter-reactie @LinusTechTips
"We" did it? You tiptoed around the topic every time you mentioned it. You have one of the biggest platforms on the net, and you did virtually nothing. List here of about 500 other folks that pulled more weight than LTT did. You can blow that "we" shit right out your ass.
_O-

...
LTT has the biggest platform on the net and he tiptoed around the topic about as much as you could.
Now I am "the guy from HardOCP." My point is that LTT could have really pushed this for the entire community and they did NOT. Some take in the middle of the Wan Show that gets no views compared to his other videos? He did little to nothing for the entire clusterfuck that was GPP. "We did it!" No. That tweet is a sham, and and stain to ALL the other people that did take up the mantle, and there were a LOT of them.

...
Let me tell you the state of "journalism" in our industry. Two folks that had any kind of exposure actually contacted me to discuss it before reporting on it. Think about that for a second. If you were going to say anything about GPP at that time, would you not have reached out to the source. Gordon Ung from PC World was one, Chris at The Good Old Gamer was the other. Kudos to those guys.
...
Oh yeah they could have SURELY. All we got out of them was a bunch of pussyfooting around. Gordon Ung did the best job of it. He told me before we did that interview, that he was going to be devil's advocate. Great! That is journalism, let's get it on. "We did it" from a guy that never asked a question of the source acting like he had part in it is sickening. He asked NVIDIA about it, why would he not ask me? Think about that.....


[...]

Ik ken KFA2 niet (wel eens de naam gezien maar het zegt me niets) maar goed, de goedkoopste RX580 8 GB zit nu rond de €350, de 4 GB RX 580 kan je uiteraard voor minder kopen, die zit nog altijd ruim boven de GTX 1060 3 GB (kleinere GPU dan de 1060 6 GB, voor het geval er n00bs meelezen), per spel verschilt het hoet competitief de 4 GB RX 580 is met de 1060 6 GB
Tjah LTT is een beetje de hoer in de tech industrie. Veel netter kan ik het niet verwoorden :P, ik had ook niks anders verwacht.
Met iedereen vrienden die op dat moment geld in het laatje brengt of views opleverd.

Acties:
  • 0 Henk 'm!

Verwijderd

LTT verdient deze reprimande. Ze zijn goed in wat ze doen maar zij hebben er alle belang bij om vriendjes te blijven met alle bedrijven en zullen daarom niet aan kritische onderzoeksjournalistiek doen.
sdk1985 schreef op zaterdag 5 mei 2018 @ 22:52:
@Verwijderd
Zijn meer merken hoor die weer op het oude niveau zitten of zaten. Ik heb EVGA voor 300 gezien, Palit en Inno3d. Dan praat ik over de 1060 6 GB. Momenteel is Inno3D de goedkoopste met 303. Paar andere zijn afgelopen dagen alweer 20-30 euro gestegen. Vermoedelijk omdat er meteen gereageerd is op de lage prijzen.
Laten we maar hopen dat de winkels de prijzen van AMD-kaarten ook verlagen. Inmiddels zijn die specialistische mining-bakjes zo goed dat ze de grafische kaarten ruimschoots verslaan voor sommige toepassingen, ik heb echter nog geen diepgaande analyse gezien dus ik durf niet een stelling in te nemen of dat dankzij die specialistische bakjes grafische kaarten (zeker als je ze nu nog zou kopen voor dat doeleinde) niet meer nuttig zijn voor mining. Daarnaast vraag ik me af wat de gevolgen zijn van die specialistische bakjes voor de beschikbaarheid van GPU's (die worden door hetzelfde bedrijf gemaakt als die specialistische bakjes in het geval van Nvidia-kaarten en mogelijk ook in het geval van de volgende generatie AMD-kaarten - TSMC) en RAM. Er is toch al weinig RAM beschikbaar door een combinatie van meer lucratieve markten (servers, telefoons) en pricefixing door kartelvorming, zou dit nu een extra meer lucratieve markt voor RAM zijn? Een hoop interessante vragen, weinig antwoorden.

Het was mij ook opgevallen dat de GTX 1060 momenteel wat meer in prijs zijn gedaald, maar ook nog steeds veel te duur natuurlijk.
De RX 580 is een betere kaart (Vulkan/DX12, meer longevity dankzij extra compute en RAM die nu nog niet wordt benut, beter geschikt voor niet-gaming taken) maar helaas zal die inderdaad een lagere prijs moeten hebben om die net zoveel te verkopen omdat de gewone mensen geen besef hebben van de performance en jarenlang zijn geïndoctrineerd met agressieve marketing (The Way It Is Meant To Be Played, PhysX, Gameworks (ook marketingtools in essentie)) van Nvidia en omdat AMD het zelf een tijdlang liet liggen met drivers en een te hoog vermogen in de eerste paar jaar nadat het ATI kocht. Wij weten het binnen een paar dagen wanneer er een ontwikkeling is, de gewone klant komt er misschien na een paar jaar eens achter dat zaken zijn veranderd, die denken nog steeds het vermogen van AMD-kaarten veel hoger ligt (wel nog steeds iets hoger maar niet meer problematisch veel hoger) en dat Nvidia betere drivers heeft.

[ Voor 20% gewijzigd door Verwijderd op 06-05-2018 05:07 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op zondag 6 mei 2018 @ 05:03:
LTT verdient deze reprimande. Ze zijn goed in wat ze doen maar zij hebben er alle belang bij om vriendjes te blijven met alle bedrijven en zullen daarom niet aan kritische onderzoeksjournalistiek doen.
Welke journalistiek blijft er over als je potentiële kritiek en onderzoek weglaat? LTT was niet zo heel lang geleden wel heel nijdig op Intel.

[ Voor 7% gewijzigd door madmaxnl op 08-05-2018 10:24 ]


Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op dinsdag 8 mei 2018 @ 10:23:
[...]


Welke journalistiek blijft er over als je potentiële kritiek en onderzoek weglaat? LTT was niet zo heel lang geleden wel heel nijdig op Intel.
LTT doet dan ook niet aan journalistiek, normaal gesproken. Het is meer entertainment waarbij je op een oppervlakkig niveau soms eens iets leert over de performance van bepaalde hardware of hardware+software. Ik meen dat dat edutainment wordt genoemd in de televisiewereld. Level1Techs komt al dichter in de buurt bij journalistiek, Nerdtechgasm en AdoredTV doen hun best om dit te doen en soms doen PCWorld en PCPerspective (niet per se zonder bias) het. LTT is meer vergelijkbaar met Jay, Bitwit, Paul...
Daarom stel ik dat ze goed zijn in wat ze doen, het vermaakt en af en toe leer je oppervlakkig iets, dat is precies hun doel. Anders krijg je ook geen paar miljoen subscribers, in ieder geval niet wanneer het om hardware (of bijvoorbeeld muziek als jazz de focus is) gaat. Tot mijn verrassing zijn er ook wat kanalen met 1 tot een paar miljoen subscribers die wel diepgang hebben: Cody's Lab, Real Engineering, minutephysics, 3blue1brown, numberphile, computerphile, thunderf00t

[ Voor 23% gewijzigd door Verwijderd op 08-05-2018 13:22 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tja, AMD heeft dat al gedaan. Het is Vulkan dus zowel AMD als Nvidia moeten zelf de softwareondersteuning aanbieden voor features zodat het werkt op hun hardware. Niks bijzonders eigenlijk.


Veel interessanter is dat er een engineering sample is opgedoken van wat waarschijnlijk de GTX1180 gaat worden. GV104, dus Volta met: 28 SM's, 224 TMU's, 3584 Cuda cores en een maximale clockrate van 1582MHz. Dit is wederom de configuratie van Maxwell/Pascall en tot dusver identiek aan de GTX1080Ti FE. Niks nieuws dus, dit was maanden geleden al te voorspellen.

Opvallender is er maar 384.0 GB/s aan geheugenbrandbreedte lijkt te zijn met GDDR6 en maar 64 ROPS. Dit terwijl de Ti respectievelijk 484.4 GB/s en 88 ROPS heeft. Ook opvallend is dat er hier toch gesproken wordt van "12nm". Het zou betekenen dat GV104 onder de GTX1080Ti uit gaat komen. Ik vermoed wel dat het de volledige chip is vanwege de 64 ROPS.
https://www.techpowerup.com/gpudb/3224/geforce-gtx-1180

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Verwijderd schreef op zondag 6 mei 2018 @ 05:03:
LTT verdient deze reprimande. Ze zijn goed in wat ze doen maar zij hebben er alle belang bij om vriendjes te blijven met alle bedrijven en zullen daarom niet aan kritische onderzoeksjournalistiek doen.
Vond die reactie eigenlijk wel redelijk tegenvallen en overtrokken van Kyle, ik kreeg echt het gevoel dat hij de uitzending niet eens gezien had. Ze waren er toch vrij duidelijk over in de uitzending (Wan Show) dat ze met "We" de totale community bedoelden, gaven in die zelfde uitzending al aan dat andere partijen (o.a. Kyle / HardOCP) het voortouw hadden genomen en dat ze (LTT) zelf maar een relatief kleine rol hadden gespeeld.

Verder denk ik dat LTT over het algemeen gezien aardig kritisch is geweest over het GPP en er ook redelijk wat coverage aangegeven hebben, ik denk eigenlijk zelfs meer dan een boel andere kanalen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

Verwijderd

Augustus pas? Hadden ze niet Computex verwacht voor de aankondiging? Ach ja, beter augustus dan 2019, hopelijk volgt AMD niet al te veel later maar ik zou niet verbaasd zijn als AMD ons nog een jaartje laat wachten.
Dennism schreef op donderdag 10 mei 2018 @ 14:53:
Ze waren er toch vrij duidelijk over in de uitzending (Wan Show) dat ze met "We" de totale community bedoelden, gaven in die zelfde uitzending al aan dat andere partijen (o.a. Kyle / HardOCP) het voortouw hadden genomen en dat ze (LTT) zelf maar een relatief kleine rol hadden gespeeld.
Ja, maar om dat dan in de titel op te nemen...
Verder denk ik dat LTT over het algemeen gezien aardig kritisch is geweest over het GPP en er ook redelijk wat coverage aangegeven hebben, ik denk eigenlijk zelfs meer dan een boel andere kanalen.
Vind jij? Ik heb hen er buiten de WAN-show niets over horen zeggen of zien Tweaten of wat dan ook. Kyle heeft op dit punt gelijk, Linus is veel meer een "influencer" dan wie dan ook in dat wereldje, hij had dit kunnen gebruiken tegen GPP. Omdat hij 6 miljoen kijkers heeft heeft hij meer verantwoordelijkheid dan ieder ander in dat wereldje maar er zijn er veel die veel meer een kritisch geluid tegen GPP lieten horen.
Overigens heeft die kerel van Tech Yes City (Bryan) ook wel een aardig punt gemaakt, wij maken ons druk om GPP (terecht naar mijn mening, daar niet van) maar ondertussen hoor je weinig over hoe die 2/3 RAM-bedrijven ons afzetten met price-fixing en kartelvorming. Maar dat is een discussie voor elders.

[ Voor 82% gewijzigd door Verwijderd op 31-05-2018 19:54 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dan worden ze gebakken op 7nm van TSMC aangezien de tijdslijn klopt voor dat procedé. Weten we dat ook weer. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Computex: Nvidia Volta pas 'over lange tijd' beschikbaar voor gamers:
https://nl.hardware.info/...d-beschikbaar-voor-gamers

[ Voor 25% gewijzigd door choogen op 04-06-2018 19:27 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dus waarschijnlijk pas in 2019? En wanneer komt AMD met een nieuwe serie?

Misschien komen ze wel rond dezelfde tijd uit.
Pagina: 1 ... 40 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.