[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 18 ... 30 Laatste
Acties:
  • 125.428 views

Acties:
  • 0 Henk 'm!

Verwijderd

Oké bedankt dus ik zit er toch niet echt naast dus las het gaat om een maxwell gpu die er misschien komt want dat is eigenlijk datgene wat ik de hele tijd al bedoel.

Gerucht Eerste nieuwe maxwell is 10% trager dan de 660
http://wccftech.com/maxwe...tx-750-ti-slower-gtx-660/

Ik vind dit persoonlijk wel nieuwswaardig en hoop niet dat mensen het erg vinden dat ik dit post als gerucht/nieuws gerucht.

[ Voor 24% gewijzigd door Verwijderd op 20-01-2014 10:55 ]


Acties:
  • 0 Henk 'm!

  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 09:14
Lupp is me net voor.

Om het `erger' te maken: de 750TI wordt volgens het artikel vermoedelijk trager dan de GTX 660 non-TI, terwijl de 750 TI wel 10 watt meer aan stroom verbruikt.

Edit: het wordt verwarrend, dit artikel: http://wccftech.com/maxwe...tx-750-ti-slower-gtx-660/ en dit artikel: http://wccftech.com/nvidi...gtx-660-10/#ixzz2qrZmsUFp

Vermelden tegenstrijdige berichten mbt de performance.

[ Voor 44% gewijzigd door ruftman op 20-01-2014 11:03 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dat is wel apart maar het kan zijn dat nvidia juist van deze kaart wil gaan leren en deze gedachten gang lees ik ook terug op techpowerup. Komt het misschien door de ARM cpu die er bij ingebouwd is als dat tenminste voor de 750 ti geldt?

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
ruftman schreef op maandag 20 januari 2014 @ 10:59:
Lupp is me net voor.

Om het `erger' te maken: de 750TI wordt volgens het artikel vermoedelijk trager dan de GTX 660 non-TI, terwijl de 750 TI wel 10 watt meer aan stroom verbruikt.

Edit: het wordt verwarrend, dit artikel: http://wccftech.com/maxwe...tx-750-ti-slower-gtx-660/ en dit artikel: http://wccftech.com/nvidi...gtx-660-10/#ixzz2qrZmsUFp

Vermelden tegenstrijdige berichten mbt de performance.
komt doordat maxwell volgens een nieuw principe werkt voor GPU's (stapt af van het concept gpu+Vram=Videokaart). Iets met unified memory en een extra ARM core. (gpu+Unified Vram + ARM = Videokaart)

Nieuwe tech is altijd lastiger dan een revisie van oude tech ;)

[ Voor 4% gewijzigd door eL_Jay op 20-01-2014 12:32 ]


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 16-09 20:08

superwashandje

grofheid alom

ik zit er even niet zo goed meer in of ik heb iets gemist maar; wat voor nut zou een ARM core op je videokaart hebben?

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • mjfast16
  • Registratie: Januari 2013
  • Laatst online: 30-07 12:15
ik denk dat nvidia gewoon wil kijken hoe hun technologie die ze hebben ontwikkeld zich gedraaft in de markt. ben benieuwd of je systeem merkbaar sneller gaat worden met een gtx 750 TI tegen over een gtx 660

Acties:
  • 0 Henk 'm!

Verwijderd

superwashandje schreef op maandag 20 januari 2014 @ 11:29:
ik zit er even niet zo goed meer in of ik heb iets gemist maar; wat voor nut zou een ARM core op je videokaart hebben?
Hier word niet zo veel nvidia nieuws meer gepost wat 2 jaar terug nog wel het geval was of
de zin is minder geworden omdat het niet meer zo interessant is? Het is mij in ieder geval erg opgevallen de laatste 2 jaar.

Ik vraag mij ook af wayt het nut van de ARM CPU is maar ik denk dat het voornamelijk is voor gpgpu doeleinden.

Nu heeft nvidia het zelfde gedaan met de Tegra K1 en die is een flink stuk sneller dan zijn voorganger miscchien heeft dat met de ARM CPU te maken?

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Verwijderd schreef op maandag 20 januari 2014 @ 11:50:
[...]

Hier word niet zo veel nvidia nieuws meer gepost wat 2 jaar terug nog wel het geval was of
de zin is minder geworden omdat het niet meer zo interessant is? Het is mij in ieder geval erg opgevallen de laatste 2 jaar.
Geen idee waarom je het aanhaalt, maar ik zie het meer als seizoenen, telkens als er een nieuwe kaart aan komt laait het op (zeker bij een nieuwe architectuur) en daarna zakt het weer. (Vergelijkbaar met wat je nu ziet in het CJ-Radeon topic, daar is het ook weer rustig.)
Ik vraag mij ook af wayt het nut van de ARM CPU is maar ik denk dat het voornamelijk is voor gpgpu doeleinden.
Jup, meer voor de zakelijke markt, een nVidia GPU met een eigen (ARM) CPU zou zelfstandig een taak kunnen uitvoeren, dit bied heel veel nieuwe mogelijkheden in het wetenschappelijke segment.
Nu heeft nvidia het zelfde gedaan met de Tegra K1 en die is een flink stuk sneller dan zijn voorganger miscchien heeft dat met de ARM CPU te maken?
Er is een variant van de Tegra K1 met een 'Denver' ARM 64-bit CPU, deze komt uit hetzelfde "Denver" project als het ARM CPU in een nVidia GPU bakken verhaal:
Since technologies developed within project Denver are universal, they will eventually span across the whole lineup of Nvidia products, from Tegra to GeForce to Quadro to Tesla.
Bron: http://www.xbitlabs.com/n...or_with_Secret_Sauce.html

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
eL_Jay schreef op maandag 20 januari 2014 @ 11:21:
komt doordat maxwell volgens een nieuw principe werkt voor GPU's (stapt af van het concept gpu+Vram=Videokaart). Iets met unified memory en een extra ARM core. (gpu+Unified Vram + ARM = Videokaart)

Nieuwe tech is altijd lastiger dan een revisie van oude tech ;)
Nee hoor, dat is niet het principe van Maxwell. VRAM blijft gewoon. De GPU kan straks alleen ook het systeem geheugen aanspreken; dat betekent dat een game textures bijvoorbeeld alleen naar het systeem RAM hoeft te laden, de GPU laadt dan van daar uit wat hij nodig heeft. Nu wordt er meer naar VRAM geladen dan eigenlijk nodig is - en het moet toch allemaal eerst door het systeem RAM ;)

Als er al ARM cores bij komen (heb ik nog steeds m'n twijfels over), zullen die daar dus verantwoordelijk voor zijn gok ik zo. En zo'n core zou ook gebruikt kunnen worden om bijvoorbeeld synchronisatie bij SLI te doen. In tegenstelling tot wat sommige sites echter beweren, gaat die van z'n leven geen PhysX doen. Een high-end Intel CPU zou er moeite mee hebben, maar Nvidia draait de handel dan vervolgens wel op een stel ARM cores? 8)7

Die dingen gaan veel te zwak zijn voor enige nuttige berekeningen. Van ARM cores heb je ook een hele berg nodig voor ze interessant worden voor zwaardere taken en dat gaat op een videokaart niet passen.
Verwijderd schreef op maandag 20 januari 2014 @ 11:50:
Hier word niet zo veel nvidia nieuws meer gepost wat 2 jaar terug nog wel het geval was of
de zin is minder geworden omdat het niet meer zo interessant is? Het is mij in ieder geval erg opgevallen de laatste 2 jaar.
Er is dan ook al twee jaar geen nieuws geweest? De 780 (Ti) was niet nieuw. Laatste nieuws was gewoon twee jaar geleden met de release van Kepler :)
Ik vraag mij ook af wayt het nut van de ARM CPU is maar ik denk dat het voornamelijk is voor gpgpu doeleinden.
Uh, nee. Zie hierboven, voor GPGPU gebruik je een GPU, geen CPU ;)
Nu heeft nvidia het zelfde gedaan met de Tegra K1 en die is een flink stuk sneller dan zijn voorganger miscchien heeft dat met de ARM CPU te maken?
Nee, K1 gaat sneller zijn door snellere CPU cores en de nieuwe architectuur (Tegra was voorheen eigenlijk gewoon G80, springt nu meteen naar Kepler). Met name de Denver cores (die overigens pas in 2H'14 komen, dus sowieso *niet* op de "750 Maxwell") zijn behoorlijk anders. Het is een kleine superscalar CPU core; een CPU met wat GPU trekjes.

[ Voor 4% gewijzigd door Werelds op 20-01-2014 13:31 ]


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 16-09 20:08

superwashandje

grofheid alom

Toettoetdaan schreef op maandag 20 januari 2014 @ 13:24:
[...]
Jup, meer voor de zakelijke markt, een nVidia GPU met een eigen (ARM) CPU zou zelfstandig een taak kunnen uitvoeren, dit bied heel veel nieuwe mogelijkheden in het wetenschappelijke segment.

Bron: http://www.xbitlabs.com/n...or_with_Secret_Sauce.html
maar waarom wil je een gpu dat per se zelfstandig laten doen waar (volgens mij) de normale cpu dit ook prima kan doen. een enkele ARM core zal volgens mij naast een X86 core niet veel toevoegen.

en aan wat voor "nieuwe mogelijkheden in het wetenschappelijke segment" zitten we dan te denken?

edit:
werelds reactie was namelijk ook een beetje mijn idee:
Werelds schreef op maandag 20 januari 2014 @ 13:30:
[...]
Als er al ARM cores bij komen (heb ik nog steeds m'n twijfels over), zullen die daar dus verantwoordelijk voor zijn gok ik zo. En zo'n core zou ook gebruikt kunnen worden om bijvoorbeeld synchronisatie bij SLI te doen. In tegenstelling tot wat sommige sites echter beweren, gaat die van z'n leven geen PhysX doen. Een high-end Intel CPU zou er moeite mee hebben, maar Nvidia draait de handel dan vervolgens wel op een stel ARM cores? 8)7

Die dingen gaan veel te zwak zijn voor enige nuttige berekeningen. Van ARM cores heb je ook een hele berg nodig voor ze interessant worden voor zwaardere taken en dat gaat op een videokaart niet passen.
dat unified VRAM iets toevoegt geloof ik wel maar ik zie niet waarom een enkele (of misschien zelfs meerdere) ARM cores daarvoor nodig zijn

[ Voor 38% gewijzigd door superwashandje op 20-01-2014 13:54 ]

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Werelds schreef op maandag 20 januari 2014 @ 13:30:
[...]

Nee hoor, dat is niet het principe van Maxwell.
Volgens mij is wat ik zeg niet onwaar, wat jij wel stelt.
Wat betreft die ARM core(s) daar reken ik eerlijk gezegd wel op (de geluiden zijn in ieder geval hardnekkig), maar jij vond mij al gek dat ik hoopte op een Maxwell launch in Q1, die er nu een week later zo goed als zeker gaat komen ;) (jij begon over high-end ik had het alleen over Maxwell)

[ Voor 38% gewijzigd door eL_Jay op 20-01-2014 14:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Als ik zo de link van toettoetdaan lees wil Nvidia er nog maar weinig over kwijt en heeft het wat in petto maar meer niet. Het blijft dus meer speculeren dan echt nieuws als het gaat om de nieuwe Maxwell en ARM cpu, vandaar dus dat het ook zo stil is hier want er valt weinig te melden als het gaat om echt nieuws.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Indien men wat het nVidia nieuws gevolgd zou hebben; weet je dat nVidia al een paar keer laten blijken heeft dat vanaf nu z'n ARM/soc platform als leading platform zal dienen en dus daar de gpu + ARM technologie wordt ontwikkeld en deze dan naar hun discrete gpu's zal komen.
Simpelweg nVidia plant aan upscaling te doen voor hun mobiele gpu's voor laptops en nog meer aan upscaling voor hun discrete kaarten. Eén gemeenschappelijke architectuur voor alles waarbij hun soc platform als basis dient.
Hun dedicated gpu's zullen zoals nu voorzien Tegra platform chips worden eventueel gestript van hun cpu kern. Eventueel want als de arm chip(s) geen nadelen of zelfs voordelen biedt zullen deze logischerwijze dus ook op hun dedicated gpu's te voorschijn komen.

Wat dit wil zeggen voor de gpu's in de toekomst .. feit is dat intel afkomt met igp's die ongeveer in staat zijn de ruwe performance van een 660GTX te leveren. (zitten al op een 22nm fabricage proces )
Maw de markt voor dedicated gpu's wordt steeds kleiner en kleiner, dus de verantwoorde investeringsruimte ook..
Het voordeel is hopelijk dan wel dat de nieuwe discrete kaarten zuiniger of tenminste efficiënter zullen worden. Daar men nu start vanaf een gpu architectuur voor een mobile platform waar energie verbruik allesbepalend is.

Ook bij hun dedicated GPGPU kaarten is het eigenlijk maar de logische stap dat daar een ARM chip wordt geïntegreerd. En niet zomaar een ARM chip, maar degelijk een eigen ARM implementatie. Deze kan nVidia later dan meer en meer optimaliseren voor het gpgpu gedeelte bijvoorbeeld. Of AMD achterna gaan en in hun soc het cpu en gpu gedeelte zoveel mogelijk gemeenschappelijk te maken.

Daar grootste inkomsten worden voorzien op hun tegra platform en bij enterprises en men de andere markten ziet inkrimpen is het maar logisch dat deze op een tweede rang komen en de architectuur maar "moeten" overnemen.

Niemand wil een tweede AMD scenario hoop ik waar de fabrikant maar moet achterhollen of wel performant wordt in een niche en uiteindelijk enkel nog verlies kan lijden... Alles in het teken van de winst waardoor gamers wel eens op de tweede plaats zouden kunnen komen :(

Waarom ik bv gestopt ben met nVidia nieuws te posten of zelfs de OP te updaten is gewoon omdat ik heel dit suptopic gewoon te AMD minded vind. Er is wel degelijk veel interessant nieuws gepasseerd van nVidia de laatste maanden maar zoals je al in voorgaande posten kan lezen vindt men dit totaal "geen nieuws".

Voor de geïnteresseerden is het dus beter om gewoon andere fora of nieuwssites te volgen. Sowieso geen slechte aanrader zelf voor het AMD en intel nieuws. Er staan veel veranderingen ons te wachten op hardware vlak. En je enkel te concentreren op high end grafische kaarten zal wellicht niet meer zo interessant wezen in de toekomst. Sowieso zou een volgende nVidia nieuws topic niet langer meer thuis horen onder videokaarten.. Over een paar jaar mag je het cpu, moederborden en video kaarten onderdeel van GoT gewoon mooi samenmergen. Intel heeft de cpu en igp al samen op 1 chip (shared L4 cache geheugen). AMD richt zich nog enkel op hun APU's (en eventuele arm chips) en nVidia smijt zich volledig op hun Tegra platform chips.. Bij geen enkele grote speler zie ik dus nog de merendeel van hun cpu's zonder één of andere vorm van gpu geproduceerd worden.
Wie zich dus nog steeds halstarrig vast blijft klampen aan een harde grens tussen video en cpu zal er vroeg of laat toch aan zijn.
Al de interessante technologie wordt nu vooral in het Tegra platform geïntroduceerd. Wie weet kunnen we dit topic nog gebruiken als benchmark topic XD

Ik blijf hopen dat het in de toekomst mogelijk zal blijven bv een nVidia kaart met een amd cpu te combineren(of omgekeerd maar dan met een intel cpu). En uberhaupt nog losse gpu's te kunnen kopen en in je systeem te prikken, maar indien elke fabrikant komt met 1 soc die alles kan wordt die kans er steeds minder en minder op. Of dat echt een nadeel is. Ipv je video kaart te updaten maar direct de hele soc. Indien het maar evenveel kost eigenlijk niet. Heb je direct niet meer het "probleem" dat je gpu wordt gebottleneckt door een "te trage" cpu of omgekeerd.
Persoonlijk moet ik bekennen dat ik al jaren geen audiokaart of netwerkkaart meer aangekocht heb ook was deze vroeger kaarten die daadwerkelijk waarde toevoegde aan je gaming ervaring. Misschien gebeurd hetzelfde met videokaarten.. time will tell..
Het enige dat ik blijf hopen is dat er keuzemogelijkheden blijven bestaan. Maar ik moet toegeven de laatste laptops van m'n werk met intel igp's zijn echt niet meer de rampen om op te gamen zoals ze vroeger waren. En deze igp's zijn in vergelijking met Iris pro kinderspel. Maw veel kans dat je in de toekomst bijna geen dedicated gpu's in laptops meer nodig zult hebben.

Specs


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
lightdestroyer schreef op maandag 20 januari 2014 @ 14:36:
Indien men wat het nVidia nieuws gevolgd zou hebben; weet je dat nVidia al een paar keer laten blijken heeft dat vanaf nu z'n ARM/soc platform als leading platform zal dienen en dus daar de gpu + ARM technologie wordt ontwikkeld en deze dan naar hun discrete gpu's zal komen.
Simpelweg nVidia plant aan upscaling te doen voor hun mobiele gpu's voor laptops en nog meer aan upscaling voor hun discrete kaarten. Eén gemeenschappelijke architectuur voor alles waarbij hun soc platform als basis dient.
Hun dedicated gpu's zullen zoals nu voorzien Tegra platform chips worden eventueel gestript van hun cpu kern. Eventueel want als de arm chip(s) geen nadelen of zelfs voordelen biedt zullen deze logischerwijze dus ook op hun dedicated gpu's te voorschijn komen.
Welke toepassingsmogelijkheden zijn er voor ARM geïntegreerd op een dGPU? Naast het bestaan van deze toepassingsmogelijkheden, welke zijn in de praktijk haalbaar c.q. logisch (dus dat er ook mensen zijn die het gaan gebruiken). In hoeverre gaat HSA nVidia hier bij helpen? ARM is immers aangesloten bij de HSA Foundation.
lightdestroyer schreef op maandag 20 januari 2014 @ 14:36:
Wat dit wil zeggen voor de gpu's in de toekomst .. feit is dat intel afkomt met igp's die ongeveer in staat zijn de ruwe performance van een 660GTX te leveren. (zitten al op een 22nm fabricage proces )
Maw de markt voor dedicated gpu's wordt steeds kleiner en kleiner, dus de verantwoorde investeringsruimte ook..
Hierbij vergeet je te vermelden dat Intel hiervoor paardenmiddelen zoals eDRAM nodig heeft. Intel gebruikt niet voor niets voor zijn Atom's, PowerVR GPUs. Hun eigen GPU's zijn gewoon ronduit slecht m.b.t. hoeveel ruimte ze nodig hebben (die size) waardoor ze veel koste en ook te veel gebruiken tot wat ze presteren.
lightdestroyer schreef op maandag 20 januari 2014 @ 14:36: Alles in het teken van de winst waardoor gamers wel eens op de tweede plaats zouden kunnen komen :(
Laat 'wel eens' weg en je hebt de visie van nVidia. Of ben je die streken zoals tesselation on de map vergeten? Ja daar waren wij gamers erg bij gebaat, not. Of het schrappen van DX10.1 support voor AC.

Dus ga nou niet zeggen dat nVidia er voor de gamer is. Feit dat ze de huidige en nieuwe generatie consoles ridiculiseren, bagatelliseren etc zegt al genoeg. Kunnen ze er geen geld aan verdienen dan boeit het ze niks en doen ze er alles aan om het feestje voor iemand anders te verpesten.
lightdestroyer schreef op maandag 20 januari 2014 @ 14:36:Waarom ik bv gestopt ben met nVidia nieuws te posten of zelfs de OP te updaten is gewoon omdat ik heel dit suptopic gewoon te AMD minded vind. Er is wel degelijk veel interessant nieuws gepasseerd van nVidia de laatste maanden maar zoals je al in voorgaande posten kan lezen vindt men dit totaal "geen nieuws".
Sorry, maar nVidia marketing geblaat wordt hier gewoon niet geloofd en kritisch bekeken. Dit gebeurt bij Intel en AMD net zo goed.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
eL_Jay schreef op maandag 20 januari 2014 @ 14:18:
Volgens mij is wat ik zeg niet onwaar, wat jij wel stelt.
Wat betreft die ARM core(s) daar reken ik eerlijk gezegd wel op (de geluiden zijn in ieder geval hardnekkig), maar jij vond mij al gek dat ik hoopte op een Maxwell launch in Q1, die er nu een week later zo goed als zeker gaat komen ;) (jij begon over high-end ik had het alleen over Maxwell)
Mijn excuses, als jij dat uit mijn post begreep heb ik mezelf blijkbaar niet goed uitgedrukt. Jij zei het volgende:
eL_Jay schreef op maandag 20 januari 2014 @ 11:21:
(stapt af van het concept gpu+Vram=Videokaart). Iets met unified memory en een extra ARM core. (gpu+Unified Vram + ARM = Videokaart)
Mijn punt was dat "Unified VRAM" de lading niet dekt. Het gaat niet alleen om het VRAM, het gaat om al het geheugen. Het blijft GPU+VRAM en CPU+RAM, maar er kan dan onderling gebruik gemaakt worden van elkaars geheugen. Nogmaals, mijn excuses als het overkwam alsof ik bedoelde dat je fout zat; ik bedoelde meer dat je een belangrijk stukje oversloeg ;)

En wat betreft een Q1 "launch": we zullen het wel zien. Ik vind het wel frappant dat een xx7 chip nu ineens interessant zou zijn, terwijl niemand warm of koud werd van eerdere xx7 chips of bijvoorbeeld van AMD's Bonaire. Barts hadden we ook geen reet aan met betrekking tot Cayman. Die kleine chips zeggen helemaal niets over de architectuur van hun grotere broertjes en laten we wel wezen, dat zijn de familieleden waar het ons om gaat.

Neemt overigens niet weg dat ik blij zal zijn als Nvidia het doet. Hun laatste poging om een nieuwe architectuur én node te combineren was nou niet bepaald een geslaagd experiment. Op deze manier weten ze hopelijk wel waar ze rekening mee moeten houden als ze Maxwell op 20nm produceren.
lightdestroyer schreef op maandag 20 januari 2014 @ 14:36:
Indien men wat het nVidia nieuws gevolgd zou hebben; weet je dat nVidia al een paar keer laten blijken heeft dat vanaf nu z'n ARM/soc platform als leading platform zal dienen en dus daar de gpu + ARM technologie wordt ontwikkeld en deze dan naar hun discrete gpu's zal komen.

Simpelweg nVidia plant aan upscaling te doen voor hun mobiele gpu's voor laptops en nog meer aan upscaling voor hun discrete kaarten. Eén gemeenschappelijke architectuur voor alles waarbij hun soc platform als basis dient.
Hun dedicated gpu's zullen zoals nu voorzien Tegra platform chips worden eventueel gestript van hun cpu kern. Eventueel want als de arm chip(s) geen nadelen of zelfs voordelen biedt zullen deze logischerwijze dus ook op hun dedicated gpu's te voorschijn komen.
Hè? Tegra hobbelt nog steeds achter de feiten aan qua GPU hoor; het GPU deel van Tegra krijgt in K1 pas een Kepler ondergrond. Tegra is helemaal niet hun "leading platform" - HPC is waar Nvidia de centen in steekt. Qua volume een stuk minder dan Tegra ja, maar wel met een veel betere marge. Dat is ook waar Project Denver vandaan komt. Maxwell is nog lang niet in zicht voor hun SoCs.

Waar je wel gelijk in hebt is dat ze hun ervaring met Tegra gebruiken om nieuwe wegen in te slaan in HPC en op de desktop. Hun 64-bits ARM CPU (die overigens juist uit dat HPC verhaal komt zoals ik hierboven al aan geef) zullen ze zonder twijfel inzetten op de volgende reeks Tesla kaarten om zo een heel erg brede HPC oplossing neer te kunnen zetten tegenover Intel's Phi (en ik denk dat ze die race gaan winnen). Maar dat is vooralsnog toekomstmuziek, in hun slides stond Tegra K1+Denver pas voor 2H'14 gepland. We krijgen eerst gewoon de A15 versie te zien.
Waarom ik bv gestopt ben met nVidia nieuws te posten of zelfs de OP te updaten is gewoon omdat ik heel dit suptopic gewoon te AMD minded vind. Er is wel degelijk veel interessant nieuws gepasseerd van nVidia de laatste maanden maar zoals je al in voorgaande posten kan lezen vindt men dit totaal "geen nieuws".
Zoals? G-Sync is zo'n beetje het enige en dat hebben we gewoon hier gezien in dit topic (780 Ti beschouw ik niet als nieuws - architectuur was al 1,5 jaar oud op dat moment - want ja, GK110 hadden we al in de zomer van 2012 gezien). Verder waren het alleen de eindeloze onzin berichten op Videocardz.com en dergelijke over allerlei gare "Black Edition" kaarten en what not. Iets met een klok en een klepel ;)

Op mobiel gebied is het ook pas CES geweest waar we iets over Tegra K1 hoorden. Dus ik weet niet welk ander nieuws jij het over hebt?

Ik denk niet dat dit topic overbodig is en al zeker niet te AMD-minded; iets ten nadele van Nvidia zeggen stuit acuut op verzet en verwijzingen naar AMD. Als ik kijk naar hoe er op G-Sync gereageerd werd kan ik me helemaal niet vinden in het feit dat we hier te AMD-minded zijn. Er zijn enkelen onder ons die een grafhekel hebben aan vendor lock-in ja, maar datzelfde geldt voor AMD. Ik ben nog steeds van mening dat Nvidia en AMD samen 3D flink de nek hebben omgedraaid juist door dezelfde soort onzin. 3D boeit mij persoonlijk geen reet, maar je ziet het ook nergens meer omdat geen hond aan enige standaard wilde meewerken. Datzelfde verhaal zie ik nu met G-Sync en ik hoop dus ook nog steeds van harte dat dat een snelle dood sterft, om verder te leven in een toegankelijker product via "standaard" DP1.3.
Persoonlijk moet ik bekennen dat ik al jaren geen audiokaart of netwerkkaart meer aangekocht heb ook was deze vroeger kaarten die daadwerkelijk waarde toevoegde aan je gaming ervaring. Misschien gebeurd hetzelfde met videokaarten.. time will tell..
Moet je toch nog eens doen ;)

Tik eens een Xonar of X-Fi op de kop, wereld van verschil als je een degelijke koptelefoon of speakers hebt!

Acties:
  • 0 Henk 'm!

  • Amanoo
  • Registratie: December 2007
  • Laatst online: 27-08 23:03

Amanoo

Cᴀᴛs ᴀʀᴇ ɴɪᴄᴇ.

Een Xonar of X-Fi een wereld van verschil met degelijke koptelefoon/speakers? Zeur niet man, met mijn 30 euro 5.1 setje is mijn X-Fi al een wereld van verschil. Maar dat raakt misschien wat offtopic :D
Of had dat setje me nu 60 euro gekost? In ieder geval niet meer dan dat.

[ Voor 18% gewijzigd door Amanoo op 20-01-2014 23:43 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Amanoo schreef op maandag 20 januari 2014 @ 23:42:
Een Xonar of X-Fi een wereld van verschil met degelijke koptelefoon/speakers? Zeur niet man, met mijn 30 euro 5.1 setje is mijn X-Fi al een wereld van verschil. Maar dat raakt misschien wat offtopic :D
Of had dat setje me nu 60 euro gekost? In ieder geval niet meer dan dat.
offtopic:
Haha, klopt wel ja! Met degelijke apparatuur heb je het echter gewoon nodig naar mijn mening omdat je anders geld weggooit :P

Acties:
  • 0 Henk 'm!

Verwijderd

Gerucht titan black en gtx790.

http://www.guru3d.com/new...lack_edition_and_790.html

790 lijkt mij wel wat en dan met een waterblok er op. Dan heb ik toch x2 keer de power zoals nu alleen een veel stiller systeem want dat past nog makkelijk in mijn loop. En snelheid kom ik toch niet te kort voor komende 3 jaren.

[ Voor 51% gewijzigd door Verwijderd op 21-01-2014 12:11 ]


Acties:
  • 0 Henk 'm!

Verwijderd

lightdestroyer schreef op maandag 20 januari 2014 @ 14:36:
[...]

Wat dit wil zeggen voor de gpu's in de toekomst .. feit is dat intel afkomt met igp's die ongeveer in staat zijn de ruwe performance van een 660GTX te leveren. (zitten al op een 22nm fabricage proces )
Maw de markt voor dedicated gpu's wordt steeds kleiner en kleiner, dus de verantwoorde investeringsruimte ook..
Het voordeel is hopelijk dan wel dat de nieuwe discrete kaarten zuiniger of tenminste efficiënter zullen worden. Daar men nu start vanaf een gpu architectuur voor een mobile platform waar energie verbruik allesbepalend is.

[...]
Het lijkt dat je ervan uitgaat dat het procesverkleining door blijft gaan en dat de economie van 'kleiner proces= goedkoper' doorzet. De afgelopen jaren heeft dat geresulteerd dat je in een mobile device de PC power hebt van een aantal jaren geleden voor een fractie van de prijs. Het lijkt een vanzelfsprekendheid dat elektronica elk jaar goedkoper en sneller wordt. Echter met de meest moderne processen gaat die economische wetmatigheid niet meer op (zie plaatje). Dit betekent dat je de hardware performance van een PC vandaag niet over 1x aantal jaar in een smartphone gaat zien, door de financiële horden. De lijn kan je zelf doortrekken voor GPUs. Het toekomstscenario van alles-in-1 integratie lijkt daar dan ook door ondermijnd. Sterker nog, het geeft een economische bovenlimiet aan geïntegreerde elektronica.

Een van de dingen die je noemt is de efficiëntie. Dit is een pure noodzaak aangezien door de miniaturisatie de hoeveelheid Watt die erop een kleine oppervlakte wordt geproduceerd hoger en hoger wordt. Dit is een van de technische hordes die overkomen moet worden. Duurzame, groene technologie? Nop de chip smelt anders gewoon. :P

Afbeeldingslocatie: https://www.semiwiki.com/forum/content/attachments/4062d1340056140-mooregraph.jpg

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Verwijderd schreef op dinsdag 21 januari 2014 @ 12:06:
Gerucht titan black en gtx790.

http://www.guru3d.com/new...lack_edition_and_790.html

790 lijkt mij wel wat en dan met een waterblok er op. Dan heb ik toch x2 keer de power zoals nu alleen een veel stiller systeem want dat past nog makkelijk in mijn loop. En snelheid kom ik toch niet te kort voor komende 3 jaren.
Ik kan me haast niet voorstellen dat ze 2x GK110 in een power-envelope van 300watt krijgen..
Zelfs niet wanneer ze de clocks drastisch verlagen. Maar goed, we gaan het zien.

Acties:
  • 0 Henk 'm!

Verwijderd

spNk schreef op dinsdag 21 januari 2014 @ 14:29:
[...]

Ik kan me haast niet voorstellen dat ze 2x GK110 in een power-envelope van 300watt krijgen..
Zelfs niet wanneer ze de clocks drastisch verlagen. Maar goed, we gaan het zien.
Het lukte ook met de 7990 niet perfect maar het wil wel. En gezien nvidia een betere koeler heeft verwacht ik dat het wel goed komt.

Edit

Nu komt tweakers ook met een artikel over de gtx750 ti Maxwell, echter zou de nieuwe architectuur maar een geringe verandering hebben tegenover Kepler. De gtx750 ti is gesopt bij meerdere webshops.

[ Voor 20% gewijzigd door Verwijderd op 21-01-2014 15:03 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Fijn, nvidia Shadowplay heeft nu meer opties zoals de bitrate aanpassen, resolutie en fps tussen 30 en 60fps. Ook is het geluid beter geworden want 5.1 geluid word niet goed weergegeven.

Er is geen beter opname programma die goed bij mij werkt want andere programma's kunnen niet soepel een game opnemen met hoge instellingen want dat beinvloed de gameplay dusdanig dat het niet aan te zien is.

meuk: Nvidia GeForce Experience 1.8.2.0

[ Voor 50% gewijzigd door Verwijderd op 24-01-2014 12:25 ]


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
750Ti is ook maar een zwak kaartje
http://videocardz.com/494...cations-benchmarks-leaked

Acties:
  • 0 Henk 'm!

Verwijderd

Jeps maar wel een pak sneller dan zijn voorganger en verder is het ook maar een low end kaartje. Ik zou zelf zo'n kaart ook echt niet willen gebruiken om op te gamen.

Als diegene tenminste gelijk heeft met zijn berekeningen?
The devil is in the details. If GTX 650 Ti and GTX 750 Ti use the same power, we are actually looking at a 25-40% increase over Kepler! Remember that the scores above is a *Total score*. Meaning the CPU plays a big role. *Graphic score* vary extremely little no matter what CPU you use.

GTX 650 Ti 3DMark11 *Graphic score*
4559

GTX 750 Ti 3DMark11 *Graphic score*
5608

That is a 23% increase!
-----------------------------------------------
GTX 650 Ti Firestrike *Graphic score*
3061

GTX 750 Ti Firestrike *Graphic score*
4334

That is a 42% increase.

[ Voor 7% gewijzigd door Verwijderd op 26-01-2014 11:05 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op zondag 26 januari 2014 @ 11:01:
Als diegene tenminste gelijk heeft met zijn berekeningen?
Niet echt. Hij negeert namelijk de specs van de kaart.

- 960 SP's, dat is 25% meer dan beide 650 Ti's
- 1098 base clock, dat alleen al is respectievelijk 18% en 12% meer voor de 650 Ti Boost en 650 Ti
- 1176 boost clock, dat is 14% meer dan de 650 Ti Boost boost clock en 27% meer dan de 650 Ti clock
- 16 meer TMU's dan beide 650 Ti's

Clock-for-clock per shader zit er dus eigenlijk niets in.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op zondag 26 januari 2014 @ 12:41:
[...]

Niet echt. Hij negeert namelijk de specs van de kaart.

- 960 SP's, dat is 25% meer dan beide 650 Ti's
- 1098 base clock, dat alleen al is respectievelijk 18% en 12% meer voor de 650 Ti Boost en 650 Ti
- 1176 boost clock, dat is 14% meer dan de 650 Ti Boost boost clock en 27% meer dan de 650 Ti clock
- 16 meer TMU's dan beide 650 Ti's

Clock-for-clock per shader zit er dus eigenlijk niets in.
Duidelijk, zelf ben ik niet zo goed met berekeningen maken, sterker nog als ik probeer te rekenen raak ik vanzelf in de war vandaar dat ik ook maar vraagtekens gebruik bij dit soort berichten om verwarring te voorkomen.

Nvidia heeft gisteren ook weer een nieuwe Beta driver uitgebracht, driver versie 334.67
http://www.nvidia.co.uk/Download/Find.aspx?lang=en-uk

Heb het idee dat er IQ verbeteringen in zitten tenzij het een placebo is. Het gaat om Battlefield 4.

Acties:
  • 0 Henk 'm!

Verwijderd

Titan black foto (nogmaals)

Enige wat anders is meer geheugen dan de gtx780 ti 3vs6 gb en ik verwacht ook hogere clocks?
De prijs is verder ook weer overdreven hoog 8)7
Afbeeldingslocatie: http://www.guru3d.com/index.php?ct=news&action=file&id=5850

[ Voor 41% gewijzigd door Verwijderd op 12-02-2014 13:32 ]


Acties:
  • 0 Henk 'm!

  • mjfast16
  • Registratie: Januari 2013
  • Laatst online: 30-07 12:15
zou Nvidia hem alleen gemaakt hebben om mee te concurreren op 4K vlak met de R9 290x of zal je straks ook in de 1080p ,1440p en 5670x1080 wat performance stijgingen zien,

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Games hebben niet zo snel meer als 3GB videogeheugen nodig, dus denk dat je amper tot totaal geen winst gaat zien op dit moment met alleen 3GB meer. Meer geheugenbandbreedte zal veel meer winst geven bij die extreme resoluties.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • mjfast16
  • Registratie: Januari 2013
  • Laatst online: 30-07 12:15
4K is volgens mij de enige die meer dan 3GB VRAM vraagd. maar je zal eerder tekort hebben aan bandbreedte dan aan VRAM

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17-09 17:53
ze hebben de double precision ook aan laten staan toch? De 1e grote kepler waarbij niets is weggelaserd?

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • mjfast16
  • Registratie: Januari 2013
  • Laatst online: 30-07 12:15
de titan heeft 960 double precision cores en volgens de geruchten zou de titan black ( die niet echt zwart is ) het dubbele aantal hebben dus 1920 DP Cores

Acties:
  • 0 Henk 'm!

Verwijderd

Dat vraagt inderdaad nog om wat meer info dus dat word nog even zoeken.

Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Inderdaad voor gpgpu is een titan black een goedkoop alternatief.

Een tesla kaart is nog veel duurder

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
haarbal schreef op woensdag 12 februari 2014 @ 14:51:
ze hebben de double precision ook aan laten staan toch? De 1e grote kepler waarbij niets is weggelaserd?
Nvidia lasered helemaal niets weg. De FP64 ALU's draaien gewoon op 1/X FP32 snelheid. Voor elke 3 ALU's (CUDA Core) is er 1 FP64 ALU. Echter draaien deze in bijvoorbeeld de 780 op slechts 1/8 van de FP32 snelheid, waar deze in Titan op 1/3 draaien (meen ik, zou ik even moeten controleren, kan ook 1/2 zijn maar volgens mij was dat Fermi).

In GK110 zijn er dus 2880 / 3 = 960 FP 64 ALU's naast de 2880 FP32 ALU's. Dat zijn er 960 / 15 = 64 per SMX (of als je anders wilt rekenen, 192 FP32 per SMX -> 192 / 3 = 64 ;)).

Dat zie je ook terug in de 780 Ti. Een 780 heeft 12 actieve SMX's en dus 12 * 64 = 768 FP64 ALU's. Bij Titan is dat 14 * 64 = 896 en in de 780 Ti zijn dat dus de volle 960. De 780 Ti heeft er dus zelfs 64 meer dan Titan, maar wordt gewoon softwarematig geknepen (combinatie van BIOS + driver).

Om nog maar wat meer rekenwerk te gebruiken om dit te illustreren: een 780 haalt 166 DP GFLOPS. Dat is 166 / 768 = .216145833 GFLOP/ALU. In theorie haalt een 780 Ti dan .216145833 * 960 = 207.5 GFLOPS. En dat klopt aardig met de 210 die Nvidia zelf aan geeft als je dan ook nog die paar extra MHz mee telt (875 in plaats van 863 MHz).

Plaatje ter illustratie:
Afbeeldingslocatie: http://images.anandtech.com/doci/5840/GK110SMX.png
mjfast16 schreef op woensdag 12 februari 2014 @ 15:08:
de titan heeft 960 double precision cores en volgens de geruchten zou de titan black ( die niet echt zwart is ) het dubbele aantal hebben dus 1920 DP Cores
Dat zou heel knap zijn, omdat het dan niet meer om GK110 gaat maar om een compleet nieuwe chip en voor de consumenten markt is dat je reinste onzin. Zeker gezien het feit dat deze kaart beter zou zijn dan Tesla kaarten :P

[ Voor 12% gewijzigd door Werelds op 12-02-2014 17:13 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op woensdag 12 februari 2014 @ 17:04:
[...]
Echter draaien deze in bijvoorbeeld de 780 op slechts 1/8 van de FP32 snelheid, waar deze in Titan op 1/3 draaien (meen ik, zou ik even moeten controleren, kan ook 1/2 zijn maar volgens mij was dat Fermi).
Titan idd op 1/3, GTX780(Ti) op 1/24;
http://www.anandtech.com/...geforce-gtx-780-ti-review

Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Werelds schreef op woensdag 12 februari 2014 @ 17:04:
De 780 Ti heeft er dus zelfs 64 meer dan Titan, maar wordt gewoon softwarematig geknepen (combinatie van BIOS + driver).
Hmm dus in theorie zou je een 780ti met een titan black bios kunnen flashen of zie ik het verkeert?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Oh daar, 1/24 en niet 1/8 dus voor de geknepen chips - wist wel dat ik er een fout had :D

Is ook logisch nu ik even door reken. Titan doet maximaal wat, 1,5 TFLOP meen ik? Is bijna 8 keer meer dan een 780 Ti dus dat klopt wel ongeveer.
!mark schreef op woensdag 12 februari 2014 @ 18:36:
Hmm dus in theorie zou je een 780ti met een titan black bios kunnen flashen of zie ik het verkeert?
Helaas tegenwoordig niet meer :'(

Vroeger kon dat wel, maar daar hebben ze nu een stokje voor gestoken. Het was vroeger inderdaad een kwestie van BIOS + Quadro driver installeren, maar er zit nu nog wat meer software op de kaart zelf (buiten de BIOS) waar ze dit mee blokkeren.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

-The_Mask- schreef op woensdag 12 februari 2014 @ 14:19:
Games hebben niet zo snel meer als 3GB videogeheugen nodig, dus denk dat je amper tot totaal geen winst gaat zien op dit moment met alleen 3GB meer. Meer geheugenbandbreedte zal veel meer winst geven bij die extreme resoluties.
3 GB was 3 jaar geleden al niet genoeg wat mij betreft : BF3 @ Low settings @ 3x 1920x1200 tikt regelmatig de 4GB aan !!!

2/3/4/6 GB videokaarten vanaf laten we zeggen de GTX 770 en R9 280X vind ik dan ook onzin : Laat de 6/8/12 GB kaarten maar z.s.m. komen wat mij betreft en dan gewoon voor 300/400/500 € of zo afhankelijk van model :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

nero355 schreef op vrijdag 14 februari 2014 @ 19:01:
[...]

3 GB was 3 jaar geleden al niet genoeg wat mij betreft : BF3 @ Low settings @ 3x 1920x1200 tikt regelmatig de 4GB aan !!!

2/3/4/6 GB videokaarten vanaf laten we zeggen de GTX 770 en R9 280X vind ik dan ook onzin : Laat de 6/8/12 GB kaarten maar z.s.m. komen wat mij betreft en dan gewoon voor 300/400/500 € of zo afhankelijk van model :)
Zie ik het nu verkeerd of is drie keer 1900*1200 gewoon 5700*3600. Dat is ruim hoger dan 4k en daarmee ook nu nog een enorme niche resolutie.
3 GB was drie jaar geleden voor 98% vd mensen meer dan genoeg.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
nero355 schreef op vrijdag 14 februari 2014 @ 19:01:
[...]

3 GB was 3 jaar geleden al niet genoeg wat mij betreft : BF3 @ Low settings @ 3x 1920x1200 tikt regelmatig de 4GB aan !!!
Dat je 4GB aantikt wil niet zeggen dat je perse performance verlies hebt met 3GB. Daarnaast haalt het mijn standpunt ook absoluut niet onderuit, voor die kaart geeft zelfs met jouw resolutie waarschijnlijk sneller geheugen meer winst dan extra geheugen.
2/3/4/6 GB videokaarten vanaf laten we zeggen de GTX 770 en R9 280X vind ik dan ook onzin : Laat de 6/8/12 GB kaarten maar z.s.m. komen wat mij betreft en dan gewoon voor 300/400/500 € of zo afhankelijk van model :)
Totaal nutteloos voor die kaarten om er zoveel geheugen op te zetten.
Help!!!! schreef op vrijdag 14 februari 2014 @ 19:14:
[...]

Zie ik het nu verkeerd of is drie keer 1900*1200 gewoon 5700*3600. Dat is ruim hoger dan 4k en daarmee ook nu nog een enorme niche resolutie.
Je ziet het verkeerd, hij bedoeld 3 schermen en geen 9. :P

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ah ik zie het, 1920 * 1200 op 3 monitoren is 5760*1200. :o

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op vrijdag 14 februari 2014 @ 19:29:
[...]
Dat je 4GB aantikt wil niet zeggen dat je perse performance verlies hebt met 3GB. Daarnaast haalt het mijn standpunt ook absoluut niet onderuit, voor die kaart geeft zelfs met jouw resolutie waarschijnlijk sneller geheugen meer winst dan extra geheugen.
Precies, een GTX680/770 wordt ook amper tot niks sneller met 4gb i.p.v. 2gb bij hoge resoluties, simpelweg omdat de bandbreedte niet hoog genoeg is... Ja, heel soms bij extreme instellingen, maar dan ga je van 8 fps naar 12 fps, alsnog een dia voorstelling... ;w

Acties:
  • 0 Henk 'm!

Verwijderd

Er is een berekening voor dat bijvoorbeeld een gtx770 wel die 4gb geheugen aan kan speken als dat nodig is maar goed hier verschillende meningen nog al over omdat er geen goede benchmarks van zijn insli. Helaas zijn er alleen tests met 1 gtx770 op hogere resoluties en dan scheelt het maar weinig zoals van 30fps naar 35 fps maar daar bij word gezegd dat in sli het verhaal heel anders word in de vorm van meer fps winst als er mee dan 2gb geheugen gevraagd word. Dit is iets waar ik nog niet van af kan stappen. Die 256bit bus kan dus prima alleen weet ik die berekening niet meer en ik kan hem ook niet meer vinden. Het ging dan om ddr5>256bitbus>snelheid geheugen, staat hier wel ergens op tweakers en dat is een goed stuk tekst.

Mijn mening is dat 4gb zeker nut kan hebben op een 256 bitbus maar dan allen ook met SLI en in games waar bij meer dan 2gb geheugen word gevraagd.

Een gewaagde vergelijking maar een hogere bus zal ook niet meer winst geven dan een 256bit bus.
Hier word nog al moeilijk over gedaan omdat men gewoon geen goede vergelijkingen kan vinden of hebben maar die berekening staat wel vast en daarom blijk ik hier ook stand vast achter staan.
Kijknaar de gtx580 1,5 vs 3gb.
http://www.behardware.com...est-sli-and-surround.html

[ Voor 34% gewijzigd door Verwijderd op 15-02-2014 09:51 ]


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 10:54
De 256bit bus is met 4GB niet prima, want op het moment dat je er echt winst uit haalt t.o.v. de 2GB versie is de 7970 met minder geheugen maar een 384 bit bus veel sneller.

Acties:
  • 0 Henk 'm!

Verwijderd

Nope gaat het zelfde doen als de gtx 580 1,5 vs 3gb verwacht ik, net zo weinig winst dus maar dit kan ik of jij niet hardmaken omdat er geen hd7970's met 1,5gb om mee te vergelijken maar de gtx580 dan wel weer een voorbeeld waar je mee kunt vergelijken.

In bepaalde situaties is ie 4gb op een 256 bit bus dus wel aan te raden en dat zijn in situaties waar bij je ook pas wat hebt aan een 384 bit bus met 3gb geheugen.

Deze situaties waarin het wel prima is
-de game moet over de 2gb heen verbruiken
-enkel in sli want anders kom je gpu power te kort
-met snel genoeg geheugen dus minimaal een gtx770. bitbus>snelheid geheugen>type geheugen.


Die hd7970 is verder niet veel sneller dan de gtx770 ook niet in situaties waar bij er meer dan 2gb geheugen word gevraagd, Ik snap niet hoe je hier bij komt want benchmarks laten deze bewering die niet klopt helemaal niet zien. http://alienbabeltech.com/main/evga-gtx-770-sc-4gb/4/

[ Voor 62% gewijzigd door Verwijderd op 15-02-2014 11:10 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Een GTX 580 heeft dan ook een 384bit geheugenbus, wel een lagere kloksnelheid en minder geheugenbandbreedte, maar doordat de kaart een stuk langzamer is heeft die in verhouding meer bandbreedte als een GTX 770.

GTX 770 is namelijk zo'n 40% sneller als een GTX 580, terwijl de geheugenbandbreedte maar zo'n 15% meer is geworden.

Overigens zegt jouw review van de GTX 580 precies wat wij zeggen, 3GB geeft eigenlijk geen winst ook niet met SLi of extreme resoluties, met uitzondering van één Metro op 5760x1600 met 4xAA en DoF, maar dat is in beide gevallen onspeelbaar.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Het leuke is dat er ook pas nu games komen waar bij het nut kan hebben. Zelfs op hogere resoluties worden op de huidige (oudere games) helemaal niet de 2gb grens bereikt laat staan 3gb grens , dat gaan we nu langzaam wel zien zoals Battlefield 4. Ik denk dat het in bf4 wel wat uit kan maken, het vraagt niet super veel gpu power maar wel meer memory. De nadelen als je met een 2gb kaart zit (game afhankelijk) zijn de hickups


Metro vraag trouwens helemaal niet veel geheugen hiero als het door zal schalen komt die game nog niet eens aan de 2gb bij extreme resoluties. 800--900mb 1920x1080, 1100-1200mb 3440x1440.
GPU power is wel weer veel vraag naar in deze game.

[ Voor 22% gewijzigd door Verwijderd op 15-02-2014 11:30 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
hoe zit arma3 eigenlijk qua videogeheugen gebruik? Zou toch een van de zwaarste games qua design op dat vlak moeten zijn.

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
tomcatha schreef op zaterdag 15 februari 2014 @ 17:55:
hoe zit arma3 eigenlijk qua videogeheugen gebruik? Zou toch een van de zwaarste games qua design op dat vlak moeten zijn.
Ik speel momenteel niet zoveel Arma, maar wel DayZ.
Aangezien dat dezelfde engine is moeten resultaten wel enigzins overeen komen.
Ik zit vaak op ongeveer 2.8 GB aan geheugen gebruik op 1440p met custom settings.

Edit: ff getest, A3 gaat ook in hard tempo richting de 3 GB.

[ Voor 6% gewijzigd door unfor op 15-02-2014 19:07 ]


Acties:
  • 0 Henk 'm!

  • Dragunov
  • Registratie: September 2003
  • Laatst online: 04-09 00:31
Ook kan je niet de BIOS uitlezen zoals vroeger met GPU-Z, bij me EVGA 780Ti toch niet...

Zou je lag krijgen bij die extreme settings, dan zal G-sync het wss wel opvangen

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Dragunov schreef op zaterdag 15 februari 2014 @ 19:09:
Ook kan je niet de BIOS uitlezen zoals vroeger met GPU-Z, bij me EVGA 780Ti toch niet...

Zou je lag krijgen bij die extreme settings, dan zal G-sync het wss wel opvangen
Ehhhh, ja.

Wat?

Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Dragunov schreef op zaterdag 15 februari 2014 @ 19:09:
Ook kan je niet de BIOS uitlezen zoals vroeger met GPU-Z, bij me EVGA 780Ti toch niet...

Zou je lag krijgen bij die extreme settings, dan zal G-sync het wss wel opvangen
Gsync lost lag niet volledig op, je zou altijd pak hem beet 30fps moeten hebben

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Gsync lost lag totaal niet op aangezien het er niks mee nodig heeft. Als je last van lag hebt zou ik naar je netwerk of internet verbinding kijken....

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

unfor schreef op zaterdag 15 februari 2014 @ 17:59:
[...]

Ik speel momenteel niet zoveel Arma, maar wel DayZ.
Aangezien dat dezelfde engine is moeten resultaten wel enigzins overeen komen.
Ik zit vaak op ongeveer 2.8 GB aan geheugen gebruik op 1440p met custom settings.

Edit: ff getest, A3 gaat ook in hard tempo richting de 3 GB.
Ik kom in Day Z niet hoger dan 1600mb met custom settings. Een tijdje geleden zat ik wel op 2200mb maar de laatste tijd met max settings en een resolution scale naar 125% en max AA niet meer tegen de 2GB aan gezien.

[YouTube: http://www.youtube.com/watch?v=b0tHrrKXRbw&feature=youtu.be]

[ Voor 5% gewijzigd door Verwijderd op 16-02-2014 11:51 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
arma3 is nieuwer dan dayz. Dayz draait nog op de arma 2 engine.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik denk dat nvidia zich nu ook meer moet gaan focussen op 3gb en meer geheugen. De games van nu lijken toch meer geheugen te vragen te wel de vraag naar gpu power een beetje het zelfde blijft en soms zelfs minder word. Zoals Titanfall ook, die game vraag veel meer video geheugen en ram geheugen en dit zie ik de laatste tijd terug met vernieuwde game enignes zoals frostbite en source engine met dx11. Ook is er minder gpu power nodig, waar juist eerder meer gpu power nodig was om een game goed te laten draaien die dan op 1,5gb of 2gb gebruikt zit. Dus uiteindelijk zijn games veel beter geoptimaliseerd dankzij dx11 denk ik?

Als dit een beetje zo door zet heb je straks niet meer gpu power nodig maar juist meer ram en meer videogeheugen. Zoals nu ook draai ik Titanfall meer dan vloeiend op een half werkende gtx780 te wel geheugen verbruik op 3050mb ligt 8)7 Insane instelling en er staat ook bij "voor videokaarten met minimaal 3gb geheugen" door de insane hoge textures :P

[ Voor 22% gewijzigd door Verwijderd op 17-02-2014 14:17 ]


Acties:
  • 0 Henk 'm!

  • Amanoo
  • Registratie: December 2007
  • Laatst online: 27-08 23:03

Amanoo

Cᴀᴛs ᴀʀᴇ ɴɪᴄᴇ.

Misschien eens kijken wat er gebeurt als ik dat op mijn 770 probeer. Is een 4GB model (was destijds maar enkele tientjes duurder dan een goedkope 2GB).

Wat gebruik je eigenlijk om het gebruik te meten?

Acties:
  • 0 Henk 'm!

Verwijderd

Ik gebruik MSI afterburner om mee te meten, ik zie dan netjes boven in beeld wat mijn gpu verbruikt .
Geheugen en cpu gebruik zit er tegenwoordig ook bij in.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op maandag 17 februari 2014 @ 14:13:
Als dit een beetje zo door zet heb je straks niet meer gpu power nodig maar juist meer ram en meer videogeheugen. Zoals nu ook draai ik Titanfall meer dan vloeiend op een half werkende gtx780 te wel geheugen verbruik op 3050mb ligt 8)7 Insane instelling en er staat ook bij "voor videokaarten met minimaal 3gb geheugen" door de insane hoge textures :P
Onzin :)

De textures in Titanfall hebben echt geen 3GB nodig, de kwaliteit is best wel bagger. Hij gebruikt 3GB geheugen omdat hij meer textures cached.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Maar hoe meer textures het spel kan cachen hoe beter je spelervaring :?
Of zit er een grens aan die winst die daarmee te behalen valt ?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op maandag 17 februari 2014 @ 17:09:
[...]

Onzin :)

De textures in Titanfall hebben echt geen 3GB nodig, de kwaliteit is best wel bagger. Hij gebruikt 3GB geheugen omdat hij meer textures cached.
Bij 3 minuten.
[YouTube: http://www.youtube.com/watch?v=LINAayaohQo]

Edit 2

Het is ook geen onzin want het gaat om hogere texture resoluties en die kwaliteit is juist hoog ipv bagger ;)

[ Voor 32% gewijzigd door Verwijderd op 17-02-2014 17:50 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Help!!!! schreef op maandag 17 februari 2014 @ 17:16:
Maar hoe meer textures het spel kan cachen hoe beter je spelervaring :?
Of zit er een grens aan die winst die daarmee te behalen valt ?
Uiteraard is meer cache in theorie beter, omdat je dan minder hoeft te streamen of laden bij een spel/engine dat geen PAK bestanden gebruikt (wat er tegenwoordig eigenlijk geen enkele is; heten wellicht geen PAK bestanden meer, maar zijn nog altijd gewoon gecomprimeerde archieven).

Het probleem is echter dat men in veel gevallen *alle* textures cached - waarvan de helft niet eens gebruikt wordt. Dus hoewel veel engines weldegelijk 2, 3, 4 GB kúnnen gebruiken, hebben ze dat niet nodig. Zeker niet met die maximaal 512x512 textures die we in games zien; met maximaal 4 bytes per pixel zit je zelfs dan slechts naar 1 MB per texture te kijken. En 50% van de textures in de gemiddelde game halen die 512x512 niet eens - ook lang niet alle textures worden op 24bpp weergegeven. Daarnaast moet je bij textures die gestreamed worden sowieso wachten (let wel, dit klinkt alsof dat eeuwen duurt; maar het is maar enkele seconden bij het laden) tot ze gestreamed zijn voordat ze gecached kunnen worden. Heb je dan niet genoeg ruimte beschikbaar wordt er gewoon een texture uitgegooid die niet gebruikt wordt. En zelfs al moet je mid-game swappen, als het om slechts een aantal textures gaat merk je daar geen drol van als er genoeg bandbreedte is ;)

Dit extreme cachen komt vooral voort van de consoles (zowel oud als nieuw). Waar de oude 360 relatief snel was met het laden van textures, werkte diezelfde techniek op de PC om allerlei redenen niet zo lekker. Maar ja, op de PC zaten we toch al ruim over de 1GB heen, bijna 3 keer zo veel als men voor de GPU kon reserveren op dat ding, dus wat let men om dat gewoon vol te stouwen? Textures waren toch klein genoeg. Bij Titanfall komt het wederom door de console, echter nu door de XBO. Die loopt juist tegen dezelfde problemen aan als men voorheen bij PC vs 360 had - en dan nog wat erger door die extreem beperkte bandbreedte (dit moet eerst door het DDR3, dus maximaal die 68 GB/s of wat het ook was). Echter heeft dat ding in totaal dan wel weer 5 GB beschikbaar dus ach, wat maakt het uit, stouw het maar weer vol :P

Het werkt natuurlijk wel, maar het is wel een beetje lui. En vooral in dit geval, waar Respawn zo'n ontzettend grote bek had over hun PC ondersteuning valt het tegen dat ze dan niet even selectief textures laden zoals het hoort. Even afgezien van het feit dat V-Sync kapot is (het is of V-Sync met gestotter, of geen V-Sync met maximaal 60 FPS - what the...echt?).
Verwijderd schreef op maandag 17 februari 2014 @ 17:24:
Het is ook geen onzin want het gaat om hogere texture resoluties en die kwaliteit is juist hoog ipv bagger ;)
Nou sorry hoor, maar als jij de textures in Titanfall van een hoog niveau vindt, raad ik je aan om toch eens even naar een Crysis 3, BF3, BF4 te kijken. Veel textures in Titanfall zijn gewoon vaag (lage resolutie met veel filtering); lang niet alle tekst is duidelijk te lezen. Bij lange na niet goed genoeg om daadwerkelijk 3 GB te vullen als de genoemde games dat ook niet vereisen in elk geval ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Lang niet alle textures zijn hoog en zit er soms zelfs nog wat vage blur effect over heen maar veel textures zijn net zo scherp als in crysis 3, veel zijn er ook nog uit gelaten in de beta, zijn niet te zien mijn zitten er wel. Kijk ik bvb naar een foto dan is ie net zo scherp als op mijn nacht kasje kijk je naar tekts op een vat zie je ook dat het zeer scherp is. Je mening vind ik gewoon niet kloppen.

Ik heb wel wat leuke screens verder kan jun je zien dat de textures van hoge resolutie zijn maar die moet ik eerst nog even uploaden.

Beetje raar om het gelijk onzin te noemen (komt ook denigrerend over :/) als ik toch duidelijk zie dat de textures beter zijn dn de gemiddelde game want er is hier vooruitgang te zien in de graphics en dat is alleen maar beter omdat het zo lang stil heeft gestaan voor mijn gevoel. Ik neem dit juist voor lief.

[ Voor 40% gewijzigd door Verwijderd op 18-02-2014 10:30 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Er is helemaal niets uit de beta gelaten, hoe kom je daar nu weer bij? Heeft Respawn dat gezegd?

En de textures zijn wel bovengemiddeld, maar ze zijn nog steeds niet van het niveau C3 of BF3/BF4. En aangezien geen van die games problemen heeft met op 2 GB draaien, mag Titanfall dat ook niet hebben :)

Zeker gezien hoe klein de maps zijn. Er zijn echt niet veel textures nodig om die maps te behangen; ze hergebruiken ze dan ook behoorlijk veel uiteraard (waardoor het geheel nogal eentonig uit ziet). Begrijp me niet verkeerd, het spel is niet lelijk maar het is gewoon echt niet mooi genoeg om betere hardware te rechtvaardigen dan BF4.

Acties:
  • 0 Henk 'm!

Verwijderd

Ja klopt dat is gezegd ook bij de benchmarks die er al van zijn. Vegetatie mist en textures missen nog.
Het is ook nog kaal daar ben ik het mee eens maar goed alles zit er ook nog niet in.
http://www.pcgameshardwar...afikkarten-Tests-1109493/

Behoorlijk goede textures ;)
Afbeeldingslocatie: http://media.gamersnexus.net/images/media/2014/games/titanfall-screenshot1.jpg

[ Voor 71% gewijzigd door Verwijderd op 18-02-2014 12:16 ]


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Aangezien je Vram pas naar een aantal minuten vol loopt is het mogelijk dat er ergens een vram leak inzit. Het is ook nog beta dus nog niet goed geoptimalizeerd

Acties:
  • 0 Henk 'm!

  • TheK1ng
  • Registratie: Juni 2013
  • Laatst online: 10-01-2022
Ik heb alles op max settings en ik keek gister naar de grond precies op de plek waar ik net ingespawnt/uit het dropship gedropt was. DIt was wat ik zag:
Afbeeldingslocatie: http://80.100.203.254/titanfallbecause.png
(express geen thumbnail zodat het goed te zien is)
Dit hoeft in IMHO geen 1,6Gb VRAM te gebruiken op mijn kaart... :? ? Dit is nml borderlands 1 kwaliteit. Ik snap dus ook niet waar mensen het vandaan halen dat de textures van hoge kwaliteit zijn, natuurlijk zitten er ook wel wat hogere textures in maar het gros dat je tegenkomt is van de bovenstaande kwaliteit.

[ Voor 41% gewijzigd door TheK1ng op 18-02-2014 12:24 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ook niet alles is van hoge textures, daar voor is het ook nog een beta en dat heb ik ook gezegd. Heb je trouwens textures resolution wel op insane staan?

Zo ziet het er bij mij uit.
[YouTube: http://www.youtube.com/watch?v=1ieC61hU-kw]

VS battlefield 4
[YouTube: http://www.youtube.com/watch?v=0BknMAel774&feature=youtu.be]

[ Voor 38% gewijzigd door Verwijderd op 18-02-2014 12:31 ]


Acties:
  • 0 Henk 'm!

  • TheK1ng
  • Registratie: Juni 2013
  • Laatst online: 10-01-2022
Alle setttings staan op max dus texture resolution staat op ultra ja. Alleen persoonlijk geloof ik er niet in dat ze ineens in de volledige release er wel hoge res textures in gaan plakken, maar we zullen zien.

Acties:
  • 0 Henk 'm!

Verwijderd

Ultra moet je niet hebben maar insane.

Edit
TheK1ng schreef op dinsdag 18 februari 2014 @ 12:18:
Ik heb alles op max settings en ik keek gister naar de grond precies op de plek waar ik net ingespawnt/uit het dropship gedropt was. DIt was wat ik zag:
[afbeelding]
(express geen thumbnail zodat het goed te zien is)
Dit hoeft in IMHO geen 1,6Gb VRAM te gebruiken op mijn kaart... :? ? Dit is nml borderlands 1 kwaliteit. Ik snap dus ook niet waar mensen het vandaan halen dat de textures van hoge kwaliteit zijn, natuurlijk zitten er ook wel wat hogere textures in maar het gros dat je tegenkomt is van de bovenstaande kwaliteit.
Er lijkt iets mis te zijn bij mij ziet de grond er van veel hogere kwaliteit uit.
https://fbcdn-sphotos-f-a...104766724_544694705_o.jpg
https://fbcdn-sphotos-d-a...104406715_548097286_o.jpg

[ Voor 108% gewijzigd door Verwijderd op 18-02-2014 18:25 ]


Acties:
  • 0 Henk 'm!

  • TheK1ng
  • Registratie: Juni 2013
  • Laatst online: 10-01-2022
Ik heb het nog eens gecheckt maar ik bedoelde insane, om de een of andere rare reden heb ik ultra getypt...

Acties:
  • 0 Henk 'm!

Verwijderd

GTX Titan Black review. Beetje vaag want ik heb nog niets van een aankondiging mee gekregen.
http://nl.hardware.info/r...l-2-way--3-way--4-way-sli

Dit is zo te zien wel weer de snelste single gpu op alle fronten maar daar betaal je dan ook de hoofdprijs voor wat weer minder is. De 290x blijft wel het meest interessant door de hoge prijs van de Titan black.

En daar bij horen natuurlijk ook nieuwe drivers.
Geforce 134.89 WHQL.met performance boosts voor verschillende games.
http://www.nvidia.de/download/driverResults.aspx/73247/de

[ Voor 51% gewijzigd door Verwijderd op 18-02-2014 15:42 ]


Acties:
  • 0 Henk 'm!

  • catfish
  • Registratie: December 2000
  • Laatst online: 11-08 17:20
TheK1ng schreef op dinsdag 18 februari 2014 @ 12:18:
Ik heb alles op max settings en ik keek gister naar de grond precies op de plek waar ik net ingespawnt/uit het dropship gedropt was. DIt was wat ik zag:
[afbeelding]
(express geen thumbnail zodat het goed te zien is)
Dit hoeft in IMHO geen 1,6Gb VRAM te gebruiken op mijn kaart... :? ? Dit is nml borderlands 1 kwaliteit. Ik snap dus ook niet waar mensen het vandaan halen dat de textures van hoge kwaliteit zijn, natuurlijk zitten er ook wel wat hogere textures in maar het gros dat je tegenkomt is van de bovenstaande kwaliteit.
hopelijk is dit nog niet de afgewerkte versie of jouw instellingen zijn niet goed
de arm die in beeld is, is een 6-hoekige buis, da's redelijk zwak voor een modern spel
de textures zien er ook niet fantastisch uit

Acties:
  • 0 Henk 'm!

  • TheK1ng
  • Registratie: Juni 2013
  • Laatst online: 10-01-2022
Ik hoop zelf ook dat het een niet afgewerkte versie is, hier een screenshot van m'n settings. Afbeeldingslocatie: http://80.100.203.254/titanfall_beta_settings.png

Acties:
  • 0 Henk 'm!

Verwijderd

Dus die nieuwe Maxwell is redelijk zuinig maar betekend dat ook dat er meer uit 28nm te halen valt qua prestaties met mid end en high end Maxwell gpu's?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ja nVidia kan met Maxwell op 28nm er nog heel wat uithalen.

Als ze alles verdubbelen met dezelfde kloksnelheid krijg je ongeveer GTX 770 prestaties met een verbruik dat dan 1/3 lager ligt, vergelijkbaar met de GTX 660.

Verdrievoudiging je alles met behoud van dezelfde kloksnelheid ga je over de GTX 780 Ti heen met een verbruik dat op het niveau van een GTX 770 ligt.

Verviervoudiging kan qua verbruik wel en qua prestaties zal het natuurlijk helemaal snel zijn, maar je zal een extreem grote die krijgen, lijkt mij niet dat nVidia dat gaat doen. Dat zouden ze eventueel voor 20nm kunnen bewaren, maar denk niet dat het gaat gebeuren. Zal waarschijnlijk beetje anders zijn, meer op GPGPU gericht.

[ Voor 30% gewijzigd door -The_Mask- op 18-02-2014 19:06 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Nu online
Waar kan dit heen gaan als ze over gaan op 20nm, straks worden CPU's nog de bottleneck met games

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dat verbruik is echt idioot goed, heel mooi werk van Nvidia.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 10:54
De prijs moet nog wel 20% naar beneden :)

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik heb er verder niet over doorgelezen maar de verbruik viel nogal tegen toen het hier door de tweakers staff zelf werd getest.

Acties:
  • 0 Henk 'm!

  • Razkin
  • Registratie: Oktober 1999
  • Laatst online: 12:28
Dat zijn volledig systeem metingen, als je zoekt op verbruiksmetingen van enkel GPU's dan valt op dat gemiddeld gezien de GTX750Ti zijn TDP opzoekt en daar blijft, waar bv de GTX 650 TI/R7 260X ruim onder hun TDP blijven.

Ben benieuwd wat er uit te halen is als de vermogenslimiet wegvalt, de chip lijkt over behoorlijk wat (klok)potentie te beschikken.

iRacing Profiel


Acties:
  • 0 Henk 'm!

Verwijderd

Beetje vaag ik zit naar meer reviews van de Titan Black op te zoeken maar zoals guru3d en tweakers hebben de kaart niet maar HWI wel weer. Zo'n grote site is hwi toch helemaal niet zo dat nvidia het belangrijker vind dat alleen hwi 4 titan blacks krijgen te benchmarken?

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 07:26

XanderDrake

Build the future!

Belangrijk punt dat ik las in de t.net is dat nVidia sommige aspecten van zijn hardware naar de software heeft geplaatst (scheduling iig.), waardoor de CPU iets harder moet werken tijdens het gamen.
Daardoor verplaatst er verbruik van de GPU naar de CPU wat je dus niet meet in graphs als deze, dus het is een klein beeeeetje cheating. ;)
Anderzijds is het verbruik nog steeds fenomenaal. Ik voorzie veel ultrabooks, NUC-achtige en vooral Tablets en Hybrids met deze GPU *O* Kan niet wachten, ik wil nog een Hybrid kopen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 10:54
Rare keuze. AMD doet het juist andersom met Mantle (GPU meer belasten en CPU ontlasten).
Zeker als Nvidia zijnde wil je toch dat de GPU zoveel mogelijk doet, of hebben ze een aandeel in intel?

Acties:
  • 0 Henk 'm!

Verwijderd

Eerst maar een een bron daar van zien of dat ook zo is, ik meende just dat de ARM chips dan dingen te doen heeft maar die zit geloof ik niet in de 750 ti?
We schreven het al: bij Maxwell heeft Nvidia zich tot doel gesteld om de efficiëntie van haar GPU's - de prestaties afgezet tegen het stroomverbruik dus - zo ver mogelijk op te voeren. Wat dat betreft zien we een gelijke trend als bij Intel voor CPU's: in een tijd dat laptops en small form factor PC's voor het merendeel van de markt belangrijker zijn dan grote desktops, is het juist het terugdringen van stroomverbruik waar de ingenieurs zich op focussen.

In de basis lijkt het ontwerp van Maxwell erg op dat van de voorgaande GPU's. Dat is op zich ook niet gek: in feite zijn moderne GPU's grote, universele processors geworden met een hele batterij aan floating point rekeneenheden. Van de hele 3D-workflow is steeds minder fixed function, waardoor er ook steeds minder variatie in chipontwerp bestaat.

Desalniettemin is er een aantal noemenswaardige verschillen. Zoals je onder meer nog kun teruglezen in onze GeForce GTX 680 review bestaan Kepler GPU's uit één of meerdere zogenaamde SMX units (Streaming Multiprocessors) die elk uit 192 shader units (ofwel Cuda cores in Nvidia-jargon) beslaan. Elk van de cores binnen zo'n Streaming Multiprocessor voert op ieder moment in feite dezelfde instructie uit, maar dan op andere data.

De verhouding tussen texture units en cores is verlaagd van 1:12 naar 1:16.

Maxwell is opgebouwd uit een nieuwe implementatie van de streaming multiprocessors, die Nvidia nu SMM noemt. De nieuwe varianten bestaan uit vier partities van elk 32 Cuda cores, 128 in totaal dus. Iedere SMM bevat verder onder meer een zogenaamde Polymorph Engine (die onder andere tessellation verzorgt) en acht texture units. Bij de Kepler-architectuur waren er 16 texture units per SMX. De verhouding tussen texture units en cores is dus verlaagd van 1:12 naar 1:16. Vermoedelijk heeft Nvidia dit gedaan omdat bij moderne workloads de bottleneck veel meer bij de rekenkracht van de Cuda-cores ligt.

Het terugbrengen van het aantal cores per Streaming Multiprocessor van 192 naar 128 maakt dat Nvidia een stuk flexibeler kan zijn met de scheduling van instructies. Immers: als een kleiner aantal core dezelfde instructie moet uitvoeren, is het eenvoudiger om zo veel mogelijk cores binnen een GPU daadwerkelijk aan het werk te houden.

[ Voor 88% gewijzigd door Verwijderd op 19-02-2014 12:57 ]


Acties:
  • 0 Henk 'm!

  • yinx84
  • Registratie: Februari 2011
  • Laatst online: 03-09 14:14
Verwijderd schreef op woensdag 19 februari 2014 @ 10:40:
Beetje vaag ik zit naar meer reviews van de Titan Black op te zoeken maar zoals guru3d en tweakers hebben de kaart niet maar HWI wel weer. Zo'n grote site is hwi toch helemaal niet zo dat nvidia het belangrijker vind dat alleen hwi 4 titan blacks krijgen te benchmarken?
HWI is internationaal. De review is dan ook een vertaling van de US-tak van de site: http://us.hardware.info/

edit: in dit geval lijkt het andersom, de Benelux site heeft de review gemaakt, maar vaak is het ook andersom.

[ Voor 10% gewijzigd door yinx84 op 19-02-2014 13:11 ]


Acties:
  • 0 Henk 'm!

Verwijderd

US tak is zijn gewoon de Nederlanders hier die hem vertalen

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 17-09 07:38

Tomas Hochstenbach

Redacteur componenten
yinx84 schreef op woensdag 19 februari 2014 @ 13:09:
[...]


HWI is internationaal. De review is dan ook een vertaling van de US-tak van de site: http://us.hardware.info/

edit: in dit geval lijkt het andersom, de Benelux site heeft de review gemaakt, maar vaak is het ook andersom.
De redactie van HWI zit helemaal in NL. Vrijwel alle scores voor alle computermagazines komen daar vandaan, bovendien hebben ze gewoon een goede relatie met veel fabrikanten. De kaarten kwamen van een Belgische webshop: NVIDIA heeft helemaal geen samples uitgestuurd.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op woensdag 19 februari 2014 @ 12:00:
[...]

Belangrijk punt dat ik las in de t.net is dat nVidia sommige aspecten van zijn hardware naar de software heeft geplaatst (scheduling iig.), waardoor de CPU iets harder moet werken tijdens het gamen.
Daardoor verplaatst er verbruik van de GPU naar de CPU wat je dus niet meet in graphs als deze, dus het is een klein beeeeetje cheating. ;)
Anderzijds is het verbruik nog steeds fenomenaal. Ik voorzie veel ultrabooks, NUC-achtige en vooral Tablets en Hybrids met deze GPU *O* Kan niet wachten, ik wil nog een Hybrid kopen.
T.net neemt het een beetje kort door de bocht.

Wat Nvidia heeft gedaan is de front-end verbreden, net zoals AMD dat heeft gedaan met Hawaii en in de console GPUs. De verhouding tussen schedulers / shaders is richting de schedulers verschoven. Daarnaast heeft elke scheduler nu z'n eigen resources; het zijn er nog steeds 4 per SMM, net als Kepler er 4 per SMX had, maar nu heeft elk van die 4 een gegarandeerd aantal ALU's tot z'n beschikking. De shaders binnen een SMM zijn nu gepartitioneerd. Betekent ook dat een enkele scheduler ze niet allemaal aan kan spreken.

Het gevolg is inderdaad dat de CPU soms iets harder moet werken om de workload iets verder te splitsen. Dat is echter niet altijd het geval en het daadwerkelijke plannen ("schedulen" :P) gebeurt nog steeds gewoon in de GPU zelf (de IPC). Daar is helemaal niets aan veranderd.

Om even een parallel te trekken met AMD; remember VLIW5? Dit is een soortgelijke situatie. In Kepler had Nvidia gewoon te weinig controle over welke shader wanneer aan het werk werd gezet doordat al die shaders gedeeld werden door 4 schedulers. AMD had het probleem dat in VLIW5 de 5e ALU 90% van de tijd niet gebruikt werd, simpelweg omdat er geen berekeningen waren om er gebruik van te maken. AMD had helaas niet de luxe om dit anders op te lossen dan door VLIW5 te laten vallen. Cypress had veel meer in z'n mars dan we in games zagen :(

[ Voor 4% gewijzigd door Werelds op 19-02-2014 13:52 ]


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 16-09 20:08

superwashandje

grofheid alom

mooie cijfers! zodra nvidia met een maxwell kaart komt met prestaties hoger dan mijn HD7970 word ie vervangen denk ik :) wat een verschil zeg!

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Very nice, 780ti/290x prestaties gaan dus wellicht mogelijk zijn bij de nieuwe nvidia's met een tdp van minder dan 200 watt :)

Acties:
  • 0 Henk 'm!

Verwijderd

Gtx titan black UHD en 4K review.
http://nl.hardware.info/r...li-in-ultra-hd--4k-review

Acties:
  • 0 Henk 'm!

Verwijderd


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Leuk hoe zo'n conclusie nu al getrokken wordt m.b.t. de grote Maxwell, alsof AMD niet ook naar 20nm gaat en ongetwijfeld ook wat vernieuwingen klaar heeft staan :p

Acties:
  • 0 Henk 'm!

Verwijderd

Daar kan ik helaas niet over mee praten want ik weet niet waar AMD mee gaat komen, dit is gewoon een simpele conclusie van wat we nu wel weten wat mogelijk is met Maxwell. AMD moet dat nog bewijzen.

[ Voor 7% gewijzigd door Verwijderd op 23-02-2014 13:41 ]


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 10:54
Jammer, ik wilde later dit jaar eens een keer overstappen naar Nvidia gewoon om het eens geprobeerd te hebben (de laatste was een 4400ti).
Maar als de miners de markt blijven verzieken en in dit geval (als het inderdaad het geval blijkt) de prijs van de Nvidia kaarten doen stijgen dan wordt het weer AMD.

[moppersmurf]
Ik haat miners, hoe moeten wij gamers nu aan goede betaalbare kaarten komen?
[/moppersmurf]

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is indd wel jammer ja dat het invloed heeft op de prijs.

Acties:
  • 0 Henk 'm!

  • R0SSI
  • Registratie: Juni 2009
  • Laatst online: 06-07 22:06
Miners gebruiken toch alleen AMD, of heb ik het nu weer mis?

Gamertag for Xbox: R0SSI

Pagina: 1 ... 18 ... 30 Laatste

Dit topic is gesloten.