[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 55 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 23 ... 30 Laatste
Acties:
  • 125.423 views

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
madmaxnl schreef op donderdag 19 juni 2014 @ 15:27:
Waar worden de kosten van R&D dan onder geschoven? Als je die namelijk onder de PSB tak schuift? Ik heb namelijk niet verder gekeken dan dat mijn neus lang is :+
Je kunt niet "schuiven" op een Form -10K als je een beursgenoteerd bedrijf bent ;). Je moet aan de IAS plus voldoen. Er bestaat ook een verschil tussen interne en externe accounting. Je hoeft echter ook niet alles in je publieke rapport te knallen...

Wat mag je wel weten? Wat het totaal aan R&D kosten bedraagt.
During fiscal years 2013, 2012 and 2011, we incurred research and development expense of $1,147.3 million, $1,002.6 million and $848.8 million, respectively
En welk deel van de kosten dit uit maakt. In het geval van 2013 bedragen de Operating Expenses 39,1% van de omzet. R&D zetten ze op 26,8% (wat dan weer volgt uit die 1147).

Revenue $ 4,280,159
Cost of revenue 2,053,816
Gross profit 2,226,343
Operating expenses:
Research and development 1,147,282
Sales, general and administrative 430,822
Legal settlement —
Total operating expenses 1,578,104
Income from operations 648,239
Interest income 19,908
Interest expense (3,294 )
Other expense, net (2,814 )
Income before income tax 662,039
Income tax expense 99,503
Net income $ 562,536
Basic net income per share $ 0.91
Weighted average shares used in basic per share computation 619,324
Diluted net income per share $ 0.90
Weighted average shares used in diluted per share computation 624,957
Cash dividends declared and paid per common share $ 0.075

Dit is bij AMD e.d. natuurlijk niet anders.

Dat er niet ineens extra kosten naar PSB zijn geschoven kun je overigens opmaken uit de kosten/inkomsten ontwikkeling voor dat segment. Uiteindelijk moet het allemaal optellen natuurlijk ;). PSB is het niet slechter gaan doen.

Maar Kepler is dus een voor Nvidia ongekend succes. Dit zou zo een Intel succes story kunnen zijn (die draaien al 25 jaar meer winst dan AMD omzet, met uitzondering van 9/11). Nvidia heeft nu de vrijheid om de R&D nog verder op te voeren, of nog +- 25% van de prijs van de Geforce reeks te halen als AMD met een prijsaanpassing komt.

[ Voor 22% gewijzigd door sdk1985 op 19-06-2014 15:47 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Precies. Dus weten we nog altijd niet wat de winst is van de GPU tak voor consumenten. AMD heeft dit natuurlijk ook met zijn APU's. Daar zit ook een GPU in. De R&D kosten daarvan zitten waarschijnlijk verrekend bij de kosten van de GPU divisie. De CPU/APU divisie heeft vervolgens alleen de R&D kosten van het implementeren van de GPU. Geeft imo geen compleet beeld als het klopt wat ik zeg?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Waar ging dit ook alweer over ? Ah ja, iemand zei dat de GTX 750 een betere prijs/prestatie verhouding had en anderen trokken elk tegenargument uit context...

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Phuncz schreef op donderdag 19 juni 2014 @ 15:55:
Waar ging dit ook alweer over ? Ah ja, iemand zei dat de GTX 750 een betere prijs/prestatie verhouding had en anderen trokken elk tegenargument uit context...
Het onderwerp is verschoven toen iemand opmerkte dat Fermi een succes was :+ , wat niemand serieus kan nemen. Als je het van Kepler zegt oké, daar wil ik wel akkoord mee gaan maar absoluut niet met Fermi.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
madmaxnl schreef op donderdag 19 juni 2014 @ 15:51:
Precies. Dus weten we nog altijd niet wat de winst is van de GPU tak voor consumenten. AMD heeft dit natuurlijk ook met zijn APU's. Daar zit ook een GPU in. De R&D kosten daarvan zitten waarschijnlijk verrekend bij de kosten van de GPU divisie. De CPU/APU divisie heeft vervolgens alleen de R&D kosten van het implementeren van de GPU. Geeft imo geen compleet beeld als het klopt wat ik zeg?
Klopt niet :+ .

In de eerste plaats heb ik het hier over hoe succesvol Kepler is voor Nvidia. AMD is alleen een factor in hoe het behaalde succes tot stand is gekomen.

AMD vs Nvidia erbij slepen is niet nodig.Ook al zou AMD een operationele marge van 50% hebben behaald, dan nog was Kepler voor Nvidia een ongekend succes.

(2011 AMD Graphics 1565 / + 51 = +3%)
(2012 AMD Graphics: 1417 / +105=+7%)
Rest van de cijfers staat een paar pagina's eerder al een keer door mij gepost.

Overigens is het idee van Form 10K is dat je bedrijven onderling kunt vergelijken omdat ze zich aan dezelfde set regels moeten houden. Je kunt dus de operationele marge van Intel vergelijken met die van Nvidia. Winst is iets wat bedrijven niet graag hebben, daar moet je namelijk winstbelasting over betalen ;). Zelf met wilde verhalen komen over R&D kosten bij andere segmenten verstoppen is niet echt wat er gebeurd :P.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
offtopic:
@Phuncz

Ja daar ging het me ook niet om, wilde alleen even doorvragen en sdk1985 is goed op de hoogte. Het is niet verkeerd om zo nu en dan eens door te vragen om te kijken hoe iemand tot iets is gekomen.

Wel jammer dat er soms van die figuren zijn die arrogant reageren en dat je zelf mag gaan zoeken en geërgerd zijn als je aan ze te twijfelt.

Daarentegen is soms iets al zo vaak uitgekauwd dat je inderdaad beter gewoon terug kan gaan lezen i.p.v. weer een halve pagina ermee vult met als resultaat dezelfde onenigheid als bij de voorgaande discussie over hetzelfde onderwerp.

Gelijk heb je, maar dat is altijd dat er afgedwaald wordt. Dat levert soms ook heel interessante discussies op, maar soms ook niet.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:53

XanderDrake

Build the future!

Ik vind het wonderbaarlijk dat de woorden "Fermi was een succes" vele hiero in een staat van blinde razernij kan laten verkeren.
En wat al die financiële resultaten uit 2011 van nVidia danwel AMD ergens iets hebben te maken met de Maxwell GPU is mij ook onduidelijk.

Maar goed.

Ik vind het wel pragmatisch van nVidia om niet nog langer te wachten op TSMC. Ten tijde van 28nm overstap was dat ook geen succes, met alle vertragingen, te weinig geleverde GPU's en vingertje wijzen die er op volgden.
Werelds schreef op donderdag 19 juni 2014 @ 15:10:

Waar haal je dat uit dan?

Ik betwijfel of er daadwerkelijk zo veel ruimte is qua kloksnelheden.
Ik hoop dat een 28nm respin toch weer 10-20%+ clocks kan geven, bovenop een gezonde performance/clock boost die we kunnen verwachten van een nieuwe architectuur

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
Bedrijven doen er alles aan om te zorgen dat mensen zich associëren met een product (groen vs rood, denk er eens over na). Objectief vaststellen of een product succesvol is wordt daarmee niet makkelijker.

Dat bedrijven hier in slagen blijkt uit het succes van Apple. Maar dus ook op GoT in het Nvidia topic ;).

Gelukkig zijn er de jaarcijfers. Helaas moet je daar op wachten. Vaak is de nieuwe lijn al gelanceerd voordat blijkt of de vorige lijn nu echt een succes was.

Daarnaast bestaat er natuurlijk een groot verschil tussen een succes voor de klant en een succes voor het bedrijf. Ik heb het over het succes van Fermi (en Kepler) voor Nvidia, onderbouwd met de jaarcijfers. Niet over de GTX 460 vs de HD 6870.

Nvidia start met een uitzonderlijk gezonde financiële positie aan Maxwell. Dat belooft alleen maar veel goeds.

[ Voor 8% gewijzigd door sdk1985 op 19-06-2014 16:20 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Je gaat ervan uit dat financiële resultaten gelijk staan aan het "echte" succes van een GPU, maar de Scrypt Mining gekte voor AMD GPU's heeft laten merken dat dat niet altijd even relevant is.

Uiteindelijk gaat het hier om de ervaring die wij als consumenten meemaken, niet wat de aandeelhouders denken, de marktanalysten vermoeden of wat een troll erover zegt. En dan worden we aan een tijd herinnert zoals met de GF 8000-kaarten die "loslieten" of de luidruchtige koelers van een paar vorige modellen. Maar dat krijg je met een troll die de mods gezellig zijn gang laten gaan.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

XanderDrake schreef op donderdag 19 juni 2014 @ 16:12:
Ik vind het wonderbaarlijk dat de woorden "Fermi was een succes" vele hiero in een staat van blinde razernij kan laten verkeren.
offtopic:
Waar dan, volgens mij gebeurde er juist het tegenovergestelde, wee degene die Fermi geen goede chip vond? Ik vind het wonderbaarlijk dat het nog verdedigt moet worden dat het geen goede chip was.
Het was misschien voor Nvidia zelf wel een succes, maar ik kan het geen knap staaltje engineering noemen met dat monsterlijke verbruik en nauwelijks hogere perfermance tegenover hun tegenhangers, HD5870 vs GTX480 en HD6970 vs GTX580.
Het lijkt er eerder op dat mensen liever zulke dingen snel lijken te vergeten.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sdk1985 schreef op donderdag 19 juni 2014 @ 15:16:
Altijd lastig om de die hard "geeks" de oogkleppen af te nemen maar ik doe toch nog maar een poging:

Fermi was zeker een succes want Fermi heeft de consumenten tak weer winstgevend gemaakt.
Poe poe, gaan we elkaar nu namen geven en ben ik nu een die-hard geek omdat het me geen reet boeit hoeveel winst ze maken? Vanuit een technisch standpunt was en blijft GF100 een wanproduct. Te laat, te groot, te warm, te luidruchtig.

Dat ze er winst op maken zal best, er zijn genoeg idioten die blind Intel/AMD/Nvidia kopen omdat ze geen flauw benul hebben van wat ze nu precies kopen en alleen op de naam af gaan.

Ik raad je aan om nog eens even goed naar de cijfers van FY2011 (2010 dus, het jaar van GF100) te kijken. Je zult zien dat juist de consumenten tak daar zakte. Tegra en Quadro deden het lekker, desktop niet. Ook het jaar erop (2011, GF110) was niet veel anders, ze gingen met pijn en moeite 20 miljoen vooruit op die 2,5 miljard op papier. En vanaf 2011 is ook 5-6% van hun omzet puur licentie inkomsten van Intel, wat je ook mee moet nemen, aangezien ze dat onder GPU rekenen - dus in werkelijkheid is in 2011 hun GPU tak juist gezakt, met $200m. Laat staan de idiote groei die Tegra doormaakte in dat jaar (gegroeid met een factor 3). Nee, Fermi was ook geen financiëel succes op de consumenten markt. Op de professionele markt wel, omdat die markt nogal droog stond.

Ik ga er verder niet op in omdat je duidelijk wel iets van financiën weet, maar je gaat hier veel te kort door de bocht. En ik ben niet gecharmeerd van hoe je op mij en anderen reageert. Ik geef rustig m'n tegen argumenten op jouw beweringen (waar je vervolgens niet op in gaat) en ik ging er stilzwijgend van uit dat jij met "succes" het technische vlak bedoelde. Waarom weet ik niet, op een tech forum...in elk geval geen noodzaak om het maar meteen over oogkleppen en die hard geeks te gaan hebben.

Als er iemand anders nog de financiën wilt zien, linkjes naar de laatste 3 10-K's, waarin je gegevens terug kunt vinden t/m 2009:
- http://www.sec.gov/Archiv...2000013/nvda-2012x10k.htm
- http://www.sec.gov/Archiv...3000008/nvda-2013x10k.htm
- http://www.sec.gov/Archiv...4000030/nvda-2014x10k.htm

Zoek op "<jaar> vs" om meteen naar het overzicht te springen. Nvidia zet er altijd prettig het overzicht van het voorgaande rapport in. Dus in FY2012 (kalender 2011) vergelijken ze dat met FY2011 (2010) en hebben ze het overzicht van het rapport ervoor ook er in geplakt: FY2011 - FY2010 dus (of 2010 - 2009, het is maar hoe je het wilt zien).
XanderDrake schreef op donderdag 19 juni 2014 @ 16:12:
Ik hoop dat een 28nm respin toch weer 10-20%+ clocks kan geven, bovenop een gezonde performance/clock boost die we kunnen verwachten van een nieuwe architectuur
GK110 is al een respin (GK100-109 == origineel, GK110-119 = respin/refresh). GM107 is op datzelfde proces gebaseerd, gezien het feit dat ze dezelfde transistor dichtheid hebben.

Ik zie het in elk geval nog steeds niet gebeuren :P

[ Voor 14% gewijzigd door Werelds op 19-06-2014 16:58 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:53

XanderDrake

Build the future!

Op de frontpage: nieuws: Afbeeldingen tonen mogelijke GeForce GTX 880-kaart met 8GB geheugen

Ik ben dus nu verward 8)7 Je hebt dus de Maxwell dit in de GTX 750 (Ti) zit, dat is de GM107. In dit artikel hebben ze het over de NM210 en andere GM2xx GPU's, waaronder een rename van de GM107, de NM204? Dit is dus de opvolger van Maxwell, of eerder een respin, want volgens mij is Pascal nog niet in de buurt?

Dus krijgen nog een high end GPU in de GM100 range of gaan we direct naar de NM210? Moeten we écht tot Q2 2015 wachten? Das nog bijna een jaar... :N

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

Het valt me op dat die chip klein is, 20nm transistors er onder? Dit lijkt mij namelijk niet de 28nm variant gezien de chip het formaat heeft van een gk104 en toch veel meer aan boord gaat krijgen.
Hier blijf ik ook oven bij tot hij er is.

Ik hoop dat de geruchten kloppen.
Goedkoper dan zijn voorganger, kleiner, zuiniger en sneller.

[ Voor 17% gewijzigd door Verwijderd op 03-07-2014 10:39 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op donderdag 03 juli 2014 @ 10:15:
Op de frontpage: nieuws: Afbeeldingen tonen mogelijke GeForce GTX 880-kaart met 8GB geheugen

Ik ben dus nu verward 8)7 Je hebt dus de Maxwell dit in de GTX 750 (Ti) zit, dat is de GM107. In dit artikel hebben ze het over de NM210 en andere GM2xx GPU's, waaronder een rename van de GM107, de NM204? Dit is dus de opvolger van Maxwell, of eerder een respin, want volgens mij is Pascal nog niet in de buurt?

Dus krijgen nog een high end GPU in de GM100 range of gaan we direct naar de NM210? Moeten we écht tot Q2 2015 wachten? Das nog bijna een jaar... :N
Dit is gewoon slecht copy/paste werk van de redactie of de submitter.

Zowel mydrivers als VideoCardz praten gewoon over GM. Wel hebben ze het allebei over GM2 en niet GM1 zoals GM107 op de 740/745/750 - wat dus ook een fout in het artikel is, aangezien ze die NM204 noemen.
Verwijderd schreef op donderdag 03 juli 2014 @ 10:36:
Het valt me op dat die chip klein is, 20nm transistors er onder? Dit lijkt mij namelijk niet de 28nm variant gezien de chip het formaat heeft van een gk104 en toch veel meer aan boord gaat krijgen.
Hoe krijgt hij meer aan boord?

Al krijgt hij een ARM SoC, dan zit die niet in de GPU gebakken. Ik weet niet wat je denkt dat er verder in Maxwell zit dat meer transistors zou vreten?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Oei zie ik daar 2x 6 pins en een keer 8x pins, dat zal wel voor het testen zijn hoop ik.

Ik vraag me af wat 8GB aan geheugen voor nut heeft op dit moment, ik begrijp dat een highend kaart met 3GB misschien te weinig geheugen kan hebben in SLI/Crossfire opstelling en dat daarom 4GB of 6GB leuk is maar 8GB is wel erg veel. Tot voor kort had ik maar 8GB systeemgeheugen :p.
Nu doel ik natuurlijk op een consumenten variant, voor professioneel gebruik is 8GB geen luxe.

[ Voor 25% gewijzigd door Sp3ci3s8472 op 03-07-2014 13:35 . Reden: quote ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Het gaat hier over een testbord, nog niet eens een engineering sample, dingen zoals beeldschermaansluiting, powerconnectors, geheugenchips en algehele lay-out van het bord zijn verre van het uiteindelijke product.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 17-09 07:38

Tomas Hochstenbach

Redacteur componenten
Jup, dit is echt alleen om te kijken in hoeverre de chips überhaupt goed werken. Als ik een beetje vergelijk in photoshop lijkt de chip qua grootte tussen GK104 en GK110 in te zitten. Wat shadertjes extra en gewoon 28 nm lijkt me dan ook de meest logische verklaring. Aan de ene kant is het zonde dat het 20nm-proces zo lang op zich laat wachten, aan de andere kant geeft het AMD en Nvidia de kans om eens extra goed naar hun architecturen te kijken. In ieder geval zal het nog wel even duren voordat er echt iets in de winkel ligt.

Acties:
  • 0 Henk 'm!

Verwijderd

Dooie boel hier.

Nvidia Titan II speculation
http://www.guru3d.com/new...titan-ii-speculation.html

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Eigenlijk hoop ik dat ze de Titan niet meer als gamingkaarten gaan verkopen en gewoon betere GTX'en gaan leveren.

Het is belachelijk dat ze bijna het dubbel durven te vragen voor een GTX 780Ti die meer geheugen heeft en betere compute-prestaties heeft die een gamer niet boeit. De Titans hebben heus bestaansrecht maar in mijn ogen niet in de gamingwereld. Zeker omdat deze kaarten artificieel geprijsd worden, als een boardpartner geen 6GB GTX 780Ti mag uitbrengen, maar wel een 6GB GTX 780.

Maar de GTX Titan heeft zo goed verkocht dat ze het weeral kunnen flikken om een high-end gaming single-GPU aan 1000€ te slijten, dus ik zie een herhaling van het vorige scenario.

Acties:
  • 0 Henk 'm!

Verwijderd

Helaas en gelukkig, Titans vind het prima kaarten alleen de prijs is helemaal uit verhouding maar dat boeit niet iedereen. Ach en er is voor ieders wat, zelf zal ik sneller voor de Titan gaan, gewoon omdat het kan. Als je niet zo veel wil uitgeven zijn er nog genoeg andere opties.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Je gaat zelf voor een Titan omdat je gewoon graag veel te veel betaald voor iets wat niet eens zo snel is?

Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_780_STRIX_6_GB/images/perfrel_3840.gif Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/GTX_780_STRIX_6_GB/images/perfrel_5760.gif
http://www.techpowerup.co...TX_780_STRIX_6_GB/25.html

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Alle beetjes helpen, en toen de Titan uit was er nog geen 290x , dus ja ik betaal graag te veel voor wat extra performance. Stel dat er op dat moment wel een betere keuze is dan ga ik daar voor als het even kan, het ligt er dus maar niet aan wanneer iets uit komt en wanneer ik over wil gaan. Als ik moet wachten kan ik blijven wachten.

Edit

Ik heb de Titan's nu vanaf de release of even er na, maar heb er ooit spijt van gehad, ze doen nog goed hun werk en ik denk dat ze nog wel een tijdje mee gaan. Ik koop liever 2 Titans dan 2 gtx660's die niet eens alle games op ultra af kan spelen en na een jaar weer moet vervangen.

[ Voor 29% gewijzigd door Verwijderd op 13-07-2014 12:15 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik denk dat hij de GTX 780 STRIX bedoelt, niet de R9 290X.
Maar inderdaad, het is dat Nvidia begint met de Titan en veel later pas de betaalbare high-end GPU's uitbrengt.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
Werelds schreef op donderdag 19 juni 2014 @ 16:55:
[...]

Poe poe, gaan we elkaar nu namen geven en ben ik nu een die-hard geek omdat het me geen reet boeit hoeveel winst ze maken? Vanuit een technisch standpunt was en blijft GF100 een wanproduct. Te laat, te groot, te warm, te luidruchtig.

Dat ze er winst op maken zal best, er zijn genoeg idioten die blind Intel/AMD/Nvidia kopen omdat ze geen flauw benul hebben van wat ze nu precies kopen en alleen op de naam af gaan.

Ik raad je aan om nog eens even goed naar de cijfers van FY2011 (2010 dus, het jaar van GF100) te kijken. Je zult zien dat juist de consumenten tak daar zakte. Tegra en Quadro deden het lekker, desktop niet. Ook het jaar erop (2011, GF110) was niet veel anders, ze gingen met pijn en moeite 20 miljoen vooruit op die 2,5 miljard op papier. En vanaf 2011 is ook 5-6% van hun omzet puur licentie inkomsten van Intel, wat je ook mee moet nemen, aangezien ze dat onder GPU rekenen - dus in werkelijkheid is in 2011 hun GPU tak juist gezakt, met $200m. Laat staan de idiote groei die Tegra doormaakte in dat jaar (gegroeid met een factor 3). Nee, Fermi was ook geen financiëel succes op de consumenten markt. Op de professionele markt wel, omdat die markt nogal droog stond.

Ik ga er verder niet op in omdat je duidelijk wel iets van financiën weet, maar je gaat hier veel te kort door de bocht. En ik ben niet gecharmeerd van hoe je op mij en anderen reageert. Ik geef rustig m'n tegen argumenten op jouw beweringen (waar je vervolgens niet op in gaat) en ik ging er stilzwijgend van uit dat jij met "succes" het technische vlak bedoelde. Waarom weet ik niet, op een tech forum...in elk geval geen noodzaak om het maar meteen over oogkleppen en die hard geeks te gaan hebben.

Als er iemand anders nog de financiën wilt zien, linkjes naar de laatste 3 10-K's, waarin je gegevens terug kunt vinden t/m 2009:
- http://www.sec.gov/Archiv...2000013/nvda-2012x10k.htm
- http://www.sec.gov/Archiv...3000008/nvda-2013x10k.htm
- http://www.sec.gov/Archiv...4000030/nvda-2014x10k.htm

Zoek op "<jaar> vs" om meteen naar het overzicht te springen. Nvidia zet er altijd prettig het overzicht van het voorgaande rapport in. Dus in FY2012 (kalender 2011) vergelijken ze dat met FY2011 (2010) en hebben ze het overzicht van het rapport ervoor ook er in geplakt: FY2011 - FY2010 dus (of 2010 - 2009, het is maar hoe je het wilt zien).


[...]

GK110 is al een respin (GK100-109 == origineel, GK110-119 = respin/refresh). GM107 is op datzelfde proces gebaseerd, gezien het feit dat ze dezelfde transistor dichtheid hebben.

Ik zie het in elk geval nog steeds niet gebeuren :P
Namen geven zal wel mee vatten, het is meer in een hokje plaatsen :+ . Noem mezelf ook vaak genoeg een Nerd, ik zou me er niet aan storen. Vervelend was het in ieder geval niet bedoeld... Iets met Eve online en nerds, die nerds nerds noemen.

Wil er best op ingaan hoor (beetje laat had de reactie niet gezien).

Tijdlijntje (let op year end zit in januari, dus jaarcijfers van... moet je even goed mee oppassen).

Pre fermi:
Year Ended January 31, 2010: -13M

Na Fermi (nja 6 maanden GTX 460 @ 7/2010):
Year Ended January 30, 2011: +30

Vervolg verkopen Fermi:
Year Ended January 29, 2012: 528

Fermi refresh (GTX 560 o.a in maart 2012)
Year Ended January 27, 2013: ...(SEC filing niet consistent, staat 884)

Dus het was inderdaad Fermi dat ervoor heeft gezorgd dat de grootste divisie een flinke marge kreeg. Hence Fermi was financieel een succesvol product.

Persoonlijk vond ik het technisch ook een geslaagd product, in ieder geval voor het midden segment. De GTX 460 Hawk was namelijk van 675 naar +- 900 mhz over te clocken. De "refresh" kreeg dan ook standaard 800mhz. Maar daar kun je altijd over discussiëren. Dat staat los van het financiële aspect, dat is meer een mening. AMD had ook een goed overclockbare kaart.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

G-sync review 2560x1440 144hz
http://nl.hardware.info/t...ming-monitor-video-review

Mij veel te duur, als het nu IPS was oké maar ik blijf wel even afwachten nog wat beter werkt G-sync of free sync, of ik ga gewoon wel voor 3440x1440 omdat ik toch nooit onder de 60 fps uit om ik de meeste games.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ja het is inderdaad veel geld voor een TN-paneel met geen bijster hoge resolutie. Het gebrek aan belangrijke afstellingsmogelijkheden helpt zeker niet om het TN-paneel nog een beetje acceptabel te doen werken en ook het bizarre 15W stand-by verbruik snap ik niet. Wel weer leuk dat de bezels zo smal zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

Gelukkig is het nog wel mogelijk om via nvcp de kleuren, helderheid enzv te wijzigen. Maar TN nee bedankt, al lees ik wel vaker dat de kwaliteit van TN wat beter word met de jaren maar IPS blijft beter.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ja via NVCP kan je het inderdaad iets wijzigen, maar de beperkingen blijven hetzelfde. Als het een 6-bit paneel is, zal NVCP er geen 8-bit paneel van kunnen maken bijvoorbeeld. Ook de witbalans, deze kan je wel aanpassen met NVCP, maar ten koste van het bereik van andere kleuren. Uiteindelijk is het zoiets als digitale zoom op camera's: het lijkt leuk maar je houd jezelf voor gek.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat zijn echt punten waar de meeste gamers geen moete mee hebben omdat het scherm al van prima kwaliteit is voor gamers, gamers vinden vaak snelheid en soepelheid belangrijkere punten en je kunt ook niet alles hebben als gamer of als video/foto bewerker je zal altijd het een of ander moeten missen bij beeldschermen.

Ik denk dat vooral pro gamer veel belang bij dit soort schermen hebben omdat ze dan meer detail zien, maar vooral sneller zijn met fps games en een rustiger beeld.

[ Voor 20% gewijzigd door Verwijderd op 16-07-2014 10:53 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Excuses voor de muur en het is ook niet direct nieuws (maar wel discussie waardig naar mijn mening :)). We hebben het hier maar zelden over de financiële cijfers, dus het wás wel nieuws :P
sdk1985 schreef op maandag 14 juli 2014 @ 20:57:
[...]
Dus het was inderdaad Fermi dat ervoor heeft gezorgd dat de grootste divisie een flinke marge kreeg. Hence Fermi was financieel een succesvol product.
Omzet per kalenderjaar (2013 is dus FY2014, enzovoort):
- 2013: $4.13b (- 4%) omzet - $3.47b (+7%) GPU, $398m (-48%) Tegra, $264m Intel licenties
- 2012: $4.28b (+ 7%) omzet - $3.25b (+2%) GPU, $764m (+29%) Tegra, $264m Intel licenties

Dan nu voor de jaren daarvoor, waar de indeling iets anders was:
- 2011: $4.00b (+12.8%) omzet - $2.54b (+1%) GPU, $864m (+5.6%) PSB, $591m (+199%) CPB, $220m Intel licenties
- 2010: $3.54b (+ 7.0%) omzet - $2.52b (-5%) GPU, $818m (+ 60%) PSB, $197m (+ 27%) CPB
- 2009: $3.33b (______) omzet - $2.66b (___) GPU, $510m (_____) PSB, $156m (_____) CPB

PSB = Workstation (Quadro + Tesla), CPB = Tegra+Icera+licenties.

FY2011 (2010 dus) is 5% gezakt op desktop GPU's. Workstation is waar de winst vandaan kwam (tegenwoordig schuiven ze dat ook onder GPU); zoals ik al zei, de workstation markt stond in 2010 al een hele tijd droog, Nvidia had al ruim twee jaar niets boeiends geproduceerd en AMD had niet lang voor Q6K hun nieuwe FirePro lijn geintroduceerd. Zelfs de Mac Pro had in 2009 en 2010 geen workstation-class GPU beschikbaar (sterker nog, de upgrades waren de 4870 en 5870), zo slecht waren die dingen voor hun prijs.

FY2012 zat nog steeds onder het niveau van FY2010. De winst komt deze keer voor het grootste deel uit de mobiele tak, die gewoon bijna drie keer zo veel omzet heeft gedraaid (Tegra 2). Denk er ook aan dat die +12.8% omzet eigenlijk +6.8% is; $220m komt van de rechtzaak met Intel, niet van verkopen. En nu komt de grote clou: ze rekenen dat onder GPU (zie "Reporting Segments" op pagina 5). In werkelijkheid ligt GPU hier dus op 2540-220=$2320m - dat is maar liefst 8.7% lager dan de @2520 van het jaar er voor. Dat betekent dat de desktop markt in de twee jaren van Fermi beide jaren behoorlijk is gezakt.

FY2013 is wat lastig te vergelijken door de aangepaste indeling, maar als je hun eigen commentaar leest komt dit vooral door 30% meer verkopen op de Tesla tak; 2% is dan ook niet geweldig. Let ook op dat de nieuwe GPU niet de oude GPU+PSB is (GPU+PSB voor FY2012 zou $2540m + $864m = $3404m geweest zijn, Nvidia zelf geeft $3186m aan). Tegra nog steeds in de lift, omdat ze nog mee liftten op de populariteitsgolf van Tegra 2.

FY2014 is waar GPU's daadwerkelijk in de lift zitten. Tegra kakt stevig in door de late en teleurstellende Tegra 4. Over het geheel genomen komen ze echter nog steeds lager uit.

Dus nee, Fermi is niet het product dat de grootste divisie (desktop GPU's) een lift kreeg. Fermi is het product dat de workstation markt nieuw leven inblies. Sterker nog, Fermi is het product dat de desktop GPU divisie $140m kostte.
Persoonlijk vond ik het technisch ook een geslaagd product, in ieder geval voor het midden segment. De GTX 460 Hawk was namelijk van 675 naar +- 900 mhz over te clocken. De "refresh" kreeg dan ook standaard 800mhz. Maar daar kun je altijd over discussiëren. Dat staat los van het financiële aspect, dat is meer een mening. AMD had ook een goed overclockbare kaart.
GF104/GF114 heb ik ook niets op aan te merken als het op prijs/prestatie aan komt, maar dat is niet wat we Fermi noemen. Fermi is het vlaggenschip, GF100. En dat was gewoon geen goed product als je het vergeleek met het vlaggenschip aan de andere kant (Cypress / 5870). 60% meer chip oppervlak, 30% hoger verbruik (meer dan 100W over Cypress), temperaturen die 20 graden hoger lagen door de slechte koeler (met als gevolg dat het ding in sommige games ging throttlen) en waarvoor? Amper 10% performance in de meest gunstige gevallen? En dan heb je het over een chip waar ze dusdanig weinig werkende exemplaren van produceerden dat er nooit een volledige variant van is geweest (ondanks de 4 respins); dat kwam pas na tweaks en nog eens twee spins in GF110. En zelfs de chips met een enkel uitgeschakeld cluster (GTX 480 dus) waren niet of nauwelijks leverbaar in de eerste maanden.

GF104 fixte een hoop en ze kwamen daarmee op gelijke hoogte met AMD op vrijwel alle punten, op ééntje na: performance. AMD kreeg nog steeds meer performance uit die ~330mm^2; Cypress en GF104 waren even groot.
Verwijderd schreef op woensdag 16 juli 2014 @ 09:16:
G-sync review 2560x1440 144hz
http://nl.hardware.info/t...ming-monitor-video-review

Mij veel te duur, als het nu IPS was oké maar ik blijf wel even afwachten nog wat beter werkt G-sync of free sync, of ik ga gewoon wel voor 3440x1440 omdat ik toch nooit onder de 60 fps uit om ik de meeste games.
Goeiemorgen, €750 voor een schijt TN paneel?

[ Voor 8% gewijzigd door Werelds op 16-07-2014 11:21 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:53
Het blijft een fantastisch scherm. 750 is een tikje boven m'n budget helaas :)

Voor dit scherm is TN de enige keuze, va en ips zijn een blurrende bende op hoge refreshrates zonder strobing.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

haarbal schreef op woensdag 16 juli 2014 @ 11:23:
Het blijft een fantastisch scherm. 750 is een tikje boven m'n budget helaas :)

Voor dit scherm is TN de enige keuze, va en ips zijn een blurrende bende op hoge refreshrates zonder strobing.
Als pro gamer zou ik er direct voor gaan om het voordeel eruit te halen.

Ips is ook schijt op hoge hz/fps

[ Voor 4% gewijzigd door Verwijderd op 16-07-2014 11:26 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op woensdag 16 juli 2014 @ 10:51:
Dat zijn echt punten waar de meeste gamers geen moete mee hebben omdat het scherm al van prima kwaliteit is voor gamers, gamers vinden vaak snelheid en soepelheid belangrijkere punten en je kunt ook niet alles hebben als gamer of als video/foto bewerker je zal altijd het een of ander moeten missen bij beeldschermen.
Nogal sneu dat je veronderstelt dat ik pas op de wereld kom, ik heb duizenden uren Battlefield, CoD, Quake en Counterstrike achter de rug. Ik vind fletse, onjuiste kleuren en lage verticale kijkhoeken behoorlijke nadelen. Het is nogal generaliserend dat gamers énkel om hoge Hz, fps en frametimes geven.
Ik denk dat vooral pro gamer veel belang bij dit soort schermen hebben omdat ze dan meer detail zien, maar vooral sneller zijn met fps games en een rustiger beeld.
Pro-gamers zijn zeldzaam, misschien 1:1000 tov. serieuze PC-gamers. Dit is geen scherm ontwikkeld voor die kleine groep.
Zij hebben weinig nut aan G-sync want ze willen altijd >100fps, niet vloeiende fps onder 60Hz.
G-sync is er voornamelijk nuttig voor de average PC-gamer.

Acties:
  • 0 Henk 'm!

Verwijderd

Nog al sneu om zo op de man in te gaan gelijk. Heb ik het over jou, NEEN. Ik heb het over een hele grote groep gamers die hier wel voordeel uit halen en dat is te lezen uit de reviews. Als gamer ben je gewoon beter af met een vloeiend snel scherm als je sneller moet zijn dan de rest, dan ben je beter af met 100 fps g-sync/free sync en een snelle reactietijd, rustig aan de ogen, lekker snel, geen tearing, scherper beeld.

Welke gamer gaat nu schuin naar een scherm kijken tijden het gamen? kijkhoek is alleen maar van belang als er iemand naast je staat te kijken.

Ik als casual gamer heb liever gewoon meer breedte en mooiere kleuren dus dit valt sowieso al af.
Dus je moet weten dat er gewoon verschillende eisen zijn, en niet gelijk jezelf betrekken op mijn antwoord over een hele groep.

[ Voor 26% gewijzigd door Verwijderd op 16-07-2014 11:56 ]


Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 21:39

Cheezus

Luiaard

Verwijderd schreef op woensdag 16 juli 2014 @ 11:48:
Welke gamer gaat nu schuin naar een scherm kijken tijden het gamen? kijkhoek is alleen maar van belang als er iemand naast je staat te kijken.
Bij m'n goedkope 24" scherm zie ik al verschil in helderheid tussen de bovenkant en onderkant van het scherm. Als je een (beetje verstopte) vijand überhaupt niet kan zien omdat je scherm te weinig detail weer kan geven (geen uniforme helderheid, laag kleurbereik) heb je er ook niet zoveel aan dat je diegene sneller niet ziet :P
Bij quake oid zal dit natuurlijk minder snel een probleem zijn dan een 'realistische' shooter zoals battlefield.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Veel (TN) gamemonitors hebben een nogal slechte afstelling vanuit de fabriek. De beperkte afstellingsmogelijkheden in de menu's van g-sync monitoren vind ik dan toch wel een issue.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

die hele beeldschermdiscussie is inmiddels behoorlijk off-topic. Voer die elders ajb

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:07
GF104/GF114 heb ik ook niets op aan te merken als het op prijs/prestatie aan komt, maar dat is niet wat we Fermi noemen. Fermi is het vlaggenschip, GF100. En dat was gewoon geen goed product als je het vergeleek met het vlaggenschip aan de andere kant...
Daar loopt de discussie dan flink mis ;). Fermi is een microarchitecture. Net als Ivy Bridge by Intel en Bulldozer bij AMD. Of dat nu een i3 of een i7 is dat maakt niet uit. Quadro valt ook onder Fermi. Net als we Kepler GK 110 in de Quadro K5000/K6000 zagen. Ik praat dus over een kaart of +- 30 (400/500 series).

Wikipedia: Fermi (microarchitecture)

Alleen had ik het specifiek over de ontwikkelingen van de GPU tak pre/post de Fermi introductie. Pro loopt eigenlijk altijd wel goed. Sterker nog, voor Fermi leek daar onderhand alle winst vandaan te komen :+ .

[ Voor 4% gewijzigd door sdk1985 op 16-07-2014 16:57 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sdk1985 schreef op woensdag 16 juli 2014 @ 16:56:
Daar loopt de discussie dan flink mis ;). Fermi is een microarchitecture. Net als Ivy Bridge by Intel en Bulldozer bij AMD. Of dat nu een i3 of een i7 is dat maakt niet uit. Quadro valt ook onder Fermi. Net als we Kepler GK 110 in de Quadro K5000/K6000 zagen. Ik praat dus over een kaart of +- 30 (400/500 series).
Echter maakt dat bij GPU's weldegelijk iets uit wat verkopen betreft.

GF104/114 is een heel ander beest dan GF100, net als GK104 een ander beest dan GK110 is. Andere marges, ander floorplan, andere spin, andere materialen. Wanneer deze bedrijven hun architecturen presenteren is dat echter altijd in de vorm van het vlaggenschip. Dat is de vorm waarin ze hem ontworpen en getest hebben. Daarom heb ik het zelf ook liever over de chips. En dat jij Quadro op dezelfde hoop gooit is gewoon je reinste onzin. Opteron en Xeon rekenen we ook niet gewoon onder de desktop CPU's. Wederom zitten daar weldegelijk wezenlijke verschillen in de hardware - en dan bij Quadro/Tesla ook nog eens in de software. Die producten worden ook aan totaal andere marges verkocht; die markten worden niet voor niets binnen Intel/AMD/Nvidia als geheel aparte afdelingen behandeld. Het is pas 2,5 jaar dat Nvidia het op hun 10K's onder dezelfde noemer schuift in het algehele overzicht, maar in de specificatie wordt het nog steeds volledig apart van desktop behandeld.
Alleen had ik het specifiek over de ontwikkelingen van de GPU tak pre/post de Fermi introductie. Pro loopt eigenlijk altijd wel goed. Sterker nog, voor Fermi leek daar onderhand alle winst vandaan te komen :+ .
Heb je wel gelezen wat ik hierboven postte? Juist onder Fermi _zakte_ de "GPU" tak. Juist onder Fermi is "Pro" waar hun winst vandaan kwam; de desktop tak mag dan wel een factor 4-5 meer omzet draaien, de marges zijn daar ook honderden malen lager.

[ Voor 7% gewijzigd door Werelds op 16-07-2014 19:46 ]


Acties:
  • 0 Henk 'm!

  • krouwen
  • Registratie: September 2004
  • Laatst online: 17-09 11:41

krouwen

Hardware Enthusiast

Wat ik mij afvraag is wat nou de verwachte prestatie winst zal zijn van de nieuwe 800 (880) serie. Het blijft steken op 28 nm. Kan er dan wel überhaupt winst worden geboekt, de chip zal net zoveel stroom verbruiken en hitte produceren. Is er al iets bekend over prestatie winst of kan dit gedestilleerd worden uit historische gegevens?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Kijk naar de GTX 750 Ti dat is de eerste Maxwell, dan zie je dat de performance per watt al stukken beter is.
http://www.techpowerup.co...eForce_GTX_750_Ti/26.html

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Die gtx 750 ti is een top kaartje, performance komt soms toch kort in de buurt van de gtx 760 die ik momenteel in mijn pc heb. Als hij nu wat eerder beschikbaar was geweest had ik wat kabels uitgespaard :P

Voorspelt wel goeds voor de komende generatie, jammer dat ze de chips waarschijnlijk nog niet op 20nm kunnen produceren. Daarentegen is Maxwell ook op 28nm al een stuk zuiniger dan Kepler.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
Verwijderd schreef op vrijdag 18 juli 2014 @ 17:25:
Die gtx 750 ti is een top kaartje, performance komt soms toch kort in de buurt van de gtx 760 die ik momenteel in mijn pc heb.
Dat is gewoon niet waar. Een 750Ti is makkelijk 15-20% trager dan een GTX660, de 760 maakt het gat alleen maar groter.

Alleen als verbruik in de vergelijking wordt opgenomen is het een 'goede' kaart, maar de pure prestaties zijn gewoon te laag om serieus te overwegen als game kaart.
Voorspelt wel goeds voor de komende generatie, jammer dat ze de chips waarschijnlijk nog niet op 20nm kunnen produceren. Daarentegen is Maxwell ook op 28nm al een stuk zuiniger dan Kepler.
Dat zou ik geen zekerheid durven noemen. Een low end gpu met een 128bit bus en weinig cores op een volwassen procede kan zeker zuinig zijn. Zodra je met high end gpu's naar 384/512bit memorybus gaat, meer memory chips, aantal cores maal 5 of 6,... is een laag verbruik het eerste wat de deur uit gaat.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 18 juli 2014 @ 17:25:
Die gtx 750 ti is een top kaartje, performance komt soms toch kort in de buurt van de gtx 760 die ik momenteel in mijn pc heb. Als hij nu wat eerder beschikbaar was geweest had ik wat kabels uitgespaard :P

Voorspelt wel goeds voor de komende generatie, jammer dat ze de chips waarschijnlijk nog niet op 20nm kunnen produceren. Daarentegen is Maxwell ook op 28nm al een stuk zuiniger dan Kepler.
Gezien maxwell moet het wel beter worden, de feiten liggen als op tafel met de 750ti.
Noel schreef op zaterdag 19 juli 2014 @ 00:34:
[...]


Dat zou ik geen zekerheid durven noemen. Een low end gpu met een 128bit bus en weinig cores op een volwassen procede kan zeker zuinig zijn. Zodra je met high end gpu's naar 384/512bit memorybus gaat, meer memory chips, aantal cores maal 5 of 6,... is een laag verbruik het eerste wat de deur uit gaat.
Maxwell is waarschijnlijk geen grote geheugenbus nodig, en waarschijnlijk is Maxwell een stuk zuiniger als je hem vergelijk met een vergelijkbare high end kaart.

[ Voor 32% gewijzigd door Verwijderd op 19-07-2014 11:15 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op zaterdag 19 juli 2014 @ 11:04:
[...]

Maxwell is waarschijnlijk geen grote geheugenbus nodig
Natuurlijk wel, waar wil je anders die geheugenbandbreedte weg toveren?

[ Voor 17% gewijzigd door -The_Mask- op 19-07-2014 11:49 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Door meer L2 cashe minder afhankelijk van de bandbreedte en daar door ben je niet een grotere memorybus nodig en kan een 256mb memorybus voldoende zijn om 8gb aan te sturen (waarschijnlijk)

[ Voor 54% gewijzigd door Verwijderd op 19-07-2014 12:22 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:53
ik denk toch dat 4GB de norm gaat worden

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op zaterdag 19 juli 2014 @ 12:20:
Door meer L2 cashe minder afhankelijk van de bandbreedte en daar door ben je niet een grotere memorybus nodig en kan een 256mb memorybus voldoende zijn om 8gb aan te sturen (waarschijnlijk)
cashe? 256 millibit geheugenbus? 8 geen idee bit?

En als je 256 bit en 8GB bedoeld dat is nu ook mogelijk, maar nuttig gaat het voor games nooit worden met de huidige technieken, daarvoor heb je echt ander geheugen nodig.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

L2 Cache, sorry werd voor een poosje terug onwel door de warmte. Ik durf daar niet zo snel uitspraken over te doen maar ga er wel vanuit dat het goed zal werken met games. Stel dat het niet werkt met games (en dat weet nvidia vast wel want het zal al gestest zijn door nvidia) dan maken ze dus een faalkaart)
Eerst maar eens zien dan geloven. :)

[ Voor 30% gewijzigd door Verwijderd op 19-07-2014 13:28 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nee, zo werkt cache niet. Rekensommetje incoming!

Als jij een 256b bus die op 1750 MHz tikt dan krijg je (256 / 8)(1750 * 2) = 112000 bps ofwel 112 Gbps ofwel 14 GB/s.

Zet jij daar vervolgens 8 GB aan geheugen op, dan heb je in theorie al 571ms nodig om die 8GB volledig vol te stouwen of uit te lezen. In de praktijk is dat natuurlijk onzin, want bij het vullen is de bottleneck je harde schijf; zelfs een SSD zit nog steeds maar op een fractie van die snelheid.

Echter, als jij 8 GB aan geheugen vol hebt, betekent dat over het algemeen ook dat wat er in het geheugen gestopt groter is; hogere texture resolutie, meer textures - textures passen. Dat betekent dat je ook meer bandbreedte nodig hebt om dat er uit te halen. Dat betekent ook dat je meer L2 cache nodig hebt om delen tijdelijk vast te houden - 2 MB is echter nog steeds dusdanig weinig dat juist die grote objecten van z'n leven niet daar in gestopt worden; doen ontwikkelaars nu ook niet. Juist omdat cache geheugen verschilt per generatie, per GPU en veelal te klein is voor grotere dingen. Daarnaast zijn ook juist deze dingen minder boeiend om te cachen; ze worden maar relatief weinig gebruikt. Het is 1 keer uitlezen, overal op plakken waar het hoort en het is weer gedaan (heel erg versimpeld, maar hier komt het op neer). Dat cache geheugen wordt gebruikt om veel kleinere objecten snel weg te schijven terwijl er mee gerekend wordt. In dat cache geheugen zitten bijvoorbeeld ook tijdelijke tussenobjecten.

Dus nee, meer cache geheugen betekent niet dat er minder bandbreedte nodig is. Juist nu willen ontwikkelaars MEER bandbreedte, zodat ze de texture resolutie hoger kunnen maken. Anders hebben ze ook geen drol aan die 8GB ;)


En wat de geruchten betreft, ik zou geen gigantische sprongen verwachten. Performance per Watt is wel beter dan Kepler, per transistor is dat niet het geval. De architectuur is wel iets efficiënter en omdat hij iets zuiniger is kunnen de clocks niet omhoog, maar het zal meer aanvoelen als een refresh dan iets heel nieuws.

[ Voor 8% gewijzigd door Werelds op 19-07-2014 14:27 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dan mogen de meerdere tech sites ook wel weer de boel gaan aanpassen want daar staat letterlijk dat minder bandbreedte nodig is vanwege meer L2 Cache.

Edit
Phuncz schreef op zaterdag 19 juli 2014 @ 14:38:
Misschien voor compute en niet voor 3D games ? Ik kan het geloven dat ze de compute performance nog verder uit AMD's bereik willen krijgen.
Nooit aan gedacht, maar dit zou ook nog kunnen.

[ Voor 50% gewijzigd door Verwijderd op 19-07-2014 15:00 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Misschien voor compute en niet voor 3D games ? Ik kan het geloven dat ze de compute performance nog verder uit AMD's bereik willen krijgen.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:53
Weet je zeker dat je niet ergens een rekenfout maakt werelds?

een gtx770 zit ook met een 256bit bus, 220GB/s bandbreedte. Stel je kan lezen met 110.

8/110=0.07, 70ms

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op zaterdag 19 juli 2014 @ 14:36:
Dan mogen de meerdere tech sites ook wel weer de boel gaan aanpassen want daar staat letterlijk dat minder bandbreedte nodig is vanwege meer L2 Cache.
Nee hoor, die hebben het niet fout, maar jij trekt die lijn door naar grotere chips. Wat tech sites hebben gezegd is dat op de 750 Ti die 2 MB cache er voor zorgt dat er minder requests naar het geheugen hoeven te gaan en dat klopt ook.

Echter heeft dat niet veel te maken met de doorvoer snelheid die je nodig hebt als je daadwerkelijk 8 GB aan geheugen hebt en dat vol hebt zitten. Bij GM107 is die 4 GB uitvoering je reinste onzin, de chip is niet snel genoeg om daar ooit fatsoenlijk gebruik van te maken. Zelfs als de 2 GB uitvoering vol zit, kan de chip dat niet bij benen.

Een grote chip, die in staat is om bijvoorbeeld BF4 Ultra op 1080p op 120 FPS te draaien heeft aan die 88 GB/s van een 750 Ti niet genoeg. 2 MB cache helpt niet met textures die meerdere megabytes groot zijn ;)
haarbal schreef op zaterdag 19 juli 2014 @ 14:40:
Weet je zeker dat je niet ergens een rekenfout maakt werelds?

een gtx770 zit ook met een 256bit bus, 220GB/s bandbreedte. Stel je kan lezen met 110.

8/110=0.07, 70ms
Excuseer, ik heb inderdaad een rekenfout gemaakt, het moet (256 / 8)(1750 * 4) zijn vanwege de quad pumped data rate van GDDR5. Dat brengt het op 224384 bps ofwel 224 Gbps ofwel 28 GB/s.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:53
Volgens mij deel je nog een keer te veel door 8.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Inderdaad, 256-bit is al 'bit' :)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Godver ja sorry, ik ben er echt helemaal niet bij, mijn excuses. MH17 doet me geen goed (helaas zat er een vriend van me bij), ik ga gewoon even m'n bek houden. Het is inderdaad gewoon (256 / 8)(1750 * 4) = 224384 MB/s ~= 224 GB/s :)

Neemt verder niet weg dat 2 MB L2 cache betekent dat ze ineens met minder bandbreedte toe kunnen, omdat juist de dingen waar bandbreedte voor nodig is niet in het cache geheugen passen.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op zaterdag 19 juli 2014 @ 16:52:
[...]

Nee hoor, die hebben het niet fout, maar jij trekt die lijn door naar grotere chips. Wat tech sites hebben gezegd is dat op de 750 Ti die 2 MB cache er voor zorgt dat er minder requests naar het geheugen hoeven te gaan en dat klopt ook.


[...]

Excuseer, ik heb inderdaad een rekenfout gemaakt, het moet (256 / 8)(1750 * 4) zijn vanwege de quad pumped data rate van GDDR5. Dat brengt het op 224384 bps ofwel 224 Gbps ofwel 28 GB/s.
Plus er staat ook bij dat er minder bandbreedte nodig is door meer L2 cache, dit staat er letterlijk. Foutje dus want het is wel nodig voor de hogere resoluties en textures.

Ben erg benieuwd wat de gtx880 zal doen op 4k want krijg er gtx680 gevoelens bij.

[ Voor 9% gewijzigd door Verwijderd op 20-07-2014 11:09 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik denk dat de GTX 880 wel heel wat beter voor 4K geschikt gaat zijn, aangezien het al een tijd geleden is dat er nog een écht nieuwe kaart op de markt kwam en ze genoeg tijd hebben gehad zich hierop voor te bereiden. Ik hoop het in ieder geval, 4K is nu al betaalbaar qua monitors en TV's, nu de GPU hardware nog.

[ Voor 22% gewijzigd door Phuncz op 20-07-2014 11:47 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
AMD heeft anders de R9 290X en R9 290. Die zijn prima voor 4K. Niet om alle toeters en bellen aan te zetten, maar qua prijs heel erg goed.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ja ok maar we hebben het hier over Nvidia en wat zij gaan brengen. Sowieso moet er meer geoptimaliseerd worden voor 1080p en 2160p (vooral nu) in mijn ogen, de tijd dat iedereen nog 1366x768 had is wel aan het verdwijnen. Ook de connectors moeten 4K @ 60Hz aankunnen (in 4:4:4 mode), dus hopelijk HDMI 2.0 en DisplayPort 1.3.

Acties:
  • 0 Henk 'm!

Verwijderd

Niet veel soeps als je het mij vraagt, weer een mid end gevalletje ala gtx680.
http://www.guru3d.com/new...-gtx-880-at-gamescom.html

Afbeeldingslocatie: http://www.guru3d.com/index.php?ct=news&action=file&id=7604

Maar goed ik zie ook een cpu core speed staan van maar 3 cijfers voor de komma, daar klopt ook iets niet helemaal want dit is nog lager dan de idle clock speed.

[ Voor 24% gewijzigd door Verwijderd op 23-07-2014 10:17 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Check the Title and comment. "New Maxwell cards incoming and then Gamescom. The screenshot shows 3DMark Firestrike in Extreme mode with a 6110 points score, roughly 20% better then a GeForce GTX 780 Ti.

Hoezo is dat mid-end ? Als je meer had verwacht pre-launch, heb je geen realistische verwachtingen.

[ Voor 6% gewijzigd door Phuncz op 23-07-2014 10:23 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op woensdag 23 juli 2014 @ 10:20:
Check the Title and comment. "New Maxwell cards incoming and then Gamescom. The screenshot shows 3DMark Firestrike in Extreme mode with a 6110 points score, roughly 20% better then a GeForce GTX 780 Ti.

Hoezo is dat mid-end ? Als je meer had verwacht pre-launch, ben je totaal niet realistisch.
Ik had ook niet meer verwacht, had al verwacht dat het zo'n verschil zou zijn zoals de gtx580 vs gtx680 maar ik had liever gehad dat ze gelijk over gingen op de GM200 ipv GM204

•NVIDIA GM200 (Maxwell Architecture, High-Performance for Telsa/Quadro Arrives later for Cosnumers, Successor of GK110)
•NVIDIA GM204 (Maxwell Architecture, High-End Consumer, Successor of GK104, First GeForce 800 Series Products likely to feature)
•NVIDIA GM206 (Maxwell Architecture, Performance Minded, Successor of GK206, Mid-Range GeForce 800 Series products to feature)
•NVIDIA GM107/207 (Maxwell Architecture, Entry Level, Successor of GK107, Entry Level GeForce 800/700 Series To feature, Already introduced on GTX 750 Ti / GTX 750)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Een wazige screenshot van 3DMark zegt natuurlijk weinig over de release schedule, dit is meer een teaser van de performance, als het legit is.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Godsamme, allemaal die geruchten sites zijn hilarisch. Ik vermaak me kostelijk, er is werkelijk geen enkele van al die sites die hun hersenen gebruiken _O-

GM204, "opvolger van de 780" en 35% sneller dan die gecastreerde GK110 (+-20% sneller dan de volledige chip ofwel de 780 Ti). Tuurlijk jongens, we persen wel even het dubbele aan performance uit een 300mm^2 chip met alleen nieuwe architectuur, die al bewezen heeft vooral zuiniger te zijn, niet sneller per transistor _O- _O-

[ Voor 51% gewijzigd door Werelds op 01-08-2014 13:08 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik ben wel heel erg benieuwd wat er wél aangekondigd gaat worden. Ik hoop meer dan gewoon "sneller, zuiniger", 4K moet serieus aandacht krijgen met HDMI 2.0 en hopelijk DisplayPort 1.3 mét Adaptive Sync support. Ik hoop ook op een nóg betere cooler, het werd eens tijd dat de reference coolers de moeite werden !

Echter vreemd dat ze besluiten om de mobiele GPU's al van een 900-series nummering te voorzien voordat de 800-series voor de desktop er uberhaupt is. Maar die verwarring is er al een tijdje, ook met AMD en hun 8000-series mobiele chips...

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:53
Werelds schreef op vrijdag 01 augustus 2014 @ 13:06:
Godsamme, allemaal die geruchten sites zijn hilarisch. Ik vermaak me kostelijk, er is werkelijk geen enkele van al die sites die hun hersenen gebruiken _O-

GM204, "opvolger van de 780" en 35% sneller dan die gecastreerde GK110 (+-20% sneller dan de volledige chip ofwel de 780 Ti). Tuurlijk jongens, we persen wel even het dubbele aan performance uit een 300mm^2 chip met alleen nieuwe architectuur, die al bewezen heeft vooral zuiniger te zijn, niet sneller per transistor _O- _O-
Ligt eraan hoe groot ie wordt, als ie 300 mm^2 wordt dan denk ik ook van niet, maar op 400 mm^2 misschien wel, zit je op ongeveer de 290x grootte.

Je hebt lagere performance/transistor/clock, maar omdat ie efficienter is kan je wel een veel hogere clock draaien bij hetzelfde verbruik.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
haarbal schreef op vrijdag 01 augustus 2014 @ 14:06:
Ligt eraan hoe groot ie wordt, als ie 300 mm^2 wordt dan denk ik ook van niet, maar op 400 mm^2 misschien wel, zit je op ongeveer de 290x grootte.

Je hebt lagere performance/transistor/clock, maar omdat ie efficienter is kan je wel een veel hogere clock draaien bij hetzelfde verbruik.
Hoe groot wordt GM200 (of GM210) dan wel niet? Gaan we dan over de 600 heen? Ik hoop het toch echt van niet. Performance/transistor/clock is overigens niet lager hoor, die is ongeveer hetzelfde :)

Die 100% winst waar sommigen aan denken zit er gewoon niet in. Nu stel dat ze inderdaad tegen de 400mm^2 aan gaan zitten, krijg je pakweg 25-30% meer transistors en 15-20% meer shaders. Want let wel, het zijn niet alleen shaders; en die andere onderdelen vreten ook stroom en nemen boven alles vooral aardig wat ruimte in. Qua performance mag je dan kijken naar wellicht 15% meer gemiddeld.

En dan nu efficiëntie. Kijken we naar GK107, dan is GM107 pakweg 35% zuiniger. Echter zien we dat de kloksnelheden gelijk liggen; dat komt vooral doordat GM107 dezelfde transistordichtheid heeft als de grotere Kepler chips. Dat betekent dat er minder ruimte is (letterlijk en figuurlijk) om de kloksnelheden op te krikken. Met het hogere TDP van een grotere chip zullen ze echt wel iets hoger kunnen gaan zitten en een maximum boost van tegen de 1400 zit er wellicht best in, maar in het allergunstigste geval pers je er dan misschien 15% performance uit.

Let op: voordat iemand het in z'n hoofd haalt om te zeggen "ja maar de 750 Ti (GM107) is toch ongeveer 100% sneller dan de 650 (GK107)". Klopt. Maar dat komt juist doordat de transistordichtheid een stuk hoger is en ze er ook flink wat meer shaders in hebben gestopt - 67% maar liefst (640 tegenover 384). En een iets sneller geheugenbus.

Nee, sorry. Al wordt GM204 400mm^2 groot, met clocks die misschien 15% hoger liggen, 100% sneller dan z'n voorganger (wat dus GK104, ofwel de 680/770 is, voor als iemand dat nog niet snapte) zie ik gewoon niet gebeuren. Tenzij Nvidia nog een aap in de mouw heeft zitten, maar dat geloof ik niet. 28nm is nu toch echt wel op :)

Acties:
  • 0 Henk 'm!

Verwijderd

Nvidia to launch GeForce GTX 880 in September
http://www.guru3d.com/new...gtx-880-in-september.html

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
GeForce GTX 880 will be based on the GM204-GB3-256 GPU, it is one of the best sectrets to date as nobody really knows the shader processor count to date. All specs and speculated, but GM204 is expected to be a 28 nm process product, with later in the pipeline a 20 nm version.

The latest rumors indicate that the GTX 880 features 7.9 billion transistors with a whopping 3,200 CUDA cores. The product would get 200 TMUs and 32 ROPs offering a 5.7 TFLOP/s single-precision floating-point throughput. Memory you are looking at a 256-bit wide GDDR5 memory interface with 4 GB being the standard memory amount. With a memory clock-speed of 7.4 Ghz that would get the product a 238 GB/s memory bandwidth.
Mooi werk Hilbert, doe maar lekker mee aan de clicks verzamelen :P

7.9 miljard transistors op (laat ik maar eens met haarbal mee gaan) 400mm^2 - hij heeft het immers nog steeds over GM204, de mid-range chip? Dat is een dichtheid van maar liefst 19.75 miljoen per mm^2; we zitten nu tegen de 13 miljoen aan.

Dit is dus wat ik bedoel. Denken ze nu werkelijk dat Nvidia ineens magisch een 50% hogere dichtheid weet te realiseren? Zou voor het eerst in de geschiedenis zijn dat een fabrikant dát voor elkaar krijgt.

Acties:
  • 0 Henk 'm!

Verwijderd

Misschien krijgen ze het Inderdaad wel voor elkaar, ben benieuwd want September is dichtbij.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Niet zonder die-shrink dat is namelijk simpel weg onmogelijk. Maar zoals het altijd met de geruchten gaat, de meesten kloppen van geen kant en niemand controleert überhaubt als het mogelijk is.

[ Voor 51% gewijzigd door -The_Mask- op 01-08-2014 15:09 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:53

XanderDrake

Build the future!

Het is al zo lang stil in dit gebied, je zou zeggen dat ze je wel haast moeten verrassen :P

[ Voor 3% gewijzigd door XanderDrake op 01-08-2014 15:12 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op vrijdag 01 augustus 2014 @ 15:05:
Misschien krijgen ze het Inderdaad wel voor elkaar, ben benieuwd want September is dichtbij.
Dan zouden ze de eerste chip fabrikant zijn die dat voor elkaar krijgt ;)

Iets meer transistors per mm^2 kan altijd, door bijvoorbeeld een beter floorplan. Maar 50% meer? Nee, dat kan ik me niet herinneren. Zelfs van G80 naar G92 was met pijn en moeite 65% meer - en dat was een refresh én een shrink. De echte grote sprongen zie je vooral als er een nieuwe architectuur is én een die shrink plaats vindt. Sommige refreshes zijn beter dan anderen, dus soms zie je daar nog wel iets verschuiven, maar zelden echt schokkend.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:53
mjah, 7.9 miljard kan alleen als het een hele grote chip wordt, gaat zeker niet gebeuren.

Maar goed, prestaties kunnen nog steeds fantastisch zijn, een 780Ti is (volgens techpowerup) gemiddeld maar 35% sneller dan een 770, tot iets boven de 40% op 1440p. Als de maxwell architectuur ook echt beter is dan moet dat toch te doen zijn als ze de die size iets vergroten t.o.v. de 770.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

Alleged GeForce GTX 870 Sample Put Through 3DMark

A Coolaler.com community member claims to have scored a GeForce GTX 870 sample, ahead of its September 2014 launch. GPU-Z cannot correctly detect the GPU at this point. It is, however, programmed to pull out some details of unknown GPUs. It reads the card's name as "D17U-20" featuring a GPU name "13C2." The Device ID and BIOS fields are conveniently redacted, so we cannot say for sure if this is genuine.

The card's CUDA core count is 1,664. Given how streaming multiprocessors in "Maxwell" GPUs launched so far feature 128 cores, this particular chip features 13. Other features read out are 138 TMUs, 32 ROPs, and a 256-bit wide memory interface, holding 4 GB of GDDR5 memory. The sample features clock speeds of 1051 MHz core, 1178 MHz GPU Boost, and 1753 MHz (7012 MHz GDDR5 effective) memory, yielding 224 GB/s of memory bandwidth. The test-bed including a Core i7-4820K "Ivy Bridge-E" quad-core processor. The card was put through 3DMark 11, in its performance (P) and extreme (X) presets. It scored P11919 points in the performance preset, and X4625 in the extreme preset; which makes the card roughly as fast as a GeForce GTX 780. And these are pre-release drivers, and probably a pre-launch qualification sample altogether. Color us intrigued.
Afbeeldingslocatie: http://tweakers.net/ext/f/BqIo4VqYyaJ0R07fNNEBbzE2/medium.jpg Afbeeldingslocatie: http://tweakers.net/ext/f/kkJVSWtGyA9Xa29IH9NiLrRn/medium.jpg
Afbeeldingslocatie: http://tweakers.net/ext/f/OZKr2dvIe2WnQdKJch41Bi8a/full.jpg

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:53

XanderDrake

Build the future!

OK. Even ter vergelijking, mijn game-bak heeft een Intel i7 920@ 4.2ghz en een GTX 670 met lichte stock OC. Ik haal bij 3Dmark11 8470 punten.
Specs van mijn PC en deze bench PC komen grotendeels overeen, dus dan is de GTX 870 ongeveer 40% sneller dan mijn GTX 670.
Dat is dus:
GTX 670 >> GTX 770 >> GTX 870
ratio 1.0 >> 1.2 >> 1.4
Ongeveer een 20% stijging van prestaties per generatie. Waarschijnlijk heeft de GTX 870 zelfde of iets lagere TDP neem ik aan.
Het is dus erg voorspelbaar, niet heel bijzondere performance. Ik ga niet upgraden iig.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Een GTX 780 is ongeveer 20% sneller dan een GTX 770 en aangezien er wordt gezegt dat die ongeveer evensnel is als een GTX 780 klopt het wel wat je zegt ja. :p

Maar het gaat hier niet om een volledig ingeschakelde chip, ik denk dat er twee SMM's zijn uitgeschakeld en dat die er totaal 1920 heeft zoals ik eerder zei.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Jeroendedoem
  • Registratie: Maart 2014
  • Laatst online: 05-07 15:37
Ik ga binnenkort mijn nieuwe PC bestellen, maar wacht iig wel even wat dit gaat worden.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Sowieso zal je met wachten altijd betere keuzes krijgen, de truc is te stoppen met wachten en er gewoon voor te gaan :)
Verwacht echter geen onmiddellijke leveringen, vermoedelijk pas september/oktober. Dus hou hier rekening mee. Het is ook meestal pas tijdens de eerste leveringen dat de prijzen bekend zijn, sowieso moeten we naar EU prijzen kijken ivm. tax/BTW.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:53

XanderDrake

Build the future!

Phuncz schreef op dinsdag 12 augustus 2014 @ 11:46:
Sowieso zal je met wachten altijd betere keuzes krijgen, de truc is te stoppen met wachten en er gewoon voor te gaan :)
Vind ik iets te simplistisch. Je hebt "betere keuzes" en betere keuzes :)
Ter illustratie: de GTX 570 haalt een 3Dmark 11 score van 5300, mijn GTX 670 doet 8470, de GTX 770 doet ongeveer 10600. Dus de increase van GTX 570 naar GTX 670 is bijna 60% terwijl de increase naar GTX 770 maar 25% is. De GTX 670 was duidelijk de "grote" stap voorwaarts. :)
Nu zie je ook weer dat de GTX 870 ong. 20% sneller is dan de generatie daarvoor. Die is dus klein.

Je kan vaak duidelijk dat als er een grote redesign van de GPU plaats vind dat er betere scores en fps's worden neergezet, ook in verhouding met normale respins. Dat zag je ook bij de G80 bijvoorbeeld. Het is de truuk om dat moment te ontdekken en dán in te stappen 8)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op dinsdag 12 augustus 2014 @ 10:36:
[...]

OK. Even ter vergelijking, mijn game-bak heeft een Intel i7 920@ 4.2ghz en een GTX 670 met lichte stock OC. Ik haal bij 3Dmark11 8470 punten.
Specs van mijn PC en deze bench PC komen grotendeels overeen, dus dan is de GTX 870 ongeveer 40% sneller dan mijn GTX 670.
Hoe kom je daar bij? Jouw specs zijn niet gelijk aan die bench PC; dat is een IB-E CPU, wat in 3DMark weldegelijk invloed heeft. Vooral op de performance preset.

Verder is het in absolute score dan wel 40,7% meer, de boost clock ligt ook een 10% (? hangt van jouw OC af) hoger, het geheugen ligt 16,7% hoger (? wederom afhankelijk van jouw OC, stock is het +251 MHz). Bovenop die CPU boost.
XanderDrake schreef op dinsdag 12 augustus 2014 @ 10:36:
Dat is dus:
GTX 670 >> GTX 770 >> GTX 870
ratio 1.0 >> 1.2 >> 1.4
Ongeveer een 20% stijging van prestaties per generatie. Waarschijnlijk heeft de GTX 870 zelfde of iets lagere TDP neem ik aan.
Het is dus erg voorspelbaar, niet heel bijzondere performance. Ik ga niet upgraden iig.
Nope.

GTX 670 = GK104 met 1 uitgeschakeld cluster (7/8).
GTX 680 = GK104 zonder uitgeschakelde clusters (8/8).
GTX 760 Ti = GK104 met 1 uitgeschakeld cluster (7/8) met exact dezelfde clocks als 670.
GTX 770 = GK104 zonder uitgeschakelde clusters (8/8) en iets hogere clock dan 680 (af fabriek).

GTX 870 is de directe opvolger van de 670/760 Ti, er van uit gaande dat er wat dingen uitgeschakeld zijn. De 880 zal dat zijn voor de 680/770. De 780 zal volgens deze geruchten nog geen opvolger krijgen. Net zoals de 780 niet de opvolger van de 680 is.
XanderDrake schreef op dinsdag 12 augustus 2014 @ 12:10:
Ter illustratie: de GTX 570 haalt een 3Dmark 11 score van 5300, mijn GTX 670 doet 8470, de GTX 770 doet ongeveer 10600. Dus de increase van GTX 570 naar GTX 670 is bijna 60% terwijl de increase naar GTX 770 maar 25% is. De GTX 670 was duidelijk de "grote" stap voorwaarts. :)
Nu zie je ook weer dat de GTX 870 ong. 20% sneller is dan de generatie daarvoor. Die is dus klein.
Zie hierboven ;)

Even voor de duidelijkheid:
- GTX 480/570 -> GTX 670/760 Ti -> GTX 870 (?)
- GTX 580 -> GTX 680/770 Ti -> GTX 880 (?)

Eerste zijn allemaal "tweederangs" chips. Allemaal chips met uitgeschakelde clusters. Tweede rij zijn de volledig werkende chips (GF114, GK104 en GM204 (?)). GF100 (480) hebben we nooit volledig werkend gezien.

[ Voor 19% gewijzigd door Werelds op 13-08-2014 10:02 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Knap, dat de gtx870 gewoon net zo snel is als de gtx780 maar dan met veel minder cores aan boord, dan ben ik helemaal benieuwd naar de gtx880, die moet dan wel 15-20% beter kunnen scoren dan de gtx780?

[ Voor 86% gewijzigd door Verwijderd op 13-08-2014 10:38 ]


Acties:
  • 0 Henk 'm!

  • Ruudox
  • Registratie: Februari 2008
  • Laatst online: 21:13
Had bijna mijn GTX780 2,5 slots verkocht en daarvoor 2 slots kaart 780 gekocht, maar na het nieuws dat de 800 serie volgende maand uitkomt wacht ik nog maar even:P

in de hoop dat deze niet zo warm worden als de AMD, want dat is niet zo fijn in een mini itx kast:P

dus hopen dat de GTX880 niet al te duur wordt, anders wordt het de GTX870.

[ Voor 39% gewijzigd door Ruudox op 13-08-2014 16:49 ]


Acties:
  • 0 Henk 'm!

  • Jeroendedoem
  • Registratie: Maart 2014
  • Laatst online: 05-07 15:37
pruimman schreef op woensdag 13 augustus 2014 @ 16:32:
Had bijna mijn GTX780 2,5 slots verkocht en daarvoor 2 slots kaart 780 gekocht, maar na het nieuws dat de 800 serie volgende maand uitkomt wacht ik nog maar even:P

in de hoop dat deze niet zo warm worden als de AMD, want dat is niet zo fijn in een mini itx kast:P

dus hopen dat de GTX880 niet al te duur wordt, anders wordt het de GTX870.
Nvidia heeft over het algemeen wel goede koele kaarten, daarbij zouden ze waarschijnlijk dezelfde prijs krijgen. Ik wacht iig tot volgende maand op meer informatie :)

Acties:
  • 0 Henk 'm!

Verwijderd

Ik denk een gerucht.

Nvidia GM200 GPU (GTX Titan II) Spotted
http://www.guru3d.com/new...tx-titan-ii)-spotted.html

Het lijkt er erg op dat nvidia de zelfde kant op gaat als met de gtx680>titan en dan pas een goedkopere gtx 780?

Het is wel speculeren maar het zou kunnen lijkt mij?

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:53

XanderDrake

Build the future!

Werelds schreef op dinsdag 12 augustus 2014 @ 14:26:
Hoe kom je daar bij? Jouw specs zijn niet gelijk aan die bench PC; dat is een IB-E CPU, wat in 3DMark weldegelijk invloed heeft. Vooral op de performance preset.
Dus de CPU heeft meer effect op de score en het verschil tussen deze GTX 870 en mijn GTX 670 is minder dan 40%? Andere clocks zullen inderdaad variëren, het gaat mij meer om het totale product en of ik het moet kopen of niet :P
Nope.
Het gaat mij om Price Brackets: hoe worden GPU's gepositioneerd vs de generatie daarvoor of het aanbod van de concurrent. Vaak zitten GTX x70's in ongeveer dezelfde prijscategorieën, dus dan gaat het me erom wat ze opleveren in relatieve performance winst. Het ziet er naar uit dat de GTX 870 dat niet echt gaat doen dus skip ik hem waarschijnlijk.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op dinsdag 19 augustus 2014 @ 11:08:
Dus de CPU heeft meer effect op de score en het verschil tussen deze GTX 870 en mijn GTX 670 is minder dan 40%? Andere clocks zullen inderdaad variëren, het gaat mij meer om het totale product en of ik het moet kopen of niet :P
Yep :)

Grote delen van 3DM11 lopen inmiddels tegen CPU bottlenecks aan, dus de CPU heeft hier aardig wat invloed. Sowieso draait deze slechts op 720p ;)
Het gaat mij om Price Brackets: hoe worden GPU's gepositioneerd vs de generatie daarvoor of het aanbod van de concurrent. Vaak zitten GTX x70's in ongeveer dezelfde prijscategorieën, dus dan gaat het me erom wat ze opleveren in relatieve performance winst. Het ziet er naar uit dat de GTX 870 dat niet echt gaat doen dus skip ik hem waarschijnlijk.
Ook qua prijs klopt dat niet :)

De 780 kwam uit op $649, tegenover $499 voor de 680. 280: $650. 8800: $599. Uitzondering is Fermi, waar ze noodgedwongen lager moesten gaan zitten op $499 omdat het gat met AMD anders te groot werd. Juist omdat GF100 en GK100 zo'n probleem chips waren is hun nummering vreemd; hun prijzen met Kepler zijn echter weer helemaal standaard.

Met uitzondering van Fermi (400/500 serie) is Nvidia vrij constant geweest met waar ze hun producten plaatsen. Prijs zegt meestal meer over chip grootte en kwaliteit dan over prestaties ;)

[ Voor 10% gewijzigd door Werelds op 19-08-2014 13:43 ]


  • Il 2
  • Registratie: November 2009
  • Niet online
Ik twijfel ook wel om even de wachten op de nieuwe generatie. Ik lees toch wel veel minpuntjes bij de huidige AMD kaarten (280 en 290's) zoals stabiliteitsproblemen, overheating en al die poespas. En de 770 loopt toch een beetje achter de feiten aan qua prestaties (in verhouding met de prijs van de amd kaarten).
veel andere keuze is er helaas niet.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Stabiliteitsproblemen heb je alleen bij een defecte of te ver overgeklokte kaart en oververhitting bij een defecte, niet goed geplaatste koeler of zoiets, dat is niet normaal in principe en kan bij elke videokaart gebeuren al zie je het bijna nooit gelukkig.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:53

XanderDrake

Build the future!

Il 2 schreef op donderdag 21 augustus 2014 @ 22:09:
Ik twijfel ook wel om even de wachten op de nieuwe generatie. Ik lees toch wel veel minpuntjes bij de huidige AMD kaarten (280 en 290's) zoals stabiliteitsproblemen, overheating en al die poespas. En de 770 loopt toch een beetje achter de feiten aan qua prestaties (in verhouding met de prijs van de amd kaarten).
veel andere keuze is er helaas niet.
Ik vind die problemen garantiegevallen, dus daar moet je wel onderuit zien te komen.

Mijn probleem bij deze generatie is dat het maar zulke kleine stapjes vooruit zijn qua prestaties, terwijl je er een flinke bak geld en hogere energie kosten tegenaan moet gooien. Maar mogelijk kan ik dan nog langer wachten...

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

De crappy reference cooler op de R9 290-series van AMD zorgt ervoor dat bij benaderen van de default Thermal Target van 95°C (die je kan instellen) de kaart "overhit" volgens sommigen. De kaart gaat er vanui dat ie pas in een paar graden lager daarvan moet beginnen met de fan speed te verhogen en als dit niet helpt, gaat ie downclocken. De reference cooler is ondermaats om deze hoogste Thermal Target (want bij 100°C = shutdown) te vermijden zonder te klinken als een stofzuiger in minder goed geventileerde cases.

Echter de betere 3rd party coolers hebben hier geen last van. En met een fullcover waterblock kan ik zelfs zeggen dat het stil kan werken. Stabiliteitsproblemen is random fanboy BS, heb extreem weinig crashes met de R9 290X gehad sinds dag 1. Een GTX 780 is beter in het opzicht dat ie hetzelfde kan doen maar met iets lagere hitte-afgifte en dus stillere koeling. Maar hij kost ook meer.

Binnenkort worden de nieuwe kaarten aangekondigd, meestal doet Nvidia een paper launch dus het zou oktober of november kunnen zijn voordat de eerste kaarten verschijnen. Hou hier dus rekening mee dat je misschien nog 2 of 3 maanden moet wachten. Ook valt het op dat de vervangen kaarten zelden in prijs dalen binnen de eerste maanden (vanwege SLI I guess) dus verwacht geen GTX 780 voor 350€ binnen een maand, dat gaat gewoon niet gebeuren.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Vergeet ook niet dat veel van die R9 290(x) probleem gevallen vaak ex-mining kaarten zijn, waarbij vaak geprutst is met de BIOS e.d.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Inderdaad, zeer op de hoede zijn voor tweedehands kaarten. Hier op Tweakers kan je makkelijk iemands activiteit volgen en zien of ie actief is geweest in scrypt-mining forum topics of "verdachte" items verkoopt/verkocht zoals PCIe risers en meer dan 2 GPU's verkoopt.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Ze hebben dan vaak een tijdje voluit geblazen, rommelen met de BIOS zou ook niet zoveel uit moeten maken, er is altijd een backup-bios toch?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

"Voluit blazen" maakt ook weinig uit :) Of eerder gezegd: is er al een onderzoek dat kan aantonen dat 24/7 belaste GPU's een beperkte levensduur hebben ?

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Beperktere, dat wel, ze zijn niet gemaakt om constant flatout te draaien (al gaat er ook weinig stuk van Folding@Home ;) ). Dat verschil in levensduur ga je niet merken volgens mij, in ieder geval niet met de huidige generaties. Dat zit qua balling allemaal wel goed volgens mij dus ik zie het probleem niet, gewoon een goedkopere kaart :)

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:53
24/7 vol blazen betekent vaak een versleten fan. maar goed, als je zelf een beetje creatief met fans bent is daar wel een mouw aan te passen, en en r9 290 voor onder de 200 euro is goeie price/performance.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Il 2 schreef op donderdag 21 augustus 2014 @ 22:09:
Ik twijfel ook wel om even de wachten op de nieuwe generatie. Ik lees toch wel veel minpuntjes bij de huidige AMD kaarten (280 en 290's) zoals stabiliteitsproblemen, overheating en al die poespas. En de 770 loopt toch een beetje achter de feiten aan qua prestaties (in verhouding met de prijs van de amd kaarten).
veel andere keuze is er helaas niet.
Ik zeg wachten als je nog even kunt uitzitten met de gtx770, even kijken wat er dan gebeurd want het is nog maar een paar maand dat de gtx870-880 komt.
Pagina: 1 ... 23 ... 30 Laatste

Dit topic is gesloten.