Verwijderd schreef op dinsdag 26 augustus 2014 @ 12:15:
Toen werd het ook al geaccepteerd, alleen niet door mensen die er meer over weten maar die hebben er niets over te zeggen waar door het anders zou kunnen worden, die groep is zo klein en heeft overal wel wat over te klagen als het gaat om videokaarten.
Ik vond het toen ook niet erg puur om het feit dat het geen zin heeft om het erg te vinden.
Die zelfde mensen vonden de "big chips" toen ook niet goed en nu in eens wel.
Het werd toen niet gedaan, dat is juist het probleem. Dit was de eerste keer in de 20 jaar dat Nvidia mee doet dat ze het op deze manier speelden.
Dat over grote chips is ook onzin; de krachtigste chips zijn altijd groot (door de jaren heen steeds groter, overigens - "groot" was 10 jaar geleden wat nu Nvidia's mid-end is) geweest. Waar "wij" nu over vallen is dat de grootte van de chip niet meer overeenkomt met de prestaties. Fermi was 60% groter dan Cypress (met alle gevolgen van dien: verbruik, hitte, prijs), maar presteerde met pijn en moeite 10% beter. En het spijt me heel erg, hoe mooi GK110 in z'n geheel ook is, de grootte komt wederom niet overeen met z'n prestaties en dat maakt hem gewoon duurder voor ons als consument.
XanderDrake schreef op dinsdag 26 augustus 2014 @ 12:37:
Meh. Als het niet economisch rendabel is of de binning is te moeilijk?
Ik heb gewoon 300-400€ over voor een videokaart als ik een nieuwe zoek, en vervolgens kijk ik naar het aanbod en de achtergrond daarvan. Als nVidia met een grotere "complete" GPU komt die 150€ meer kost laat ik die liggen, tenzij die echt alles overstijgt en daardoor futureproof is (e.g. GTX8800).
Nogmaals, dat is niet wat Nvidia nu heeft uitgevreten.
Met Kepler hebben ze hun mid-end chip (GK104) als high-end gepresenteerd omdat hun echte high-end chip (GK100) het niet deed. Ze plakten er vervolgens wel gewoon een bovengemiddeld prijs stikkertje op. Als Nvidia nu met GM204 komt kun je er donder op zeggen dat die ook gewoon zo duur gaat zijn. Die komt dan gewoon op $549 of wellicht zelfs $599 uit, terwijl ze hem normaal gesproken ruim onder $449 zouden plaatsen.
Een 8800 GTX was $599 - de gecastreerde GTS (nu GTX 670 dus, of de 570, of 480; 470 was dubbel gecastreerd, arm ding

) op $449. 8800 GT en de 9 serie kwamen een jaar later als refreshes met die shrink.
Een GTX 280 was $649 (grootste chip ooit), GTX 260 was $400. 275/285 kwamen een jaar later (refresh met die shrink).
Mij als consument boeit dit weldegelijk, want GK104 kreeg pas z'n correcte prijs toen ze hun GK100 refresh (GK110, de 780 dus) klaar hadden. En dat is niet omdat ze het economisch niet voor elkaar kregen om GK104 goedkoper te maken, maar omdat ze het niet wílden doen. Ze wilden de verloren winst van het gebrek aan een echte high-end goed maken.
Dan hebben ze dat wellicht inmiddels gepatched. Ik speel het spel niet meer dus

Uhm, waarom zou de geheugenbus van mijn GPU daar mee te maken hebben? Dat is toch puur de PCI-e bus die bij het swappen de bottleneck vormt? Dat zou bij een 384-bit kaart net zo langzaam moeten gaan als bij een 192-bit kaart.
Uiteraard is de PCI-e bus de primaire bottleneck (en de reden dat UE's lazy loading zo pijnlijk is); maar het is niet zo dat daarmee de kous af is. De textures worden daarna nog wat links en rechts door het geheugen verplaatst voordat ze "klaar voor gebruik" zijn. Het is helaas niet zo dat ze binnenkomen en meteen klaar zijn. Wat de GPU precies doet hangt van de situatie af, denk aan dingen als het omgaan met tiles, mipmapping (ook dat is geen 1:1 lees actie helaas). Nu moet hij eerst wachten op de trage buses aan de buitenkant en vervolgens zo snel mogelijk ook nog eens z'n bewerkingen uitvoeren (wat in de praktijk betekent dat ze eerst naar het geheugen worden geschreven, dan weer gelezen, dan vaak nog eens terug geschreven).
Nogmaals, ja, 3GB zou het laden voorkomen, maar die verschillende bewerkingen zouden nog steeds pijnlijk zijn bij zulk geheugen gebruik op een tragere chip

En wie zegt dat de software zal verbeteren?

Zo niet, dan zal je daar een buffer voor nodig hebben, namelijk een paar extra GB op je videokaart. Liever dat, dan dat de helft van je games voor geen meter draait.
Ik begrijp je volledig, alleen komt hier mijn innerlijke programmeur kijken. Persoonlijk zou ik nooit zo'n werk opleveren; de klant betaalt voor de kwaliteit dus dan vind ik dat ik ook kwaliteit moet leveren. Juist geheugen gebruik is iets waar ik zelf heel veel tijd aan besteed. Hetzelfde geldt voor games. Als het spel een bijzonder krachtig systeem nodig heeft vind ik dat best, maar dan moet dat ook wel te verantwoorden zijn.
Ik ben benieuwd of er GM204 kaarten uitkomen met 2GB. Als ze het ding op de markt willen zetten als 4K-gaming card kan ik het me nauwelijks voorstellen.

Als dat ding nu op 28nm uit komt maakt dat geheugen sowieso niets uit. Dan gaat hij sowieso niet snel genoeg voor 4K zijn; althans niet met acceptabele framerates.
[
Voor 4% gewijzigd door
Werelds op 26-08-2014 13:56
]