Prijs kwaliteit slechter dan ooit ?

Pagina: 1
Acties:

Acties:
  • +3 Henk 'm!

  • ArjenSmit
  • Registratie: September 2014
  • Laatst online: 15-09 21:41
Ik bouw nu bijna 30 jaar mijn eigen PC's. decenia lang kocht ik telkens een nieuwe grafishe kaart voor 300,- die dan tig keer beter was dan de vorige.

Nu zit ik met een 1080

Als ik de vergelijkingen bekijk zoals hier https://technical.city/en/video/rating of https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html

Dan zie ik dus dat ik nu voor 300,- misschien 20% performance increase heb. Om een performance verdubbeling te halen heb ik een 4070Ti nodig voor 900,-

Trappen jullie hier nog in ?
Gaat dit ooit weer normaal worden ?
Of zijn deze performance vergelijkingen niet representatief ?

Acties:
  • 0 Henk 'm!

  • _eLMo_
  • Registratie: Juni 1999
  • Niet online
Alle focus en innovatie zit in AI (neural engines) en raytracing. Dus je vergelijk is lastig.

Ook functies zoals DLSS. Wellicht niet met frames, maar wel evenveel op een monitor met hogere resolutie.

SFPC - Motorrijder - EV - PV - L/L WP - Steun de TET!


Acties:
  • +40 Henk 'm!

  • White Feather
  • Registratie: Januari 2000
  • Laatst online: 08:53
1): Een 1080 is alleen in de uitverkoop ooit € 300 geweest. Misschien in 2020, terwijl de kaart in 2016 op de markt kwam voor € 700+. In 2020 kwam de 3000-reeks uit, dus die kaart lag al 2 generaties achter.

2) voor € 300 heb je een 4060 die 50% sneller is in 1080p medium, 1080p ultra en 1440p. 50% sneller dan een 1080, geen 20%.

3) er is sinds 2016 (release 1080) meer dan 30% inflatie geweest.

4) als je voor € 400 een kaart koopt, dan kun je een Geforce RTX 4060 Ti kopen die 80% sneller is dan een 1080. Waarschijnlijk meer als je zaken als DLSS aanzet.

Acties:
  • +2 Henk 'm!

  • nokie
  • Registratie: Juni 2004
  • Laatst online: 12:58
Naast alle andere punten: hoe vaak kon je in het verleden 8 jaar verder met een GPU? Voor zover ik weet is Indiana Jones het eerste spel dat de 1080 niet trekt, en dat 8,5 jaar na release. Ik heb de jaren 90 ook meegemaakt, en mijn Matrox Millenium kaart uit 1993-94 was omgerekend waarschijnlijk veel duurder (geen idee, die hele 486 PC koste toen zonder inflatie te tellen omgerekend naar euro al boven de 2000 euro) en trok het echt niet tot 2001.

Acties:
  • +1 Henk 'm!

  • Phehistyr
  • Registratie: December 2003
  • Laatst online: 19-09 17:02

Phehistyr

De Epische Lurker

En sowieso, als je denkt dat het nu slecht is heb je de afgelopen 4 jaar lopen slapen. In die tijd was er veel vraag naar GPUs wegens de cryptogekte, het feit dat iedereen thuis thuis moest blijven en door de logistieke problemen door covid. De prijzen zijn toen echt hoog geweest. Ik ben blij dat mijn 1080 het in die periode gewoon is blijven doen, want vervangen voor ongeveer dezelfde prestaties had me waarschijnlijk meer gekost dan dat ik in 2017 voor die 1080 had betaald.

Give a man a fire and he will be warm for a day. Set fire to him and he will be warm for the rest of his life. Terry Pratchett - Jingo


Acties:
  • +1 Henk 'm!

  • ilaurensnl
  • Registratie: Augustus 2012
  • Laatst online: 07:23
Heeft een 1080 ooit 300 euro gekost? dat is nieuw voor mij.

Acties:
  • 0 Henk 'm!

  • Harm_H
  • Registratie: Juli 2008
  • Laatst online: 01:12
AI heeft ontzettend veel gpu's nodig. Even wachten tot de AI en crypto bubbel barst?
Ten minste als het een bubbel is.

Acties:
  • 0 Henk 'm!

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 18-09 20:51

heuveltje

KoelkastFilosoof

Harm_H schreef op vrijdag 20 december 2024 @ 12:25:
AI heeft ontzettend veel gpu's nodig. Even wachten tot de AI en crypto bubbel barst?
Ten minste als het een bubbel is.
Die "bubbel" duurt al jaren. En gaat nog wel minstens zo lang duren voor die weg zou zijn. ALS dat al gebeurt


En inderdaad Nvidia heeft niet echt belang bij om die kaarten nog heel goedkoop aan te bieden, want iedereen koopt toch wel nvidia om een of andere reden :? Maar Intel heeft net b580 uitgebracht die sneller moet zijn dan de 460

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


Acties:
  • 0 Henk 'm!

  • RPS13
  • Registratie: Juli 2010
  • Laatst online: 19-09 17:12

RPS13

S T Y L E

Ik kocht mijn GTX 1080 nieuw voor 843 euro, en mijn RTX 3080 nieuw voor 719 euro.
Voor die gemiddelde prijs, inclusief 30% inflatie, kan ik nu een 4080 / 4080 Super kopen.

Wat is het probleem?

Acties:
  • +2 Henk 'm!

  • Umbrah
  • Registratie: Mei 2006
  • Nu online

Umbrah

The Incredible MapMan

Laten we even inflatie niet vergeten, want dat is internationaal (de schaal waarop dit soort producten werken) gewoon vrij groot. We hebben daarnaast ook te maken met het feit dat het belang van grafische kaarten groter is geworden, ze kunnen immers "meer" en dat "meer" is nu mainstream geworden. Hadden we eerst een crypto boom, hebben we nu een enorme doorbraak in deep learning, maar ook in LLM's. Dat kanibaliseert beschikbare wafer space (ik benoem bewust niet GPU's, natuurlijk ook), en we hebben maar een paar fabrieken op aarde (waarvan de grootste bovendien een enorm risico loopt op een grootschalige inval momenteel, en altijd al geopolitiek een complexe situatie heeft gehad. Dat draagt allemaal niet bij.

De "GPU" hebben we dus meer van nodig, want ondanks dat we niet allemaal die RTX4080 meenemen, we vragen vrij massaal aan cloudsystemen of ze onze filmpjes even willen transcoden, van een filtertje willen voorzien, en even wat tekst er in willen zetten.

Daarnaast is een GPU natuurlijk niet het enige wat uit een wafer komt. Die ruimte wordt ook massaal geclaimed voor ESP32 achtige oplossingen, omvormers, load balancers, smart grid terminals, etc, etc...

Ik was laatst wat vodcasts aan het bekijken over electronica, en in wat zaken rondom vrij grote schakelingen/regelsystemen kwam de vraag naar voren: "waarom zo'n complexe schakeling maken, als je dit met een microcontroller ook kan regelen?". Gelijk hebben ze, want 'programmeerbare hardware' kan helpen bij een hoop grootschalige maatschappelijke uitdagingen, maar ook dat is allemaal waferspace die gebruikt wordt. Meestal niet de cutting edge 5nm-achtigen procede's, maar desalniettemin: capaciteit.

En fijn vinden we het allemaal. We vergrijzen, dus bepaalde beroepen (zoals achterstallig onderhoud aan bruggen) moeten slimmer, dus "met minder mensen meer werk doen, maar de wet van vraag/aanbod geld. Je GPU is duurder. Want je GPU is ook een IMMENS monolitisch stukje silicon: 609mm2 voor een RTX4090 staat niet in verhouding tot wat je er aan generieke chips voor kan bakken.

Maar geen nood. De nieuwste GPU generaties zijn doorgaans een nóg kleinere stap naar voren in rasterisen. We verzinnen al extra pixels, we verzinnen extra frames, en we zijn ook vrij goed geworden in blurry, ruis-achtige reflecties te verzinnen. Tegelijkertijd zitten we ook aan de "kop" van een console generatie, en een kleine revolutie in gamen: de nieuwere hardware is naar mijn mening minder hard nodig dan dat hij ooit was. Voor elke AAAa "abonnoment seasonpass" game die uitkomt zijn er ladingen indy-games die op een console of een steamdeck/ROG Ally goed draaien.

Los van de jaarlijkse, slecht geoptimaliseerde releases (als je d'r van houdt, alle kracht aan jou) is er gelukkig ook genoeg te spelen op mindere, goedkopere hardware.

En daarnaast mogen we denk ik ook blij zijn dat het monopolie van AMD/nVidia nu wat doorbroken wordt. Want vergeet niet dat in elke X86-game console (PS5/Xbox) ook gewoon een AMD chip zit, net zoals een nVidia chip in elke Nintendo console.

Nu Intel zowaar een goede GPU heeft gemaakt, niveautje 4060Ti, los van de absolute max settings érg goed speelbaar, voor ongeveer 60% van de prijs, worden groen/rood hopelijk OOK wakker en zullen ze hun prijzen aanpassen.

Acties:
  • 0 Henk 'm!

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 18-09 20:51

heuveltje

KoelkastFilosoof

Umbrah schreef op vrijdag 20 december 2024 @ 12:48:

Nu Intel zowaar een goede GPU heeft gemaakt, niveautje 4060Ti, los van de absolute max settings érg goed speelbaar, voor ongeveer 60% van de prijs, worden groen/rood hopelijk OOK wakker en zullen ze hun prijzen aanpassen.
Ik ben bang dat je nu veel te hoopvol bent. Amd maakt al jaren gpu's die kwa FPS per Euro een stuk beter zijn dan Nvidia, en toch als je in de steam survey kijkt, hebben die nog steeds amper een markt aandeel.

En voor nvidia zijn game GPU's zowel qua omzet nog maar iets van 15% van hun totaal, en de marge in die omzet is vele malen kleiner dan in de AI tak. Dus die hebben echt niet heel veel pressie om daar te gaan concureren op prijs.

[ Voor 18% gewijzigd door heuveltje op 20-12-2024 13:02 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

ArjenSmit schreef op donderdag 19 december 2024 @ 23:56:
Ik bouw nu bijna 30 jaar mijn eigen PC's. decenia lang...
[...]
Om een performance verdubbeling te halen heb ik een 4070Ti nodig voor 900,-
De megahertz-oorlog was leuk zo lang het duurde maar het afgelopen decennium zijn de technologische ontwikkelingen in chipprestaties steeds complexer geworden.

Tot een aantal generaties geleden was een nieuwe productie-node per transistor direct goedkoper dan de vorige productie-node. Dat betekende dus elke generatie weer meer prestaties voor minder geld. Dat is voor zowel consument als producent een no-brainer. Die tijd is voorbij. Sinds 20nm-10nm zijn de technische ontwikkelingen dermate complex dat een nieuwe node per transistor duurder is dan de vorige generatie. Dus meer prestaties voor meer geld. Naar mate de hele wereld naar die technieken overschakelt trekt dat over tijd wel weer bij, maar dat gaat veel trager dan voorheen.

Dus ja, de tijden dat je in opvolgende jaren CPU's/GPU's had waarbij de prestaties 'gratis' verdubbelden zijn wel voorbij. Je ziet ook dat AMD en NVidia de afgelopen jaren op 7nm/6nm/5nm bleven hangen terwijl ze al lang naar 3nm hadden gekund. De techniek is er klaar voor. Reken in dat geval op instap-GPU's van 1000 euro.

Tegen de tijd dat 3nm stukje bij beetje gangbaarder wordt gaan die prijzen misschien weer een keer dalen en krijg je daar ook consumenten-GPU's voor. Dat TSMC in dit segment de-facto monopolist is helpt voor de prijzen niet mee.
Trappen jullie hier nog in ?
Leuke stemmingmakerij. Jij laat je niet beetnemen en je bakt in je eigen oventje wel je eigen GPU of zo?

[ Voor 15% gewijzigd door bwerg op 20-12-2024 14:03 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
ArjenSmit schreef op donderdag 19 december 2024 @ 23:56:
Ik bouw nu bijna 30 jaar mijn eigen PC's. decenia lang kocht ik telkens een nieuwe grafishe kaart voor 300,- die dan tig keer beter was dan de vorige.

Nu zit ik met een 1080

Als ik de vergelijkingen bekijk zoals hier https://technical.city/en/video/rating of https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html

Dan zie ik dus dat ik nu voor 300,- misschien 20% performance increase heb. Om een performance verdubbeling te halen heb ik een 4070Ti nodig voor 900,-

Trappen jullie hier nog in ?
Gaat dit ooit weer normaal worden ?
Of zijn deze performance vergelijkingen niet representatief ?
Niet representatief. Ik heb niet het idee dat dit een goed startpunt is van een informatieve discussie. Een GTX 1070 was namelijk niet goedkoper dan +- 450 euro te vinden en de 1080 zat daar nog boven. Sterker nog als ik het ga opzoeken in de pricewatch dan is een 1080 bij launch 771 euro en is de laagste prijs na 3 jaar 533 euro.

De enige manier dat je kunt praten over een 1080 en 300 euro is wanneer je gebruik maakt van de tweedehands markt op een punt dat die kaart al lang en breed is opgevolgd door andere modellen. Maar in dat geval is je vergelijking ten aanzien van de vraagprijs voor een nieuwe kaart natuurlijk niet eerlijk. Dan moet je kijken naar een kaart NU die even oud is als je toen je 1080 toen was.

Als we uitgaan van een vergelijkbaar budget als een nieuwe 1080 dan kom je op een 4070 Ti uit met een vanaf prijs van 845 euro. Kocht je hem na een jaar nieuw dan is wellicht de 4070 met een vanafprijs van 553 een betere vergelijking.

Laten we even rekenen 1080p met de 4070 van 553 euro:
4070 168,6 fps
3070 132,1 fps
1080 80,10 fps (opv 60,7% van een 3070)

Dat is 210% van de performance. Tevens heb je dan nog DLSS wat je fps al snel met 25% verhoogd, bovenop wat we hier zien.

Voor 1440p:
4070 127,4
3070 99,9
1080 55,78 (55,84% )

Dat is een toename van 228%.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • ArjenSmit
  • Registratie: September 2014
  • Laatst online: 15-09 21:41
Wat betreft die prijs van de 1080: klopt, die heb ik 2 jaar terug gekocht voor 100,- ter vervanging van mijn 1060 die ik ooit voor 300 kocht. De 300 die ik altijd uitgaf bedoel ik ook wel inflatie gecorrigeerd, vroeger was dat 300 gulden.

Verder wel een hoop goede punten ja.
-game kaarten zijn nu "bijzaak" voor de producenten naast AI chips.
-Techniek is complexer geworden (wet van moore is niet meer)
-Een hoop games die het niet nodig hebben

Dat laatste punt is net mijn heikele punt en waar het zeer doet. Ik zit nu te kijken naar Frostpunk 2 en PoE 2.
Beiden willen net een klein beetje meer dan mijn huidige PC zowel wat betreft CPU als GPU. Het is zo zuur om een hoop geld uit te moeten geven voor net een klein beetje. :(

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Wat trouwens ook nog meespeelt is dat je vroeger echt low-end GPU's had, die tegenwoordig meer door IGP's zijn vervangen. De HD4650 was een leuk instap-kaartje voor iemand die op lage settings wilde gamen, die was zo uit mijn hoofd rond de 50 euro. Kijk je nu naar low-end, dan bieden de RX6400 e.d. weinig waar voor je geld, je kan dan beter een RX6600 kopen, maar dat is echt een ander segment. Terwijl je met een Ryzen 5600G of 8600G ook heel goedkoop klaar kunt zijn.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • +2 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
ArjenSmit schreef op vrijdag 20 december 2024 @ 14:54:
Wat betreft die prijs van de 1080: klopt, die heb ik 2 jaar terug gekocht voor 100,- ter vervanging van mijn 1060 die ik ooit voor 300 kocht. De 300 die ik altijd uitgaf bedoel ik ook wel inflatie gecorrigeerd, vroeger was dat 300 gulden.

Verder wel een hoop goede punten ja.
-game kaarten zijn nu "bijzaak" voor de producenten naast AI chips.
-Techniek is complexer geworden (wet van moore is niet meer)
-Een hoop games die het niet nodig hebben

Dat laatste punt is net mijn heikele punt en waar het zeer doet. Ik zit nu te kijken naar Frostpunk 2 en PoE 2.
Beiden willen net een klein beetje meer dan mijn huidige PC zowel wat betreft CPU als GPU. Het is zo zuur om een hoop geld uit te moeten geven voor net een klein beetje. :(
Tja die 100 euro is echt een goede deal geweest. Een tweede hands 1070 staat nu voor meer geld op V&A. Meestal is het de laatste +- 10 jaar ongeveer 35% per generatie wat erbij komt. Een verdubbeling vereist dan al snel een tier omhoog óf lang wachten. Voordat een 3080 / 4070 op 100 euro zit ga je nog enkele jaren geduld moeten hebben verwacht ik.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 12:14

rapture

Zelfs daar netwerken?

Over de GPU-prijsstelling van tegenwoordig heb ik al gepost: rapture in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"
heuveltje schreef op vrijdag 20 december 2024 @ 12:33:
Die "bubbel" duurt al jaren. En gaat nog wel minstens zo lang duren voor die weg zou zijn. ALS dat al gebeurt
Op de Amerikaanse beurs is het narratief langzaam maar zeker aan het kantelen van de believers die denken dat AI wordt zoals Skynet naar de realisten die weten dat AI niet veel meer is dan een papegaai die napraat of een huisdier doet maar wat en met het geven of niet geven van een beloning wordt het getraind.

Groot gat tussen "OMG, het kan mijn huiswerk maken, mijn job doen,... en gaat de wereld overnemen zoals Skynet!" en "Zal nooit slimmer dan mijn kat of hond worden. Het is nu vergelijkbaar met een duif."

Achteraf kan blijken dat het slechts een betere manier van dataverwerking is in het rijtje van rekenmachine, spreadsheet, ERP,...

Op de beurs zijn er altijd snelle jongens die dromen, lucht, digitale tulpenbollen (tegenwoordig ook in ETF-vorm),... verkopen. Je gaat als verkoper niet zeggen dat iets kleine impact gaat hebben, moet wel roepen dat het wereldveranderend, paradigmaverschuiving,... en een grote dreiging voor onze jobs, veiligheid,... is.
Pagina: 1