Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Techkeizer schreef op zondag 14 mei 2023 @ 14:45:
De 4060 TI 16gb zal waarschijnlijk 499 dollar zijn en dat is dus in Nederland 555 incl btw. De 4070 is tegenwoordig al bijna 600, maar mist 4gb Vram.

Wat zouden jullie de betere deal vinden?

Ik zou zelf neigen naar de 4070 als hij haast gelijkwaardig geprijsd wordt incl korting natuurlijk. Puur op basis van dat de 4060 TI haast niet de power heeft, om die 16gb volledig te gebruiken.
Door de GDDR6X is de bandbreedte van de RTX 4070 best goed: 504,2 GB/s versus bijvoorbeeld 576 GB/s van de 16GB 6950XT. Als het spel echter meer dan 12 GB vraagt aan framebuffer, helpt de snelheid niet: vol is vol.

Er zijn het afgelopen jaar al meer dan 10 spellen verschenen die meer dan 8GB vragen, ook op 1080p en 1440p, met max settings. Je zult met een 4060 Ti voor die games settings en textures moeten verlagen, ik zou daarom op dit moment geen 8GB kopen.

Wat betreft meer dan 12 GB in 1080p 1440p tot nu toe misschien 1 spel als ik het me goed herinner, maar de komende 2 jaar kunnen dat er meer worden. 16GB zal langer mee gaan/heeft verwacht ik een betere doorverkoop waarde. Maar ik twijfel wel met m'n nieuwe 6950XT (vs 4070).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

sunsmountain schreef op woensdag 17 mei 2023 @ 14:28:
[...]


Door de GDDR6X is de bandbreedte van de RTX 4070 best goed: 504,2 GB/s versus bijvoorbeeld 576 GB/s van de 16GB 6950XT. Als het spel echter meer dan 12 GB vraagt aan framebuffer, helpt de snelheid niet: vol is vol.

Er zijn het afgelopen jaar al meer dan 10 spellen verschenen die meer dan 8GB vragen, ook op 1080p en 1440p, met max settings. Je zult met een 4060 Ti voor die games settings en textures moeten verlagen, ik zou daarom op dit moment geen 8GB kopen.

Wat betreft meer dan 12 GB in 1080p 1440p tot nu toe misschien 1 spel als ik het me goed herinner, maar de komende 2 jaar kunnen dat er meer worden. 16GB zal langer mee gaan/heeft verwacht ik een betere doorverkoop waarde. Maar ik twijfel wel met m'n nieuwe 6950XT (vs 4070).
Een 6950 XT doet het volgens mij wel een stapje beter op 1440p en 4k in verhouding (dus loopt uit). Doordat hij meer Infinity Cache heeft en ook meer bandbreedte.
Volgens mij had Hardware Unboxed hem net tegenover d 4070 of de Ti gezet.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Sp3ci3s8472 schreef op woensdag 17 mei 2023 @ 15:23:
[...]


Een 6950 XT doet het volgens mij wel een stapje beter op 1440p en 4k in verhouding (dus loopt uit). Doordat hij meer Infinity Cache heeft en ook meer bandbreedte.
Volgens mij had Hardware Unboxed hem net tegenover d 4070 of de Ti gezet.
Ja de non-ray tracing benchmarks wint de 6950XT wel met 15% (niet veel), en wat betreft het ray tracing benchmarks verlies van 11% (niet veel) valt me op bij 1440p dat:
  • òf ze zijn allebei te traag voor ray tracing en hebben upscaling nodig. Krijg je mooie licht effecten gecombineerd met visuele artefacten.
  • òf ze zijn allebei snel genoeg voor ray tracing en het verschil is te klein.
Het stroomverbruik van de 6950XT wil ik wel omlaag schroeven met undervolten. Maar ze zijn dus erg aan elkaar gewaagd en ik snap de koop voor allebei goed.

1440p, Ray Tracing on / ultra:
cyberpunk - beide te traag zonder upscaling: 27 vs 36
dying light 2 - beide te traag zonder upscaling: 31 vs 40
fortnite - beide te traag zonder upscaling: 35 vs 43
hitman - beide te traag zonder upscaling: 27 vs 33
callisto - 61 vs 71 beide speelbaar
spider-man - 127 - 136 beide speelbaar
hogwarts - 48 vs 51 beide speelbaar
far cry - 132 vs 139 beide speelbaar
control - 73 vs 76 beide speelbaar
resident evil - 104 vs 94 beide speelbaar
f1 2022 - 101 vs 88 beide speelbaar
(mijn speelbaar grens ligt bij 45 fps)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +3 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
De press pack slides van de 4060 en 4060 Ti zijn geleaked:

https://videocardz.com/ne...tx-4060-to-launch-in-july

Dus de prijs wordt inderdaad $499 voor de 16 GB versie van de Ti en $399 voor de 8 GB versie.

De prestaties zouden ongeveer op het niveau liggen van een 3070, wat een minieme verbetering is en dus uiterst treurig. Niet voor niets vergelijken ze deze ook met de 2060 Super, want de vergelijking met de 3060 Ti toont niet veel verbetering. Met $399 is de 8 GB versie eigenlijk dead on arrival. Ik kan me geen enkele doelgroep bedenken die ik deze kaart zou aanraden.

Bij de 16 GB versie betaal je een meerprijs van $100 voor vrijwel alleen die extra 8 GB geheugen. Dit lijkt meer op chantage dan op het verleiden van mensen tot een aankoop. "Wil je de nieuwste spellen spelen? Die werken niet meer goed met 8 GB, waardoor je wel moet upgraden naar 16 GB, dus dan verkopen we je gewoon een veredelde 3070 voor dezelfde prijs maar dan met 16 GB."

De 16 GB versie is in principe wel aan te raden voor mensen wiens kaart kapot is gegaan en wel iets moeten kopen of low-end professionals dan wel prosumers die dingen willen renderen op hun kaart en daarbij veel VRAM kunnen gebruiken, maar waarbij de render niet heel snel hoeft te gaan.

Maar al met al ben ik er vrij zeker van dat dit wederom een gigantische verkoopflop gaat worden. Beide kaarten zijn zo matig dat als je nu nog niet geupgrade hebt, je nauwelijks reden hebt om dit nu te doen.

---

Voor de 4060 geven ze nog geen prijs, wat vermoedelijk zo is omdat ze eerst willen zien wat de 7600 van AMD gaat brengen. Het gerucht gaat dat de prijs hetzelfde blijft of zelfs lager wordt als de 3060 ($300-$329). Maar gezien de mate waarin de chip is geknipt verwacht ik weer een uiterst treurig product.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • field33P
  • Registratie: Mei 2009
  • Laatst online: 16:23
De 16 GB versie is in principe wel aan te raden voor mensen wiens kaart kapot is gegaan en wel iets moeten kopen
Tenzij je moederbord nog PCIe 3.0 doet, in welk geval de bandbreedte weer eens keihard afgeknepen wordt door de x8-bus.

Ik hoop trouwens dat Tweakers ergens medio juni weer met een nieuwe videokaart BBG komt, want ik ben wel redelijk benieuwd naar hoe de huidige regressiecurve eruit ziet.

En met omgerekend 550 piek in Nederland zit de 16GB-versie wel heel dicht op de 4070 - een kaart die al flink aan het zakken is.

[ Voor 13% gewijzigd door field33P op 18-05-2023 14:16 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

field33P schreef op donderdag 18 mei 2023 @ 14:15:
[...]

Tenzij je moederbord nog PCIe 3.0 doet, in welk geval de bandbreedte weer eens keihard afgeknepen wordt door de x8-bus.

Ik hoop trouwens dat Tweakers ergens medio juni weer met een nieuwe videokaart BBG komt, want ik ben wel redelijk benieuwd naar hoe de huidige regressiecurve eruit ziet.

En met omgerekend 550 piek in Nederland zit de 16GB-versie wel heel dicht op de 4070 - een kaart die al flink aan het zakken is.
Juist als je een lage PCIe bandbreedte hebt dan is meer videogeheugen aangeraden want je hoeft dan minder vaak naar het normale geheugen.

Daarnaast is PCIe bandbreedte van 3.0 8x meer dan snel genoeg om een lowend kaart te voeden. De enige kaart die ik midend ga noemen is de 16GB versie. Een 4090 verliest 6-8% afhankelijk van de resolutie met een PCIe 3.0 8x slot.
https://www.techpowerup.c...i-express-scaling/28.html

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
field33P schreef op donderdag 18 mei 2023 @ 14:15:
[...]
En met omgerekend 550 piek in Nederland zit de 16GB-versie wel heel dicht op de 4070 - een kaart die al flink aan het zakken is.
Ja, maar mijn verwachting is dat deze kaart ook slecht gaat verkopen en dus ook in prijs gaat zakken. In een markt waar de prijzen onder de MSRP zakken, moet je oppassen om marktprijzen van eerdere launches te vergelijken met de MSRP-prijzen, wanneer de nieuwe launch vermoedelijk ook in prijs gaat dalen.

Logischerwijs verwacht ik dat Nvidia de prijsdaling wil gaan stoppen met Super-refreshes, want ze houden niet erg van lage prijzen, dus wachten kan ook erg interessant zijn. Sowieso worden de AMD-kaarten pas een tijdje na de introductie echt interessant, wanneer de prijzen gedaald zijn en de drivers beter zijn. Dus misschien is de de markt veel prettiger halverwege deze generatie, aangenomen dat we dan een Super-refresh kunnen vergelijken met goedkopere Radeon-kaarten die betere drivers hebben.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Blijkbaar is de officiële launch net geweest. Tenminste, het is weer zo'n irritante trage launch waar ze eerst informatie geven, de reviewers pas later mogen publiceren en de verkoop weer later is. Allemaal om zo lang mogelijk in het nieuws te blijven. Ik hoop niet dat we ook nog eens apart de unboxings krijgen.

Hier reageren een aantal reviewers op de specs/prijzen:







Hardware Unboxed kreeg van Nvidia te horen dat de 4060 een prijs gaat krijgen van $300, dus lager dan de 3060 die een MSRP heeft van $329. Dan weet je wel hoe slecht hij wordt, wanneer de prijs lager is dan de voorganger.

[ Voor 34% gewijzigd door Ludewig op 18-05-2023 15:45 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nvidia claimt dus 22TFLOPS voor de RTX4060Ti. Oke RTX3070Ti niveau zoals wel verwacht. :)
Nou voor de leuke vraag. Presteert de RTX4060Ti 16GB op 1440p of 4K wel redelijk als een RTX3070Ti, in games waar je niet meer dan 8GB nodig hebt. Immers is de bus cut down en VRAM GB/s fors. Veel L2 cache heb je ook niet. In al die nieuwe games zie ik dat wel gewonnen worden, maar ik vraag me af hoe het gaat als VRAM capaciteit geen factor is. Dit mede omdat je hopelijk zo beter kan inschatten wat de RTX4060Ti 16GB op termijn gaat doen. Capaciteit is een ding, maar de GPU moet het ook kunnen aanspreken. En dan kom je weer bij het alles vraagt VRAM verhaal. 16GB zorgt ervoor dat je afdoende assets kan inladen en je niet meteen tegen een bottleneck aanloopt. Maar als die assets niet snel genoeg naar de rekeneenheden kunnen gaan, dan heb je er alsnog niks aan. En dat is ook het probleem met al die nieuwe effecten en zeker RT.

RTX4060 is dan 15TFLOPS, RTX3060Ti is 16TFLOPS. Tja die komt denk ik direct tegenover de RX7600 te staan, net boven de RX6650XT denk ik zo...

En prijzen. Tja moet ik werkelijk nog zeggen wat ik hier van vind? :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Cigarguy
  • Registratie: Maart 2017
  • Laatst online: 15:45
DaniëlWW2 schreef op donderdag 18 mei 2023 @ 19:19:
Nvidia claimt dus 22TFLOPS voor de RTX4060Ti. Oke RTX3070Ti niveau zoals wel verwacht. :)
Nou voor de leuke vraag. Presteert de RTX4060Ti 16GB op 1440p of 4K wel redelijk als een RTX3070Ti, in games waar je niet meer dan 8GB nodig hebt. Immers is de bus cut down en VRAM GB/s fors. Veel L2 cache heb je ook niet. In al die nieuwe games zie ik dat wel gewonnen worden, maar ik vraag me af hoe het gaat als VRAM capaciteit geen factor is. Dit mede omdat je hopelijk zo beter kan inschatten wat de RTX4060Ti 16GB op termijn gaat doen. Capaciteit is een ding, maar de GPU moet het ook kunnen aanspreken. En dan kom je weer bij het alles vraagt VRAM verhaal. 16GB zorgt ervoor dat je afdoende assets kan inladen en je niet meteen tegen een bottleneck aanloopt. Maar als die assets niet snel genoeg naar de rekeneenheden kunnen gaan, dan heb je er alsnog niks aan. En dat is ook het probleem met al die nieuwe effecten en zeker RT.

RTX4060 is dan 15TFLOPS, RTX3060Ti is 16TFLOPS. Tja die komt denk ik direct tegenover de RX7600 te staan, net boven de RX6650XT denk ik zo...

En prijzen. Tja moet ik werkelijk nog zeggen wat ik hier van vind? :P
Ondergetekende blijft de huidige prijzen boycotten en draait door met zijn 1080 ti :+

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Cigarguy schreef op donderdag 18 mei 2023 @ 22:11:
[...]
Ondergetekende blijft de huidige prijzen boycotten en draait door met zijn 1080 ti :+
Yep. Ik verwacht nu gestaag dalende prijzen en volgende jaar allemaal Super-refreshes om stiekem de downgrades half ongedaan te maken (de 4060 is bijvoorbeeld eigenlijk een 4050).

Op zich heb ik genoeg lol met mijn huidige kaart, dus ik ga mij ook niet laten #metoo'en door Jensen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
DaniëlWW2 schreef op donderdag 18 mei 2023 @ 19:19:
Nvidia claimt dus 22TFLOPS voor de RTX4060Ti. Oke RTX3070Ti niveau zoals wel verwacht. :)
Nou voor de leuke vraag. Presteert de RTX4060Ti 16GB op 1440p of 4K wel redelijk als een RTX3070Ti, in games waar je niet meer dan 8GB nodig hebt. Immers is de bus cut down en VRAM GB/s fors. Veel L2 cache heb je ook niet. In al die nieuwe games zie ik dat wel gewonnen worden, maar ik vraag me af hoe het gaat als VRAM capaciteit geen factor is. Dit mede omdat je hopelijk zo beter kan inschatten wat de RTX4060Ti 16GB op termijn gaat doen. Capaciteit is een ding, maar de GPU moet het ook kunnen aanspreken. En dan kom je weer bij het alles vraagt VRAM verhaal. 16GB zorgt ervoor dat je afdoende assets kan inladen en je niet meteen tegen een bottleneck aanloopt. Maar als die assets niet snel genoeg naar de rekeneenheden kunnen gaan, dan heb je er alsnog niks aan. En dat is ook het probleem met al die nieuwe effecten en zeker RT.

RTX4060 is dan 15TFLOPS, RTX3060Ti is 16TFLOPS. Tja die komt denk ik direct tegenover de RX7600 te staan, net boven de RX6650XT denk ik zo...

En prijzen. Tja moet ik werkelijk nog zeggen wat ik hier van vind? :P
Die grotere frame buffers bij Hogwarts Legacy etc. daar gaan de 8GB 4060 kaarten last van hebben. Maar het is wel GDDR6X, dus als een spel daar binnen blijft, zal de prestatie waarschijnlijk zijn:
4060 = bijna 3060 Ti
4060 Ti = 3070 Ti

(pixels tellen:)

Afbeeldingslocatie: https://tweakers.net/i/fObCltXHw-mLT2Idh-ks_3ZYSGM=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/KXX3kWtwrHxk2mRoznogZ0c5.png?f=user_large

https://www.techpowerup.c...force-rtx-3060-xc/30.html
https://www.techpowerup.c...-founders-edition/28.html

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:48
DaniëlWW2 schreef op donderdag 18 mei 2023 @ 19:19:


RTX4060 is dan 15TFLOPS, RTX3060Ti is 16TFLOPS. Tja die komt denk ik direct tegenover de RX7600 te staan, net boven de RX6650XT denk ik zo...
Ik las eerder vanmorgen op reddit dat de 7600 XT verwacht wordt met 23.5TFLOPS of iets in die strekking.
Maar dat zal dan wel inclusief die extra units zijn die bij RDNA3 niet geweldig lijken te werken.

Acties:
  • 0 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 08-09 18:38
sunsmountain schreef op vrijdag 19 mei 2023 @ 12:20:
[...]


Die grotere frame buffers bij Hogwarts Legacy etc. daar gaan de 8GB 4060 kaarten last van hebben. Maar het is wel GDDR6X, dus als een spel daar binnen blijft, zal de prestatie waarschijnlijk zijn:
4060 = bijna 3060 Ti
4060 Ti = 3070 Ti

(pixels tellen:)

[Afbeelding]

https://www.techpowerup.c...force-rtx-3060-xc/30.html
https://www.techpowerup.c...-founders-edition/28.html
de 4060 en ti versie hebben geen 6X Vram geheugen..
De 4060 ti verslaat niet eens de 3070, hoe weak wil je 'm hebben:)
Enige wat je krijgt is 16gb ram en minder wattage, maar de kaart is niet eens krachtig genoeg om van die 16gb gebruik te maken..

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Techkeizer schreef op vrijdag 19 mei 2023 @ 14:24:
[...]
de 4060 en ti versie hebben geen 6X Vram geheugen..
De 4060 ti verslaat niet eens de 3070, hoe weak wil je 'm hebben:)
Enige wat je krijgt is 16gb ram en minder wattage, maar de kaart is niet eens krachtig genoeg om van die 16gb gebruik te maken..
Frequentie is natuurlijk wel veel beter, en hun eigen 4060 Ti Nvidia slides (waarschijnlijk cherry pick) laat wel 3070 Ti performance zien t.o.v. de 3060 Ti.

Maar inderdaad, GDDR6... dan krijg je 16GB is het alsnog dezelfde trage geheugen bandbreedte met een 128-bit bus. :'(

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +3 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 10-09 19:12
Cigarguy schreef op donderdag 18 mei 2023 @ 22:11:
[...]


Ondergetekende blijft de huidige prijzen boycotten en draait door met zijn 1080 ti :+
Verstandige keus. Je hebt een 4090 met een gigantische generatie op generatie prestatie verbetering met een prijs die voor de doelgroep eigenlijk wel prima is (helemaal nu die flink gezakt is). De 4080 welke een normale prestatie verbetering heeft tegen een exorbitant hoge prijs. En alle kaarten die daar onder komen die eigenlijk allemaal een slechte of geen prestatie verbetering bieden tegen dezelfde of hogere prijs.

Had nog een beetje hoop voor de 4060 Ti aangezien dat toch vaak een van de beste prijs/prestatie kaarten is maar die chip die daar in zit is zo piepklein dat het nauwelijks beter gaat zijn dan de 3060 Ti.

[ Voor 14% gewijzigd door Cloggs op 20-05-2023 09:43 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
De lagere kaarten hebben ook het probleem dat DLSS 3 vooral interessant is bij de duurdere kaarten om extra hoge framerates te halen, zodat je die 165+ Hz monitor beter kunt benutten. Het is niet erg geschikt om speelbare FPS te halen, want bij lagere framerates blijf je met hele slechte input lag zitten.

Tegen de tijd dat het moeite gaat kosten om hoge FPS te halen met een 4090 of 4080 hebben de kopers van die kaarten hem al lang verkocht. Bij de goedkopere kaarten zullen de kopers al vrij snel de keuze gaan maken om de settings net zover omlaag te zetten dat ze speelbare FPS hebben.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik verwachte al niet veel, maar wauw...
De RTX4060Ti is echt een dramatisch slecht product. Nauwelijks sneller dan de RTX3060Ti wat al genoeg zegt. Alleen al TPU waar ze tot de conclusie komen dan de RTX3070Ti, 7% sneller is op 1080p, 11% op 1440p en 17% op 4K.
https://www.techpowerup.c...-founders-edition/32.html

Beiden hebben dan ongeveer 22TFLOPS. Dat is een overduidelijke geheugenbrandbreedte beperkingen die zelfs op 1080p nog plaatsvind. Wat is dan het punt van nog eens $100 extra betalen voor 16GB als de GPU nu al bandbreedte starved is? Dat ga je namelijk niet verbeteren. Je hoopt dan puur dat er alsnog afdoende data uit die 16GB aan VRAM, via die nauwe 128 bit bus naar de GPU kan gaan. Het is niet bepaald een wenselijk scenario voor hoge resolutie textures of RT...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Inderdaad. Het is zelfs de vraag of je wat aan de 16 GB versie hebt voor AI werk vanwege de lage bandbreedte. Misschien is hij wel bruikbaar voor sommige prosumers/low end pro's die renderen en zo.

Maar het is nog erger dan wat ik al dacht en daarmee is het een vrijwel onverkoopbaar product bij iedereen met enige kennis van zaken.

[ Voor 4% gewijzigd door Ludewig op 24-05-2023 08:51 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • hubhib
  • Registratie: December 2006
  • Laatst online: 10-09 22:55
Voor alle mensen die bij iedere release van een RTX 40 kaart steeds, "ja maar DLSS3" roepen, zie deze tweet van Digital Foundry. De RTX 4060 Ti lijkt een voorbode te gaan zijn wat er kan gebeuren met een RTX 4080 of 4090 als ze niet meer genoeg echte frames kunnen leveren en DLSS3 moet worden ingeschakeld. Dan ga je dus helemaal niks hebben aan je neppe frames. :+

Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x


Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ik las ergens dat DLSS 3 bijna 1 GB aan VRAM kan gebruiken. Dan lijkt het me vrij nutteloos, want juist als je het wilt gebruiken, zul je daardoor uit je VRAM lopen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 08-09 18:38
Nvidia heeft zich echt gigantisch voor schut gezet..
Een kaart die bij bepaalde games niet eens wint en zelfs meerdere keren verliest van de kaart(3060ti) die het moet vervangen!

Ik kan haast niet geloven hoe schandalig dit is, ze denken echt dat wij consumenten het iq van een vis hebben. Ik ben echt blij dat grote tech YouTubers Nvidia HELEMAAL hebben gefileerd om deze kaart en series.

Acties:
  • +1 Henk 'm!

  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 15:45
De RTX 4060TI staat inmiddels in de pricewatch voor meer dan 450 euro. Gezien die prijs en de reviews, heb ik nu definitief besloten deze videokaart niet te kopen en mijn RTX 3060 12GB te blijven gebruiken.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 13:56
hubhib schreef op woensdag 24 mei 2023 @ 00:19:
Voor alle mensen die bij iedere release van een RTX 40 kaart steeds, "ja maar DLSS3" roepen, zie deze tweet van Digital Foundry. De RTX 4060 Ti lijkt een voorbode te gaan zijn wat er kan gebeuren met een RTX 4080 of 4090 als ze niet meer genoeg echte frames kunnen leveren en DLSS3 moet worden ingeschakeld. Dan ga je dus helemaal niks hebben aan je neppe frames. :+
De 4080 en 4090 gaan dit probleem niet hebben omdat ze genoeg vram hebben.

Ik denk dat frame generation wel meerwaarde heeft als je in flight simulator op een hele hoge resolutie met een traag manoeuvrerende jumbo aan het vliegen bent. Zelf heb ik het alleen in the witcher geprobeerd en gelijk weer uitgezet, als je langs een npc loopt zie je de "talk E" die dan verschijnt knipperen en de input lag is tergend.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Toen we bij de 40 serie launch de dies/cuts zagen wisten we eigenlijk al dat deze generatie voor de consument grotendeels een clusterfuck zou worden. En nu komen ze dan met het 4060Ti gedrocht met een schandalige 128bits bus.

Vraag me af of het ze bij nVidia uberhaupt iets interesseert, waarschijnlijk verkopen ze het silicon alsnog in de zakelijke markt. Zouden ze zo ver heen zijn dat ze grote voorraden van deze kaart hebben opgebouwd :?

Volgens MLID fwiw is de vraag erg slecht.



Ben dus heel benieuwd hoe de 50 serie aangevlogen gaat worden.....

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Help!!!! Nvidia hun inventaris blijft oplopen en hun omzet uit gaming blijft teruglopen, en daarmee ook de omzet van het hele bedrijf. Dus ze komen er zeker niet mee weg. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw
Afbeeldingslocatie: https://tweakers.net/i/M1y_BSHbZacUYnNJzaoiwf0__xI=/800x/filters:strip_exif()/f/image/E3uNKcdlddz65kYHXh8z8acn.png?f=fotoalbum_large

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 08-09 18:38
Help!!!! schreef op woensdag 24 mei 2023 @ 09:54:
Toen we bij de 40 serie launch de dies/cuts zagen wisten we eigenlijk al dat deze generatie voor de consument grotendeels een clusterfuck zou worden. En nu komen ze dan met het 4060Ti gedrocht met een schandalige 128bits bus.

Vraag me af of het ze bij nVidia uberhaupt iets interesseert, waarschijnlijk verkopen ze het silicon alsnog in de zakelijke markt. Zouden ze zo ver heen zijn dat ze grote voorraden van deze kaart hebben opgebouwd :?

Volgens MLID fwiw is de vraag erg slecht.

[YouTube: RTX 4060 Ti vs RX 7600 Analysis: Nvidia BURNS remaining Goodwill…but is AMD's Navi 33 any better?]

Ben dus heel benieuwd hoe de 50 serie aangevlogen gaat worden.....
Precies, ik kan echt niet geloven dat ze de kaarten zo erg hebben verzwakt en verkleint.
Laat ze maar die voorraden houden en boeten voor deze waardeloze kaarten.

MLID is 1 van mijn favoriete techtubers samen met HUB, ze zijn lekker kritisch en spreken de taal van de consument. De laatste twee jaar hebben we geleden door de hoge prijzen, dus we verdienen wel wat goeds. Nu hopen dat de pricecuts binnenkort komen en misschien dat AMD ze onder druk zet.

Acties:
  • 0 Henk 'm!

  • Amos_x
  • Registratie: Januari 2021
  • Laatst online: 11-06-2024
Jullie kijken naar cijfertjes en specs. We weten ook wel dat Jan Modaal die alternate binnenstapt gewoon naar de grote serienummers op de doos kijkt. "En 40xx is meer beter dan 30xx". Iedereen wil dus het laatste, want ja, je wil toch het 'beste' voor je nieuwe dure pc waar je voor gespaard hebt, en nog een paar jaar mee verder wil doen.

Dus... De prijs van de 30xx serie kaarten komt verder onder druk, want als er overschot zou zijn, geraken ze die niet kwijt in aanwezigheid van 40xx serie kaarten. Ik verwacht over een paar weken wel mooie prijsdalingen voor 3070 kaarten bijvoorbeeld.

Het is dat ik over ben op een laptop en geen desktop meer heb staan (benieuwd hoe lang ik dat vol houd), of ik begon toch weer uit te kijken voor een pc'tje met een 3060ti of 3070 binnen enkele weken.

Acties:
  • +3 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Als je popcorn hebt en zin hebt in vermaak:
https://www.techpowerup.c...-founders-edition.308874/

Het werd W1zzard niet in dank afgenomen dat hij een "Highly Recommended" award heeft gegeven aan de 4060 Ti door zijn community. Hij heeft nu enkele revisies aan de conclussie toegevoegd en het award weggehaald.

Wat het meest vervelende is van die 8GB is dat de limitatie pas op gaat treden na een paar minuten spelen. Een benchmark is vaak een statische route waar de camera vaak niet in een keer snel draait en hij duurt meestal maar 30 seconden. Die 8GB is precies genoeg voor een benchmark run op bepaalde settings, maar het is niet speelbaar met die settings.
Dit wordt ook duidelijk in de review van HU, aan het einde:


TPU doet voornamelijk normale benchmarks zonder extra en zal dus de problemen minder snel tegenkomen.

Als zelfs Digital Foundry niet blij is met een kaart (door de regressie van performance in sommige gevallen) dan zegt dat wel wat. Wellicht dat de volledige review een ander verhaal verteld van hun, maar die Twitter reactie... :P

Nu hopen dat AMD de bui ziet hangen en de 7600 een stuk goedkoper maakt en zichzelf een keer niet in de voeten schiet.

Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 10:52
Wat mij vooral opviel was de terugval in kwaliteit van de textures -- en niet eenmalig omdat je voor lagere kwaliteit hebt gekozen maar dynamisch, om om het gebrek aan geheugen heen te werken. Dit komt in normale benchmarks al helemaal niet naar voren. Als je alleen maar naar de FPS counter kijkt (zoals ook in het overzicht dat Tweakers gisteren op de site slingerde) zou je makkelijk kunnen denken dat het dus allemaal zo'n vaart niet loopt... en dat kan kloppen, als je verder niet kijkt naar hoe het spel eruit ziet. In de commentaren meldt Reinoud dat hij geen visuele verschillen heeft waargenomen bij de 4 spellen die hij getest heeft... wat natuurlijk leuk nieuws is als je die speelt, maar minder voor de spellen die het verschil wel laten zien. :/

De trend is duidelijk: de spellen zullen wel speelbaar blijven met 8 GB (al dan niet na patches...), maar gewoon met mindere beeldkwaliteit, in sommige gevallen met veel mindere beeldkwaliteit. En daarover mogen we dan niet klagen want Nvidia heeft genoeg in de trucendoos om de FPS op te krikken, en als je alleen maar daarop let is alles prima. :P En mocht je toch meer VRAM willen dan wil Nvidia dat ook best verkopen -- tegen een flinke meerprijs. Wat een mooie markt blijft het toch...

[ Voor 6% gewijzigd door MneoreJ op 24-05-2023 12:26 ]

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

MneoreJ schreef op woensdag 24 mei 2023 @ 12:19:
Wat mij vooral opviel was de terugval in kwaliteit van de textures -- en niet eenmalig omdat je voor lagere kwaliteit hebt gekozen maar dynamisch, om om het gebrek aan geheugen heen te werken. Dit komt in normale benchmarks al helemaal niet naar voren. Als je alleen maar naar de FPS counter kijkt (zoals ook in het overzicht dat Tweakers gisteren op de site slingerde) zou je makkelijk kunnen denken dat het dus allemaal zo'n vaart niet loopt... en dat kan kloppen, als je verder niet kijkt naar hoe het spel eruit ziet. In de commentaren meldt Reinoud dat hij geen visuele verschillen heeft waargenomen bij de 4 spellen die hij getest heeft... wat natuurlijk leuk nieuws is als je die speelt, maar minder voor de spellen die het verschil wel laten zien. :/

De trend is duidelijk: de spellen zullen wel speelbaar blijven met 8 GB, maar gewoon met mindere beeldkwaliteit, in sommige gevallen met veel mindere beeldkwaliteit. En daarover mogen we dan niet klagen want Nvidia heeft genoeg in de trucendoos om de FPS op te krikken, en als je alleen maar daarop let is alles prima. :P En mocht je toch meer VRAM willen dan wil Nvidia dat ook best verkopen -- tegen een flinke meerprijs. Wat een mooie markt blijft het toch...
Een blurry waas met veel FPS is natuurlijk wat we willen :P. Ik heb mij op de front page laten vertellen door iemand met een 1080p scherm dat 4k textures ook helemaal geen nut hebben op 1080p :+.
Afbeeldingslocatie: https://i.imgflip.com/20pfsv.jpg

Acties:
  • +1 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 16:31

rapture

Zelfs daar netwerken?

Amos_x schreef op woensdag 24 mei 2023 @ 10:58:
Jullie kijken naar cijfertjes en specs. We weten ook wel dat Jan Modaal die alternate binnenstapt gewoon naar de grote serienummers op de doos kijkt. "En 40xx is meer beter dan 30xx". Iedereen wil dus het laatste, want ja, je wil toch het 'beste' voor je nieuwe dure pc waar je voor gespaard hebt, en nog een paar jaar mee verder wil doen.

Dus... De prijs van de 30xx serie kaarten komt verder onder druk, want als er overschot zou zijn, geraken ze die niet kwijt in aanwezigheid van 40xx serie kaarten. Ik verwacht over een paar weken wel mooie prijsdalingen voor 3070 kaarten bijvoorbeeld.

Het is dat ik over ben op een laptop en geen desktop meer heb staan (benieuwd hoe lang ik dat vol houd), of ik begon toch weer uit te kijken voor een pc'tje met een 3060ti of 3070 binnen enkele weken.
Anderzijds verspreidt het nieuws via de miljoenen subscribers over het Internet en kan zelfs in-game doorvertelt worden.

Daarvan komt de "slechte Radeon drivers" reputatie vandaan. Tijdens de gloriedagen van World of Warcraft, konden spelers in de chat klagen over haperende/schokkende ervaring. Dan vragen ze welke GPU dat je hebt en de oplossing voor een Radeon hebben was een 6600GT halen, want Nvidia GeForce is smoother. Daar kwamen de frame time testen vandaan. Er is meer nodig dan een hogere gemiddelde fps, de 1% low fps mag niet te ver zakken.

Nu kunnen de "8GB is niet genoeg" en "Nvidia probeert ons uit te melken" verhalen rondgaan. De winkels en distributeurs zien de opgedroogde vraag al.

MILD vergelijkt het met de GTX 960:
Nvidia tried this before with the 128-bit GTX 960 2GB
Dat was een dermate grote ramp dat ze de GTX 1060 6GB dubbel zo snel gemaakt hadden.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@rapture

Ironish genoeg is het nu Nvidia waar je de slechte ervaring gaat krijgen met deze dure 8 GB kaarten. Ontbrekende textures of stotters (afhankelijk van hoe het spel het oplost) die je kunt oplossen door een AMD-kaart te kopen in hetzelfde prijssegment.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Overspark
  • Registratie: Maart 2010
  • Laatst online: 11-09 13:24
haarbal schreef op woensdag 24 mei 2023 @ 09:46:
[...]

De 4080 en 4090 gaan dit probleem niet hebben omdat ze genoeg vram hebben.

Ik denk dat frame generation wel meerwaarde heeft als je in flight simulator op een hele hoge resolutie met een traag manoeuvrerende jumbo aan het vliegen bent. Zelf heb ik het alleen in the witcher geprobeerd en gelijk weer uitgezet, als je langs een npc loopt zie je de "talk E" die dan verschijnt knipperen en de input lag is tergend.
Dat is echt een implementatieprobleem, daar hebben de meeste spellen geen last (meer) van. Ik gebruik frame generation in elk spel wat het ondersteunt, en ook in snelle FPS spellen als Darktide heeft het een duidelijk toegevoegde waarde en voelt het beter en vloeiender aan met frame generation. Alleen: je wilt het niet gebruiken om van 30 fps naar 55 fps te gaan, maar om van 60 fps naar 110 fps te gaan, vanwege input lag. Dus de meerwaarde van frame generation op de budget kaarten is inderdaad enigszins dubieus.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Overspark schreef op woensdag 24 mei 2023 @ 13:54:
[...]
Dus de meerwaarde van frame generation op de budget kaarten is inderdaad enigszins dubieus.
Voor zover het meerwaarde heeft maakt het dus vooral een verschil als je al speelbare frame rates kunt halen. Het verlengt de levensduur van je kaart dus niet, terwijl dat juist heel dubieus is bij deze kaarten.

En het woord 'dubieus' is al optimistisch, want als je naar ontwikkelaars luistert is het eerder gegarandeerd dat deze kaarten een korte levensduur hebben als je de nieuwste spellen wilt spelen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ik kan niet vouchen dat dit correct is maar fwiw kwam ik deze sales figures tegen. Das niet goed....

Mij lijkt dat je er als fabrikant belang bij hebt om mensen geinteresseerd te laten blijven in de PC markt.

Bij veel (jonge) instroom zal er denk ik een forse game component zitten in de belangstelling voor het platform.
Op deze manier mis je straks een behoorlijk deel van die jonge instroom en die komen wellicht nooit meer terug en mis je die inkomsten over een langere periode.


Afbeeldingslocatie: https://tweakers.net/i/uCiiJZ_8WnSFIRAm1l88QPOwFZM=/800x/filters:strip_exif()/f/image/nkxR8ByNooMnlLEIPTgRGco9.png?f=fotoalbum_large

[ Voor 30% gewijzigd door Help!!!! op 24-05-2023 18:31 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
In die grafiek mist Q4, die zie je hier:

https://www.tomshardware....35-percent-yoy-in-q4-2022

Overigens zijn dat geen verkoopaantallen, maar het aantal kaarten dat vanuit de fabriek de verkoopkanalen in gaan. Die kunnen dus meetellen terwijl ze niet aan de klant verkocht zijn, maar nog bij een distributeur of winkel liggen.

Wat je normaliter ziet bij een plotselinge verkoopdip is dat er eigenlijk te veel kaarten al op transport zijn of al door de verkoopkanalen zijn besteld, waardoor er zich overdreven veel voorraad opbouwt, wat niet meer in verhouding staat tot de verminderde verkopen. Vervolgens moet dat worden gecorrigeerd door extra weinig kaarten te leveren, zodat de voorraden weer slinken. Daardoor is de afname van het aantal verstuurde producten normaliter aan het begin minder heftig dan de verkoopdip, maar is het later juist heftiger.

Als de verkoop in 1 keer afneemt naar een lager niveau en vervolgens op dat niveau blijft, zou je in de grafiek ook een vertraagde dip moeten zien, die vervolgens weer toeneemt. Dat is dan geen indicatie van herstellende verkopen, maar dat de voorraadcorrectie voltooid is.

Overigens heeft Nvidia tijdens het bekendmaken van hun financiële resultaten gemeld dat ze aan voorraadcorrecties gedaan hebben (en wellicht nog doen, ze zijn niet transparant over de details).

De uitrol van de 4000-serie kan de cijfers ook vertekenen, want voor die nieuwe kaarten moet nog voorraad opgebouwd worden. Stel dat Nvidia grote aantallen kaarten levert aan de verkoopkanalen die vervolgens nauwelijks verkocht worden, dan zul je alsnog aardig hoge leveringen zien, puur door het opbouwen van de initiële voorraad van die nieuwe modellen.

Pas later zie je dan dat de aantallen die de verkoopkanalen ingaan echt instorten doordat er weinig bijgeleverd wordt.

En je hebt natuurlijk gelijk dat Nvidia en AMD mogelijk hun kip met de gouden eieren aan het slachten zijn doordat ze hun bestaande klanten die redelijk verdienen veel meer proberen te laten betalen, terwijl het voor jongeren die nog geen investeringen hebben gedaan in PC gaming, het nu veel logischer is om voor een console te gaan. Maar die jongeren worden ouder en rijker, dus als je ze dan kwijt bent omdat er nu geen goede kaart is voor weinig, kopen ze later ook geen extra goede kaart voor een veel hogere prijs.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 16:31

rapture

Zelfs daar netwerken?

In een uur Nvidia earnings call. Wordt het deze keer zo hilarisch als de vorige keer? Ontelbare keren AI zeggen alsof een ezel aan het balken is? Nog een keer letterlijk 1 miljoen keren groeien beloven? Uiteraard niks over de oplopende voorraden zeggen.

Acties:
  • +2 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 16:31

rapture

Zelfs daar netwerken?

NVIDIA Announces Financial Results for First Quarter Fiscal 2024
May 24, 2023

Quarterly revenue of $7.19 billion, up 19% from previous quarter
Record Data Center revenue of $4.28 billion
Second quarter fiscal 2024 revenue outlook of $11.00 billion

SANTA CLARA, Calif., May 24, 2023 (GLOBE NEWSWIRE) -- NVIDIA (NASDAQ: NVDA) today reported revenue for the first quarter ended April 30, 2023, of $7.19 billion, down 13% from a year ago and up 19% from the previous quarter.

GAAP earnings per diluted share for the quarter were $0.82, up 28% from a year ago and up 44% from the previous quarter. Non-GAAP earnings per diluted share were $1.09, down 20% from a year ago and up 24% from the previous quarter.

“The computer industry is going through two simultaneous transitions — accelerated computing and generative AI,” said Jensen Huang, founder and CEO of NVIDIA.

“A trillion dollars of installed global data center infrastructure will transition from general purpose to accelerated computing as companies race to apply generative AI into every product, service and business process.

“Our entire data center family of products — H100, Grace CPU, Grace Hopper Superchip, NVLink, Quantum 400 InfiniBand and BlueField-3 DPU — is in production. We are significantly increasing our supply to meet surging demand for them,” he said.
https://investor.nvidia.c...-Fiscal-2024/default.aspx

Afbeeldingslocatie: https://tweakers.net/i/nfcmvttTlGYYw9KceFEbn6_QbVk=/800x/filters:strip_icc():strip_exif()/f/image/a3K7i2LZyHAjGYd6AFkeEe6w.jpg?f=fotoalbum_large
https://investor.nvidia.c...Q1FY24-CFO-Commentary.pdf

Ze hebben een rare jaartelling en zitten nu al na eerste kwartaal 2024.

Van $7.19 billion omzet deze kwartaal willen ze naar een verwachte omzet $11.00 billion in het volgende kwartaal gaan.

Ze zien a trillion dollar aan datacenter hardware dat de transitie van klassieke CPU's naar chips voor AI gaat maken.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@rapture En ondertussen ontwerpen de grote spelers in de AI race, waarschijnlijk elk hun eigen dedicated accelerators. Die zullen ze waarschijnlijk combineren met een x86 platform. :z
Inventories Q1/2023 4,611 Q4/2022 5,159
Nvidia heeft dus eindelijk meer verkocht dan ze binnenkregen. Maar het is zo te zien alsnog maar iets meer dan 10% van inventaris waar ze vanaf zijn. Dat is bij lange na niet afdoende. Verder is de toename van gaming omzet, kleiner dan de daling van inventariswaarde. Ook valt mij meteen op dat liquide middelen zowel absoluut als procentueel harder zijn afgenomen het afgelopen kwartaal zonder dat er echt iets terug voor lijkt te zijn gekomen. Schulden zijn juist ook toegenomen en dividend dekt het ook niet.

Voor mij meteen de vraag: Heeft Nvidia inventaris afgeschreven alsmede videokaarten teruggekocht uit de markt?

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Blijkbaar:
WCCFTECH: NVIDIA AI GPU Demand Blows Up, Chip Prices Increase By 40% & Stock Shortages Expected Till December

NVIDIA's GPU business boom has been the result of countless years of betting on AI as the next big thing. With ChatGPT and other generative AI models, it looks like NVIDIA's bets have paid off & the company is getting orders from all corners of the tech industry to get hands on its brand-new GPUs including the A100 and the H100.

Multiple reports are now suggesting that NVIDIA might not be able to keep up with the massive AI chip demand despite its best efforts. A recent report by DigiTimes suggests that as the green team sees a ramp-up in orders for its latest GPUs, the company has started to increase production of its chips at TSMC.
......

[ Voor 57% gewijzigd door Help!!!! op 25-05-2023 08:10 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • roffeltjes
  • Registratie: Januari 2011
  • Laatst online: 07:11
Ludewig schreef op woensdag 24 mei 2023 @ 20:07:
En je hebt natuurlijk gelijk dat Nvidia en AMD mogelijk hun kip met de gouden eieren aan het slachten zijn doordat ze hun bestaande klanten die redelijk verdienen veel meer proberen te laten betalen, terwijl het voor jongeren die nog geen investeringen hebben gedaan in PC gaming, het nu veel logischer is om voor een console te gaan. Maar die jongeren worden ouder en rijker, dus als je ze dan kwijt bent omdat er nu geen goede kaart is voor weinig, kopen ze later ook geen extra goede kaart voor een veel hogere prijs.
Jouw aanname dat de consumentenmarkt de kip met de gouden eieren is, is sterk de vraag. Ook voor @rapture, Nvidia lijkt weer goed te gokken, AI is niet zomaar een voorbijgaande hype.

Toch wel zuur dat de gamers worden weggedrukt dor het bedrijfsleven... decennia lang waren GPU's practisch een non-factor in business.

Acties:
  • 0 Henk 'm!

  • huyanglee
  • Registratie: Augustus 2009
  • Laatst online: 12-06-2023
NVDA pre-market 25 % omhoog.

Ik denk niet dat ze zich genoodzaakt zullen voelen om een betere price/performance aan te bieden.
Heb paar weken terug maar een RTX 4070 gekocht, genoeg performance voor m'n video-editing taken en zal op medium-high 1080p wel paar jaren verder kunnen.

Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ik vond dit eigenlijk wel mooi verwoord: Nvidia mag binnenkort aansluiten bij het "eliteclubje" :p
De club van 1 biljoen. Het heeft iets magisch en elitair tegelijk. Hoewel, misschien is dat laatste stilaan wat overdreven, want met de chipmaker Nvidia staat nu al het vijfde Amerikaanse techbedrijf op het punt om op de beurs de grens van 1.000 miljard dollar te doorbreken.

Let wel, Nvidia is er nog niet. De Amerikaanse chip­maker komt nog zo’n 50 miljoen dollar tekort. Maar dat is een detail als je kijkt naar de spectaculaire rit naar boven die het bedrijf gisteren maakte. Beleggers liepen storm voor het aandeel, waardoor de koers van de chipmaker ruim 25 procent omhoog schoot en Nvidia bijna ­­200 miljard dollar kon toevoegen aan zijn marktkapitalisatie.

Dat is meer dan de totale beurswaarde van Intel, AMD of Qualcomm en de grootste eendaagse winst ooit voor een Amerikaans aandeel. Waardoor Nvidia op een zucht komt van het eliteclubje van superaandelen waartoe ook al Apple, Microsoft, Alphabet en Amazon behoren. Mogelijk dient er zich een goede vervanger aan voor het ooit ­populaire letterwoord dat destijds de Big Tech in de VS moest aanduidde. FAANG – dat na de naamsverandering van Facebook in ­Meta niet meer paste – wordt nu wellicht MANAA.

March of the Eagles


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
In elk geval lijkt de vraag naar datacenter GPU's te stijgen, Nvidia zou extra bestellingen bij TSMC geplaatst hebben:

nieuws: 'Nvidia plaatst spoedbestellingen bij TSMC vanwege sterk toenemende v...
Nvidia heeft spoedbestellingen geplaatst bij TSMC voor de productie van chips door een rap toenemende vraag voor diens datacenterproducten. Dat schrijft DigiTimes op basis van eigen bronnen.

Nvidia heeft een hoop spoedbestellingen geplaatst voor voornamelijk de H100- en A100-datacenter-gpu's en voor de Chinese varianten, de H800 en A800, zeggen bronnen tegen DigiTimes. Er zouden zoveel bestellingen geplaatst zijn, dat de bezettingsgraad van de 4nm- en 5nm-chipproductielijnen hierdoor vrijwel vol is. TSMC moet naar verluidt tot het eind van het jaar een versneld productieschema hanteren om de bestellingen bij te kunnen benen. Ook de bezettingsgraad voor de 6nm- en 7nm-lijnen zou verhoogd zijn door de plotse stroom aan orders.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Daardoor vindt Nvidia het vermoedelijk niet zo erg dat de GPU's slecht verkopen, want dan maken ze gewoon meer datacenterkaarten met veel hogere marges.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Wat een waanzin voor 18% Q/Q in het datacenter segment, midden in de GPT hype terwijl ze Y/Y nog steeds 13% down zijn.

Zeker als je doorhebt wat er nu aan de hand is. We hebben verschillende van de enorme spelers die zelf hun eigen chips ontwerpen of al hebben. En een paar dagen terug lekte er volgens mij wat van Google waarin stond dat ze intern enorm achterlagen qua ontwikkeling en de open source ontwikkelingen veel sneller gaat. Ontwikkelingen die mede op basis van META haar open source gemaakte tooling gaat. Nvidia is zo ongeveer het schoolvoorbeeld van closes source.

Komt bij dat META recentelijk ook met een eigen chipprogramma (nog niet klaar) kwam met als redenering:
We found that GPUs were not always optimal for running Meta’s specific recommendation workloads at the levels of efficiency required at our scale. Our solution to this challenge was to design a family of recommendation-specific Meta Training and Inference Accelerator (MTIA) ASICs
En dat demonstreren ze ook met wat first party benchmarks. Op een per W basis claimen ze al veel zaken beter te doen. Alleen waar ze vele GB aan data moeten verwerken, lijkt "de GPU" (dat is waarschijnlijk ook de A100) het nog beter te doen, maar daarbij zeggen ze meteen al dat dat ze hun software stack nog gaan verbeteren voor deze workloads. Verder claimen ze nu al heel wat met wat die chip is. Die is niet monolithisch, nee heterogeen, verschillende extra geheugenmodules etc. Dus iets dat Nvidia vooral niet is.
https://ai.facebook.com/b...ence-accelerator-AI-MTIA/

Ik neig er ook naar om META het voordeel van de twijfel te geven hier. Ze hebben immers hun software stack open source gemaakt en die word inmiddels breed geadopteerd en gebruikt. Ook vermoed ik dat ze hun hardware niet gaan verkopen, waardoor ze minder druk zullen ervaren om hun eigen cijfers op te poetsen.


Ja, ik had het misschien ook wel leuk gevonden als ik had geweten dat er een dergelijke manie op de beurs zou ontstaan. Want de returns over een halfjaar zijn gigantisch. Het is alleen op weinig gebaseerd...

Wat ik wel vermoed is dat Nvidia productie allocatie heeft aangepast. Ik denk eigenlijk niet dat ze zozeer meer wafers hebben ingekocht bij TSMC, maar ik zie ze wel AD103, AD104 en AD106 productie behoorlijk verminderen in ruil voor H100. Immers gaan ze die gaming GPU's toch niet verkopen. En zo kunnen ze ook lekker doorgaan met alle GA104 en GA106 chips proberen te verkopen voor deze veel te hoge prijzen. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:48
DaniëlWW2 schreef op vrijdag 26 mei 2023 @ 22:12:
Wat een waanzin voor 18% Q/Q in het datacenter segment, midden in de GPT hype terwijl ze Y/Y nog steeds 13% down zijn.
Het is natuurlijk niet (alleen) die 18% QoQ op DC, ze zullen eerder los gaan op de enorm sterke guidance van Nvidia voor Q2 en de verwachtingen van de belegger op de verdere toekomst en dus de kwartalen daarna die daarop gebaseerd worden. De speculanten zullen immers niet kijken naar het verleden, wat de afgelopen earnings doen, maar de zullen speculeren op wat zij menen dat Nvidia in de toekomst waard zal worden en wat voor financiële cijfers daarbij horen.

Iets als dit:
Powerful second-quarter guidance
For the fiscal second quarter, management expects revenue of $11 billion, which equates to growth of 64% year over year. It also guided (albeit indirectly, by providing a bunch of inputs) for adjusted EPS of $1.97, a surge of 286%.

Going into the report, Wall Street had been modeling for Q2 adjusted EPS of $1.06 on revenue of $7.15 billion, so the company's outlook absolutely crushed both estimates.
Zal dan verwacht ik veel eerder de trigger geweest zijn dan die 18% QoQ gerealiseerd in Q1.

[ Voor 4% gewijzigd door Dennism op 26-05-2023 22:59 ]


Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op vrijdag 26 mei 2023 @ 22:12:
Ik denk eigenlijk niet dat ze zozeer meer wafers hebben ingekocht bij TSMC,
Dat is in directe tegenspraak van het nieuwsbericht op T.net. En natuurlijk dat is ook op basis van anonieme bronnen, tegelijk vind ik het wel interessant hoe hier op basis van dat bericht, plus de goede kwartaalcijfers en hoge verwachtingen voor komende tijd, de conclusie door een aantal wordt getrokken dat het slecht gaat met Nvidia, inclusief dat de beurs koers nu hoog is omdat heel veel willen verkopen (in het AMD topic).

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Mss kunnen ze beter de hele consumenten tak overhevelen naar de samsung foundries. Genoeg ruimte, betere prijzen. En mocht samsung idd sterk verbeteren dan zit je er maar vast als priority customer.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • MrMonkE
  • Registratie: December 2009
  • Laatst online: 26-08 00:10

MrMonkE

★ EXTRA ★

Altijd weer die MLID. am i rite?

★ What does that mean? ★


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:48
MrMonkE schreef op zaterdag 27 mei 2023 @ 09:01:
Altijd weer die MLID. am i rite?
Wat heeft MLID nu weer gedaan :+

Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Hier is de tekst van de earnings call: https://www.fool.com/earn...earnings-call-transcript/

Wat ik eruit haal als interessante punten:
- Ze waren nog steeds bezig met het corrigeren van voorraden en hebben dus minder aan verkopers geleverd dan verkocht was (al zal dat alleen voor Ampere zijn)
- Ze hebben hogere kosten, maar hebben hun winst op peil gehouden door de marges te vergroten (wat we allemaal kunnen zien)
- Ze denken dat data centra massaal systemen met zware CPU's gaan vervangen door systemen met zware GPU's of andere gespecialiseerde accellerators.

Als Nvidia gelijk heeft dat data centra massaal overstappen naar GPU-oplossingen, dan heeft Intel een gigantisch probleem en moeten ze Intel Arc als een razende competitief maken en in gaan zetten voor professionele producten.

Als ze geen gelijk hebben, dan kan het dat Nvidia straks met hangende pootjes terug moeten naar gamers.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op vrijdag 26 mei 2023 @ 22:57:
[...]


Het is natuurlijk niet (alleen) die 18% QoQ op DC, ze zullen eerder los gaan op de enorm sterke guidance van Nvidia voor Q2 en de verwachtingen van de belegger op de verdere toekomst en dus de kwartalen daarna die daarop gebaseerd worden. De speculanten zullen immers niet kijken naar het verleden, wat de afgelopen earnings doen, maar de zullen speculeren op wat zij menen dat Nvidia in de toekomst waard zal worden en wat voor financiële cijfers daarbij horen.

Iets als dit:
Zal dan verwacht ik veel eerder de trigger geweest zijn dan die 18% QoQ gerealiseerd in Q1.
Ludewig schreef op zaterdag 27 mei 2023 @ 13:09:
Hier is de tekst van de earnings call: https://www.fool.com/earn...earnings-call-transcript/

Wat ik eruit haal als interessante punten:
- Ze waren nog steeds bezig met het corrigeren van voorraden en hebben dus minder aan verkopers geleverd dan verkocht was (al zal dat alleen voor Ampere zijn)
- Ze hebben hogere kosten, maar hebben hun winst op peil gehouden door de marges te vergroten (wat we allemaal kunnen zien)
- Ze denken dat data centra massaal systemen met zware CPU's gaan vervangen door systemen met zware GPU's of andere gespecialiseerde accellerators.

Als Nvidia gelijk heeft dat data centra massaal overstappen naar GPU-oplossingen, dan heeft Intel een gigantisch probleem en moeten ze Intel Arc als een razende competitief maken en in gaan zetten voor professionele producten.

Als ze geen gelijk hebben, dan kan het dat Nvidia straks met hangende pootjes terug moeten naar gamers.
Ah dan snap ik de overweging al meer. :)
Maar ik weet echt niet of ik het hier mee eens ben. AI ontwikkeling lijkt nu ruwweg twee paden te volgen:
1) De enorme tech bedrijven zoals Google, Microsoft, Amazon of META zijn bezig om met enorme supercomputers, modellen te trainen die ze intern ontwikkelen en grotendeels closed source houden. Hiervoor lijken ze bijna allemaal wel reguliere x86 CPU's te gebruiken met GPU's en/of dedicated accelerators. Ook zijn ze allemaal bezig met eigen accelerators te maken omdat ze allemaal de GPU te beperkend lijken te vinden. Amazon heeft volgens mij al hun eigen CPU's en accelerators. Microsoft lijkt GPT4 op een combinatie van Epyc en A100 te hebben getraind, maar zou dacht ik nu samen met AMD voor zowel CPU als GPU/accelerator ontwikkeling doen. Google is volgens mij Intel + eigen accelerators en Nvidia GPU's. En META lijkt ook bezig te zijn om hun huidige x86 CPU + Nvidia GPU's te willen vervangen voor een eigen accelerator.

2) De open gemeenschap die zelf hardware kopen of dit huren van Microsoft, Amazon of Google. Hier lijken het vooralsnog Nvidia GPU's te zijn, waar ik vermoed dat AD102 de logische keuze is als je enige budget beperkingen hebt. Maar het framework dat gebruikt word, lijkt toch steeds meer PyTorch te zijn. Voormalig META, nu open source gemaakt onder de Linux foundation. Maar hier speelt het punt wel dat er steeds meer start-ups zijn die dedicated accelerators maken die zeker in een specifiek element van het bredere AI verhaal, botweg elke GPU zullen verslaan. De GPU lijkt meer een kan alles platform zijn en een mooi startpunt. Dat is immers wat er de afgelopen jaren is gebeurd en ik zie zoveel spelers in deze ontwikkeling, zodra ze resultaten boeken, de overstap maken of willen maken naar dedicated accelerators.

Ik neig gewoon steeds meer naar een scenario waar je dedicated accelerators krijgt die veel specifieke taken doen tot een punt dat een x86 CPU-GPU setup niet eens in de buurt komt. En de back-up voor minder specifieke taken bestaat uit enorme x86 CPU clusters met GPU's. Dan ben je alleen niet het centrum van de ontwikkeling en dan heeft de afnemer van die GPU's dus ook niet een closed source ecosysteem nodig. En dat is nu juist het hele punt van Nvidia. Het is de GPU + het software ecosysteem. Zonder die koppeling zijn ze gewoon een hardware leverancier voor andere partijen die het werk verrichten, de enorme ontwikkelingen doen en er met de winst vandoor gaan. En dan hebben ze je ook niet meer nodig, precies wat nu al een beetje lijkt te gebeuren als ik met name naar Microsoft en META kijk.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:48
DaniëlWW2 schreef op zaterdag 27 mei 2023 @ 14:13:


Ah dan snap ik de overweging al meer. :)
Maar ik weet echt niet of ik het hier mee eens ben.
Je schetst natuurlijk een mooi langere termijn scenario, maar het is natuurlijk goed mogelijk dat die speculanten die nu de koers opdrijven voornamelijk naar de korte en middellange termijn kijken, en ik vraag me af of wanneer jouw scenario 100% werkelijkheid zou dat wel zo snel gaat dat mensen niet een heel mooi ritje naar de maan op Nvidia zouden kunnen maken de komende kwartalen. Of dat verhaal inderdaad zo mooi blijft op langere termijn moet natuurlijk inderdaad blijken, en het door jou geschetste scenario zal Nvidia ook vast en zeker als bedreiging zien.

Microsoft het dat AMD gerucht trouwens direct ontkent (voor wat dat waard is): https://seekingalpha.com/...denies-athena-involvement

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
En Nvidia kan natuurlijk ook gewoon andere AI accelerators maken met hun kennis van GPUs. Die ze dan naadloos in hun closed source ecosysteem laten werken met hun GPUs.

Uiteraard hoop ik gewoon dat er gezondere concurrentie komt (zeker op de game markt natuurlijk ook), tegelijk wordt hier volgens mij wel echt elke maand voorspeld hoe Nvidia weer in zware problemen is vanwege een nieuwe reden, en elk kwartaal doen ze het weer beter zo ongeveer.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Juist doordat er zo extreem veel geld beschikbaar is voor AI wordt het lastiger voor Nvidia om die extreme dominantie vast te houden. Anderen zullen bereid zijn om heel veel te investeren om een alternatief te ontwikkelen dat kwalitatief heel goed is. De game-markt is een relatieve niche-markt waar je ziet dat bijvoorbeeld AMD niet bereid is om er echt met gestrekt been in te gaan.

AI heeft de potentie om hele beroepen te vervangen, wat extreem waardevol is. Een werknemer kost al snel een slordige 50.000 euro per jaar, dus kan er behoorlijk wat geld gevraagd worden voor deze techniek als het betekent dat bedrijven met minder werknemers af kunnen.

En door die extreme belangen zal zowel bij bedrijven als bij overheden ook een sterke wil zijn om de macht te breken van een te dominante marktpartij, terwijl het ze nu niet bepaald veel kan schelen dat gamers wat te veel betalen en erg afhankelijk zijn van 1 bedrijf.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Acer wil blijkbaar een AIB worden voor Nvidia. Ze hebben een prototype van een kaart met waterkoeling:

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op zaterdag 27 mei 2023 @ 14:47:
[...]


Je schetst natuurlijk een mooi langere termijn scenario, maar het is natuurlijk goed mogelijk dat die speculanten die nu de koers opdrijven voornamelijk naar de korte en middellange termijn kijken, en ik vraag me af of wanneer jouw scenario 100% werkelijkheid zou dat wel zo snel gaat dat mensen niet een heel mooi ritje naar de maan op Nvidia zouden kunnen maken de komende kwartalen. Of dat verhaal inderdaad zo mooi blijft op langere termijn moet natuurlijk inderdaad blijken, en het door jou geschetste scenario zal Nvidia ook vast en zeker als bedreiging zien.
Tja ik geef dan ook zeer weinig om korte termijn denken. Noem het gerust een bijeffect van historici. :P
Het kan heel goed dat wat mensen nu ontiegelijk veel aan het verdienen zijn met deze korte termijn AI hype en dat op langere termijn anders gaat. Maar er staat ook tegenover dat een beetje GPU ontwikkelen inmiddels iets van vier jaar duurt. Met de huidige situatie moet Nvidia nu producten ontwerpen voor 2026 en later. Op het moment kunnen ze ongelofelijk veel geld ophalen om dat te betalen, maar of ze het dan kunnen verkopen is meer de vraag. Dergelijke enorme koersstijgingen kunnen ook negatief uitpakken over een aantal jaar.

Verder in tegenstelling tot wat sommigen steevast beweren, wil ik helemaal niet dat Nvidia kapot gaat. Ik wil een gezonde videokaartmarkt waar daadwerkelijke concurrentie bestaat en je als consument niet moet kiezen door wie je ditmaal belazerd wil laten worden. En daarvoor heb je Nvidia gewoon nodig. Sterker nog, daarvoor is het waarschijnlijk wenselijk dat Nvidia alsnog de grootste speler is. Want ik zit echt niet te wachten op AMD of Intel met een groter marktaandeel dan Nvidia. Die hebben de potentie nog veel erger te zijn omdat ze ook al je x86 processor leveren. Zoveel marktmacht hoef ik echt niet te zien. Ideaal gezien zou ik AMD en Intel zo rond de 25-30% zien en Nvidia de rest.
Microsoft het dat AMD gerucht trouwens direct ontkent (voor wat dat waard is): https://seekingalpha.com/...denies-athena-involvement
Ah ook weer duidelijk dan. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ik denk dat de meeste zouden willen dat er gezondere concurrentie komt (en zelfs als AMD beter meekomt, dan nog zit je met een duopolie die alleen naar elkaar kijken, en de prijzen hoger en hoger duwen, om dan heel verbaasd te zijn dat je op lange termijn minder GPUs voor gamers kan verkopen omdat er gewoon minder overblijven). Maar de hoeveelheid wishful thinking op dat gebied vind ik iig behoorlijk hoog.

En ik vermoed inderdaad dat Nvidia marktaandeel op AI gebied gaat verliezen. Kan eigenlijk niet anders gezien hun enorme marktaandeel momenteel. Tegelijk als ze van 100% marktaandeel naar 70% gaan, en de markt 10x groeit, dan zullen ze daar wel tevreden mee zijn.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ludewig schreef op zaterdag 27 mei 2023 @ 21:25:
Acer wil blijkbaar een AIB worden voor Nvidia. Ze hebben een prototype van een kaart met waterkoeling:

[YouTube: Acer Wants EVGA's Spot: RTX 4090 with 3-Slot Water Cooling & AMD RX [REDACTED]]
In alle eerlijkheid zijn alle Acer producten die ik tot nu toe heb gehad of kennissen hebben gehad shit. De software (drivers bijv.) of the hardware is vaak gewoon slecht. Ze moeten een aantal generaties goede kaarten maken voordat ik ze overweeg.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Sissors
Maar de hoeveelheid wishful thinking op dat gebied vind ik iig behoorlijk hoog.
Ik denk dat het niet onredelijk is om te verwachten dat Intel steeds beter mee gaat doen en we straks wel degelijk 3 goed bruikbare opties hebben.

@Sp3ci3s8472

Ik ben ook niet erg onder de indruk van Acer, maar aan de andere kant zien we dat bij Asus de videokaarten gewoon van zeer goede kwaliteit zijn (zo is de Asus TUF 4070 het beste MSRP-model), ondanks de problemen bij de Asus laptops en moederborden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Ludewig schreef op zondag 28 mei 2023 @ 10:42:
@Sissors


[...]


Ik denk dat het niet onredelijk is om te verwachten dat Intel steeds beter mee gaat doen en we straks wel degelijk 3 goed bruikbare opties hebben.

@Sp3ci3s8472

Ik ben ook niet erg onder de indruk van Acer, maar aan de andere kant zien we dat bij Asus de videokaarten gewoon van zeer goede kwaliteit zijn (zo is de Asus TUF 4070 het beste MSRP-model), ondanks de problemen bij de Asus laptops en moederborden.
Maar Asus heeft al heel lang, gemiddeld, een goede reputatie. Vind hun strix versies altijd al veel te duur net als sommige borden maar tis wel goed spul. Maar ook hun lower end voldeden mij altijd goed.Ieder merk heeft dan helaas wel es een minder product.

Heb hier retro kaarten vanaf TNT1 t/m GeForce 6800ultra waarvan veel Asus omdat die kaarten het vaak gewoon nog prima doen waar andere merken vaak dood zijn.

Hetzelfde met moederborden, 486 tm Athlon xp en P4 heb ik draaiend van Asus, zijn altijd mijn favoriet vanwege stabiliteit/functies en bijvoorbeeld nog steeds goed uitziende condensators na al die jaren.

MSI is voor mij helaas door vroeger een merk geworden die ik oversla. Erg veel defecte moederborden en videokaarten van heel veel verschillende jaren. Ook Medion spul (made by msi) was altijd defect.... Maken nu blijkbaar goed spul maar ik hoef het niet meer voorlopig.

Zelfde voor Acer maar dat lijkt amper beter geworden. Vaak ook goedkopere artikelen van hun zoals monitoren en laptops maar altijd te snel al defecten. Ook de desktops waren erg vaak probleembakken die dus geen indruk konden maken op mij.

Acer zal idd echt een aantal generaties zijn best moeten doen voordat ik daar een kaart van koop.

Heb nu een kaart van XFX, was hit&miss wat mij betreft door de jaren heen maar heb wel nog vertrouwen (en tevreden voor nu). Hetzelfde met de Gigabyte borden die ik in mijn huidige pc's gebruik. Hebben ook aardig wat goede EN zeer matige/slechte producten gehad door de jaren heen maar voldoet nu prima voor mij. Doordat sommige producten goed waren durf je ze toch te kiezen.

MSI lijkt al een tijd beter en ik wacht nog steeds af, maar Acer heeft een lange weg te gaan.....voor mij.

Iedereen heeft andere ervaringen en voorkeuren uiteraard!

Acties:
  • 0 Henk 'm!

  • roffeltjes
  • Registratie: Januari 2011
  • Laatst online: 07:11
Ludewig schreef op zondag 28 mei 2023 @ 10:42:
Ik denk dat het niet onredelijk is om te verwachten dat Intel steeds beter mee gaat doen en we straks wel degelijk 3 goed bruikbare opties hebben.
Het is mogelijk, maar Intel heeft het al eerder geprobeerd en is toen weer uitgestapt. Ik wil het eerst zien voordat ik het ga geloven, vooral omdat het toch wel aanzienlijk achterloopt bij Red en Green.

Anders gezegd, ik denk dat we juist niet teveel moeten verwachten

Acties:
  • 0 Henk 'm!

  • roffeltjes
  • Registratie: Januari 2011
  • Laatst online: 07:11
@DaniëlWW2 Ik ben niet overtuigd dat het tijdspad van de andere spelers Nvidia de komende jaren in het nauw drijft, zeker niet gezien de snel groeiende markt.

Voordat ze Nvidia hebben ingehaald qua volume, prestaties en betrouwbaarheid ben je wel een paar jaar verder (als dat al gebeurt). En zoals eerder gezegd, als de taart groter wordt is een kleiner aandeel straks veel meer volume.

Als historicus ben ik juist op dit soort gebieden heel voorzichtig met aannames. Het is volatiel en een decennium is een heel korte tijdspanne. We zijn sowieso niet zo sterk in voorspellen (beter in trends en parallellen).

Eigenlijk lees ik (overal) toch wat wensdenken dat we allemaal willen dat Nvidia vooral alleen gpus voor ons maakt.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
roffeltjes schreef op maandag 29 mei 2023 @ 07:33:
[...]

Het is mogelijk, maar Intel heeft het al eerder geprobeerd en is toen weer uitgestapt. Ik wil het eerst zien voordat ik het ga geloven, vooral omdat het toch wel aanzienlijk achterloopt bij Red en Green.
Zowel vanwege chiplets als vanwege AI zie ik dat deze keer niet gebeuren. Het zou erop neerkomen dat ze minimaal zowel de laptop- als de AI-markt opgeven, maar vermoedelijk ook de desktop markt. Dan blijft er nauwelijks iets van ze over. Ze kunnen zich het nu dan ook niet verloven om het op te geven, tenzij ze echt alleen een foundry gaan worden.

Want dit zie ik als de ontwikkelingen voor de de nabije toekomst:
- AI blijft booming en blijft in elk geval voor een groot deel op GPU-technologie gebaseerd
- Laptops stappen massaal over op chiplets-APUs, waar er hele sterke GPU-chiplets als optie bijkomen die een groot deel van de discrete videokaarten in laptops gaat vervangen (ik denk dat we samen met Airjet echt fantastische laptops gaan krijgen in de nabije toekomst)
- Desktop-chips gaan AI-processoren erin krijgen.

Wat betreft die laatste twee punten weten we trouwens al dat Intel dit gaat uitbrengen met Meteor Lake.

[ Voor 5% gewijzigd door Ludewig op 29-05-2023 10:32 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Overspark
  • Registratie: Maart 2010
  • Laatst online: 11-09 13:24
Sissors schreef op zaterdag 27 mei 2023 @ 23:32:
En ik vermoed inderdaad dat Nvidia marktaandeel op AI gebied gaat verliezen. Kan eigenlijk niet anders gezien hun enorme marktaandeel momenteel. Tegelijk als ze van 100% marktaandeel naar 70% gaan, en de markt 10x groeit, dan zullen ze daar wel tevreden mee zijn.
Niet snel, Nvidia heeft een enorme voorsprong. Ook als de hyperscalers eigen AI/ML hardware gaan maken blijven er nog heel veel bedrijven over die A100/H100 achtige kaarten willen kopen. En hoewel AMD ook best aardige datacenter kaarten heeft gemaakt met hun Instinct lijn worden die nauwelijks verkocht. De reden daarvoor is dat ze geen CUDA ondersteunen en dat de AI/ML wereld daar grotendeels op gestandaardiseerd is. Daarnaast maakt Nvidia nog tientallen andere software pakketten die nuttig en relevant zijn, en die je dus al snel wilt gebruiken als je iets grootschaligs op AI/ML gebied doet. Ook features als MIG waarmee je een A100 in 7 virtuele GPU's op kunt delen zijn uniek.

Nvidia heeft zich al een paar jaar geleden gerealiseerd dat ze er met alleen hardware niet gaan komen en heeft dus al een hele tijd geïnvesteerd in een ecosysteem wat z'n weerga niet kent en nu dankzij ChatGPT enzo eindelijk echt mainstream aan het worden is.

Vergeet ook niet dat je voor de prijs van 1 datacenter GPU een aardige auto kunt kopen (H100 lijkt nu iets van 30k per stuk te kosten, excl btw), en dat je er al gauw tientallen tot honderden wilt hebben als je serieus met AI/ML aan de slag gaat, dus dat geklaag van ons over 500 euro GPU's is echt gerommel in de marge.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Incl. filmpje.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tussen deze, tja gewoon pijnlijke vertoning, zag ik ook wel wat leuks.


Tja, GH200, een PCB met een Grace ARM CPU + H100 GPGPU met ontiegelijk veel geheugen, nou dat is dus wel een product dat denk ik erg goed aansluit bij wat de vraag in de AI wereld nu lijkt te zijn. Tenminste voor hoever ik het precies begrijp. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Mooi video'tje van GN, lekker kritisch. Die keynote was inderdaad mega corny. Linus heeft een meer positieve video geplaatst, lijkt bijna wel een advertorial. Maar impressive stuff.

[ Voor 10% gewijzigd door Help!!!! op 30-05-2023 13:08 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Linus zijn hele manier van presenteren is dat hij als een doorgesnoven ADHD'er rondstuitert en alles zwaar overdrijft.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Mizgala28
  • Registratie: Oktober 2010
  • Laatst online: 16:28
Ludewig schreef op dinsdag 30 mei 2023 @ 13:44:
Linus zijn hele manier van presenteren is dat hij als een doorgesnoven ADHD'er rondstuitert en alles zwaar overdrijft.
Linus heeft ADHD dus dat verklaart het.

Ik kijk LTT voor vermaak, Derbauer en Gamer Nexus voor echte info, en HUB alleen voor monitor reviews, het valt mij op dat HUB op andere fronten soms te veel blundert (was vroeger niet zo erg, maar dat is slechts mijn mening)

Al begint dat weer wat minder te worden, dus dat is positief.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic


Ik krijg hier meteen het vermoeden bij dat Nvidia niet afhankelijk wil zijn van TSMC, mocht het daar misgaan met de CCP. Daarnaast de productie in de VS, wat de Amerikaanse regering wel eens zou kunnen gaan subsidiëren en ook een betere onderhandelingspositie verkrijgen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Mizgala28

Ik vindt de GPU-reviews van HUB wel erg goed. Ze testen erg veel spellen en doen ook veel ontdekkingen die andere reviewers over het hoofd zien, zoals het niet renderen van textures op 8 GB kaarten. Ze waren er ook vrij snel bij om te waarschuwen voor hoog VRAM gebruik in de nieuwste en toekomstige games. Ze doen ook diepgravende analyses van de kwaliteitsverschillen tussen native, FSR en DLSS.

Ik vindt Gamer's Nexus erg sterk op hardware-vlak, maar erg matig op software vlak. Bijvoorbeeld bij reviews testen ze maar een paar spellen en ze doen op dat vlak nooit een stapje extra. Der8auer is ook vooral een hardware-mannetje. Ik vind wat dat betreft dat HUB deze andere twee juist goed aanvult.

@DaniëlWW2

Ik denk dat je er teveel achter zoekt en dat Nvidia sowieso niet loyaal is aan haar partners. Kijk maar hoe makkelijk ze wisselden van TSMC naar Samsung en weer terug. Of hoe ze hun AIBs behandelen. Of ons gamers, trouwens.

Maar uiteindelijk zijn het allemaal bedrijven die als ze enigszins professioneel zijn, rekening houden met risico's, zoals dat TSMC een zootje maakt van de nanosheets, als een niet-zindelijk kind. Apple en AMD zijn vast wel loyaler dan Nvidia, maar er is een grens.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 16:25
Ludewig schreef op dinsdag 30 mei 2023 @ 14:25:

Ik denk dat je er teveel achter zoekt en dat Nvidia sowieso niet loyaal is aan haar partners. Kijk maar hoe makkelijk ze wisselden van TSMC naar Samsung en weer terug. Of hoe ze hun AIB behandelen. Of ons gamers, trouwens.

Maar uiteindelijk zijn het allemaal bedrijven die als ze enigszins professioneel zijn, rekening houden met risico's, zoals dat TSMC een zootje maakt van de nanosheets, als een niet-zindelijk kind. Apple en AMD zijn vast wel loyaler dan Nvidia, maar er is een grens.
Ik denk dat je alle emotionele betrokkenheid van die relaties overschat. Stuk voor stuk puur B2B relaties die maar op 1 ding zijn gericht: maximale omzet met zo laag mogelijke kosten. Uiteraard hebben we het hier niet over een broekie, maar waarschijnlijk een board lid of op z'n minst een VP-level persoon die als enige taak heeft 1 enkele grote relatie in stand houden en daar onderwater een bonus voor krijgen als bepaalde targets worden gehaald bij die onderhandeling. Aan het eind van de rits wordt er dan wat champagne gedronken met z'n allen. Verder krijgen een reeks account managers, success managers etc een leuke bonus en dan is het weer wachten tot de volgende lichting (nieuw concept, architectuur, productlijn, procedé etc).

Afbeeldingslocatie: https://www.gizmochina.com/wp-content/uploads/2021/12/tsmc-top-10-customers-list.png
(dec 2021, geen idee of de data klopt overigens, maar uiteindelijk is 't zeker plausibel dat Apple hun grootste klant kon zijn (en is?) en Intel dat zeker niet was :+)

TSMC heeft de grote jongens eveneen nodig (in het Engels zou er Apple, MediaTek, AMD, Qualcomm, Broadcom, Nvidia, Sony, Marvell, STM en ADI staan). Ergens tussen de 1% en 26% op xx miljarden van je omzet verliezen gaat niet voor een leuke presentatie en sfeer zorgen bij de volgende board meeting.

[ Voor 11% gewijzigd door Paprika op 30-05-2023 15:41 ]


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Paprika

Uiteraard. En bovendien werken Apple en AMD intiem samen met TSMC. Zo test TSMC hun nieuwste processen uit samen met Apple. En TSMC leert packaging van AMD.

Maar als Intel met hun RibbonFETs extreem veel beter voor de dag komt dan TSMC met Nanosheets, dan gaan die bedrijven toch echt overstappen. Maar ze stappen niet over als Intel een kleine voorsprong heeft. Trouwens ook omdat TSMC erg goede designtools heeft.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op dinsdag 30 mei 2023 @ 14:25:

Ik denk dat je er teveel achter zoekt en dat Nvidia sowieso niet loyaal is aan haar partners. Kijk maar hoe makkelijk ze wisselden van TSMC naar Samsung en weer terug. Of hoe ze hun AIB behandelen. Of ons gamers, trouwens.

Maar uiteindelijk zijn het allemaal bedrijven die als ze enigszins professioneel zijn, rekening houden met risico's, zoals dat TSMC een zootje maakt van de nanosheets, als een niet-zindelijk kind. Apple en AMD zijn vast wel loyaler dan Nvidia, maar er is een grens.
Ik denk dat Apple en AMD alleen "loyaal" zijn omdat TSMC ze precies geeft wat ze willen.
Apple betaald voor een nieuw proces en krijgt exclusiviteit voor een periode. Dan zodra dat proces op volume is gebracht, dan gaat Apple al bijna over naar de volgende stap. Dat is het punt dat AMD binnenkomt met de volgende Zen chiplets en dus ook kennis en kunde omtrent hoe je heterogene chips nu doet. Dat Xilinx nu ook nog eens gekocht is door AMD, maakt het nog sterker.

Die een twee is zakelijk zo goed voor TSMC. Apple betaald hun R&D en ramp up kosten, AMD neemt het daarna over en levert productietechnologie voor heterogene chips. En Apple wint met capaciteit op een zeer cutting edge node om hun producten er beter uit te laten zien. En AMD krijgt volumes die ze nodig hebben en brengt zelf ook technologie aan. Iets dat AMD best wel eens een voorgetrokken positie en korting kan opleveren.


Nvidia was heel lang zeer "loyaal" aan TSMC, maar de eerste barst kwam met de problemen met 20nm. TSMC bleef bij planar transistoren die nauwelijks beter presteerde dan 28nm. Daar kwam "wat commentaar" over vanuit Nvidia. Maakte uiteindelijk weinig uit want dat was de Maxwell generatie, waarschijnlijk de beste Nvidia GPU's sinds de legendarische G80 en G92.

Tweede was dat er wat Pascal producten op Samsung waren. Dit in een periode waar er rechtszaken over en weer gingen omdat er wat mensen van TSMC, overgelopen waren naar Samsung, waarna Samsung opeens wat beter presteerde. Turing was dan TSMC, maar Ampere ging naar Samsung met alleen de datacenter chip nog bij TSMC. TSMC haar orderboeken zaten ondertussen wel overvol.

Daar speelt wat. TSMC is zo succesvol en Samsung vooral zo niet succesvol, dat de marktmacht van TSMC groter lijkt te zijn dan die van Nvidia. Dat betekent dat TSMC selectiever kan zijn qua klanten. Nu speelt TSMC publiekelijk de kaart dat elke klant gelijk is, maar dat geloof ik gewoon niet. Apple is niet gelijk aan de andere klanten en ik heb zo mijn twijfels of AMD niet ook meer gelijker dan andere klanten is.

Ik blijf het ook typerend vinden hoeveel configuraties voor met name GA102 bestaan. Dit terwijl AD102, AD103 maar weinig verschillende configuraties hebben. Er is niet eens een duidelijke naam vrijgelaten voor een verdere cut down AD103.


In die context kijk ik naar Intel en Nvidia. Nvidia wil zoals elk ander bedrijf, gewoon haar marges maximaliseren. Ze hebben ook flinke capaciteit nodig voor hun producten. Dit mede omdat Nvidia meermaals aan heeft gegeven dat ze een voorkeur hebben voor grote chips. Tja, Jensen Huang zegt soms wel vaker dingen die gewoon onzin zijn of leugens bleken te zijn, maar in dit geval vermoed ik dat er wel wat speelt. Ze maken immers nu steevast nu chips die van alles kunnen, en dus veel extra dingen hebben die niet elke klant kan gebruiken.

Voor die AI chips geld ook dat ze zijn uiteindelijk zo afhankelijk zijn van datatoegang. Monolithisch is daar gewoon beter in. Maar dan heb je ook echt flinke capaciteit en relatief goede nodes nodig. Het alternatief zou misschien wel Intel hun tiles zijn. Want tiles zou in theorie zowel flexibeler als minder latency gevoelig zijn als wat AMD heeft of andere, minder geavanceerde methoden die ook beschikbaar komen. Immers zijn CPU's ook veel latency gevoeliger dan GPU's. Dat maakt voor een normale GPU niet bijzonder veel uit, maar deze AI chips zijn voor zover ik het begrijp, er wel gevoeliger voor.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Volgens mij is het plan dat ze naar een active interposer gaan, wat bestaat uit silicium, ipv een interposer die alleen bestaaat uit wat draadjes. Dan zitten alle chiplets op een grote chiplet gemaakt met een relatief groot proces, die zorgt voor de verbindingen, maar bijvoorbeeld ook 3D-cache kan bevatten. De latency zou dan veel lager moeten zijn, al schijnt het wel een stuk duurder te zijn. En het zit nog niet in Meteor Lake.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • TRDT
  • Registratie: Januari 2018
  • Laatst online: 08-09 23:04
https://www.3dcenter.org/...s-pfingstwochenendes-2023
Afbeeldingslocatie: https://tweakers.net/i/wt_wohaJrJX5M_u7DTm-VBw05cI=/800x/filters:strip_exif()/f/image/peloGM49jilqXQ0uqaSKdH5B.png?f=fotoalbum_large

Hierboven de videokaartverkoopcijfers van Mindfactory (Duitse retailer met met dan €300 miljoen omzet per jaar). NVIDIA zal ofwel spoedig de prijzen fors moeten verlagen, of genoegen moeten nemen met veel lagere verkoopcijfers.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:48
Ludewig schreef op dinsdag 30 mei 2023 @ 17:28:
Volgens mij is het plan dat ze naar een active interposer gaan, wat bestaat uit silicium, ipv een interposer die alleen bestaaat uit wat draadjes. Dan zitten alle chiplets op een grote chiplet gemaakt met een relatief groot proces, die zorgt voor de verbindingen, maar bijvoorbeeld ook 3D-cache kan bevatten. De latency zou dan veel lager moeten zijn, al schijnt het wel een stuk duurder te zijn. En het zit nog niet in Meteor Lake.
Ik begreep juist uit o.a. dit artikel (en meerdere rond diezelfde tijd, zowat iedere techsite had er wel een bericht over), dat dit juist (deels) wel in Meteor Lake zit:

https://videocardz.com/ne...-l4-cache-for-meteor-lake

De base tile die ze gebruiken als Interposer zou silicon zijn en op 22nm gefabbed worden en daarnaast een L4 Cache bevatten. Dat gaat, mits waar, al een stuk verder dan 'alleen bestaat uit wat draadjes'.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Ludewig schreef op zaterdag 27 mei 2023 @ 18:56:
Juist doordat er zo extreem veel geld beschikbaar is voor AI wordt het lastiger voor Nvidia om die extreme dominantie vast te houden. Anderen zullen bereid zijn om heel veel te investeren om een alternatief te ontwikkelen dat kwalitatief heel goed is. De game-markt is een relatieve niche-markt waar je ziet dat bijvoorbeeld AMD niet bereid is om er echt met gestrekt been in te gaan.
AMD heeft de console markt al, waardoor zouden ze per se ook de discrete GPU markt willen? Ze lijken zich meer op laptops te concentreren.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
sunsmountain schreef op donderdag 1 juni 2023 @ 10:16:
[...]

AMD heeft de console markt al, waardoor zouden ze per se ook de discrete GPU markt willen? Ze lijken zich meer op laptops te concentreren.
Geld?

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Consumenten zijn niet loyaal. Als het beter is bij de buren zijn ze weg.

Microsoft en Sony, en laptop bouwers als Lenovo, HP, Dell, die zijn loyaler.

Dus zelfs als er geld zit in discrete GPUs, de inkomsten voor AMD zijn betrouwbaarder voor de toekomst met APUs en/of iGPUs.

Maar goed, als Navi31 etc. wel goed had gepresteerd, hadden ze dat toch wel fijn gevonden voor Radeon, als bonus. Niet dat hun marketing het niet verpest zou hebben, maar reviews zouden dan wel enthousiaster zijn over RDNA3 kaarten.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op donderdag 1 juni 2023 @ 12:34:
[...]
Consumenten zijn niet loyaal. Als het beter is bij de buren zijn ze weg.
Daar ben ik het heel erg mee oneens. Consumenten zijn juist erg loyaal. Als ze in het verleden positieve ervaringen hebben gehad of juist negatieve ervaringen bij de concurrent, dan willen ze vaak een flinke meerprijs betalen om bij het merk te blijven dat ze vertrouwen.

Dat zie je heel erg bij Nvidia, die behoorlijk slechte kaarten als de 3050 aardig goed verkocht, terwijl men betere kaarten zoals de 6600 XT vaak links liet liggen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09-09 13:52
Ludewig schreef op donderdag 1 juni 2023 @ 14:24:
[...]


Daar ben ik het heel erg mee oneens. Consumenten zijn juist erg loyaal. Als ze in het verleden positieve ervaringen hebben gehad of juist negatieve ervaringen bij de concurrent, dan willen ze vaak een flinke meerprijs betalen om bij het merk te blijven dat ze vertrouwen.

Dat zie je heel erg bij Nvidia, die behoorlijk slechte kaarten als de 3050 aardig goed verkocht, terwijl men betere kaarten zoals de 6600 XT vaak links liet liggen.
Klopt, dat zie je in het verleden ook geregeld zoals bijvoorbeeld met de 290/390(x) die 2x zoveel VRAM hadden, goedkoper waren en meer prestaties boden dan een 970/980. Enkel prestaties/W waren minder.

Tegenwoordig biedt Nvidia extra features maar toen was het heel simpel om GPUs te vergelijken aangezien het puur om prestaties ging en toch was de 970 met z'n 3.5GB veel populairder.

Als er geen loyaliteit was dan zou Nvidia niet al jarenlang rond de 80% marktaandeel zitten.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 11-09 22:59
TRDT schreef op dinsdag 30 mei 2023 @ 18:17:
https://www.3dcenter.org/...s-pfingstwochenendes-2023
[Afbeelding]

Hierboven de videokaartverkoopcijfers van Mindfactory (Duitse retailer met met dan €300 miljoen omzet per jaar). NVIDIA zal ofwel spoedig de prijzen fors moeten verlagen, of genoegen moeten nemen met veel lagere verkoopcijfers.
Waar blijkt dat uit dan? In absolute aantallen is Nvidia aan het dalen op dit moment, maar dat is volgens mij precies wat ze willen. Al die chips moeten naar de andere takken waar ze momenteel echt geld mee kunnen verdienen. Ze trekken het wel redelijk recht als je kijkt naar de omzet. Minder kaarten, maar voor een hoger bedrag lijkt toch een beetje te werken voor ze. Deze resultaten staan ook los van prebuild en daar zal Nvidia nog weinig last hebben van AMD. Ik ben bang dat dit niet genoeg is om de prijs hard omlaag te krijgen en teveel mensen alsnog kopen voor deze prijs. Een 4080 voor 700-800 of een 4070 voor 450-550 zie ik nog niet gebeuren. En een 4090 gaat schokkend vaak over de toonbank zeg :o

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Ludewig schreef op donderdag 1 juni 2023 @ 14:24:
[...]


Daar ben ik het heel erg mee oneens. Consumenten zijn juist erg loyaal. Als ze in het verleden positieve ervaringen hebben gehad of juist negatieve ervaringen bij de concurrent, dan willen ze vaak een flinke meerprijs betalen om bij het merk te blijven dat ze vertrouwen.

Dat zie je heel erg bij Nvidia, die behoorlijk slechte kaarten als de 3050 aardig goed verkocht, terwijl men betere kaarten zoals de 6600 XT vaak links liet liggen.
Als de cijfers dat nou ook lieten zien:

Afbeeldingslocatie: https://displaydaily.com/images/2017/December/Nvidia_vs_AMD.png
Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2022/09/AMD-NVIDIA-Discrete-GPU-Market-Share-Q2-2022-3DCenter.png

Die variaties van 10%, 20% zijn best groot, in een paar kwartalen. De X800 was gewoon beter dan de Geforce 6. De RTX 2000 series was gewoon beter dan Vega. Discrete GPU inkomsten zijn dus niet echt betrouwbaar.

Dezelfde sterke variaties zie je bij APU's in een paar kwartalen niet terug, dat heeft een paar jaar nodig. En bij consoles is het natuurlijk al helemaal constant / bijna een rechte lijn, totdat een Nintendo/Sony/Microsoft overstapt. Minder fluctuaties, betekent meer betrouwbare inkomsten:
Afbeeldingslocatie: https://tweakers.net/i/un3-pjUxocoHqD_IeqXf0hLtqo4=/800x/filters:strip_exif()/f/image/PEe9MTZUGNyNMUdPLARVvb4c.png?f=fotoalbum_large
(bron: https://www.cpubenchmark.net/market_share.html )

Het is niet zo dat AMD 3 generaties betere GPU's moet hebben om 10% te stijgen, zoals ik soms online lees of hoor. Voor "mindshare". Ik denk dat 1 generatie genoeg is, zoals het verleden meerdere keren heeft laten zien.

Was dat RDNA2? Nee, nog niet echt. Maar het stopte wel een beetje het bloeden. En toen kwam de undershipping om de crypto crash te compenseren met het daar uit voorspelbare gedrag van consumenten en miners (minder kopen). En de niet zo daverende RDNA3.

Afbeeldingslocatie: https://i.extremetech.com/imagery/content-types/05Dkzt6rgnfAZH1Wwb9ofDe/images-4.png

Onbetrouwbare inkomsten = Voorspelbaar onbetrouwbare consumenten. Het kan zo omslaan.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09-09 13:52
sunsmountain schreef op vrijdag 2 juni 2023 @ 02:07:
[...]

Als de cijfers dat nou ook lieten zien:

[Afbeelding]
[Afbeelding]

Die variaties van 10%, 20% zijn best groot, in een paar kwartalen. De X800 was gewoon beter dan de Geforce 6. De RTX 2000 series was gewoon beter dan Vega. Discrete GPU inkomsten zijn dus niet echt betrouwbaar.

Dezelfde sterke variaties zie je bij APU's in een paar kwartalen niet terug, dat heeft een paar jaar nodig. En bij consoles is het natuurlijk al helemaal constant / bijna een rechte lijn, totdat een Nintendo/Sony/Microsoft overstapt. Minder fluctuaties, betekent meer betrouwbare inkomsten:
[Afbeelding]
(bron: https://www.cpubenchmark.net/market_share.html )

Het is niet zo dat AMD 3 generaties betere GPU's moet hebben om 10% te stijgen, zoals ik soms online lees of hoor. Voor "mindshare". Ik denk dat 1 generatie genoeg is, zoals het verleden meerdere keren heeft laten zien.

Was dat RDNA2? Nee, nog niet echt. Maar het stopte wel een beetje het bloeden. En toen kwam de undershipping om de crypto crash te compenseren met het daar uit voorspelbare gedrag van consumenten en miners (minder kopen). En de niet zo daverende RDNA3.

[Afbeelding]

Onbetrouwbare inkomsten = Voorspelbaar onbetrouwbare consumenten. Het kan zo omslaan.
De cijfers laten wel degelijk een zekere loyaliteit zien in mijn ogen. Als je terug moet gaan naar de X800 van 20 jaar geleden voor een voorbeeld waar een betere series van AMD ook meer marktaandeel had dan zegt dit al genoeg. Sinds 2007 zie ik toch een redelijk consistent patroon met Nvidia die veel meer marktaandeel heeft ondanks soms gewoon veel slechtere producten. Volgens jouw zienswijze heeft AMD al gewoon 15 jaar slechtere producten...

Zoals al eerder aangehaald maar de 200/300 series was gewoon veel beter dan de 700/900 series van Nvidia en toch zie je gewoon het marktaandeel van AMD kelderen na de release van de 900 series. Zo zijn er nog voorbeelden: de ATI 4000 vs 200 series, AMD 7000 series vs 600. Tot Vega had AMD in mijn ogen vaak betere producten en ze misten ook geen features zoals nu. Je had toen nog gratis VRR ook tegenover de kostelijke G-sync.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 11-09 22:59
napata schreef op vrijdag 2 juni 2023 @ 09:18:
[...]

De cijfers laten wel degelijk een zekere loyaliteit zien in mijn ogen. Als je terug moet gaan naar de X800 van 20 jaar geleden voor een voorbeeld waar een betere series van AMD ook meer marktaandeel had dan zegt dit al genoeg. Sinds 2007 zie ik toch een redelijk consistent patroon met Nvidia die veel meer marktaandeel heeft ondanks soms gewoon veel slechtere producten. Volgens jouw zienswijze heeft AMD al gewoon 15 jaar slechtere producten...

Zoals al eerder aangehaald maar de 200/300 series was gewoon veel beter dan de 700/900 series van Nvidia en toch zie je gewoon het marktaandeel van AMD kelderen na de release van de 900 series. Zo zijn er nog voorbeelden: de ATI 4000 vs 200 series, AMD 7000 series vs 600. Tot Vega had AMD in mijn ogen vaak betere producten en ze misten ook geen features zoals nu. Je had toen nog gratis VRR ook tegenover de kostelijke G-sync.
De 200 serie beter dan de 900 serie? De 900 serie was een absolute moker midden in het gezicht van AMD. Die kaarten waren juist onverwachts goed. De prestaties waren top, de prijs was uitstekend en ze waren allemaal efficient as hell. Pascal maakte het daarna nog veel erger voor AMD. Vanaf de 900/1000 serie van Nvidia was er echt geen enkele reden om AMD te overwegen voor vele jaren. Na de Vega lijn besloot AMD ook nog even om geen volledige lineups meers uit te brengen, want high end was niet boeiend (lees ze waren niet in staat om Nvidia bij te houden). Dit waren allemaal stappen die de enorme boost van Nvidia hebben gebracht en het aandeel richting de 85% lieten doorschieten.

Het was vroegah even tegenovergesteld met de FX lijn van Nvidia, die hebben tot de geforce 7000 serie last gehad van verloren vertrouwen wat ATI had geholpen. Daarna is ATI/AMD gestaag gaan dalen en is dat is eigenlijk met een paar kleine hickups (oa de gtx400) nooit meer veranderd.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op vrijdag 2 juni 2023 @ 02:07:
[...]
Die variaties van 10%, 20% zijn best groot, in een paar kwartalen.
Dat hoeft niet te komen door overstappers, maar kan ook komen door klanten die al loyaal zijn aan een merk, maar hun aankoop uitstellen/versnellen.

Om een voorbeeld te geven uit een ander domein: bij de Amerikaanse presidentsverkiezingen zijn de campagnes er meestal niet zozeer erop gericht om te zorgen dat stemmers overstappen van de Republikeinen naar de Democraten of omgekeerd, maar vooral om te zorgen dat de mensen die zichzelf al zien als supporter van je eigen partij naar de stembus gaan en/of dat de supporters van de andere partij thuis blijven. Het blijkt namelijk heel lastig om mensen over te halen om over te stappen en relatief veel makkelijker om ze bijvoorbeeld boos te maken zodat ze gaan stemmen om de andere partij een hak te zetten.

Bij Nvidia zie je ook dat Jensen wanneer de verkopen tegenvallen in de marketing niet zozeer de focus legt op hoe zijn producten beter zijn dan de concurrent, maar dat het slim is voor loyale klanten om nu te upgraden. Zie de befaamde uitspraak van Jensen bij de release van de 3000-serie dat het volgens hem nu wel logisch was om te upgraden vanaf een 1000-kaart.

Vergeet ook niet dat de procentuele grafieken die je laat zien impliceren dat een verlies voor de 1 altijd winst voor de ander is, maar dat is een visuele illusie. Als bijvoorbeeld Nvidia in een kwartaal van 6 miljoen verkochte kaarten naar 4 miljoen zou gaan, en AMD stabiel blijft op 2 miljoen, dan stijgt het marktaandeel van AMD van 25% naar 33%. Maar in werkelijkheid heeft AMD dan niks meer verkocht.
Het is niet zo dat AMD 3 generaties betere GPU's moet hebben om 10% te stijgen, zoals ik soms online lees of hoor.
10% is natuurlijk niet zoveel en dat betekent alsnog dat wanneer AMD een generatie uitbrengt die even goed of beter is dan Nvidia, ze daar veel minder van profiteren dan wanneer Nvidia iets uitbrengt met dezelfde kwaliteit.

En het is natuurlijk altijd zo dat er een groep is die niet loyaal is en makkelijk overstapt, maar dat is een relatief kleine minderheid van de kopers. Overigens kan die groep soms juist profiteren van de irrationaliteit van de meeste kopers, doordat de underdog zijn product lager moet beprijzen om te verkopen dan wat redelijk zou zijn gezien de kwaliteiten van het product. Dus kun je als niet-loyale koper een relatief goedkoop product kopen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 16:18
@Ludewig Wat jij daar schrijft is gebaseerd op allemaal aannames.
Het is duidelijk dat jij Nvidia geen fijn bedrijf vindt en dat mag, maar iedere dag er iets over schrijven en/of zonder bewijs dergelijke zaken te stellen is een beetje overdadig ;)

Prijzen blijven relevant totdat niemand het er meer voor overheeft. De situatie in GPU land is op het moment niet fijn, maar daar is AMD net zo goed een onderdeel van als Nvidia.

Loyaliteit is voor mij persoonlijk compleet irrelevant in het kopen van een GPU.
Hoewel ik het vermoeden heb dat dit geldt bij elektronica voor het gros van de consumenten, kan ik dat totaal niet waarmaken en is dus een irrelevant iets om hier te plaatsen. Waarom zeg ik het dan, om duidelijk te maken dat het zonder duidelijk bewijs geen argument is.

Waarom heb ik afgelopen jaren voor Nvidia gekozen? Omdat deze kaarten doen wat ik nodig heb, had AMD dat geboden voor een betere prijs, had ik meteen AMD gekozen. Dat lees ik bij verreweg van de meeste mensen in dit forum ook.
Veel mensen die dat ook gedaan hebben en na het kopen van een 7900 serie kaart toch weer om zijn gegaan van AMD van Nvidia om diezelfde redenen.
AMD moet gewoon met een goed product komen om mensen om te laten gaan is mijn conclusie daaruit.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Koldur

Ik vindt dit een beetje vreemde reactie van je omdat ik in mijn verhaaltje helemaal geen negatieve dingen heb gezegd over Nvidia. Ik heb gewoon aangegeven dat veel klanten loyaal aan ze zijn en dat dit betekent dat producten niet puur op waarde worden geschat.

Dat heeft verder helemaal niks te maken met voorkeur of afkeer voor Nvidia/AMD, of dat het wel of niet een rationele keuze is om van een bepaalde fabrikant te kopen. Heel veel fabrikanten waar ik van koop hebben veel loyale klanten, wat ook logisch is, omdat ze vaak goede producten maken. Het zegt op zich ook niks negatiefs over de fabrikant, maar gaat over consumentengedrag.

Uit je reactie maak ik verder vooral op dat je je persoonlijk aangevallen voelt, terwijl ik juist expliciet heb gesteld dat er ook meer rationele consumenten zijn. Sowieso is de mening breed gedragen dat de 4090 die jij hebt gekocht juist wel een rationele keuze kan zijn, onder meer omdat AMD niet eens een product heeft in dezelfde prestatieklasse.

[ Voor 4% gewijzigd door Ludewig op 02-06-2023 12:02 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 16:18
Ludewig schreef op vrijdag 2 juni 2023 @ 12:01:
@Koldur

Ik vindt dit een beetje vreemde reactie van je omdat ik in mijn verhaaltje helemaal geen negatieve dingen heb gezegd over Nvidia. Ik heb gewoon aangegeven dat veel klanten loyaal aan ze zijn en dat dit betekent dat producten niet puur op waarde worden geschat.

Dat heeft verder helemaal niks te maken met voorkeur of afkeer voor Nvidia/AMD, of dat het wel of niet een rationele keuze is om van een bepaalde fabrikant te kopen. Heel veel fabrikanten waar ik van koop hebben veel loyale klanten, wat ook logisch is, omdat ze vaak goede producten maken. Het zegt op zich ook niks negatiefs over de fabrikant, maar gaat over consumentengedrag.

Uit je reactie maak ik verder vooral op dat je je persoonlijk aangevallen voelt, terwijl ik juist expliciet heb gesteld dat er ook meer rationele consumenten zijn. Sowieso is de mening breed gedragen dat de 4090 die jij hebt gekocht juist wel een rationele keuze kan zijn, onder meer omdat AMD niet eens een product heeft in dezelfde prestatieklasse.
Persoonlijk voel ik mij, zoals in het bericht staat, niet aangevallen.
Dan nog, blijft het punt staan, wij kunnen beiden niet bewijzen of de verschillen loyaliteit zijn of niet en dat was de voornaamste reden van de reactie. Het andere punt was meer een toevoeging.

Jouw berichten hier zijn in veel gevallen negatief tegenover Nvidia zonder nieuwe elementen te uiten en veelal herhaling van vorige argumenten te gebruiken.

Sowieso, en dat is een algemeen iets dus niet aan jouw persoonlijk gericht, is het tegenwoordig veelal klagen op product x en y met constant dezelfde argumenten.
Heeft in een forum als deze weinig tot geen meerwaarde als het geen nieuwe inzichten zijn. Dan wordt het nutteloos herhalen van zetten.
Dergelijke zaken worden dan aangedikt met aannames vanuit gevoel en worden nagenoeg gebracht als feiten. Dat is wat beter kan.
Heb ik mij daar omgekeerd aan gewaagd? Ja, maar probeer dat zelf ook zoveel mogelijk te voorkomen, want het helpt een discussie niet. Ik ben over het algemeen een positief ingesteld iemand en als een product doet wat ik ervan verwacht en meer, dan is het voor mij een goed product.
Veel mensen zijn een product aan het afvallen zonder ook maar enige ervaring met het product. Dat is naar mijn idee niet heel volwassen reageren omdat dat je niet krijgt wat je wil.

Wat jij daar schrijft is niet iets waar ik mij in herken of de mensen om mij heen als het gaat om producten die duur zijn/elektronisch zijn.
Bij gaming consoles zie ik dat wel terug, ook mobiele telefoons nog wel eens.
Dit kan alleen niet als argument gebruikt worden, is anekdotisch.

Cijfers zijn moeilijk te interpreteren, behalve de absolute getallen te plaatsen, is het lastig daar een waarde aan te geven als er verder geen onderzoek in gedaan is.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Koldur schreef op vrijdag 2 juni 2023 @ 12:20:
[...]
Dan nog, blijft het punt staan, wij kunnen beiden niet bewijzen of de verschillen loyaliteit zijn of niet
Dat er sprake is van loyaliteit is overduidelijk als je kijkt naar de manier waarop veel mensen hun keuzes motiveren, waar ze vaak aangeven dat ze geen vergelijking maken tussen de producten die op dat moment op de markt zijn, maar alleen Nvidia als optie zien. Overigens zie je dat net zo goed bij CPUs, waar ondertussen veel mensen alleen een AMD overwegen.

De mate waarin dit het geval is bij GPUs weten we natuurlijk niet precies, maar het is zeker substantieel meer dan 0.
Jouw berichten hier zijn in veel gevallen negatief tegenover Nvidia zonder nieuwe elementen te uiten en veelal herhaling van vorige argumenten te gebruiken.
Heb je het dan specifiek over dit 4000-topic of in het algemeen? Want ik heb zeker ook aardig wat positieve dingen gezegd over Nvidia en negatieve dingen over AMD.

Maar mijn mening is inderdaad dat dit een extreem slechte generatie is, wellicht de slechtste ooit (al is de 4090 daar dan eigenlijk weer de uitzondering op). Overigens net zo goed bij AMD. Niet voor niets zie ik massaal dat er vergelijkingen worden gemaakt met de vorige generatie, waar die vaak beter uit de bus komt. Met name de 6000-kaarten krijgen nu veel waardering omdat die relatief veel geheugen hebben, wat mensen nu belangrijker zijn gaan vinden.

Mijn mening over dergelijke zaken lijkt op dit moment vrij breed gedeeld te zijn en kun je bijvoorbeeld ook massaal horen bij veel YouTube-kanalen en bij de reacties die gewone mensen achterlaten. Dus dan vindt ik het onterecht om te eisen dat vergelijkbare geluiden hier niet (massaal) te gehore mogen worden gebracht.

Laten we wel wezen, als 4090-koper zit jij in een segment dat een kleine minderheid is en mag je dus ook verwachten dat je in de minderheid bent wat betreft de manier waarop je naar de markt kijkt.

En ik ben nog steeds van mening dat de motivatie die je geeft om mij aan te spreken meer dan zwak is, want de reactie waar je op reageerde is juist geen voorbeeld van het herhalen van vorige argumenten, want de loyaliteitsvraag is een vrij nieuw topic dat we aansnijden, dat volgens mij al langere tijd niet besproken is.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Dhrax
  • Registratie: April 2004
  • Laatst online: 15:44

Dhrax

Prog Lord

Ludewig schreef op vrijdag 2 juni 2023 @ 13:40:
[...]


Dat er sprake is van loyaliteit is overduidelijk als je kijkt naar de manier waarop veel mensen hun keuzes motiveren, waar ze vaak aangeven dat ze geen vergelijking maken tussen de producten die op dat moment op de markt zijn, maar alleen Nvidia als optie zien. Overigens zie je dat net zo goed bij CPUs, waar ondertussen veel mensen alleen een AMD overwegen.

De mate waarin dit het geval is bij GPUs weten we natuurlijk niet precies, maar het is zeker substantieel meer dan 0.


[...]
.
Je ziet hier helaas ook steeds met sentiment van de huidige maatschappij terug. Men roept elkaar maar wat na en heeft eigenlijk geen idee waarom. Er heerst hier al tijden een ant-Intel en anti-Nvidia sfeertje. Als ik een nieuw systeem zou kopen dan zou ik AMD niet eens in overweging nemen, dat word gewoon weer een Intel/Nvidia combinatie. Omdat dat gewoon nog altijd (ruim) de snelste en meest betrouwbare combinatie is. Ik heb geen goed gevoel bij AMD, vroeger was het het net niet en dat is nog altijd zo. Leuk die extra 3D cache maar een dikke i7 of i9 draait daar rondjes om met serieuze workloads. Het is niet voor niks dat vrijwel alle grote tech sites testen met Intel systemen.

We hebben het steeds over verbruik, Intel komt dan als verliezer uit de bus want AMD is qua CPU gebruik gewoon veel zuiniger, prima. Echter ik zie dagelijks GPU adviezen voorbij komen dat we absoluut geen Nvidia moeten kopen maar een 6 serie AMD, het liefst dan de 6800 of 6900, over hoog verbruik en slechte RT prestaties gesproken. Men lult zichzelf gewoon tegen. Alles om maar dwars te doen en Intel en/of Nvidia te blijven bashen. Als er dan vervolgens berichten naar buiten komen dat er bepaalde AMD chips in rook opgaan, dan valt het allemaal wel mee, ligt niet aan AMD. In volgende berichten word gewoon doodleuk diezelfde CPU als advies aangedragen, onbegrijpelijk. Een CPU die een paar procenten sneller is in bepaalde games maar volledig word getrashed in al het andere. Nee we blijven stug volhouden, AMD moet en zal geadviseerd worden.

AMD word door velen nog altijd als underdog gezien maar de afgelopen jaren hebben wel uitgewezen dat marketing niet bepaald de sterkste kant van het bedrijf is. Ze snappen er echt weinig van. Ze hadden goud in handen, Intel lag al bijna op de zij maar in plaats van klanten binnen te halen zijn ze aan het prijs model gaan werken omdat ze dachten, wat de concurrent kan ... En nu gaan ze ook gewoon vrolijk Nvidia achterna met uit uitbrengen van hardware welke bij release al achterhaald is.

Acties:
  • +3 Henk 'm!

  • Mizgala28
  • Registratie: Oktober 2010
  • Laatst online: 16:28
Dhrax schreef op vrijdag 2 juni 2023 @ 14:18:
[...]

Je ziet hier helaas ook steeds met sentiment van de huidige maatschappij terug. Men roept elkaar maar wat na en heeft eigenlijk geen idee waarom. Er heerst hier al tijden een ant-Intel en anti-Nvidia sfeertje.
Vooral dat anti-Intel sfeer merk ik van bepaalde mensen in mijn online EN offline kring.

Ik heb nu een AMD CPU en ben tevreden, keuze was heel makkelijk destijds en ik had heleboel mensen toen de AM4 platform aangeraden.

Maar met AM5 valt mij op dat voor mij veel van die voordelen tegenover Intel minder zijn geworden, niet zozeer omdat Intel beter is geworden (niet zo dramatisch) maar vooral omdat AMD bepaalde keuzes heeft gemaakt.

Ik overweeg Intel als mijn volgende systeem, en oh boy wat kreeg ik daar uit mijn kring kritiek op.

Ik ga die dingen niet quoten, het sloeg allemaal nergens op (1 persoon uit die kring had paar goede punten, maar dat is meteen de enige die al op AM5 zit).

Rest zit nog op AM4, of dat een rol speelt geen idee maar goed.

Qua anti-Nvidia merk ik geen verschil in mijn kring sinds de 5000 series van AMD, men kocht het goedkoopste, klaagde over bepaalde dingen maar meeste van hun wilden geen Nvidia omdat "internet zegt dat ze slecht zijn" of omdat AMD goedkoper was (dat laatste zie ik nog als een geldig argument, de RX 5700 XT was op een bepaald moment erg goedkoop vergeleken met een 2070 Super).

Alleen wat Nvidia betreft is de kritiek in mijn kring anders, meer copy paste dan met Intel, waar men nog weleens dingen roept die niet helemaal kloppen of die nooit van toepassing zijn geweest.

Ik kan zelf mijn eigen keuzes maken, en kies de hardware die bij mij past en waar ik de budget voor heb, en dat is niet altijd de goedkoopste optie (soms wel).

Maar er zijn genoeg mensen die dat niet kunnen, die lezen dat "Nvidia en Intel slecht zijn" en kijken daardoor niet verder.

Of erger, ze belanden op plekken met fanboys en niet iedereen kan dat even goed inschatten.

In mijn ogen of het nou Intel, Nvidia of AMD is, ze hebben alle 3 hun voor en nadelen.

Het is wel zo dat Nvidia "een beetje raar" (zacht uitgedrukt) bezig is met de 4000 series, 4090 terzijde.

Maar aan de andere kant kunnen die andere 2 (Intel en AMD) ook rare fratsen uithalen.

[ Voor 197% gewijzigd door Mizgala28 op 02-06-2023 14:48 . Reden: messed up ]


Acties:
  • +1 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 16:18
Ludewig schreef op vrijdag 2 juni 2023 @ 13:40:
[...]


Dat er sprake is van loyaliteit is overduidelijk als je kijkt naar de manier waarop veel mensen hun keuzes motiveren, waar ze vaak aangeven dat ze geen vergelijking maken tussen de producten die op dat moment op de markt zijn, maar alleen Nvidia als optie zien. Overigens zie je dat net zo goed bij CPUs, waar ondertussen veel mensen alleen een AMD overwegen.

De mate waarin dit het geval is bij GPUs weten we natuurlijk niet precies, maar het is zeker substantieel meer dan 0.


[...]


Heb je het dan specifiek over dit 4000-topic of in het algemeen? Want ik heb zeker ook aardig wat positieve dingen gezegd over Nvidia en negatieve dingen over AMD.

Maar mijn mening is inderdaad dat dit een extreem slechte generatie is, wellicht de slechtste ooit (al is de 4090 daar dan eigenlijk weer de uitzondering op). Overigens net zo goed bij AMD. Niet voor niets zie ik massaal dat er vergelijkingen worden gemaakt met de vorige generatie, waar die vaak beter uit de bus komt. Met name de 6000-kaarten krijgen nu veel waardering omdat die relatief veel geheugen hebben, wat mensen nu belangrijker zijn gaan vinden.

Mijn mening over dergelijke zaken lijkt op dit moment vrij breed gedeeld te zijn en kun je bijvoorbeeld ook massaal horen bij veel YouTube-kanalen en bij de reacties die gewone mensen achterlaten. Dus dan vindt ik het onterecht om te eisen dat vergelijkbare geluiden hier niet (massaal) te gehore mogen worden gebracht.

Laten we wel wezen, als 4090-koper zit jij in een segment dat een kleine minderheid is en mag je dus ook verwachten dat je in de minderheid bent wat betreft de manier waarop je naar de markt kijkt.

En ik ben nog steeds van mening dat de motivatie die je geeft om mij aan te spreken meer dan zwak is, want de reactie waar je op reageerde is juist geen voorbeeld van het herhalen van vorige argumenten, want de loyaliteitsvraag is een vrij nieuw topic dat we aansnijden, dat volgens mij al langere tijd niet besproken is.
Loyaliteit is altijd al een onderwerp van discussie geweest, een constante en die is nooit gekwantificeerd. Dit is zo vaak gebruikt in GPU topics om een punt te maken zonder te weten hoe groot het nu daadwerkelijk is.

Ja, er zijn mensen die loyaal zijn, maar als er maar twee personen zijn die dat zijn, is dat waar. Hetzelfde geldt voor wat ik zeg, er zijn mensen die totaal niet loyaal zijn, er zullen er zeker wel twee zijn die daaraan voldoen.
Pas als je weet hoeveel het er zijn, kan je er enige zinnige conclusie aan verbinden. Nu is het wat roepen zonder te weten hoe groot de factor ervan is of juist niet.

Ik vind deze generatie op zich wel meevallen:
  • er is sinds twee generaties een stap gezet naar een serieus kleiner proces waardoor het verbruik afneemt en kloksnelheden significant omhoog zijn gegaan
  • eindelijk heeft Nvidia het geheugen aangepakt op de 70/80 series, had misschien nog iets meer gemogen, maar het gaat nu naar 12/16 toe.
  • de encoder is serieus verbeterd voor streamen, zeker bij VR een heel belangrijke factor (zoals nu te zien is bij de nieuwe versie van Virtual Desktop)
  • prestaties van de 4080 en grotere mate de 4090 zijn echt verbeterd, alleen de prijs van de 4080 is nogal hoog.
  • koeling is bij Nvidia een stuk beter geregeld dan de vorige generatie bij Nvidia, hoewel veel mensen het te groot vinden, zorgt het voor veel betere koeling
  • 12VHPWR aansluiting, scheelt een hoop kabels en ziet er netter uit. Hieronder bij nadelen genoemd met een andere reden
Nadelen deze generatie:
  • alles onder de 4070 is vrij teleurstellend met generatie op generatie prestaties
  • prijzen zijn erg hoog, maar blijkbaar is het geen probleem voor Nvidia/AMD, want ze gaan niet harder omlaag dan in het verleden het geval was tot op heden na de release
  • 12VHPWR, wanneer niet goed aangesloten, smelten de connectoren van de kabels

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • +4 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 10:52
Ik ben ontzettend loyaal... aan de beste prijs/prestatieverhouding, dan. Ik heb zowel AMD/ATI als Nvidia voor mijn graka's gehad, zowel AMD als Intel voor mijn CPU's, alleen Intel voor mijn graka moet ik nog beleven (komt misschien nog :P). Ik heb nooit ergens een ervaring aan overgehouden dat een van de merken zo slecht was dat niemand het ooit zou moeten overwegen, wel dat je vaak voor een specifiek doel overduidelijk bij merk X uitkwam vanwege die prijs/prestatieverhouding. Het heeft ook geen enkele zin om je op te gaan zitten winden over wat andere mensen wel of niet kopen en op basis waarvan, daar kopen ze namelijk niet wat anders van en jij ook niet.

Zolang er niet ergens een rapport met harde cijfers ligt dat aangeeft waarom mensen kiezen voor A of B en hoeveel procent van de verkoopcijfers nu komen door gevoelsfactoren is het een discussie zonder einde. Wat voor de een "bewijst" dat je iets absoluut niet moet kopen ("AMD CPU's exploderen!"/"Nvidia kabels smelten!") is voor de ander een kleine technologische hiccup die opgelost is/gaat worden ("ASUS/Gigabyte deden het fout en fixen het in de BIOS"/"We gaan het mechanisme van de kabels iets wijzigen en gebruikers beter instrueren"). We zijn ook zwaar gehandicapt als het gaat om onze eigen bias onderkennen -- als je al geneigd bent minder te denken over een merk let je eerder op slecht nieuws en negeer je goed nieuws, en omgekeerd. Dat versterkt zich alleen maar als je al een product van merk X gekocht hebt of op het oog hebt en je je aankoop bewust en vooral onbewust wil rechtvaardigen. Ergste is ook nog dat dit fenomeen blijft zelfs als je je ervan bewust bent.

Ja, er zijn AMD fanboys en Nvidia fanboys, en die zijn er in meer en mindere mate, en soms weten ze het van zichzelf niet eens, maar wij gaan er in ieder geval niet achter komen hoe de verhoudingen liggen en hoeveel dit onderaan de streep nu bijdraagt aan de verkoopcijfers.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 16:25
napata schreef op vrijdag 2 juni 2023 @ 09:18:
[...]
Sinds 2007 zie ik toch een redelijk consistent patroon met Nvidia die veel meer marktaandeel heeft ondanks soms gewoon veel slechtere producten.
Wat een beter en slechter product zal zijn in het oog van de ene persoon kan prima een beter product zijn voor de ander. Om een even simpel voorbeeld te nomen uit mijn eigen GPU historie:
Mijn eerste zelfbouw pc bevatte een 8800GT. Ik denk dat er weinig discussie nodig is om te bepalen of deze kaart goede prestaties wist te leveren voor die tijd en zeker voor die prijs. Waren er toen mensen die een maandje later een HD3870 in huis haalden? Absoluut. Vond ik dat een logische keuze? Nee. Waren er voldoende mensen die dat wel een logische keuze vonden, om wat voor reden dan ook? Absoluut. Waren er die-hard fans bij die sowieso altijd AMD of Nvidia kopen (zo ook op Tweakers)? Eveneens, absoluut.

Toen kwam de HD4870, waarbij AnandTech de 1GB variant al bij de release direct de stempel "The Card to Get" gaf. Was dat voor een single-GPU opstelling een kaart die niet de beste cijfers liet zien? Ja, want er was ook de GTX 280. Viel de GTX 280 eigenlijk niet te verdedigen? Als je om meer gaf dan pure FPS cijfers, nee dan viel die kaart niet te verdedigen. Was de HD4870 voor mij de beste kaart? Absoluut. Waren er mensen die het beste van het beste wilden hebben? Ja. Was het voor die mensen slimmer om een GTX 280 te kopen? Meestal wel. Als je een multi-GPU opstelling overwoog? Tja, wat speel je het meest?

Afbeeldingslocatie: https://images.anandtech.com/reviews/video/ati/1gb4870/crysis.jpg

Afbeeldingslocatie: https://images.anandtech.com/reviews/video/ati/1gb4870/oblivion.jpg

Afbeeldingslocatie: https://images.anandtech.com/reviews/video/ati/1gb4870/grid.jpg

Voor de HD5000-series gold dat we opeens Eyefinity kregen. Zelf ben ik toen direct overgestapt op een triple monitor setup. Dat de HD5870 ook nog eens een heel goede kaart was, zeker als je hem op de dag van de release voor de MSRP had gekocht, was nog eens extra, maar Nvidia had voorlopig geen antwoord.

Uiteindelijk wist Nvidia dit op te lossen met een software-oplossing, waarbij een SLI opstelling verplicht was. De realiteit was wel weer dat 3 schermen sowieso niet altijd de meest ideale performance wist te geven, dus als je een serieuze opstelling overwoog, dan was een multi-GPU opstelling sowieso wel handig.

Was de HD5870 voor iedereen die niet alleen naar FPS keek een betere keuze dan de GTX480? Ik denk dat de meesten wel zouden zeggen ja. Tegelijkertijd was dit wel de periode waarin we vooral nog veel de term "micro-stuttering" gebruikten om aan te geven wanneer een game in SLI of Crossfire niet zo soepel leek te lopen als dat de FPS teller je zou laten denken.

Na genoeg feedback online van mensen die waren overgestapt van een Crossfire naar een SLI opstelling heb ik zelf ook de stap gemaakt van twee HD6970s in Crossfire naar een GTX 680 SLI opstelling, en inderdaad ook voor mij was die ervaring veel beter. Was de HD7970 de betere kaart voor single-GPU? Ik denk het wel en zeker op de lange termijn bleek de HD7970 langer stand te houden dan de GTX 680, maar de ervaring met Nvidia was voor mijn opstelling en naar eigen ervaring ongetwijfeld beter.

Het probleem verdween overigens weer als je 3 GPUs (X2 + 1 of 3 losse kaarten) in je pc plaatste, maar om nou te zeggen dat 3 kaarten kwijt kunnen op je moederbord en deze ook nog eens een beetje koel weten te houden nou zo standaard was :+.

Al met al is het volgens mij best wel even geleden dat Nvidia, zeker richting de high-end, een slechter product had op alle vlakken en dat je echt kon stellen dat je een miskoop aanging. Overigens vind ik het ook niet makkelijk een voorbeeld te noemen bij AMD waar dit wel het geval was.
Pagina: 1 ... 129 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.