Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 23-05 18:12
sunsmountain schreef op woensdag 1 februari 2023 @ 11:26:
Ach ik kom van een R9 290 , dus ik ga wel instappen deze generatie, maar alsnog even wachten.

De prijzen bij lange na niet zo gezakt door de "Miner Tsunami", omdat AMD en NVidia productie (Q3 2022, shipped, Q4 waarschijnlijk ook) zwaar hebben teruggebracht, en omdat een deel van de Miners toch nog leeft in Dromenland.

Prijzen gaan wel omlaag door de nieuwe GPUs RX 7000 en RTX 4000. Een 7800XT voor $599 zet de 4070 Ti prijs-technisch goed onder druk, en een 7600XT voor $299 is ook niet te versmaden. Ik hoop dat AMD daar snel mee komt (Maart-April) en niet wacht tot Computex eind Mei.
Ik heb nog een R9 Fury in gebruik. Die mag zo langzaam aan wel vervangen worden. Maar met de meest recente berichten zie ik m'n pessimisme meer en meer bevestigd worden ipv ontkracht.

Een 7800XT voor 599$ gaat hier dus alsnog >700€ kosten. Als die 7600XT 300$ moet kosten, gaat dat hier ook rap naar de 400€. De 6700XT heeft echter 12GB VRAM, 400€ voor een 8GB kaart uitgeven, die bovendien nog steeds een TBP van bijna 200W heeft, dat is in geen enkele zin een significante verbetering ten opzichte van wat je nu kunt krijgen.

Hetzelfde geldt dus voor de 7700XT/7800XT t.o.v. de 6800 serie. Enkel de nieuwe encoders en aansluitingen. Al zie ik voor deze kaarten niet in waar de nieuwe Display Port standaard voor nodig is. Maar ik ben persoonlijk al blij met HDMI 2.1 :D

[ Voor 8% gewijzigd door Cid Highwind op 01-02-2023 11:34 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Cid Highwind schreef op woensdag 1 februari 2023 @ 11:32:
[...]

Ik heb nog een R9 Fury in gebruik. Die mag zo langzaam aan wel vervangen worden. Maar met de meest recente berichten zie ik m'n pessimisme meer en meer bevestigd worden ipv ontkracht.

Een 7800XT voor 599$ gaat hier dus alsnog >700€ kosten. Als die 7600XT 300$ moet kosten, gaat dat hier ook rap naar de 400€. De 6700XT heeft echter 12GB VRAM, 400€ voor een 8GB kaart uitgeven, die bovendien nog steeds een TBP van bijna 200W heeft, dat is in geen enkele zin een significante verbetering ten opzichte van wat je nu kunt krijgen.

Hetzelfde geldt dus voor de 7700XT/7800XT t.o.v. de 6800 serie. Enkel de nieuwe encoders en aansluitingen. Al zie ik voor deze kaarten niet in waar de nieuwe Display Port standaard voor nodig is. Maar ik ben persoonlijk al blij met HDMI 2.1 :D
Ja helaas komt er 21% btw bij en staat de dollar hoog... maar vergeet niet het prijs effect op de tweedehands markt van die nieuwe kaarten. De 6700XT en 6800 koopjes liggen straks voor het oprapen :Y) :9

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • YoupS
  • Registratie: Oktober 2008
  • Laatst online: 21:24
sunsmountain schreef op woensdag 1 februari 2023 @ 11:37:
[...]

Ja helaas komt er 21% btw bij en staat de dollar hoog... maar vergeet niet het prijs effect op de tweedehands markt van die nieuwe kaarten. De 6700XT en 6800 koopjes liggen straks voor het oprapen :Y) :9
Nou ja, als de 6800(XT) generatie niet inferieur is aan de n32 in prijs-per-frame , zou de vraag naar de (tweedehands) 6800(XT) zomaar hoog kunnen blijven.

Hierdoor kan de prijs kunstmatig hoog blijven? Het aanbod zal vermoedelijk niet gigantisch toenemen, want de 6800(XT) -users zullen niet klakkeloos overstappen naar een 7800XT, vanwege het gebrek aan prestatiewinst.

Die gaan of naar de 7900XT(X), of wachten op de 8XXX-series.

Ik hoop dat je gelijk krijgt, want ik aas ook op een goeie deal, maar ik vrees dat het niet zo zal werken. Waar zijn de tijden van de 4870 die destijds alles bood voor een prachtige prijs.... Long gone :(

Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 23-05 18:12
sunsmountain schreef op woensdag 1 februari 2023 @ 11:37:
[...]

Ja helaas komt er 21% btw bij en staat de dollar hoog... maar vergeet niet het prijs effect op de tweedehands markt van die nieuwe kaarten. De 6700XT en 6800 koopjes liggen straks voor het oprapen :Y) :9
M'n sarcasmeradar moet opnieuw gecalibreerd worden, dus vergeef het me als ik het verkeerd interpreteer. Die belofte werd al gedaan voordat de grote crypto implosie plaatsvond, maar om nou te spreken van dumpprijzen, nee. 150€ korting (in feite een enkele tier qua performance) voor een kaart met (bijna) afgelopen garantie.

Als die nieuwe kaarten qua prijs/performance geen enkele verbetering bieden, is er ook geen reden om er naar te upgraden. En voor degenen die een 1000€+ kaart halen is er geen reden hun tweedehands prijs lager te laten zakken.

Edit: Wat @YoupS met de snellere typevingers zegt. }:O

[ Voor 3% gewijzigd door Cid Highwind op 01-02-2023 11:53 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tja ik zou helaas niet verbaast zijn als N32 uitkomt rond de RX6950XT. Dat heb ik immers al vaak genoeg gesteld. Het probleem is denk ik ook niet alleen de prijs (max $500 is echt wel de grens), maar ook de onduidelijkheid rond RDNA3. Want nu presteert de RX7900XTX precies wat je zou verwachten van een RDNA 2 chip die 20% extra CU's en ongeveer 15% extra clockspeed heeft. Ergo, de nieuwe CU levert gemiddeld gezien niks op. Dat lijkt een compiling probleem te zijn en dat roept een onmogelijk vraag om te beantwoorden op:

Gaat AMD dit verhelpen met driverupdates? Kunnen ze dit wel verhelpen? Zijn we afhankelijk van nieuwe games die er beter gebruik van maken? En zo ja, hoe lang duurt het voordat dit wijdverspreid is? Wat je nu ziet is dat RDNA3 lijkt beter te presteren in een paar games die voorheen vooral erg goed werkte met Ampere. Dat is alleen niet erg eenduidig. Ik kijk bijvoorbeeld al uit naar Hogwards Legacy omdat ik me afvraag hoe dat gaat presteren. Grafisch ziet dat er namelijk indrukwekkend uit.

Een ander hekel punt is RT. RDNA3 haar RT hardware is een forse stap over RDNA2, maar het is vooral opgezet voor efficiëntere en niet extreem belastende RT. Dit in tegenstelling tot Nvidia die botweg meer ray/intersections tegen het probleem aangooit. En ik weet niet hoe dit gaat lopen. Want ergens zie ik het gebeuren dat UE5 Lumen implementaties behoorlijk goed op RDNA3 kunnen werken. En Lumen is eigenlijk de eerste RT implementatie waarbij ik denk dat hier breder potentieel inzit. Want tot dusver was het voornamelijk het najagen van een droom die simpelweg niet ging werken op wat voor hardware dan ook.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 23:27

Mars Warrior

Earth, the final frontier

DaniëlWW2 schreef op woensdag 1 februari 2023 @ 12:22:
Gaat AMD dit verhelpen met driverupdates? Kunnen ze dit wel verhelpen? Zijn we afhankelijk van nieuwe games die er beter gebruik van maken? En zo ja, hoe lang duurt het voordat dit wijdverspreid is? Wat je nu ziet is dat RDNA3 lijkt beter te presteren in een paar games die voorheen vooral erg goed werkte met Ampere. Dat is alleen niet erg eenduidig. Ik kijk bijvoorbeeld al uit naar Hogwards Legacy omdat ik me afvraag hoe dat gaat presteren. Grafisch ziet dat er namelijk indrukwekkend uit.
Als die extra CU's niet helpen, dan moet AMD dit toch allang weten? Al vanaf de eerste alpha/beta's van de kaar + driver? Kan me niet voorstellen dat ze hierdoor net voor de release zijn "overvallen" namelijk :X

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Mars Warrior schreef op woensdag 1 februari 2023 @ 12:36:
[...]

Als die extra CU's niet helpen, dan moet AMD dit toch allang weten? Al vanaf de eerste alpha/beta's van de kaar + driver? Kan me niet voorstellen dat ze hierdoor net voor de release zijn "overvallen" namelijk :X
Oh dat wisten ze echt wel, maar toen was het veel te laat om er nog iets aan te doen.
Kwalijker vind ik dat ze die slides hebben getoond waar ze suggereerde dat het wel werkte alsmede naamstelling en prijsstelling dat het ook zou presteren en toen bleek het onzin te zijn. Daar zijn twee verklaringen voor.
1) Ze dachten het in die laatste maand nog wel te fixen met drivers.
2) Ze logen.
Je mag zelf kiezen wat je geloofd, want ik weet het echt niet. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 23:27

Mars Warrior

Earth, the final frontier

DaniëlWW2 schreef op woensdag 1 februari 2023 @ 12:53:
[...]
Oh dat wisten ze echt wel, maar toen was het veel te laat om er nog iets aan te doen.
Kwalijker vind ik dat ze die slides hebben getoond waar ze suggereerde dat het wel werkte alsmede naamstelling en prijsstelling dat het ook zou presteren en toen bleek het onzin te zijn. Daar zijn twee verklaringen voor.
1) Ze dachten het in die laatste maand nog wel te fixen met drivers.
2) Ze logen.
Je mag zelf kiezen wat je geloofd, want ik weet het echt niet. :P
Er is in ieder geval integraal wat misgegaan: hardware wijzigingen moeten altijd aansluiten op driver mogelijkheden. Als je zo een hardware wijziging toevoegt en deze niet in een zeer vroeg stadium (prototype, digital twin) valideert dan snap ik ff niet waar je mee bezig bent als groot bedrijf 8)

En we zijn inmiddels nogal wat maandjes na de release, dus net geen tijd meer hebben gehad voor een driver update is ook niet meer van toepassing.

Als je iets verkloot moet je het goed doen _/-\o_

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Pat-Juh
  • Registratie: December 2006
  • Laatst online: 06-05 15:37

Pat-Juh

Patrick

Dennism schreef op woensdag 1 februari 2023 @ 11:09:
@Pat-Juh Maar dat is denk ik ook waar @XWB op doelt (ok er is een 7900XT voor €979 verkrijgbaar zo lijkt het), maar gemiddeld genomen is dat gewoon een €1000+ kaart.
Dit was ook mijn conclusie. Ik zat te kijken naar een 6900/6950 maar die gingen ook voor €850 á €1000 over de toonbank een tijdje geleden. De 7900XT heeft mij hetzelfde gekost maar levert wel enkele voordelen op.

De 6700XT was wellicht een mooie zoethouder tot volgend jaar met een eventuele 8700 of 8900XT serie maar ik wil niet meer elk jaar upgrades of aanpassingen uitvoeren in mijn kast.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Mars Warrior schreef op woensdag 1 februari 2023 @ 13:05:
[...]

Er is in ieder geval integraal wat misgegaan: hardware wijzigingen moeten altijd aansluiten op driver mogelijkheden. Als je zo een hardware wijziging toevoegt en deze niet in een zeer vroeg stadium (prototype, digital twin) valideert dan snap ik ff niet waar je mee bezig bent als groot bedrijf 8)

En we zijn inmiddels nogal wat maandjes na de release, dus net geen tijd meer hebben gehad voor een driver update is ook niet meer van toepassing.
Tja ik weet gewoon echt niet wat er aan de hand is. Het kan zomaar nog komen in geleidelijke stappen.
Want wat AMD wil bereiken is behoorlijk complex. Het is noemenswaardig en ergens ook indrukwekkend wat ze hebben gedaan voor de RDNA3 CU. Want het potentieel voor gaming is fors en waarschijnlijk zou het alleen maar beter kunnen worden met veel hogere resolutie textures. Het komt er alleen niet uit nu. :/
Als je iets verkloot moet je het goed doen _/-\o_
Dat zou het motto van de Radeon groep moeten zijn. :+

[ Voor 23% gewijzigd door DaniëlWW2 op 01-02-2023 17:06 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 21:57
Allemaal kolder jongens, jullie zijn zeker de ZEER betrouwbare leakers vergeten van een paar maandjes terug??

Mijn rx 7900 xtx wordt gewoon 2-2,5x zo snel als een rx 6900xt (ff driver update afwachten nog denk ik....).

En navi 33? Oftewel de 7600xt? Die wordt sneller dan een 6900xt, no problem!

Jullie zijn veel te negatief :)

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Mars Warrior schreef op woensdag 1 februari 2023 @ 13:05:
[...]

Er is in ieder geval integraal wat misgegaan: hardware wijzigingen moeten altijd aansluiten op driver mogelijkheden. Als je zo een hardware wijziging toevoegt en deze niet in een zeer vroeg stadium (prototype, digital twin) valideert dan snap ik ff niet waar je mee bezig bent als groot bedrijf 8)

En we zijn inmiddels nogal wat maandjes na de release, dus net geen tijd meer hebben gehad voor een driver update is ook niet meer van toepassing.

Als je iets verkloot moet je het goed doen _/-\o_
Verkloten is een groot woord, maar de uitvoering door zowel de ingenieurs als het marketing team is dat zeker. RDNA3 had imho gewoon de motortjes hetzelfde moeten laten, maar ja, als je cache gaat afsplitsen, is de verleiding tot redesign groot.

De voornaamste teleurstelling is de clock speeds. Marketing ga ik niet eens benoemen. Je kan het driver team de schuld geven, maar zoveel is daar niet te halen hoor:
Afbeeldingslocatie: https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/performance-matchup.png
Bij Civ VI kunnen ze 10% winnen, maar meestal minder. +20% is niet zo waarschijnlijk voor games die geoptimaliseerd zijn voor Nvidia.

Gelukkig heeft AMD de chiplets stap gezet. Iets wat Nvidia nog moet doen binnen de komende 2-3 jaar. Ja, *moet* doen, je leest het goed. https://en.wikichip.org/wiki/mask#Reticle_limit

Dus: teleurstelling, verkloot, ja. Maar er is hoop voor de toekomst, altijd :)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
meljor schreef op woensdag 1 februari 2023 @ 17:33:
Allemaal kolder jongens, jullie zijn zeker de ZEER betrouwbare leakers vergeten van een paar maandjes terug??

Mijn rx 7900 xtx wordt gewoon 2-2,5x zo snel als een rx 6900xt (ff driver update afwachten nog denk ik....).

En navi 33? Oftewel de 7600xt? Die wordt sneller dan een 6900xt, no problem!

Jullie zijn veel te negatief :)
:+ wachten op RDNA3+ of RDNA4 dan maar...

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op woensdag 1 februari 2023 @ 16:45:
[...]

Tja ik weet gewoon echt niet wat er aan de hand is. Het kan zomaar nog komen in geleidelijke stappen.
Want wat AMD wil bereiken is behoorlijk complex. Het is noemenswaardig en ergens ook indrukwekkend wat ze hebben gedaan voor de RDNA3 CU. Want het potentieel voor gaming is fors en waarschijnlijk zou het alleen maar beter kunnen worden met veel hogere resolutie textures. Het komt er alleen niet uit nu. :/

[...]

Dat zou is het motto van de Radeon groep moeten zijn. :+
Zo, gecorrigeerd voor je.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • icall5s
  • Registratie: December 2022
  • Laatst online: 29-09-2023
verkeerde topic

[ Voor 95% gewijzigd door icall5s op 01-02-2023 18:28 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op woensdag 1 februari 2023 @ 12:53:
[...]


Oh dat wisten ze echt wel, maar toen was het veel te laat om er nog iets aan te doen.
Kwalijker vind ik dat ze die slides hebben getoond waar ze suggereerde dat het wel werkte alsmede naamstelling en prijsstelling dat het ook zou presteren en toen bleek het onzin te zijn. Daar zijn twee verklaringen voor.
1) Ze dachten het in die laatste maand nog wel te fixen met drivers.
2) Ze logen.
Je mag zelf kiezen wat je geloofd, want ik weet het echt niet. :P
3) cognitieve dissonantie: ze wilden gewoon niet geloven dat de "designed for 3 GHz" niet gehaald ging worden. Ingenieurs kunnen ongelofelijk koppig zijn, want het zijn mensen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • JoeB2C
  • Registratie: Juni 2011
  • Laatst online: 20:20
DaniëlWW2 schreef op woensdag 1 februari 2023 @ 12:22:
Tja ik zou helaas niet verbaast zijn als N32 uitkomt rond de RX6950XT. Dat heb ik immers al vaak genoeg gesteld. Het probleem is denk ik ook niet alleen de prijs (max $500 is echt wel de grens), maar ook de onduidelijkheid rond RDNA3.
Ik verwacht dat die voor een ruime €700 in de markt gezet gaat worden. $500 lijkt me onrealistisch als je naar de 4070ti kijkt.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 21:57
JoeB2C schreef op woensdag 1 februari 2023 @ 18:29:
[...]

Ik verwacht dat die voor een ruime €700 in de markt gezet gaat worden. $500 lijkt me onrealistisch als je naar de 4070ti kijkt.
Ik ook, als hij die prestaties ongeveer haalt, want dan is hij toch goedkoper dus dan worden ze wel verkocht. 500 lijkt me erg laag.

Acties:
  • 0 Henk 'm!

  • Pat-Juh
  • Registratie: December 2006
  • Laatst online: 06-05 15:37

Pat-Juh

Patrick

meljor schreef op woensdag 1 februari 2023 @ 17:33:
Allemaal kolder jongens, jullie zijn zeker de ZEER betrouwbare leakers vergeten van een paar maandjes terug??

Mijn rx 7900 xtx wordt gewoon 2-2,5x zo snel als een rx 6900xt (ff driver update afwachten nog denk ik....).

En navi 33? Oftewel de 7600xt? Die wordt sneller dan een 6900xt, no problem!

Jullie zijn veel te negatief :)
Of het zo veel gaat uitmaken betwijfel ik... Wel ben ik van mening dat AMD op lange termijn meer uit zijn (oude) GPUs weet te persen met driver updates dan nVidia.


En die 3gHz tjah... Het is een nummer ;). de 7900XT van mij raakte net de 2938mHz piek aan, met vrijwel stock settings (gemiddelde wel lager uiteraard) als ik HWiNFO64 mag geloven.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

JoeB2C schreef op woensdag 1 februari 2023 @ 18:29:
[...]

Ik verwacht dat die voor een ruime €700 in de markt gezet gaat worden. $500 lijkt me onrealistisch als je naar de 4070ti kijkt.
Staat tegenover dat de RTX4070Ti haar prijsstelling, ook volstrekt onrealistisch is. ;)
AD104 en N32 zijn midrange chips van respectievelijk 300mm2 en 200mm2 + 4x 38mm2. Respectievelijk $800 of minstens $650 is er belachelijk voor. Ik besef me namelijk dat het silicon gedeelte van N32, dus de GCD en MCD's, bij elkaar iets van $70 zal kosten. Immers zal AMD circa 240 GCD's uit een wafer halen die iets van $12.000 zal kosten. Kom je dus op ongeveer $50 per GCD. De MCD's zijn spotgoedkoop omdat je er makkelijk 1400 per wafer haalt. Als ik nog reken met de oude $7000 voor een N7 wafer (wat waarschijnlijk al een stuk gedaald is door veroudering en wegvallende vraag), tja dan komt er nog eens 4x $5 bij. Totaal is dan $70. Dat is het duurste onderdeel van een videokaart. ;)

Vervolgens komt er dan nog packaging bij alsmede VRAM. Maak er $120 van. Over dat pakket vraagt AMD dan een forse 60% marge en dan zit je op $192. Qua videokaarten (PCB + koeling) heb ik wel eens inschattingen gezien dat een zeer dure Nvidia FE over de $100 zit. Maar we hebben het hier over een chip die waarschijnlijk nog onder de 300W blijft en veelal simpelere oplossingen zal hebben. Quote ik $100 om ruim te zitten + 15% marge omdat AMD hun partners nog in leven wil laten. Dus nog eens $115 + $192 = $307.

Je hoeft je echt geen zorgen te maken over AMD als ze "maar" $500 als MSRP opgeven voor hun midrange GPU. Dat overleven ze wel. Verder zou het volstrekt normaal zijn omdat we dan kijken naar circa 50% perf verbetering over N22. Dat is een normale generatie op generatiesprong. De RX6700XT was $480 en de RX6750XT was $550. Niet dat die laatste lang voor dergelijke prijzen verkocht werd.

En als AMD denkt dat ze er $700+ voor gaan vragen, waar ik eigenlijk een beetje vanuit gaan dat ze het gaan proberen, tja dan kan ik de reactie wel voorspellen na de RTX4090, RTX4080, RTX4080RTX4070Ti, RX7900XTX en RX7900XT. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 23-05 18:12
De vraag is of AMD dat wil doen: https://www.techpowerup.c...to-avoid-unsold-inventory

De strategie in 2H 2022 was dus om expliciet géén marktaandeel te pakken, zodat de marges hoog blijven. Zoals hierboven reeds gesteld heeft Nvidia sowieso geen baat bij een prijsoorlog omdat het immers reeds het grootste marktaandeel heeft én de mindshare dat hun kaarten duurder mogen zijn dan de concurrentie.

Het is ook geen vraag van overleven of niet. Ze hebben Bulldozer overleefd. Maar in wat je effectief als een duopolie kunt zien, zullen beide bedrijven wel gek zijn deze marges nu uit handen te geven. En met de huidige problemen met hun 7900 serie (betrouwbaarheid, verbruik), zal een prijsdaling ook enkel verder het idee geven dat AMD GPU's het goedkope merk zijn wat je enkel kiest als je bereid bent compromissen te maken.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op donderdag 2 februari 2023 @ 10:22:
[...]


Staat tegenover dat de RTX4070Ti haar prijsstelling, ook volstrekt onrealistisch is. ;)
AD104 en N32 zijn midrange chips van respectievelijk 300mm2 en 200mm2 + 4x 38mm2. Respectievelijk $800 of minstens $650 is er belachelijk voor. Ik besef me namelijk dat het silicon gedeelte van N32, dus de GCD en MCD's, bij elkaar iets van $70 zal kosten. Immers zal AMD circa 240 GCD's uit een wafer halen die iets van $12.000 zal kosten. Kom je dus op ongeveer $50 per GCD. De MCD's zijn spotgoedkoop omdat je er makkelijk 1400 per wafer haalt. Als ik nog reken met de oude $7000 voor een N7 wafer (wat waarschijnlijk al een stuk gedaald is door veroudering en wegvallende vraag), tja dan komt er nog eens 4x $5 bij. Totaal is dan $70. Dat is het duurste onderdeel van een videokaart. ;)

Vervolgens komt er dan nog packaging bij alsmede VRAM. Maak er $120 van. Over dat pakket vraagt AMD dan een forse 60% marge en dan zit je op $192. Qua videokaarten (PCB + koeling) heb ik wel eens inschattingen gezien dat een zeer dure Nvidia FE over de $100 zit. Maar we hebben het hier over een chip die waarschijnlijk nog onder de 300W blijft en veelal simpelere oplossingen zal hebben. Quote ik $100 om ruim te zitten + 15% marge omdat AMD hun partners nog in leven wil laten. Dus nog eens $115 + $192 = $307.

Je hoeft je echt geen zorgen te maken over AMD als ze "maar" $500 als MSRP opgeven voor hun midrange GPU. Dat overleven ze wel. Verder zou het volstrekt normaal zijn omdat we dan kijken naar circa 50% perf verbetering over N22. Dat is een normale generatie op generatiesprong. De RX6700XT was $480 en de RX6750XT was $550. Niet dat die laatste lang voor dergelijke prijzen verkocht werd.

En als AMD denkt dat ze er $700+ voor gaan vragen, waar ik eigenlijk een beetje vanuit gaan dat ze het gaan proberen, tja dan kan ik de reactie wel voorspellen na de RTX4090, RTX4080, RTX4080RTX4070Ti, RX7900XTX en RX7900XT. :z
Geen idee waar je $12.000 en $7.000 op baseert voor N5 en N7.
Packaging en GDDR6 chips voor Navi32 is een stuk meer dan $120.
Over de GDDR6 rekent AMD geen bruto marge, want AIBs kopen die zelf in.
PCB+koeling is ook een stuk meer dan $100 voor 300W.

Naar mijn mening is je berekening veel te optimistisch. Ik zal proberen later deze week mijn extrapolaties en bronnen te delen (ben er al een paar maanden af en toe mee bezig). $500 voor Navi32 kan, maar dan krijg je wel wat minder GDDR6 en een gesneden versie, de 7700XT zou kunnen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Cid Highwind schreef op donderdag 2 februari 2023 @ 12:58:
De vraag is of AMD dat wil doen: https://www.techpowerup.c...to-avoid-unsold-inventory

De strategie in 2H 2022 was dus om expliciet géén marktaandeel te pakken, zodat de marges hoog blijven. Zoals hierboven reeds gesteld heeft Nvidia sowieso geen baat bij een prijsoorlog omdat het immers reeds het grootste marktaandeel heeft én de mindshare dat hun kaarten duurder mogen zijn dan de concurrentie.

Het is ook geen vraag van overleven of niet. Ze hebben Bulldozer overleefd. Maar in wat je effectief als een duopolie kunt zien, zullen beide bedrijven wel gek zijn deze marges nu uit handen te geven. En met de huidige problemen met hun 7900 serie (betrouwbaarheid, verbruik), zal een prijsdaling ook enkel verder het idee geven dat AMD GPU's het goedkope merk zijn wat je enkel kiest als je bereid bent compromissen te maken.
Daar staat tegenover dat ze wel enorm veel geld hebben besteed aan R&D en de opstartkosten voor een nieuwe GPU ook fors toenemen. Ook lijkt AMD juist nieuwe AIB partners aan te trekken die allemaal een minimale allocatie nodig hebben om hun eigen opstartkosten voor de videokaart zelf eruit te halen. Op een gegeven moment moet het volume omhoog gaan en het verkoopt niet met deze prijzen.

Wat ze nu doen is lager productievolumes aanhouden en veel hogere marges rekenen. Dat kan met high end omdat er niet echt een grens meer zit op die prijzen, maar op lange termijn heeft dit ook gevolgen. Mensen die in het traditionele $200-$400 middensegment zitten, hebben bijna geen enkele optie meer dan console of tweedehands videokaart. Het is tekenend dat Intel hierin is gesprongen met ARC en AMD hier N23 heeft die wel lijkt te verkopen. Het traditionele high end segment is vervolgens zo duur geworden dat veel mensen het niet kopen. Dat zag je bij elke launch die normaal gesproken meteen uitverkocht zijn. En dan hebben zowel AMD als Nvidia inmiddels tegen investeerders gezegd dat ze leveringen beperken om prijzen hoog te houden.

AMD is ook noodgedwongen de meer innoverende partij omdat ze al generaties proberen in te lopen. Ze moeten die kosten vervolgens terugverdienen met ergens tussen de 20-30% marktaandeel tegenover Nvidia hun 70-80%. In een sterk krimpende markt die nu gecreëerd word, komen ze dan eerder in de problemen dan Nvidia. Zeker omdat de prijsstelling nu min of meer suggereren dat je de RTX4070Ti moet kopen of de RTX4090. Je gaat nu of voor het beste of het minst veel te dure als je in de duurdere segmenten geïnteresseerd bent.

Komt ook nog eens bij dat we berichten hebben zoals:
nieuws: Sony leverde hoogste aantal PS5's per kwartaal tot nu toe
Terwijl AMD ook heeft toegegeven dat ze bewust minder chips verschepen om prijzen hoog te houden:
https://videocardz.com/ne...dershipping-cpus-and-gpus

Vervolgens zitten console en GPU samen in het Gaming segment dat stabiel blijft op $1,6 miljard per kwartaal met het bericht dat verminderde GPU verkopen gecompenseerd worden door consoles. Als ik zie dat Sony haar leveringen opeens verdubbeld heeft, tja dan denk ik ook dat de GPU verkopen niet zo goed gaan. Voor mij is eigenlijk vrij duidelijk dat dit geen winnende positie op de lange termijn is. Komt ook nog eens bij dat als gamers overstappen naar een console omdat PC gaming te duur is geworden, dit uiteindelijk AMD ook Ryzen + moederbord chipset verkopen gaat schelen. Ik zie gewoon niet in hoe AMD profiteert van een nog veel kleinere GPU markt die ver onder de 10 miljoen dGPU's per kwartaal blijft, waar AMD maar een klein deel van levert. Ze moeten hun GPU's namelijk blijven doorontwikkelen voor consoles, APU's alsmede hun pogingen om de AI wereld binnen te treden. Zeker omdat een aantal open initiatieven eigenlijk de dominantie van CUDA aan het doorbreken zijn. Zie:
https://www.semianalysis.com/p/nvidiaopenaitritonpytorch

Kost samengevat zie ik gewoon niet in hoe AMD dit vol gaat houden. Ze hebben een zeker volume nodig voor al hun GPU plannen wat ze niet halen. En de markt voor circa $1000 videokaarten is klein, die voor $600+ is ook niet zoveel groter. Komt bij dat hier Nvidia juist zo dominant is.

@sunsmountain AMD suggereerde alleen zelf maar dat N5 iets van $12.000 koste. Iets dat ik allang heb aangestipt. Verder verkoopt AMD ook al een tijdje de VRAM bij de GPU. Ook mis je volledig dat ik buiten waferkosten misschien bewust relatief vage getallen gebruik en laat zien dat er nog heel wat marge is voordat je die $500 haalt. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:01
@DaniëlWW2 Ik vraag me wel af of AMD wel 60% marge zal kunnen pakken op zo'n relatief (voor N5) grote chip terwijl deze relatief laag gepositioneerd zal worden. Consumenten producten zitten normaliter aan de onderkant van de product mix qua marges terwijl de exorbitante marges gemaakt worden op Epyc, ik verwacht nu ook Xilinix en spul als de professionele / datacenter gpu's en in mindere mate threadripper en het zakelijke embedded segment e.d.

Als je dan ziet dat in Q4 de gross margin naar 43% gaat (van 50% een jaar eerder), vraag ik me eigenlijk wel af of producten zo laag in de gehele product stack wel met 60% marge verkocht kunnen gaan worden straks. Immers zal gezien de enorme marges op Epyc e.d. een aanzienlijk deel van het volume portfolio, waarvan ik een groot deel verwacht in de consumenten markt (en de console chips) een stuk lagere marges moeten hebben, anders ga je immers niet richting die 43%.

Acties:
  • 0 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 23-05 18:12
@DaniëlWW2 Uiteindelijk is het een potje chicken wat hier gespeeld wordt. Maar wat je al aangeeft, de consoles zijn hier een interessante factor in. Iedere APU die ze hiermee verkopen is mogelijk een GPU die Nvidia niet heeft verkocht. De vraag is dus vooral hoe lang ze dit vol willen houden. Het antwoord daarop is duidelijk: Totdat de aandeelhouders beginnen te morren dat dit toch niet de meest profitabele opzet is.

Maar op het moment lijkt daarvan nog geen sprake te zijn. De koers dit jaar zit enkel in de lift.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op donderdag 2 februari 2023 @ 14:38:
@DaniëlWW2 Ik vraag me wel af of AMD wel 60% marge zal kunnen pakken op zo'n relatief (voor N5) grote chip terwijl deze relatief laag gepositioneerd zal worden. Consumenten producten zitten normaliter aan de onderkant van de product mix qua marges terwijl de exorbitante marges gemaakt worden op Epyc, ik verwacht nu ook Xilinix en spul als de professionele / datacenter gpu's en in mindere mate threadripper en het zakelijke embedded segment e.d.

Als je dan ziet dat in Q4 de gross margin naar 43% gaat (van 50% een jaar eerder), vraag ik me eigenlijk wel af of producten zo laag in de gehele product stack wel met 60% marge verkocht kunnen gaan worden straks. Immers zal gezien de enorme marges op Epyc e.d. een aanzienlijk deel van het volume portfolio, waarvan ik een groot deel verwacht in de consumenten markt (en de console chips) een stuk lagere marges moeten hebben, anders ga je immers niet richting die 43%.
Je bewijst mijn punt dus dat N32 helemaal niet zo duur zou moeten zijn. Dank. :+
Cid Highwind schreef op donderdag 2 februari 2023 @ 14:58:
@DaniëlWW2 Uiteindelijk is het een potje chicken wat hier gespeeld wordt. Maar wat je al aangeeft, de consoles zijn hier een interessante factor in. Iedere APU die ze hiermee verkopen is mogelijk een GPU die Nvidia niet heeft verkocht. De vraag is dus vooral hoe lang ze dit vol willen houden. Het antwoord daarop is duidelijk: Totdat de aandeelhouders beginnen te morren dat dit toch niet de meest profitabele opzet is.

Maar op het moment lijkt daarvan nog geen sprake te zijn. De koers dit jaar zit enkel in de lift.
Precies ja.
Hoewel, ik ben nooit zo'n fan van het aandeelhouders argument omdat in de praktijk het nog wel eens neerkomt op nadruk op kwartaalcijfers die op de lange termijn enorme schade aanrichten aan het bedrijf. Zie bijvoorbeeld heel Intel. Want dat gaat echt niet goed daar...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op donderdag 2 februari 2023 @ 14:21:
[...].

@sunsmountain AMD suggereerde alleen zelf maar dat N5 iets van $12.000 koste. Iets dat ik allang heb aangestipt. Verder verkoopt AMD ook al een tijdje de VRAM bij de GPU. Ook mis je volledig dat ik buiten waferkosten misschien bewust relatief vage getallen gebruik en laat zien dat er nog heel wat marge is voordat je die $500 haalt. :z
Waar suggereert AMD $12000? gevonden, zie mijn volgende post.
Bron voor AMD die VRAM inkoopt? edit: voor PS5 en XSX koopt AMD misschien GDDR6 in, maar waarschijnlijk niet voor GPUs. Dat kunnen de AIB partners prima zelf. Voor GDDR6X kan dat niet.

Bewust relatief lage getallen zou ik zeggen, en ik beschouw daardoor de $500 voor de 7800XT als hopium.

[ Voor 13% gewijzigd door sunsmountain op 02-02-2023 23:03 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op dinsdag 22 november 2022 @ 09:04:
Interview met AMD.
[YouTube: How AMD is Fighting NVIDIA with RDNA3 - Chiplet Engineering Explained]

edit: Zitten een paar zeer interessante dingen tussen.
-Ik denk dat ik een beetje over de wafercost slide ben gegaan want daar zit ook een leuke berekening bij. 16/14nm zou rond de $4000 zijn geweest, 7nm ongeveer het dubbele dus circa $8000 en de toename voor 5nm nam net iets meer af. Een schatting van $11.000-$12000 lijkt me redelijk en maakt meteen ook duidelijk dat die $17.000 echt te veel is.
-Waarom het dus een GCD is word nu ook veel duidelijker. Het gaat om de enorme verplaatsing van data die in de terabytes loopt, binnen een GPU. Het is dus een intern bandbreedte probleem zoals ik al vermoede waarom het een GPU blijft. Het tegenovergestelde van processoren die een latency probleem hebben en dus een iets andere vorm van chiplets hebben. Ook impliceren ze bij AMD dat die MCD's nog wel even op N6 blijven.
-Meest interessante vind ik alleen wat die fanout interconnect nu eigenlijk is. Het is helemaal geen silicium maar een soort plastic waardoor draden lopen. Daarop monteren ze dan de GCD en MCD waarna ze de molding doen. Het lijken dus bruggen te zijn die ook goedkoper zijn dan silicium. :)
-De grootste winst in oppervlakte lijkt vooral te zitten in L3 cache afsplitsen omdat het niet nodig is op de GCD. Vervolgens 20% meer CU's, meer capaciteiten voor die CU's en van een geschatte 550-600mm monolithische GPU naar 300mm GCD.
Dan nog even een late reactie op deze post van je. Hier sla je de plank behoorlijk mis met de aanname van $4000 voor 14/16 nm. Zelfs als je die ergens op baseert, weet je niet met welke wafer kosten AMD gerekend heeft in die grafiek:

Afbeeldingslocatie: https://www.techpowerup.com/img/Tb1SfC0z6FJvqH5A.jpg

Ja, het kan $4000, $8000 en $10.000 zijn, voor 14/16 nm, 7nm en 5 nm.
Het kan ook net zo goed $8.000, $16.000 en $20.000 zijn, op basis van dezelfde grafiek.
Of $6.000, $12.000 en $15.000.

AMD heeft met deze grafiek dus indirect niks verklapt.

Dr. Ian Cutress rekent met $10,000 en $17,000 voor N7 en N5: YouTube: Record Wafer Prices: TSMC Financial Analysis, Q4 2022

[ Voor 4% gewijzigd door sunsmountain op 10-02-2023 15:51 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

Anoniem: 57411

DaniëlWW2 schreef op donderdag 2 februari 2023 @ 14:21:
[...]

En dan hebben zowel AMD als Nvidia inmiddels tegen investeerders gezegd dat ze leveringen beperken om prijzen hoog te houden.
...
Dat ze gezegd hebben dat ze beperkt leveren wil ik graag geloven, maar het lijkt me bijzonder sterk dat ze daadwerkelijk hebben toegegeven dat dat is om prijzen hoog te houden (losstaande van of dat de reden is); dat is namelijk een actie die miljardenboetes kan opleveren.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Anoniem: 57411 schreef op zondag 19 februari 2023 @ 09:23:
[...]


Dat ze gezegd hebben dat ze beperkt leveren wil ik graag geloven, maar het lijkt me bijzonder sterk dat ze daadwerkelijk hebben toegegeven dat dat is om prijzen hoog te houden (losstaande van of dat de reden is); dat is namelijk een actie die miljardenboetes kan opleveren.
Je mist het punt. Toegegeven, ik had het ook beter kunnen uitleggen. :)
Wat AMD en Nvidia doen is hun leveringen aan hun partners verlagen omdat er veel te veel inventaris was opgebouwd die niet meer snel verkocht kon worden. Dat lijken ze te doen door een combinatie van productieverlaging en geleidelijk hun eigen voorraden aan GPU's leveren in lagere aantallen zodat er geen overschot in de markt ontstaat. Hiermee proberen ze geleidelijk de voorraden weg te werken. De implicatie hiervan is dat dit prijzen hoger houd. Dit is bijvoorbeeld ook waarom GPU verschepingen zo enorm instortte in de tweede helft van 2022.

Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/9hGBfdHQBWtrbYQKAfFZWD-970-80.png.webp
Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/nA2JW8AVnDmcAq4RmJbnZD-970-80.png.webp

Hierbij is AMD hun levering in Q3 werkelijk ingestort en die van Nvidia is fors afgenomen. Ze volgen dan ook een verschillende strategie. AMD heeft forse prijsverlagingen doorgevoerd voor N21 en N23. N21 is bijna weg, maar er is nog heel veel N23 te vinden. N22 is minder hard gedaald in prijs en daar is ook nog veel van te vinden. Nvidia heeft nauwelijks prijsverlagingen doorgevoerd buiten de erg dure RTX3080Ti/RTX3090/RTX3090Ti. GA102 begint inmiddels ook wat lastig te vinden te zijn en voor de rest houdt Nvidia hun prijzen nu al meer dan een halfjaar op peil omdat ze de overschotten niet aan het vergroten zijn. AMD lijkt dat alleen voor N22 een beetje te doen.

En dat is het punt. Het alternatief is namelijk dat er geen beperkingen invoeren op leveringen en de prijzen fors verlagen. Dat kunnen ze bewust doen of het gebeurd door de creatie van een overschot waardoor minstens een partij in de keten hun verlies gaat nemen omdat die videokaarten ergens op staan te hopen. Dat werkt alleen niet goed omdat de videokaartenmarkt een reputatie heeft dat de GPU ontwerper en fabrikant ervan, de winst maken en de rest van de keten vrij krappe marges heeft, zeker bij Nvidia. Prijsverlagingen moeten dus bij AMD en Nvidia vandaan komen. AMD heeft dat redelijk gedaan, Nvidia niet.

Laatste is dan RX7000 en RTX4000. Tja ergens vermoed ik dat die prijzen zo bizar zijn omdat zowel AMD als Nvidia hebben besloten om de productie ervan laag te houden totdat de vorige generatie verkocht is. Vervolgens hebben ze zeer hoge prijzen gesteld voor wat ze uitbrengen, waarmee ze mensen die koste wat het kost, het nieuwste willen hebben, extra veel laten betalen. De vraag is alleen wat er gebeurd zodra chips zoals N21/N22 of GA102/GA104 echt uitverkocht zijn. Want ik zie nu de prijzen van RX7000 en RTX4000 al voorzichtig wat dalen omdat ze gewoon niet verkopen. Maar ik besef me dat er nog veel meer vanaf moet.

Een ander element hierin is dat Nvidia bezig is om hun gehele lijn te introduceren en AMD niet. Nvidia plaatst deze alleen op prijspunten ver boven die van de vorige generatie. Bij AMD is er voor dGPU alleen N31. N33 is allang gelanceerd voor laptops, maar niet voor desktops. En ik zie het niet gebeuren voordat N22 en N23 voorraden vrijwel geheel verkocht zijn als videokaarten. N32, ik heb werkelijk geen idee wat daar de reden is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 23:27

Mars Warrior

Earth, the final frontier

In mijn Twitter feed kwam dit net tevoorschijn. Er zijn blijkbaar extra kaarten geregistreerd. Registratie is geen daadwerkelijke verkoop natuurlijk, maar wie weet 8)



Afbeeldingslocatie: https://tweakers.net/i/G4S9vhXQeU1WBQczGWDPZ8CkrTw=/x800/filters:strip_icc():strip_exif()/f/image/0HI4dbHtwMK2mQmkboetsoOD.jpg?f=fotoalbum_large

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +4 Henk 'm!

  • DJvL
  • Registratie: Mei 2003
  • Laatst online: 24-05 08:58

Main: Ryzen 5950x | Gigabyte X570 Aorus Elite | Corsair LPX 3600 32Gb (@3800-16) | AMD RX 6800 || 6450 WP | Ratio IO6 | Model S | Megane E-Tech


Acties:
  • +1 Henk 'm!

  • Yamotek
  • Registratie: Oktober 2011
  • Laatst online: 18:38
Wat een madlad, de manier waarop hij de power aansluiting doet op de kaart is echt knutselwerk, de Nvidia aansluiting is daar niets bij: Dual 6800 op 1 12V kabel.. :+ . Afgezien daarvan was het een leuke video om te zien en dat Dual GPU in de toekomst wel weer eens een opkomst zou kunnen maken, als de GPU markt weer competitief wordt ipv van hoe de markt nu is.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 23-05 08:53
Yamotek schreef op maandag 27 februari 2023 @ 00:18:
[...]


Wat een madlad, de manier waarop hij de power aansluiting doet op de kaart is echt knutselwerk, de Nvidia aansluiting is daar niets bij: Dual 6800 op 1 12V kabel.. :+
Hij gebruikt 2x12V hoor :)

En dit is eigenlijk een stuk veiliger en efficiënter dan een stekker, omdat je met de pinnen normaal gesproken een hoop verlies hebt :)

Het ding is ook behoorlijk power limited, 400W max. Kom je op 13,5A per draad uit (75W gaat via het PCIe slot, dus 325/2/12 = 13,54A), dat kan best op 16AWG. En dat is enkel piek, ik betwijfel of hij dat ooit ook daadwerkelijk trekt.

Acties:
  • 0 Henk 'm!

  • Yamotek
  • Registratie: Oktober 2011
  • Laatst online: 18:38
Werelds schreef op maandag 27 februari 2023 @ 09:38:
[...]

Hij gebruikt 2x12V hoor :)

En dit is eigenlijk een stuk veiliger en efficiënter dan een stekker, omdat je met de pinnen normaal gesproken een hoop verlies hebt :)

Het ding is ook behoorlijk power limited, 400W max. Kom je op 13,5A per draad uit (75W gaat via het PCIe slot, dus 325/2/12 = 13,54A), dat kan best op 16AWG. En dat is enkel piek, ik betwijfel of hij dat ooit ook daadwerkelijk trekt.
Klopt, maar meestal bij een modular PSU komt het daar ook van stekkers/pinnen vandaan. Leek daar ook mis te gaan omdat de kaart af en toe uitviel tijdens power draw (kan ook gewoon beveiliging zijn natuurlijk door i.e. hoge power draw voor 20 ms, die power spikes kunnen hoog zijn).

Acties:
  • +4 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +3 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:17
Dit spreekt ook wel boekdelen: Afbeeldingslocatie: https://cdn.videocardz.com/1/2023/02/JPR-FEB-2023-GPU.jpg
En de verkopen zullen nog wel minder zijn aangezien Nvidia met een flinke voorraad zit van RTX 3**** en RTX4080.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 21:57
Ik snap de Intel cijfers niet. Gaat om dedicated gpu's nou no way dat die zo goed verkopen.

Iedereen is het er over eens: Intels eerste poging is helemaal niet zo verkeerd maar helaas koop je gewoon een betere kaart van Amd voor minder geld.

Verder zijn ze nog maar kort redelijk goed beschikbaar dus die cijfers kunnen niet kloppen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

meljor schreef op dinsdag 28 februari 2023 @ 13:04:
Ik snap de Intel cijfers niet. Gaat om dedicated gpu's nou no way dat die zo goed verkopen.

Iedereen is het er over eens: Intels eerste poging is helemaal niet zo verkeerd maar helaas koop je gewoon een betere kaart van Amd voor minder geld.

Verder zijn ze nog maar kort redelijk goed beschikbaar dus die cijfers kunnen niet kloppen.
Die verkopen ze niet veel in de DIY markt. Maar ze lijken zeker wel verkocht te worden in pre build desktops en laptops. Verder gaat het om alleen Q4 en gaat het maar om zo'n 1,17 miljoen omdat de hele markt is ingestort. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 23-05 08:53
Yamotek schreef op maandag 27 februari 2023 @ 10:38:
[...]


Klopt, maar meestal bij een modular PSU komt het daar ook van stekkers/pinnen vandaan. Leek daar ook mis te gaan omdat de kaart af en toe uitviel tijdens power draw (kan ook gewoon beveiliging zijn natuurlijk door i.e. hoge power draw voor 20 ms, die power spikes kunnen hoog zijn).
Tuurlijk, aan de andere kant zit alsnog een stekker. Ging me er vooral om dat dit soort dingen lang niet zo onveilig zijn als velen denken, zolang je weet wat je doet. En de draden zijn al zeker het probleem niet, daar kan nog wel meer doorheen. En dit is niks vergeleken met hetgeen knapen als Buildzoid uitvreten met sommige kaarten :+

Belangrijkste is dat de verbindingen gewoon open zitten, dus alle hitte kan meteen weg. Geen miezerige pinnetjes die misschien net wat scheef zitten, geen plastic er omheen dat de hitte vast houdt.

Acties:
  • +2 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 23-05 18:12
CMT schreef op dinsdag 28 februari 2023 @ 11:05:
Dit spreekt ook wel boekdelen: [Afbeelding]
En de verkopen zullen nog wel minder zijn aangezien Nvidia met een flinke voorraad zit van RTX 3**** en RTX4080.
Ik heb dan vooral een blik op AMD gehad, maar er is gewoon weinig leuks verkrijgbaar en de dorstige goegemeente zal waarschijnlijk wel zo rond Black Friday hebben toegeslagen. De enige beweging die ik het afgelopen kwartaal heb gezien die de aankoop van 2 jaar oude GPU's interessant maakte waren deals met de 6700 en 6800 non-XT varianten. En die waren dan vaak in beperkte mate of bij een enkele retailer.

En ten opzichte van de AMD concurrenten is Nvidia nu ook niet per sé goedkoper geworden.

En nu de 6800 voor dezelfde prijs als de 6800XT gaat, denk ik dat het wachten wordt op de langzamere 7000 serie kaarten voordat er daadwerkelijk weer wat beweging gaat komen. Aangezien deze toch niet significant sneller gaan worden, zou het voor AMD natuurlijk zonde zijn nu de prijs van de bestaande kaarten te laten zakken en vol door te produceren om een verhoogde vraag af te vangen. Dat hakt immers op de toekomstige marges in.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En Microsoft heet nu haar eigen upscaling voor videobeelden in een browser. Beschikbaar vanaf Turing en RDNA1.

En ik zit er totaal niet op te wachten. Want deze ontwikkeling gaat steeds meer naar de eindgebruiker die hun videokaart moet gebruiken om lagere resolutie beelden binnen te halen en te upscalen. Dat is immers goedkoper voor de dienstverlenende partij. :/
https://videocardz.com/ne...n-for-nvidia-and-amd-gpus

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 23:27

Mars Warrior

Earth, the final frontier

DaniëlWW2 schreef op zaterdag 4 maart 2023 @ 15:11:
En Microsoft heet nu haar eigen upscaling voor videobeelden in een browser. Beschikbaar vanaf Turing en RDNA1.

En ik zit er totaal niet op te wachten. Want deze ontwikkeling gaat steeds meer naar de eindgebruiker die hun videokaart moet gebruiken om lagere resolutie beelden binnen te halen en te upscalen. Dat is immers goedkoper voor de dienstverlenende partij. :/
https://videocardz.com/ne...n-for-nvidia-and-amd-gpus
Gelukkig werkt het niet met DRM en enkel tot 720p, dus voor mij althans geen ramp.
Het schalen is tot HD/1080p begrijp ik. Dat is nu weer jammer. In films zie ik altijd dat ze van een lego gezicht iets kunnen opschalen zodanig dat je zelfs de wimpers kunt zien 8)

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op zaterdag 4 maart 2023 @ 15:11:
En Microsoft heet nu haar eigen upscaling voor videobeelden in een browser. Beschikbaar vanaf Turing en RDNA1.
Nee, vereist RTX of RDNA.

De GTX 16x0 serie is ook Turing, maar wordt niet ondersteund.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 19-05 07:09

SG

SG surft naar info hardewaren

meljor schreef op dinsdag 28 februari 2023 @ 13:04:
Ik snap de Intel cijfers niet. Gaat om dedicated gpu's nou no way dat die zo goed verkopen.

Iedereen is het er over eens: Intels eerste poging is helemaal niet zo verkeerd maar helaas koop je gewoon een betere kaart van Amd voor minder geld.

Verder zijn ze nog maar kort redelijk goed beschikbaar dus die cijfers kunnen niet kloppen.
Zou het kunnen meeste dgpu van intel in laptop komen , bundel setjes om nv mobile dgpu te counteren.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
SG schreef op maandag 13 maart 2023 @ 07:22:
[...]

Zou het kunnen meeste dgpu van intel in laptop komen , bundel setjes om nv mobile dgpu te counteren.
Ergens best onverantwoord van OEM's als ze inderdaad de nieuwe Intel discrete gpu's in desktops en laptops stoppen. Dat wij als Tweakers een Intel kaart kopen omdat we weten hoe we met bepaalde driver problemen moeten omgaan is een diing; om normale gebruikers daar mee op te schepen.
Stel dat de kaarten helemaal stabiel zouden zijn en drivers hebben die on-par zijn qua stabiliteit met AMD/Nvidia dan is er niks aan de hand. Performance zou niet eens zoveel uitmaken, stabiliteit is belangrijker.

Acties:
  • +1 Henk 'm!

  • dutchnltweaker
  • Registratie: December 2013
  • Laatst online: 22:45
Is er al iets bekend wanneer de 7700 en 7800 serie er komen? Zelf is een 7900 voor mij net overkill en wat te duur en de 6800 was/is een prima gpu serie.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 21:57
dutchnltweaker schreef op dinsdag 14 maart 2023 @ 10:12:
Is er al iets bekend wanneer de 7700 en 7800 serie er komen? Zelf is een 7900 voor mij net overkill en wat te duur en de 6800 was/is een prima gpu serie.
4070 non ti komt april, zal daarna amd ook wel weer met een counter komen. Tegen de zomer denk ik dat de 4060 en 7700 komen.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
dutchnltweaker schreef op dinsdag 14 maart 2023 @ 10:12:
Is er al iets bekend wanneer de 7700 en 7800 serie er komen? Zelf is een 7900 voor mij net overkill en wat te duur en de 6800 was/is een prima gpu serie.
Uitgaande van geruchten, als eerste de 7600XT in April met $299-$349, mikkende op het value segment terwijl Nvidia een en ander zal proberen met wat 4070's en misschien een 4060 Ti , met $699, $599 en misschien $499, van bovenaf naar beneden.

De interessante 7800 en 7700 waarschijnlijk pas 618 shopping festival in China, oftewel 18 juni.Tegen die tijd zullen we misschien ook de 4060 zien, Nvidia voor een "value" prijs.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 21:57
"value" bedoel je... :)

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Aangepast :)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Even extrapoleren:


D70201 = 7900 XTX
D70401 = 7900 XT

24 Okt registratie -> 13 Dec launch


D70701 = RX 7800, 7700 of 7600 (XT).

17 Feb registratie -> 8 Apr launch :)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:01
Zou je bij een 8 April launch dan toch niet al veel meer horen nu over die kaarten? Ik zie geen enkele buzz voor een launch begin april, wat, als er wel een launch gaan zijn op dat moment waarschijnlijk ook niet heel veel goeds betekent, AMD is vaak slecht in het managen van de hype train, maar dit zou weer volledig de andere kant op slaan, wat ook niet goed is.

Acties:
  • +2 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 25-05 12:29
Ik dacht dat de release van de Nvidia kaarten voor de gewenste buzz ging zorgen? Dat is immers ook april. :P

Dit blijft echt enorm koffiedik kijken. Rekenen op verstandige of logische zetten van de marketingafdeling heb ik zelf allang opgegeven. Gaan ze Nvidia afwachten en dan rustig in juni lanceren met een geschikte prijsstelling en een shopping festival? Gaan ze proberen NV de loef af te steken met een vroege release zodat de NV prijsstelling extra bezopen lijkt? Gaan ze op juni mikken, maar om op safe te spelen een voorschot nemen op een eerdere release als NV ineens onverwacht wel met een redelijke prijs komt? Mijn glazen bol blijft mistig.

Ik wacht gelukkig al zo lang op betere tijden dat een maand of twee, drie me ook niet meer uit maakt...

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Eens, dit is maar een extrapolatie :P :D

Maar goed, wees niet verbaasd als AMD een konijn uit een hoed tovert in April ergens. Of dat nou Navi33 of Navi32 is.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op dinsdag 21 maart 2023 @ 16:35:
Zou je bij een 8 April launch dan toch niet al veel meer horen nu over die kaarten? Ik zie geen enkele buzz voor een launch begin april, wat, als er wel een launch gaan zijn op dat moment waarschijnlijk ook niet heel veel goeds betekent, AMD is vaak slecht in het managen van de hype train, maar dit zou weer volledig de andere kant op slaan, wat ook niet goed is.
Sinds wanneer horen we veel over AMD SKU's tot vlak voor launch? Ja we weten de configuratie inmiddels wel, maar wanneer N31 kwam was ook een raadsel totdat AMD het zelf aankondigde. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:01
DaniëlWW2 schreef op dinsdag 21 maart 2023 @ 21:32:
[...]


Sinds wanneer horen we veel over AMD SKU's tot vlak voor launch? Ja we weten de configuratie inmiddels wel, maar wanneer N31 kwam was ook een raadsel totdat AMD het zelf aankondigde. ;)
Wanneer het kwam is dan ook niet waar ik primair op doel. N31 werd echt maanden lang (eigenlijk nog veel langer, de hypetrain begon eigenlijk al vlak na de 6900XT release) opgehemeld als hetgeen dat Lovelace wel even ging verslaan, N33 zou de 6900XT wel even makkelijk gaan verslaan, N32 zou de vloer al aanvegen met alles wat Nvidia zou hebben behalve de 4090 en meer van dat soort gehype. Dat is nu echt helemaal dood, je hoort er nu echt helemaal niets meer over. Terwijl je normaal gesproken juist in de aanloop naar een release iedere leaker of techtuber volop aan het leaken / gissen is wat er gaat komen e.d.

Iets als een 4060 of 4070 hoor je quasi dagelijks wel genoemd ergens, 7600XT / 7700XT / 7800XT amper. Die hypetrain was natuurlijk niet goed gemanaged, want AMD maakte het niet waar, maar dit is ook niet best.

[ Voor 8% gewijzigd door Dennism op 21-03-2023 21:52 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op dinsdag 21 maart 2023 @ 21:48:
[...]


Wanneer het kwam is dan ook niet waar ik primair op doel. N31 werd echt maanden lang (eigenlijk nog veel langer, de hypetrain begon eigenlijk al vlak na de 6900XT release) opgehemeld als hetgeen dat Lovelace wel even ging verslaan, N33 zou de 6900XT wel even makkelijk gaan verslaan, N32 zou de vloer al aanvegen met alles wat Nvidia zou hebben behalve de 4090 en meer van dat soort gehype. Dat is nu echt helemaal dood, je hoort er nu echt helemaal niets meer over. Terwijl je normaal gesproken juist in de aanloop naar een release iedere leaker of techtuber volop aan het leaken / gissen is wat er gaat komen e.d.

Iets als een 4060 of 4070 hoor je quasi dagelijks wel genoemd ergens, 7600XT / 7700XT / 7800XT amper. Die hypetrain was natuurlijk niet goed gemanaged, want AMD maakte het niet waar, maar dit is ook niet best.
Ik denk dat er gewoon geen enkele interesse is en er dus geen hypecontent gemaakt word. ;)
Verder is N32 zeer waarschijnlijk 60CU's. Uitgaande dat de nieuwe features nauwelijks tot niet werken zoals met N31 en het wederom 2600MHz is, tja circa 20% sneller dan de RX6800 die rond de 2200MHz zit. RX6800XT/RX6900XT niveau dus. Dat is je basispunt. Vanaf dat punt kan het meevallen.

Stiekem is er best reden om aan te nemen dat het een goede chip zal zijn, zelfs als je op 2600MHz vastzit. Ik denk alleen dat veel van de hype types het niet doorhebben. Verder hangt het succes ook volledig van de prijs af. Max $500 of DOA. Meer vragen kan pas als ze echt 3GHz halen in gaming. Maar als ik zie wat N22 nu nog moet kosten, tja...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +6 Henk 'm!

  • JoeB2C
  • Registratie: Juni 2011
  • Laatst online: 20:20
Het gebrek aan hype is ook niet zo gek als je bedenkt dat deze hele generatie een kwestie van het oprekken van de bovenkant is geweest. Prestaties per euro zijn grosso modo niet beter dan wat de vorige generatie biedt, alleen kan je met meer geld nog meer performance kopen.

Als je dat naar beneden extrapoleert krijg je dus een nieuwe midrange lijn die gelijkwaardige performance levert met gelijke prijs als huidige videokaarten. Het heet dan alleen een x70 ipv x80 of x90 bij nvidia en iets dergelijks bij AMD. Totaal niet interessant dus.

[ Voor 8% gewijzigd door JoeB2C op 22-03-2023 11:19 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
Deze generatie is redelijk hypeloos, ik zag laatst ergens dat de 4090 al 5 maanden uit was. Zo lang al?

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op dinsdag 21 maart 2023 @ 22:38:
[...]
Verder hangt het succes ook volledig van de prijs af. Max $500 of DOA. Meer vragen kan pas als ze echt 3GHz halen in gaming. Maar als ik zie wat N22 nu nog moet kosten, tja...
Lijkt me ook erg optimistisch aangezien de MSRP van de 6800 XT op $650 ligt en de 6800 op $580.

Mijn verwachting is ongeveer gelijke prijzen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

GDC is blijkbaar bezig en AMD heeft ook wat dingetjes. Bijvoorbeeld deze indrukwekkende UE5 demo voor gezichtsanimatie draaide op Ryzen + Radeon.


Maar belangrijkste is FSR3. Tja het is Open Source, het is frame interpolation en het komt er een keertje aan.
https://community.amd.com...roduces-fsr-3/ba-p/595345

Afbeeldingslocatie: https://tweakers.net/i/iPEG1SHqnnZQz8mGS2ky8i97VJU=/800x/filters:strip_icc():strip_exif()/f/image/JQuzHJab4nRBNtckUq3sVkf1.jpg?f=fotoalbum_large

Verder vind ik deze ook het vermelden waard.
AMD FidelityFX™ Hybrid Reflections combines stochastic screen space reflections (SSSR) with ray tracing to create high-quality reflections. AMD FidelityFX™ Hybrid Shadows combines rasterized shadow maps and ray traced shadows to create high-quality and high-performance shadows.
Dat is hoe je ray tracing moet doen en niet de volstrekt onwerkbare path tracing pushen waarbij je frame interpolation nodig hebt om niet naar een diashow te kijken. Want wat is nu werkelijk het punt van ray tracing als je frames ertussen moet interpoleren? Ga je lichteffecten verbeteren voor de ene frame en de volgende frame ga je inleveren op kwaliteit van textures.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 01:00

Damic

Tijd voor Jasmijn thee

@DaniëlWW2 die animatie is wel zalig goed gedaan, maar wat wil je dan ook van een full face camera dat elke grimas direct op het karakter kan zetten :D

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
DaniëlWW2 schreef op zaterdag 25 maart 2023 @ 08:54:

Verder vind ik deze ook het vermelden waard.

[...]

Dat is hoe je ray tracing moet doen en niet de volstrekt onwerkbare path tracing pushen waarbij je frame interpolation nodig hebt om niet naar een diashow te kijken. Want wat is nu werkelijk het punt van ray tracing als je frames ertussen moet interpoleren? Ga je lichteffecten verbeteren voor de ene frame en de volgende frame ga je inleveren op kwaliteit van textures.
Of het een diashow wordt, is natuurlijk afhankelijk van het aantal paths dat je tracet, dat hoeft net als bij ray tracing echt niet voor alle pixels. Vervolgens kan je het aantal samples ook beperken. Je reflecties worden misschien wat minder, maar de breking beter. Het licht voelt natuurlijker met path tracing.

En nu 4k 120Hz behaald is, is er natuurlijk een nieuw doel nodig. :P

Qua ray tracing hardware beginnen de oplossingen al op elkaar te lijken, zeker bij AMD en Intel:

AMD = 1 shader core + 1 Ray Accelerator:
Afbeeldingslocatie: https://hothardware.com/image/resize/?width=1170&height=1170&imageFile=/contentimages/Article/3259/content/big_compute-unit-pair.jpg

Intel = 1 shader core + 1 TSU + 1 RTU:
Afbeeldingslocatie: https://game.intel.com/wp-content/uploads/2022/09/arc-ray-tracing-hardware-1.png

Alleen bij Nvidia zijn de Tensor Cores onderdeel van de shader cores, met ook de ray tracing cores apart per SM:

Nvidia = 4 shader + 4 tensor core + 1 RT CORE:
Afbeeldingslocatie: https://tpucdn.com/gpu-specs/images/g/1005-sm-diagram.jpg

Ik vind wel dat AMD er de minste ray tracing hardware tegenaan gooit van de 3, op dit moment. Hopelijk beter met RDNA4.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Ray tracing benchmarks laten dan ook zien dat naast Nvidia 3070, Ampere, de Intel Arc A770/750 het goed doet tegen een RX 6700 XT, RDNA2.

https://www.techpowerup.com/review/intel-arc-a770/34.html

Control, Cyberpunk 2077, Metro Exodus, Resident Evil Village
RTX 3070 > A770/750 > RX 6700 XT

Deathloop , Far Cry 6, F1 22, Watch Dogs: Legion
RTX 3070 > RX 6700 XT > A7750/750
  • in Deathloop 1440p en 4k wint A770 het van de 6700 XT
  • in F1 22 4k wint A770 het nipt van de 6700 XT
  • in Far Cry 6 4k wordt Nvidia afgestraft met 8GB VRAM
Toegegeven, De A750/A770 is 400 mm2 versus de RX 6700 XT 335 mm2, maar die laatste is een stuk duurder.

Waarschijnlijk dat de 7600XT het wint van de A770 in Ray Tracing, RDNA3.

[ Voor 8% gewijzigd door sunsmountain op 28-03-2023 09:58 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +4 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En daar is volgens mij nu al de vierde game dit jaar die meer dan 8GB aan VRAM vraagt. Na Forspoken, Hogwarts Legacy, RE4 remake nu ook The last of Us Part 1.

Ik weet niet of ik het eens ben dat dit zo gepland was door Nvidia, maar het begint nu wel duidelijk te worden. Het heeft ook gevolgen voor AMD want ik merk dat ik het op deze manier ook anders ga kijken naar de RX6600 series of de aankomende RX7600 series die ook met 8GB zitten. En laat nota bene de RX6600 series nu zo ongeveer de enige videokaarten zijn die consistent nog een beetje interessant zijn. De rest is meer kijken of er ergens een goede prijs is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 25-05 12:29
Tja. Extra zuur voor ons lijkt me dat het hierbij heel vaak gaat om brakke ports of andere meuk die gewoon slecht geoptimaliseerd is (TLoU en Forspoken hebben zeker wel meer issues dan VRAM gebruik, ongeacht waar je het op draait). Iedere keer als ik benchmarks zie van Doom (Eternal) denk ik "zie je, het kan wel" en moet ik onwillekeurig toch een traan laten om hoeveel er op tafel blijft liggen omdat developers het liefst gebruik maken van extra capaciteit om luier te kunnen zijn. Waarvoor ik overigens alle begrip heb, ik ben er zelf ook een. :)

Dit doet niets af aan het probleem dat je als eindgebruiker als enige oplossing hebt om te upgraden, natuurlijk, klagen over slechte optimalisatie doet niets. Tegenwoordig komt men er al mee weg om gewoon dingen uit te brengen die in het geheel niet draaien en een belofte voor een patch in de toekomst, veel lager kan de drempel niet.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
Als we in de 8-10GB trend zitten:


Blijkbaar is RT een stuk lastiger met 8GB of 10GB vram in combinatie met textures op 4GB of op 6GB. Wat resulteerd in crashes; ligt uiteindelijk aan het spel, maar laat wel zien dat wat meer vram uiteindelijk geen luxe is.

Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Wat mij betreft schiet Nvidia zich ook in de voet door RT als het grote voordeel boven AMD te presenteren, wanneer ze tegelijkertijd de VRAM afknijpen zodat RT niet eens kan door een gebrek aan VRAM.

Ik vermoed dat AMD heel erg goed gaat fine-winen op deze manier, zeker als we straks nog de traditioneel vrij late driver-optimalisaties en fixes krijgen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 21:57
Weer een aanwijzing dat RT nog een overbodige luxe is op dit moment, helemaal voor de mid/low end.

Op die kaarten moet je RT sowieso niet willen qua performance, maar qua Vram dus ook niet.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Nvidia heeft RTX geïntroduceerd in 2018 met de belofte dat we toen konden raytracen, maar het zou me niet verbazen als het pas tien jaar later, in 2028, het een beetje de moeite waard wordt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • field33P
  • Registratie: Mei 2009
  • Laatst online: 14:13
Aan de console-zijde (ook RDNA2) zie je ook dat games het tot nu toe een optionele optie met lagere resoluties maken. Best kans dat raytracing ook daar pas de volgende generatie standaard wordt.

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 17-05 18:44
Ludewig schreef op vrijdag 31 maart 2023 @ 13:18:
Nvidia heeft RTX geïntroduceerd in 2018 met de belofte dat we toen konden raytracen, maar het zou me niet verbazen als het pas tien jaar later, in 2028, het een beetje de moeite waard wordt.
We kunnen toch al raytracen? Ik gebruik het al jaren. Of bedoel je dan enkel raytracen zonder rasteroptie zoals Metro Exodus: EE? Dat gaat nog lang op zich laten wachten.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Er zijn ondertussen een handvol spellen waar het een beetje de moeite waard lijkt en voor sommige daarvan heb je supersterke hardware nodig. We staan nu niet bepaald aan de vooravond van de situatie waar mensen massaal RT gebruiken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 21:57
Net als AA vroeger. Er was ineens hardware die "free AA" kon. Weet ff niet meer bij welke GeForce die marketing kreet hoorde en "free" was het ook zeker niet maar het was wel de eerste keer dat een kaart door 2XAA niet gelijk helemaal door de knieën ging.

Daarvoor vond ik het leuk maar niet de moeite waard om daarvoor na een diashow te kijken. Net als nu met RT een beetje.

En Physx, shader 3.0, tesselation, eerste dx10/11 functies etc. Etc.

Ik hou nog steeds van Glide.... :)

[ Voor 12% gewijzigd door meljor op 01-04-2023 00:13 ]


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
meljor schreef op zaterdag 1 april 2023 @ 00:10:
Net als AA vroeger. Er was ineens hardware die "free AA" kon. Weet ff niet meer bij welke GeForce die marketing kreet hoorde en "free" was het ook zeker niet maar het was wel de eerste keer dat een kaart door 2XAA niet gelijk helemaal door de knieën ging.
Bij ATI, die had een stukje hardware waardoor je in feite haast gratis 4x AA had dacht ik. Als ik het mij niet vergis was dit de 1xxx generatie die dat kon. Dit zat ook op de XBox 360.

Helaas hadden ze dat in de HD 2xxx series er niet meer in waardoor deze met AA inkakte. Ik denk dat je Werelds moet hebben voor de details overigens.
Daarvoor vond ik het leuk maar niet de moeite waard om daarvoor na een diashow te kijken. Net als nu met RT een beetje.

En Physx, shader 3.0, tesselation, eerste dx10/11 functies etc. Etc.

Ik hou nog steeds van Glide.... :)
Tesselation was overigens best goed, alleen toen Nvidia het uiteindelijk ook ging ondersteuning werd het overmatig toegepast waardoor het alleen op hun hardware goed draaide.

DX10(.1) had best leuke dingen die voor extra performance konden zorgen, op AMD hardware :P.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sp3ci3s8472 schreef op zaterdag 1 april 2023 @ 01:34:
Tesselation was overigens best goed, alleen toen Nvidia het uiteindelijk ook ging ondersteuning werd het overmatig toegepast waardoor het alleen op hun hardware goed draaide.
Was dat niet niet met een Crysis (achtige) game :? Werd er ineens megaveel tessalation gedaan onder de grond ofzo / hele level waar het totaal niet nodig was....

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 21:57
Help!!!! schreef op zaterdag 1 april 2023 @ 08:55:
[...]

Was dat niet niet met een Crysis (achtige) game :? Werd er ineens megaveel tessalation gedaan onder de grond ofzo / hele level waar het totaal niet nodig was....
Ja klopt. Net als physx in een Batman spel waar ineens werkelijk over papier etc. Moest liggen wat ging bewegen als je er langs liep. Zoveel dat het zonder physx ondersteuning ineens saai leek of performance door de knieën ging.

Dat is ook het probleem bij alles wat NV bedenkt: leuke technologie maar dan zo over de top toepassen in games en pushen dat het TE wordt en het bovendien op Amd niet goed KAN draaien.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op zaterdag 1 april 2023 @ 08:55:
[...]

Was dat niet niet met een Crysis (achtige) game :? Werd er ineens megaveel tessalation gedaan onder de grond ofzo / hele level waar het totaal niet nodig was....
Crysis 2 ja.
En weer met Witcher 3 (Hairworks).
AMD forceert ook nog steeds "AMD optimised" tesselation in hun driver menu, hoewel het niet meer nodig is met RDNA.
napata schreef op vrijdag 31 maart 2023 @ 20:41:
[...]

We kunnen toch al raytracen? Ik gebruik het al jaren. Of bedoel je dan enkel raytracen zonder rasteroptie zoals Metro Exodus: EE? Dat gaat nog lang op zich laten wachten.
Het probleem is dat veel RT implementaties, zeker die met flinke Nvidia sponsoring, vaak gewoon slecht zijn. Het zijn veredelde tech demo's die misschien net met de allerbeste huidige Nvidia GPU + DLSS te spelen zijn. Verder vind ik ze vaak ook niet mooi. Het is vaak te glimmend en onnodig reflectief alsmede de impact is te groot. Zeker omdat een deel van wat Nvidia met RTX wil doen, ook shader based kan. Ik wil verder ook helemaal niet dat wateroppervlakte zich altijd als een spiegel gedraagt. Dat ziet er gewoon nep uit.

Wat ik wil is veel dynamischer licht in plaats van het behoorlijke licht/donker contrast waar we nu meestal mee zitten met shader based light. Dat is de grootste winst voor de minste impact. Zeker omdat met alle AI tools die het afgelopen jaar voorbij zijn gekomen, we echt richting fotorealisme gaan met textures. Je kan nu gewoon letterlijk iets fotograferen en importeren in een game engine als 3D objecten. Slechte lichteffecten gaan dan ook zo enorm opvallen.

En juist daar zal RT relevanter gaan worden denk ik. Relatief lichte, maar effectieve RT die objecten relatief grof kan mappen + shader based light om te besparen op ray cast en ray checks. Dat is wat Lumen ook doet en dat lijkt ook precies te zijn waar RDNA3 op mikte. Ik kan helaas de test niet vinden nu, maar HWU teste Lumen in Fortnite een tijdje terug en daar deed RDNA3 het een stuk beter dan in andere RT(X) titels. Volgens mij zat de RX7900XT op vergelijkbaar niveau met de RTX4070Ti. Nvidia is nog steeds beter in RT, maar het verschil was veel minder dan in veel andere games. Voor mij was het geen toeval. :)


RDNA3 haar RT is ook niet zo slecht. Het is vooral anders en dat werkt niet zo lekker met veel RTX implementaties. AMD heeft voor RDNA3 ook gedaan wat ze altijd doen, culling, culling en nog eens culling. Ze hebben enorm hun best gedaan om vooral zinloze berekeningen niet uit te hoeven voeren. Daarnaast hebben ze BvH creatie verbeterd en spelen ze heel wat met snelle datatoegang om tegen te checken. Daarom ook mede al die caches. Ze gaan zoals altijd voor het maximale uit hun hardware halen. Dat lijkt voor de shaders aardig mislukt te zijn. Tot dusver want als, grote als AMD hun compiling weet te verbeteren en die tweede SIMD32 sets beter aan het werk gaat zetten, dan zit er misschien nog wel wat in. Maar hun RT is niet slecht.

Nvidia daarentegen heeft ray casting wederom verdubbeld per RT core. Die kunnen dus gewoon veel meer rays casten dan AMD. Maar ik vermoed dat hun hybrid RT + shaders (dus vrijwel elke game) waar ze rays tegen shader based objecten testen, niet zoveel verbeterd is. Dat komt vermoedelijk omdat ze hun BvH creatie niet substantieel hebben aangepakt en verbeterd. Precies wat AMD dus wel gedaan heeft. Nvidia haalt hun winst dan ook vooral uit meer rays kunnen casten. Maar het schaalt zeker niet lineair met hun 2x ray cast verbetering. Turing naar Ampere was in dat aspect een grotere stap, mede omdat daar ook nauwelijks verbetering in clock speed was.

Hierom hebben ze het bij Nvidia waarschijnlijk nu over path tracing. Kost extreem veel rays en alleen Nvidia RTX40 kan het. Ik begrijp Nvidia ook wel omdat ze ook de professionele markt moeten bedienen. Render je nu CGI, dan is de RTX4090 met gigantische afstand de beste GPU daarvoor. Ik weet niet eens of de RX7900XTX zelfs de RTX3090Ti daarin kan benaderen, laat staan RTX40. Maar voor gaming vind ik het gewoon niet de goede aanpak. Het is iets dat nog (vele) generaties weg is.


Ik heb Metro Exodus EE verder niet (of een RT GPU), maar van wat ik weet is dat een van de meest gewaardeerde RT implementaties juist omdat het te draaien is. Een andere goede is nota bene Fortnight omdat Epic het met Lumen wel goed doet. Iets dat ik als zeer veelbelovend beschouw omdat dit de implementatie van RT en ook efficiënt gebruik van RT, toegankelijk gaat maken voor veel developers.

Dit is een leuk voorbeeld.



Ik gruwel er ook van dat zoveel mensen nu RT ook echt RTX noemen. Nvidia heeft enorm onrealistisch en slechte verwachtingspatroon geschapen, puur voor marketing redenen. Het is helemaal pijnlijk als je een Turing GPU hebt gekocht gebaseerd op die beloften en nu met een "RT" GPU zit die gewoon niet aankan wat Nvidia beloofte. En eigenlijk zijn GA106 (zeker) en GA104 (mede dankzij 8GB VRAM) ook twijfelachtig voor RT. Idem overigens ook voor N22 en N23, hoewel het daar minder speelde. N21 kan je misschien nog wat mee.

En als ik dan hoor dat ze voor Cyberpunk path tracing gaan introduceren, dan weet ik al hoe laat het is. Dat gaat vrijwel zeker een RTX4090 + DLSS3 vragen. :/


edit: Wat een verrassing. Nvidia claimt 16fps met een RTX4090 op 4K zonder DLSS3...
Natuurlijk ziet het er goed uit, maar we zijn niet eens in de buurt van GPUs krachtig genoeg om dit te kunnen doen.

[ Voor 4% gewijzigd door DaniëlWW2 op 04-04-2023 20:29 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 01:00

Damic

Tijd voor Jasmijn thee

@DaniëlWW2 daar klopt iets niet in die eerste scene (0:13). de schaduw van dat pikhouweel staat naar de verkeerde kant en is te recht als de zon vanvoor komt.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Damic schreef op zaterdag 1 april 2023 @ 11:02:
@DaniëlWW2 daar klopt iets niet in die eerste scene. de schaduw van dat pikhouweel staat naar de verkeerde kant en is te recht als de zon vanvoor komt.
Ik sloeg de eerste scene dan ook over omdat ik die ook niet erg goed vond. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 01:00

Damic

Tijd voor Jasmijn thee

ja die is wat over gesatureerd, maar dat zou wel kunnen als de zon heel laag staat. Any way ze moeten nu werken aan de reflecties en overgangen op die ijs mappen :( voor de rest ziet het er mooi uit maar om nou een RTX kaart tekopen meh

Discussie over rariteiten in games: Doet me denken aan de tijd van Far(t)Cry driver cheat

[ Voor 16% gewijzigd door Damic op 01-04-2023 11:11 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +4 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
Iemand de rant van AdoredTv al gezien?


Beetje dramatisch maar hij maakt een wel een aantal goede punten. Helaas heeft hij niet de update van Gamers Nexus gezien over de statement van AMD, blijkbaar is da eerst vanuit het Engels naar het Japans vertaald en toen weer naar het Engels dus er klopt weinig van.

Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Wat Adored niet lijkt te begrijpen is dat AD102 alleen rendabel is omdat het massaal gebruikt wordt in professionele toepassingen met CUDA. Niet voor niets gaan de presentaties van Nvidia tegenwoordig vrijwel exclusief over professionele toepassingen. AD102 is als de Hummer, een auto gebouwd voor het leger. Omdat ze hem toch al ontwikkeld hadden, verkochten ze hem ook maar aan burgers, maar als het leger hem niet had gewild, was hij nooit ontwikkeld.

Net zo goed zijn gamers vooral een manier om wat extra geld te verdienen van AD102, maar zou de chip nooit gemaakt zijn als de markt slechts uit gamers bestond.

AMD heeft momenteel geen goed alternatief voor CUDA, dus als ze een zeer grote chip zouden maken, dan zou het een verliesgevend prestigeproject zijn.

Je kunt volgens mij vrij makkelijk uittekenen wat AMD van plan is als je kijkt naar MI200 en hun EPYC CPU's, namelijk een chiplet-oplossing waar op basis van slechts een paar chiplets een grote range aan verschillende producten kunnen lanceren, waarbij de duurdere oplossingen steeds meer chiplets hebben.

Op de CPU-server-markt hebben ze met dat concept nu de beste oplossing en groeien ze als kool, en bij de client-CPU's hebben ze ook een uitstekend product.

Volgens mij ligt Lisa Su geen moment wakker van de vraag of ze wel kunnen concurreren met de 4090, maar wel of ze een goed schaalbare GPU-oplossing kunnen maken die straks massaal verkocht kan worden aan bedrijven om met ROCm berekeningen te doen. En waarbij ze met een paar chiplet-ontwerpen ook een hele range aan gaming-kaarten kunnen uitbrengen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
Ik volg het niet helemaal. AMD heeft RDNA en CDNA; op dit moment lijkt CDNA goed te gaan op de server markt. AMD hoeft helemaal niet met RDNA te focussen op compute.

RDNA3 met die dubbele shaders lijkt mij uiteindelijk beter voor compute en geeft weer occupancy problemen. Daarom vind ik het nog steeds een rare keuze dat AMD dat heeft gedaan.

Dat laatste dat Lisa blijkbaar weinig geeft om de gaming branch en dat RDNA waarschijnlijk als test is gebruikt voor gpu chiplets kan ik mij wel in vinden. Toch hoop ik stiekem dat ze iets met gaming willen blijven doen op een serieus niveau.

[ Voor 26% gewijzigd door Sp3ci3s8472 op 06-04-2023 23:37 ]


Acties:
  • 0 Henk 'm!

  • field33P
  • Registratie: Mei 2009
  • Laatst online: 14:13
Dat laatste dat Lisa blijkbaar weinig geeft om de gaming branch en dat RDNA waarschijnlijk als test is gebruikt voor gpu chiplets kan ik mij wel in vinden. Toch hoop ik stiekem dat ze iets met gaming willen blijven doen op een serieus niveau.
RDNA geeft AMD wel een stabiele bron van omzet voor de komende drie tot vijf jaar (lees: Xbox en PS5), en dat heeft met GCN (en Jaguar) destijds het bedrijf overeind gehouden. Ik neem aan dat het management dat in het achterhoofd houdt.

Acties:
  • +2 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Sp3ci3s8472 schreef op donderdag 6 april 2023 @ 15:31:
Iemand de rant van AdoredTv al gezien?
[YouTube: Radeon Surrenders to GeForce]

Beetje dramatisch maar hij maakt een wel een aantal goede punten. Helaas heeft hij niet de update van Gamers Nexus gezien over de statement van AMD, blijkbaar is da eerst vanuit het Engels naar het Japans vertaald en toen weer naar het Engels dus er klopt weinig van.
Hij heeft wel een punt dat Radeon nu net doet alsof dit altijd hun strategie is geweest. Dat is natuurlijk niet zo, de 7900 XTX met 24 GB was gewoon bedoeld om het gevecht aan te gaan met de 4090, maar ja, slechte clock speed, TDP probleem, nieuwe "dubbele" CUs die maar +20% leveren t.o.v. "enkele" CUs, etc. de uitvoering was dit keer gewoon niet goed.

Die Radeon problemen kunnen komen door chiplets, maar het idee dat je met een grotere chiplet deze problemen niet zou hebben is natuurlijk onzin. Zegt Jim: Ja, ze kunnen makkelijker groter dan 300 mm2, nou duidelijk niet dus want 7900XTX heeft al moeite met 355W. De performance / Watt van de 4090 en 4080 is gewoon een stuk beter deze generatie!

En qua "winst" operating income, is het AMD gaming segment toch maar mooi van verliesgevend in 2020 naar bijna +1 miljard gegaan in 2021 en 2022. Hoezo PC gaming afschaffen? Het is niet hun focus, maar zolang ze er aan verdienen, gaan ze ermee door. Nou zegt Jim dat dat maar 200 miljoen is, misschien 100 miljoen, maar de ~50% bruto marge (gross margin) zal wat hoger zijn voor PC kaarten en wat lager voor Sony en Microsoft, omdat die grotere volumes afnemen en precies weten wat de AMD winst marges zijn. Dus van de 1,2 miljard omzet non-console Gaming is ten minste 400 miljoen gross margin. Er zijn dagen dat ik het niet op de bank heb staan.

Ik verwacht nog steeds dat AMD goede 7600XT (Navi33) en 7800XT (Navi32) kaarten gaat uitbrengen later dit jaar, die de hebberigheid van NVidia hopelijk een beetje zullen inperken. Ze wachten ermee zodat ze hun RX 6000 kaarten kunnen verkopen, misschien wel tot Juni. Tot die tijd zullen de GPU prijzen van Nvidia, en deels die van AMD, belachelijk blijven.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Zoals meestal heeft ie een aantal goede punten en slaat ie tegelijkertijd ook de plank mis.

Ze gaan uiteraard niet stoppen met gaming want de consoles zijn veel te belangrijk voor ze en een goede bron van inkomsten. Veel gaming R&D wordt daar al gedaan en eigenlijk betaald door Sony/MS.
PC gaming gaan ze absoluut niet mee stoppen. Want waarom zou je uit een interessante markt terugtreden als je de IP en R&D grotendeels al hebt en gewoon winst maakt ?

AMD focused logischerwijs vooral op de zeer winstgevende zakelijke markt en hoe sterker en gezonder ze daar worden, hoe groter ik de kans acht dat ze ook in de PC gaming markt weer echt vooraan mee kunnen gaan doen.

AMD is nog geen Intel of nVidia en moet haar middelen verstandig inzetten.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Intel moet hun middelen ook verstandig inzetten, want die maken verlies.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 19-05 07:09

SG

SG surft naar info hardewaren

sunsmountain schreef op vrijdag 7 april 2023 @ 14:33:
Hij heeft wel een punt dat Radeon nu net doet alsof dit altijd hun strategie is geweest. Dat is natuurlijk niet zo, de 7900 XTX met 24 GB was gewoon bedoeld om het gevecht aan te gaan met de 4090, maar ja, slechte clock speed, TDP probleem, nieuwe "dubbele" CUs die maar +20% leveren t.o.v. "enkele" CUs, etc. de uitvoering was dit keer gewoon niet goed.
mij lijkt chiplet ook andere dan tile. De interchiplet is verder weg dus hogere latency en ook meer serieal connect ook al zijn het veel differential pairs. Tiles lijken mij dichter bij elkaar te liggen apple silicon maakt een brede side parallel interconnect over korte afstand. Ik vermoed dat die MCD de afstand leid tot mee power draw ivm de afstand die overbrugd moet worden en ook veel interconnecties zijn.
Die Radeon problemen kunnen komen door chiplets, maar het idee dat je met een grotere chiplet deze problemen niet zou hebben is natuurlijk onzin. Zegt Jim: Ja, ze kunnen makkelijker groter dan 300 mm2, nou duidelijk niet dus want 7900XTX heeft al moeite met 355W. De performance / Watt van de 4090 en 4080 is gewoon een stuk beter deze generatie!
makkelijker groter houd in meerdere chiplets die gezamelijk een zeer onpraktische grote monolitic die kunnen verkrijgen. Maar groter betekend ook dat met lagere klok een tier kleiner kan overtreffen en dat houd in dat stuk lager uitkomt in de TDP performance curve. Dus vermogen hoefd niet probleem te zijn. Maar als een fab af oc blackwell 600watt 700 moet trekken om triple GCD gevaarte te evenaren met 3.6ghz waar tri-gcd onder de 3ghz en 600watt de kroon pakt.
Is meer het grote probleem of ze de multi gcd schaling oplossen
En qua "winst" operating income, is het AMD gaming segment toch maar mooi van verliesgevend in 2020 naar bijna +1 miljard gegaan in 2021 en 2022. Hoezo PC gaming afschaffen? Het is niet hun focus, maar zolang ze er aan verdienen, gaan ze ermee door. Nou zegt Jim dat dat maar 200 miljoen is, misschien 100 miljoen, maar de ~50% bruto marge (gross margin) zal wat hoger zijn voor PC kaarten en wat lager voor Sony en Microsoft, omdat die grotere volumes afnemen en precies weten wat de AMD winst marges zijn. Dus van de 1,2 miljard omzet non-console Gaming is ten minste 400 miljoen gross margin. Er zijn dagen dat ik het niet op de bank heb staan.
die productie efficientie inslag uit hun dark ages kan ook hun beleid cultuur geworden zijn. Ook omdat ze reserves moeten opbouwen en ook rekening moeten houden dat intel een goede comeback kan krijgen en dat het dan stuk moeilijker gaat. Wat nV doet is commercieel meer dure prestige imago gevoede beleid cultuur van moet de kroon pakken. AD102 is gewoon enorm duur op 4n dat tdp meevalt komt doordat AMD niet op de hielen zit. Was dat wel zo dan zou ad102 flink stuk verder gekieteld worden en dan 600watt optie. Amd heeft die drive niet. Is resource waisting.
Die XTX heeft ondanks dat target niet haald genoeg marge om goed in tier lager mee te doen.
Intel is cpu nu wel goed betaalbaar spreekt de budget gedreven markt aan maar ASP zijn lager veel omzet weinig winst. Den dat nV met dure die niet in die situatie willen vallen.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nieuwe RX6800 vs. RTX3070 test met nieuwe games.
Tja wat je verwacht. De RX6800 was altijd al iets sneller, maar die loopt flink uit zodra de 8GB aan VRAM te weinig is. Tientallen procenten in gemiddelden en in lows is het nog veel groter. Met name met RT kan je echt gestotter met de RTX3070 krijgen waardoor de RX6800 vaak alsnog beter is. De RTX3070 wint uiteraard met RT als het binnen de 8GB aan VRAM blijft. Ook lijkt Hogwarts Legacy een aanpassing te hebben gehad waardoor je nu flinke texture pop in krijgt in plaats van gestotter. Het verschil zie je meteen zo naast elkaar.




Tweede is dat het me op begint te vallen dat er de laatste tijd weer een hele bak N21 GPU's verschijnen. Chinees nieuwjaar is voorbij en inmiddels zijn we op het moment dat iets verscheept had kunnen worden en hier kan arriveren. Maar toch. Want het is niet alleen dat ze er nog steeds zijn, maar de prijzen ook steeds beter worden. Als ik zie dat je een RX6800 voor iets meer dan €550 kan krijgen, nota bene ook nog eens een Sapphire, tja dan begin ik me af te vragen wat nu de status van RDNA2 inventaris alsmede wanneer N32 nu gaat komen. Want het lijkt erop dat er nog meer is en dat de prijzen nog lager moeten om er vanaf te komen. De vraag is waarom? Verkoopt het totaal niet of is het nu echt inventaris opschonen voor N32?

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op maandag 10 april 2023 @ 14:15:
Als ik zie dat je een RX6800 voor iets meer dan €550 kan krijgen, nota bene ook nog eens een Sapphire, tja dan begin ik me af te vragen wat nu de status van RDNA2 inventaris alsmede wanneer N32 nu gaat komen. Want het lijkt erop dat er nog meer is en dat de prijzen nog lager moeten om er vanaf te komen. De vraag is waarom? Verkoopt het totaal niet of is het nu echt inventaris opschonen voor N32?
Of ze zijn aan het respinnen en produceren meer Navi 2x om die tijd te overbruggen.

Het is in elk geval nogal vreemd dat het zo lang duurt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op maandag 10 april 2023 @ 14:39:
[...]


Of ze zijn aan het respinnen en produceren meer Navi 2x om die tijd te overbruggen.

Het is in elk geval nogal vreemd dat het zo lang duurt.
Dan moeten we wel een enorme sprong in shipments van AMD gaan zien voor Q1 2023 als Jon Peddy zijn rapport publiceert. En alsnog kan het dan alsnog oplopende N31/N32 en N33 productie zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 23-05 18:12
DaniëlWW2 schreef op maandag 10 april 2023 @ 14:15:
Nieuwe RX6800 vs. RTX3070 test met nieuwe games.
Tja wat je verwacht. De RX6800 was altijd al iets sneller, maar die loopt flink uit zodra de 8GB aan VRAM te weinig is. Tientallen procenten in gemiddelden en in lows is het nog veel groter. Met name met RT kan je echt gestotter met de RTX3070 krijgen waardoor de RX6800 vaak alsnog beter is. De RTX3070 wint uiteraard met RT als het binnen de 8GB aan VRAM blijft. Ook lijkt Hogwarts Legacy een aanpassing te hebben gehad waardoor je nu flinke texture pop in krijgt in plaats van gestotter. Het verschil zie je meteen zo naast elkaar.

[YouTube: 16GB vs. 8GB VRAM: Radeon RX 6800 vs. GeForce RTX 3070, 2023 Revisit]


Tweede is dat het me op begint te vallen dat er de laatste tijd weer een hele bak N21 GPU's verschijnen. Chinees nieuwjaar is voorbij en inmiddels zijn we op het moment dat iets verscheept had kunnen worden en hier kan arriveren. Maar toch. Want het is niet alleen dat ze er nog steeds zijn, maar de prijzen ook steeds beter worden. Als ik zie dat je een RX6800 voor iets meer dan €550 kan krijgen, nota bene ook nog eens een Sapphire, tja dan begin ik me af te vragen wat nu de status van RDNA2 inventaris alsmede wanneer N32 nu gaat komen. Want het lijkt erop dat er nog meer is en dat de prijzen nog lager moeten om er vanaf te komen. De vraag is waarom? Verkoopt het totaal niet of is het nu echt inventaris opschonen voor N32?
Een laatste stuiptrekking wellicht? 550€ voor een 6800 non-XT is op het moment ook niet per sé de super deal meer, tenzij het een Sapphire Nitro kaart is. Maar ik gok eerder de Pulse, als ik naar de Duitse prijzen kijk (529, bij MF).

Een maand of twee geleden hadden ze daar overigens ruimschoots XFX en Asrock kaarten maar op het moment niks meer. Behalve dan een goed geprijsd Merc 6800 XT. Voor die 60€ meer zou dat mijn keuze zijn, dat is immers het topmodel van XFX vs de instapper van Sapphire.

Als je het mij vraagt is de spoeling nu dus echt dun en lijkt het er eerder op alsof de prijzen amper verder willen zakken, juist om die reden. Maar ik gun het iedereen dat er nog een batch komt voor een leuke prijs!

Acties:
  • +1 Henk 'm!

  • snakeye
  • Registratie: Januari 2000
  • Laatst online: 24-05 20:36
Cid Highwind schreef op maandag 10 april 2023 @ 23:03:
[...]
Een laatste stuiptrekking wellicht? 550€ voor een 6800 non-XT is op het moment ook niet per sé de super deal meer, tenzij het een Sapphire Nitro kaart is. Maar ik gok eerder de Pulse, als ik naar de Duitse prijzen kijk (529, bij MF).

Een maand of twee geleden hadden ze daar overigens ruimschoots XFX en Asrock kaarten maar op het moment niks meer. Behalve dan een goed geprijsd Merc 6800 XT. Voor die 60€ meer zou dat mijn keuze zijn, dat is immers het topmodel van XFX vs de instapper van Sapphire.

Als je het mij vraagt is de spoeling nu dus echt dun en lijkt het er eerder op alsof de prijzen amper verder willen zakken, juist om die reden. Maar ik gun het iedereen dat er nog een batch komt voor een leuke prijs!
Voor die prijs wellicht geen super deal. Maar denk niet dat op korte termijn veel goedkoper gaat worden.
Rond de jaarwisseling waren er een paar modelen korstondig rond de 550 euro maar zodra die weg waren schoot de prijs weer omhoog todat er recentelijk weer een batch Sappire pulse beschikbaar kwam.

Er is echter verder weinig intressants te koop in mijn ogen rond dat prijs punt. Een RTX3070Ti duurder meer stroom verbruik en maar 8GB geheugen.

Daarom heb ik zelf ook een RX6800 sapphire pulse aangeschaft. Ik was het wachten zat en het is zeer onduidelijk wat de opvolgens 7700XT en 7800XT gaan doen. Max +15-20 performance voor nog onbekende prijs als we de geruchten mogen geloven.

Die XFX Merc kaart ziet er inderdaad super uit. Ik heb dan ook lang lopen twijfelen maar aangezien ik dan ook mijn voeding moest vervangen kwam voor mij in dat geval de totaalprijs al weer boven de 700 euro uit.

Het verschil tussen de pulse en de Nitro is overigens heel klein in mijn ogen. +50 hogere baseclock + 20 hogere boostclock. Cooler is zo te zien nagenoeg hetzelfde. De nitro is wat meer bling maar dat is mij het prijs verschil niet waard. Vanuitgaande dat deze uberhaupt in nederland te verkrijgen is.

Atari 2600 @ 1,1 Hz, 1 Bits speaker, 16 Kb mem, 8 kleuren..


Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 23-05 18:12
snakeye schreef op dinsdag 11 april 2023 @ 10:20:
[...]


Voor die prijs wellicht geen super deal. Maar denk niet dat op korte termijn veel goedkoper gaat worden.
Rond de jaarwisseling waren er een paar modelen korstondig rond de 550 euro maar zodra die weg waren schoot de prijs weer omhoog todat er recentelijk weer een batch Sappire pulse beschikbaar kwam.

Er is echter verder weinig intressants te koop in mijn ogen rond dat prijs punt. Een RTX3070Ti duurder meer stroom verbruik en maar 8GB geheugen.

Daarom heb ik zelf ook een RX6800 sapphire pulse aangeschaft. Ik was het wachten zat en het is zeer onduidelijk wat de opvolgens 7700XT en 7800XT gaan doen. Max +15-20 performance voor nog onbekende prijs als we de geruchten mogen geloven.

Die XFX Merc kaart ziet er inderdaad super uit. Ik heb dan ook lang lopen twijfelen maar aangezien ik dan ook mijn voeding moest vervangen kwam voor mij in dat geval de totaalprijs al weer boven de 700 euro uit.

Het verschil tussen de pulse en de Nitro is overigens heel klein in mijn ogen. +50 hogere baseclock + 20 hogere boostclock. Cooler is zo te zien nagenoeg hetzelfde. De nitro is wat meer bling maar dat is mij het prijs verschil niet waard. Vanuitgaande dat deze uberhaupt in nederland te verkrijgen is.
Ik snap je overwegingen volledig. Stond ook voor dezelfde keuze begin van het jaar en heb een goede deal kunnen maken. Nvidia kwam sowieso niet in aanmerking, maar die 8GB speelden ook zeker een rol.

Die kloksnelheden zouden mij ook om het even zijn, dat is allemaal geneuzel in de marge. Het belangrijkste is een goede en stille koeler. Ik dacht dat de Pulse daar wat minder presteerde dan de Nitro modellen. Bij XFX zijn er bijvoorbeeld ook twee koelers, waarvan de betere in twee varianten is, zonder RGB (QICK) en met RGB (MERC).

Als je nu een GPU moet/wilt kopen, zou ik het nog altijd de voorkeur geven boven de langzamere kaarten, of de duurdere. In ieder geval wanneer je anders aan een nieuwe voeding zou moeten :) De 6800 is ook qua verbruik een erg fijne kaart, zeker als je hem nog van een lagere spanning kan voorzien.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
De 6800 zal nog wel tot 18 Juni een goede koop blijven, dan is hopelijk de 7800XT (Navi32) op de markt. Ook 60 CU en 16GB, maar de CU zijn RDNA3.

MSRP ~$599, als duurder dan waarschijnlijk niet zo'n goede koop.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes

Pagina: 1 ... 86 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.